Macchine che pensano:
dalla cibernetica alla coscienza artificiale

di
Vincenzo Tagliasco
(Cattedra Bioingegneria Università degli Studi di Genova)

Annamaria D'Ursi
(Content provider per sistemi audiovisivi)

Riccardo Manzotti
(LIRA-LAB del DIST Università di Genova)

Macchine pensanti: i loro primi cinquant'anni

La storia delle macchine pensanti è una storia che si sviluppa nella seconda metà del Novecento. Il suo percorso non è affatto lineare perché via via tecnologia e discipline della mente umana si chiariscono reciprocamente ambiti e definizioni. A loro volta, i mass media (insieme alla forza prorompente del cinema fantascientifico) propongono miti, esaltano successi e creano scenari non sostenibili dal punto di vista realizzativo. Le delusioni per risultati sperati non raggiunti sono ancora più cocenti e il percorso è tutto un susseguirsi di affannose accelerazioni e repentine scomparse dalla scena.

Tuttavia cinquant'anni di storia hanno permesso di definire chiaramente il quadro di riferimento: il progettista di macchine che pensano non confonde più macchine ‘dal comportamento intelligente' con macchine senzienti, cioè dotate di una coscienza artificiale. Ancora nel 1982 il biofisico Antonio Borsellino chiamato a parlare sul tema "Dall'intelligenza naturale a quella artificiale", sottolineava, infastidito, che le domande che gli rivolgevano erano sempre le stesse: "Un calcolatore può acquisire coscienza di sé (e come può se ‘sa' così poco di se stesso, per ora)? può un calcolatore formulare giudizi estetici o avere sentimento religioso? Avremo anche un'estetica artificiale e una religione artificiale?"

Basta scorrere i titoli delle principali riviste e dei quotidiani in questi ultimi cinquant'anni di storia per renderci conto di questo susseguirsi di corsi e ricorsi. Per esempio, in occasione del progetto giapponese dei calcolatori della quinta generazione, si ebbe uno straordinario picco di interesse per le macchine pensanti:

"Si ipotizza una coscienza artificiale. Il silicio intelligente sostituirà l'uomo?" (Il Secolo XIX, 1982), "Ragioniamo, disse il computer" (l'Unità, 1983), "Altro che cervello, è un computer!" (L'Espresso, 1986).

Il ruolo del calcolatore elettronico è stato determinante in questo progressivo processo di chiarificazione: ha creato quel substrato comune sul quale tecnologi, scienziati e umanisti hanno potuto confrontarsi, ma soprattutto ha dato l'occasione a filosofi, psicologi e neuroscienziati di formulare teorie che l'elaboratore stesso avrebbe potuto validare o confutare.

In questi cinquant'anni abbiamo assistito all'avvento della cibernetica, della bionica, della robotica, delle reti neurali, della loro scomparsa e del loro riapparire sotto la dizione di connessionismo Ci hanno annunciato i calcolatori della quinta generazione e, prima che essi si materializzassero, i biochip ci sono stati presentati come i componenti dei calcolatori della sesta generazione. Abbiamo addirittura intravisto macchine pensanti virtuali nei robot-software e nei virus che infestano Internet, suggestionati, forse, dalle inquietanti creature della Vita Artificiale. Ma questi percorsi, ancorché tortuosi e ricchi di vicoli ciechi, hanno permesso di rivisitare migliaia di anni del pensiero dell'essere umano, intuizioni e idee di giganti che avevano a disposizione solo le loro capacità di introspezione e di comprensione del mondo e di loro stessi. Sicuramente il calcolatore elettronico non è stato decisivo in questo processo di chiarificazione, ma è stato il deus ex machina cha ha permesso una nuova riflessione e sistematizzazione delle discipline relative allo studio della mente e del cervello. La filosofia (o le filosofie) della mente, la scienza cognitiva, la psicologia cognitiva e le neuroscienze sono, oggi, in grado di definire ambiti e contesti in cui il costruttore dovrà muoversi, anche se, paradossalmente, il calcolatore elettronico potrebbe non essere il componente d'elezione attorno al quale progettare macchine intelligenti o coscienti.

Dall'automa di intrattenimento al robot lavoratore

 Fino all'Ottocento i costruttori di ‘macchine inutili', di tipo zoomorfo e antropomorfo, venivano finanziati solo se i loro automi erano in grado di divertire e stupire. Correttamente, Vittorio Marchis ha introdotto il termine ‘machina ludens' per definire questo strano settore ricco di strutture artificiali impiegate nei teatri, nelle processioni e cerimonie religiose, nei palazzi di re e principi, nei salotti e nelle camere da giochi ove si volevano stupire ospiti di riguardo. La macchina era intesa come spettacolo e l'interpretazione è appropriata in epoche in cui lo spettacolo offerto da oggetti inanimati, date le tecniche a disposizione, poteva essere realizzato solo attraverso l'impiego di simulacri articolati (rigorosamente tridimensionali) di uomini e animali.

L'automa si distingue dalla statua perché, pur evocando lo stesso fascino antropomorfo ma essendo dotato di articolazioni, riesce a dare l'idea del movimento. A differenza della marionetta, anch'essa in grado di simulare il movimento, l'automa non ha bisogno di un controllore umano che ne manovri i fili o le leve. L'automa fruisce di vita artificiale alimentata dall'energia meccanica imprigionata in una molla, in un peso o in un serbatoio d'acqua.

Il passaggio dall'automa di intrattenimento al robot in grado di lavorare avvenne all'inizio del Novecento. E' difficile individuare i motivi che hanno causato questa svolta. Tuttavia è innegabile che l'Ottocento, con l'avvento delle grandi ideologie legate al capitalismo, al socialismo e al materialismo storico, aveva posto le premesse per una sensibilizzazione sulle tematiche del lavoro. Inoltre, il dibattito sulla schiavitù fu al centro dell'attenzione non solo degli ambienti culturali più sofisticati, ma di ampi strati dell'opinione pubblica. Il panorama culturale doveva confrontarsi con il susseguirsi spasmodico delle varie fasi della rivoluzione industriale, delle nuove ideologie sociali-politiche e dell'approccio liberale nei confronti della schiavitù. Lungi dallo stabilire delle relazioni causa-effetto, è inevitabile ricordare che già nella seconda metà del secolo XVIII, l'alto prezzo raggiunto dagli schiavi cominciava a sollevare i primi dubbi sull'economicità del loro impiego. In questo clima socio-economico, Karel Capek intuì le possibilità insite nella costruzione di esseri artificiali più economici dell'essere umano, ma in grado di eseguire gli stessi compiti. Nel dramma R.U.R. [1920] di Capek è riportato il seguente dialogo:

HELENA: Perché non nascono più bambini?

DOTTOR GALL: Non sappiamo, signora Helena.

HELENA: Mi dica!

DOTTOR GALL: Perché si fanno i Robot. Perché c'è esuberanza di forze lavorative.....

Valutazioni economiche e regole di mercato guidano la progettazione e propongono specifiche di funzionalità di robot da immettere sul mercato del lavoro. Successivamente, nel film Metropolis [Fritz Lang, 1926], Rotwang, il geniale inventore costruttore di robot, dice a Fredersen, padrone della centrale elettrica e signore della città: "Ho costruito una macchina a immagine dell'uomo, che non si stanca mai e non fa mai un errore. [...] D'ora in poi non avremo più bisogno di operai! [...] Non è valsa forse la pena di aver perso una mano per aver creato l'operaio del futuro - il robot?". Il regista non si sofferma più di tanto sui principi di progettazione: bastano solo poche immagini che, però, condizioneranno l'immaginario letterario e cinematografico per tutto il XX secolo.

Nel passaggio dalla fantasia alla realtà, il concetto di automa assume nuove connotazioni. Il vecchio giocattolo meccanico viene collegato - diventando robot - al mondo della produzione. I telai automatici, il tornio automatico, il robot e l'automa hanno in comune non solo l'attitudine al lavoro; essi sono fatti con gli stessi materiali, con le stesse metodologie e tecniche meccaniche. Esiste un continuum culturale tra il telaio meccanico e la struttura del corpo dell'automa e del robot.

Fra l'Ottocento e il Novecento inizia la gestione degli automi

 Parallelamente alle problematiche della struttura meccanica dell'automa (fatto di leve, bielle, camme, cinematismi, tutto l'armamentario delle tecnologie meccaniche) comincia a farsi strada, a cavallo tra l'Ottocento e il Novecento, la problematica della gestione automatica di tale complessità. A questo punto appaiono i primi rudimentali frammenti di quelli che sarebbero stati considerati i prolegomeni di un ‘sistema nervoso per corpi meccanici'. Con un certa libertà è possibile considerare la macchina analitica di C. Babbage come il primo nucleo di un'imitazione della corteccia cerebrale e il regolatore di J. Watt come l'equivalente meccanico di un riflesso spinale.

L'apparente forzatura sta a indicare che, nella storia degli automi, non avviene - almeno per quanto concerne l'analogia con la struttura nervosa dell'essere umano - alcun tentativo di simulare il processo evoluzionistico degli organismi viventi. Negli automi il tentativo di simulare la corteccia si verifica quasi contemporaneamente a quello relativo ai riflessi spinali, a differenza di quello che è avvenuto nell'evoluzione delle specie animali. Ciò è dovuto al fatto che il patchwork tecnologico su cui gli automi sono costruiti dipende dall'evoluzione dei singoli pezzi, dei singoli componenti. Babbage non pensava che lo storico della scienza avrebbe interpretato e collocato la sua macchina analitica nella storia dei cervelli artificiali, né tanto meno Watt pensava di avere costruito il primo riflesso di un robot meccanico.

Il secolo XX: gli automi aspirano a diventare macchine pensanti

 Nel secolo XX, la storia della costruzione di manufatti che presentano le sembianze di esseri umani subisce una profonda cesura rispetto. Pittori, scultori, costruttori di giocattoli e di macchine sceniche, orologiai e sapienti artigiani si sono impegnati da tremila anni nella riproduzione delle fattezze proprie dell'essere umano. Nel frattempo filosofi, medici e scienziati si sono interrogati sul funzionamento del corpo e della mente dell'essere umano. Ma solo all'inizio del XX secolo i costruttori di artefatti dalle sembianze umane e gli studiosi della specie umana hanno avuto l'occasione di incontrarsi per dare luogo a un nuovo sfida: la progettazione e costruzione di esseri umani artificiali in grado di pensare.

D'altra parte nell'ultimo grande romanzo che si era interessato della costruzione di androidi nell'Ottocento (Eve future di Villiers del L'Isle-Adams, 1868), la descrizione della struttura fisica del corpo dell'andreide Hadaly era dettagliata e vagamente scientifico-tecnologica. Tuttavia per costruire la mente si faceva ancora riferimento allo spiritismo.

Hadaly è l'epigono più sofisticato del sogno maschilista di possedere una donna soggiogata, anche se artificiale; in Metropolis il robot Maria viene utilizzato dal potere per raggiungere i suoi scopi, anche i più abbietti. In R.U.R. un altro inconfessato sogno dell'essere umano ‘predatore' viene finalmente realizzato: costruire degli schiavi non umani che, in quanto costruiti, non avrebbero comportato problemi etici e morali. Tra la fine dell'Ottocento e l'inizio del Novecento, con il rinnovato interesse per le grandi utopie, la tecnologia sembrava costituire il mezzo d'elezione di una futura umanità, le cui intrinseche attitudini predatorie avrebbero potuto venire stemperate delegando a creature artificiali il compito di assorbire la volontà di potere e di sopraffazione propria degli umani. Sullo sfondo cominciava a delinearsi una organizzazione del lavoro e della fabbrica dominata dalla massificazione e dall'alienazione.

I timori sull'uso improprio della tecnologia senza limiti e controllo avrebbero trovato in Mondo Nuovo (Aldous Huxley, 1932), Tempi moderni (Charlie Chaplin, 1936) e 1984 (George Orwell, 1949) l'espressione artistica più efficace per la creazione di simboli e miti che entreranno nell'immaginario collettivo.

All'inizio del secolo XX, la costruzione di ‘esseri artificiali che pensano' segna la transizione degli automi dalle aree del divertimento e della ‘machina ludens' a quelle della schiavitù, del lavoro e del nuovo industrialismo. Eppure i nuovi robot erano rigorosamente dualisti, nel senso cartesiano del termine. Non ci sarebbero stati ostacoli filosofici e teorici alla loro concezione già nel Settecento e nell'Ottocento.

La mente per gli esseri artificiali prende avvio negli "anni ‘40"

 Durante il pieno trionfo del paradigma meccanicista dell'industrialismo, illuminato dall'elettricità, non esistevano strumenti culturali per formulare le basi tecnologiche necessarie alla costruzione di una mente per i robot. Mary Shelley, per il mostro di Frankenstein, deve ricorrere a un cervello già pronto su un tavolo di obitorio, usando l'elettricità per riportarlo in vita; anche Fritz Lang crede nelle capacità vitali dell'energia elettrica per dare vita e pensiero al robot Maria. Villiers del L'Isle-Adams per dare una coscienza all'andreide Hadaly deve ricorrere a pratiche esoteriche, Karel Capek sposa la teoria che per far pensare i robot bisogna costruirli con materiale biologico (anche se costruito in laboratorio). La grande intuizione Cartesiana della separazione del corpo e della mente viene introiettata da letterati e artisti; ma mentre la costruzione del corpo può utilizzare gli incredibili progressi della chimica, della meccanica e dell'elettrotecnica, la costruzione della mente non può poggiarsi su alcun substrato tecnico-scientifico.

D'altra parte, solo verso la fine dell'Ottocento, lo studio della mente  cominciava a fare ricorso a metodologie sperimentali e quantitative. Niente di cui stupirsi. Ancora nel XVI secolo il medico aretino Andrea Cisalpino (che dimostrò l'esistenza della circolazione polmonare), facendosi interprete di idee condivise dall'immaginario popolare e dalla cultura dei saggi, riteneva che il motore dell'attività mentale fosse il cuore. Andrea Vesalio - l'anatomista fiammingo che, sempre nello stesso secolo (il XVI), si era inventato l'iconografia medica moderna sui tavoli anatomici su cui venivano sezionati i corpi maschili e femminili dei condannati a morte - era in grado di capire i percorsi delle vene e delle arterie, di penetrare la logica delle articolazioni e il ruolo dei grandi organi interni, ma poteva dare del cervello soltanto una descrizione esteriore, non avendo la più lontana intuizione dell'esistenza dei neuroni come costituenti la massa cerebrale.

Solo l'avvento del calcolatore elettronico creò le condizioni culturali per poter concepire la costruzione di macchine pensanti. Durante la Seconda Guerra Mondiale si delineò la matrice tecnico-scientifica che avrebbe dovuto fornire la mente agli esseri artificiali; ovviamente nella più rigorosa adesione all'impostazione dualista di una rigida separazione tra corpo e mente.

Le discipline cui ispirarsi nella costruzione di menti artificiali: l'elettro-neurofisiologia

 Nel 1943 Warren S. Mc Culloch, un neurofisiologo, e Walter Pitts, un matematico, descrissero dei principi di base necessari per realizzare delle macchine capaci di simulare l'attività cerebrale. A quell'epoca si ignorava il ruolo dell'informazione chimica nelle reti neurali (la psicofarmacologia nascerà nel 1952) e si riteneva che il funzionamento dei neuroni potesse essere simulato con dei modelli esclusivamente elettrici. Si conosceva l'estrema complessità della struttura cerebrale, ma si pensava che fosse solo una questione di tempo il mettere a punto reti via via sempre più complesse. A quell'epoca la neurofisiologia si identificava con l'elettro-neurofisiologia. Nei laboratori di neurofisiologia l'avvento dell'amplificatore elettronico aveva dischiuso degli scenari inimmaginabili nei primi decenni del XX secolo: il neurofisiologo progettava esperimenti sempre più elaborati, gli animali venivano addestrati a eseguire compiti assegnati, poi l'amplificatore elettronico permetteva di registrare l'attività elettrica all'interno del singolo neurone o di gruppi contigui di neuroni. Ancora negli anni Sessanta la Digital Equipment costruiva i PDP-8 tenendo conto del mercato della neurofisiologia e, nel 1969, i primi PDP-12 erano stati progettati in base alle richieste che venivano dai laboratori di elettro-neurofisiologia.

Le discipline cui ispirarsi nella costruzione di menti artificiali: le varie psicologie

 Fino alla fine dell'Ottocento sembrava inconcepibile applicare i metodi dell'analisi scientifica - che avevano dato luogo all'avanzamento delle conoscenze in astronomia, fisica, chimica e biologia - anche allo studio della mente umana. Lo studio della mente era stato riserva privilegiata per l'approccio filosofico.

D'altra parte nemmeno l'invenzione del microscopio era stata sufficiente per scoprire i neuroni in quella massa molle e spugnosa chiamata cervello. Soltanto grazie a Camillo Golgi e all'invenzione di tecniche adeguate di colorazione con il nitrato d'argento si poterono vedere i neuroni (Golgi, nella conferenza per il premio Nobel, attribuitogli insieme a Ramon y Cajal nel 1906, sostenne che le cellule nervose formano un tutto indissociabile, una rete ininterrotta). Come avrebbero potuto i filosofi fare di più? Si ritiene, convenzionalmente, che l'anno di nascita della psicologia cognitiva sia il 1879, quando Wilhelm Wundt fondò il primo laboratorio di Psicologia a Lipsia, in Germania. Wilhelm Wundt era un professore di filosofia e, forse per questo, il metodo di elezione per i primi psicologi fu l'introspezione: una introspezione che cercava di venire oggettivizzata attraverso prassi sperimentali e protocolli in cui il soggetto umano doveva riportare le sue esperienze consce dal momento della presentazione dello stimolo fino alla risposta finale. Poi, nei primi decenni del XX secolo, si assistette a un positivo, anche se aspro, confronto tra varie impostazioni culturali e metodologiche nel settore della psicologia: negli USA era prevalente l'approccio influenzato dalle dottrine del pragmatismo e del funzionalismo che avrebbe dato luogo a teorie dell'apprendimento utilizzate in ambito scolastico, mentre in Europa l'introspezione, nei vari laboratori, portava a risultati contradditori e non sembrava suggerire convincenti spiegazioni al funzionamento della mente. Attorno al 1920 James B. Watson riesce a spazzar via non solo l'introspezione ma anche ogni tentativo di sviluppare teorie degli atti mentali. Dalle sue ricerche derivò il comportamentismo che fu egemone per circa trenta anni. Secondo il comportamentismo era importante solo lo studio del comportamento e non i meccanismi mentali che sono alla base del comportamento stesso.

Le prime macchine cibernetiche

 Negli anni Trenta il panorama tecnologico venne modificato dalla comparsa dell'elettronica. L'amplificatore elettronico poteva venire retroazionato in modo relativamente facile. Gestire segnali elettrici risultò più facile che non controllare parti meccaniche in movimento. Inoltre, il tutto poteva venire realizzato in dimensioni contenute. Soprattutto, si ritenne che capacità logiche e intellettive potessero venire implementate in macchine elettroniche.

L'amplificatore elettronico è in grado di permettere il collegamento tra il segnale, portatore della rappresentazione di un movimento, e i motori elettrici che dovevano realizzare fisicamente tale movimento. E' la prima volta che un evento del genere si verifica nella storia della costruzione di macchine. Prima di allora bisognava creare opportune strutture meccaniche e sofisticati cinematismi (il tamburo irto di punte dei carillon o le strisce di carta perforata delle pianole automatiche che rallegravano i cortili di Parigi) per poter introdurre nella macchina le sequenze operative che avrebbero dato luogo ai movimenti e ai comportamenti della macchina stessa: la parte di controllo e la parte di attuazione erano integrate l'una con l'altra ed erano realizzate con le stesse tecnologie meccaniche. Solo l'avvento dell'elettronica fece intravedere la possibilità di separare l'architettura del dispositivo meccanico dal sistema preposto al suo controllo: nasceva, di fatto, la metafora del corpo (macchina) separata da quella del cervello (struttura di gestione e controllo)

Si cominciano a delineare i due sottosistemi chiave nella progettazione dei robot: il servomeccanismo e il calcolatore elettromeccanico, progenitore di quello elettronico del 1946. Il parallelo con i riflessi spinali e con le attività corticali superiori continuò anche se, alla fine degli anni Quaranta, risulta impensabile collocare gli immensi calcolatori a valvole termoioniche all'interno dei primi organismi artificiali che cominciano a muoversi nei laboratori.

Tuttavia, pur essendo consapevoli delle enormi potenzialità dei calcolatori, i ricercatori dell'epoca si rendevano conto delle limitazioni ingegneristiche dei sistemi a disposizione. L'atteggiamento riduzionista che tendeva a limitare le ambizioni all'ambito di organismi zoomorfi - dotati di prestazioni nervose a livello di semplici riflessi - fu dettato dalla presa di coscienza di un contesto tecnologico ancora immaturo, ma che venne sfruttato al massimo delle sue potenzialità.

Il 1950: anno di svolta nella storia delle macchine pensanti

 L'elettronica - attraverso l'amplificatore, il servomeccanismo, la radio, la televisione, la registrazione di suoni e immagini - aveva fornito ampie suggestioni alla fantascienza e ai futurologi; ma è indubbio che solo il calcolatore elettronico, con le sue evocazioni di gestore di simboli, fu in grado di fornire il paradigma tecnico in grado di consentire un deciso salto di qualità. Tutto questo avvenne negli anni Cinquanta; non prima. Il 1950 costituì un anno di svolta nella storia delle macchine pensanti. Era già nata la cibernetica, negli anni Quaranta i convegni della Macy Foundation avevano fatto incontrare tra di loro cultori delle discipline più diverse con il comune obiettivo:trovare i punti d'incontro tra le macchine e gli organismi biologici. I primi calcolatori (Mark I, 1944, ENIAC, 1946, EDSAC, 1948, IBM Selective Sequence, 1948) erano già stati costruiti e i vincitori della Seconda Guerra Mondiale avevano usato le prime macchine da calcolo per decrittare i codici segreti dei tedeschi. Eppure nel 1950 Isaac Asimov, per riuscire a dare una convincente base tecnologica alle menti dei suoi robot, dovette ricorrere a una non meglio definita spugna di platino iridio. In Io robot (Isaac Asimov, 1950) per riuscire a capire le origini dei comportamenti dei robot, si ricorse a una robopsicologa: la dottoressa Susan Calvin. Isaac Asimov non fece affidamento a un ipotetico calcolatore elettronico, anche se molti commentatori videro nella spugna di platino iridio una sofisticata forma di calcolatore tridimensionale. Però è indubbio che Asimov suggerì, proprio nel 1950, che i costruttori di menti avessero trovato nell'elettronica il ragionevole paradigma tecnologico da utilizzare per le macchine pensanti. Il neologismo ‘robotica' coniato da Asimov riecheggia il termine elettronica; i calcolatori elettronici nascono grazie alle valvole termoioniche; il passo verso l'uso del termine ‘cervelli elettronici' sarà breve. Sul versante scientifico il 1950 vide la pubblicazione dell'articolo Computing Machinery and Intelligence, del matematico Alan Turing, sulla rivista di filosofia ‘Mind' (ottobre 1950), proprio nello stesso anno in cui Karl Popper scrisse "Solo il nostro cervello umano può dare significato al potere senza senso dei calcolatori di produrre delle verità". Scrive Andrew Hodges "Alan Turing introdusse l'idea di una definizione operativa di ‘pensiero' o ‘intelligenza' o ‘coscienza' per mezzo di un indovinello a sfondo sessuale. Egli immaginò un gioco nel quale un investigatore doveva decidere, solo sulla base di risposte scritte, se nella stanza accanto c'era un uomo o una donna". D'altra parte uno dei volumi più interessanti sulle origini dell'informatica in Italia (La cultura informatica in Italia. Riflessioni e testimonianze sulle origini 1950-1970, Bollati Boringhieri, 1993) considera il 1950 un anno cruciale, un anno di svolta; anzi, in uno dei contributi, scritto da Vittorio Somenzi, si riflette sulla transizione dalla cibernetica all'informatica.

In attesa della Dartmouth Summer School on Artificial Intelligence (1956)

Negli anni cinquanta si assistette alla comparsa sulla scena scientifica di Norbert Wiener che, dopo aver pubblicato nel 1948 il suo testo Cybernetics, si rese portavoce e promotore di iniziative che tendevano ad accreditare la cibernetica come la disciplina emergente in grado di rompere le assestate classificazioni disciplinari. Testimonia Silvio Ceccato nel 1968: "Wiener era anzitutto un personaggio. A parte il sapere di ragazzo precoce e di uomo brillante, colpiva di lui la grande forza costruttiva, realizzatrice, la rapidità con cui passava dalla visione teorica alle applicazioni pratiche, e dalle necessità pratiche alla visione teorica; la straordinaria fattività di chi se ha un dubbio non vi indulge troppo. Dice il fisico (per esempio Antonio Borsellino al Wiener Memorial Meeting, tenutosi a Genova nell'ottobre del 1965) che Wiener non ha arrecato precisi e significativi contributi alla fisica; e della stessa opinione è il biologo per la biologia (per esempio J. Lettvin sempre nella stessa riunione). I suoi più grandi servizi, come ha mostrato D. Gabor egli li ha resi alla matematica, in quanto puro matematico, e all'ingegneria, appunto perché di intelligenza anche fortemente applicativa".

Nel 1953 si tenne l'ultimo Convegno, il decimo, delle "Macy Conferences on Cybernetics". Tuttavia questo evento, più che segnare l'avvento ufficiale di una nuova disciplina, ne mostrò i limiti intrinseci. I ciberneticisti, in veste di propositori di concetti innovativi, avevano creato una utopia: considerare i sistemi sociali o biologici alla stessa stregua di modelli meccanici formalizzabili e comprensibili in termini matematici. Diventò importante chiedersi: quale tipo di macchina è questo uomo, o forse che tipo di uomo è questa macchina umana? La proclamata interdisciplinarietà trasversale e rifondativa (che la cibernetica avrebbe dovuto perseguire) apparteneva più alla sfera argomentativa che a un metodo sperimentale. Anche le riviste che proliferarono negli anni Cinquanta,  sotto il neologismo coniato da Norbert Wiener, furono un raccoglitore di tematiche provenienti da discipline preesistenti alla cibernetica (come la teoria dei servomeccanismi, la teoria dell'informazione, la teoria degli automi, le teorie della regolazione biologica, le tecnologie della costruzione delle macchine calcolatrici) e altre che ricevettero dalla cibernetica un nuovo respiro filosofico più che una ristrutturazione scientifica. Queste ultime presero nomi come intelligenza artificiale, robotica, bionica, automatica, sistemistica oltre ai settori consolidati dei controlli automatici e delle comunicazioni elettriche. Queste discipline ebbero una spinta reale più dal progresso tecnologico (il quale rendeva possibile la realizzazione di molte idee che possono collocarsi prima della fine degli anni quaranta) che dalla proclamata rivoluzione innescata dalla cibernetica. Esse rimanevano accomunate nella cibernetica perché condividevano la stessa aura filosofica: il riferimento al meccanicismo e ad alcuni strumenti sperimentali.

La mancata attivazione, almeno negli USA, di istituzioni accademiche quali cattedre o laboratori o corsi di lezioni e l'assenza di manuali di cibernetica costituiscono alcuni significativi indizi della difficoltà nell'attribuire uno statuto preciso alla cibernetica. Tuttavia in molte altre nazioni, la cibernetica - negli anni Cinquanta e Sessanta - rimane l'alveo naturale e privilegiato in cui collocare gli studi relativi alle aree di sovrapposizione tra organismi naturali (o biologici) e artificiali (macchine). La cibernetica, sottolineando il ruolo della comunicazione e del controllo nelle macchine e negli animali, è alla base della progettazione e della costruzione dei corpi piuttosto che delle menti degli esseri artificiali: permette di costruire dei corpi che possono venire comandati da un controllore superiore attraverso adeguati sistemi di comunicazione. In altre parole, secondo l'approccio che veniva seguito negli anni Cinquanta dalla letteratura scientifica sovietica, la cibernetica era più vicina ai controlli automatici e alle tematiche dell'automazione piuttosto che ai calcolatori elettronici e all'informatica: si proponeva di costruire corpi artificiali completi di nervi e midollo spinale fino al collegamento con il cervello, cervello escluso. Si delineava l'ennesimo trionfo del dualismo Cartesiano: il controllo del corpo alle discipline afferenti all'area dell'Automatica (con particolare riferimento ai Controlli Automatici), la simulazione della mente e delle attività cognitive superiori alle discipline afferenti all'Informatica (con particolare riferimento ai Calcolatori Elettronici).

Il 1956: l'anno della convergenza tra lo studio della mente e la costruzione di macchine intelligenti

 Lo psicologo Gorge A. Miller ha testimoniato, in più occasioni, che la psicologia cognitiva nacque l'11 settembre 1956 in occasione del Symposium on Information Technology  tenutosi al Massachusetts Institute of Technology il 10-12 settembre 1956. Proprio il secondo giorno del Convegno vennero presentate due comunicazioni: Allen Newell e Herbert Simon presentarono la prima dimostrazione completa di un teorema eseguita da un calcolatore e il linguista Noam Chomsky dimostrò che il comportamentismo non era in grado di spiegare la complessità della struttura del linguaggio. Quindi la psicologia cognitiva nasce con l'avvento del nuovo paradigma informazionale, con la nuova linguistica alla Chomsky e con la tendenza a far sì che i calcolatori si comportino in modo intelligente. Poi, nel 1967, il testo di Ulric Neisser su Cognitive Psychology (la rivista con lo stesso nome verrà pubblicata a partire dal 1970) diede la definitiva legittimazione ai capitoli della nuova disciplina: percezione, attenzione,  linguaggio, memoria e pensiero. Dopo vent'anni dal 1956, Neisser scrisse un altro libro Cognition and Reality (1976) in cui criticò il concetto di elaborazione delle informazioni alla base della psicologia cognitiva: per Neisser le informazioni che l'essere umano elabora vanno rintracciate nell'ambiente dove si trovano. Ma ormai la psicologia cognitiva era pronta a passare il testimone al movimento della ‘scienza cognitiva' che nacque nel 1977  attorno all'omonima rivista. Nel 1980 Donald A. Norman definì le dodici aree che costituiscono la disciplina: sistemi di credenze, coscienza, evoluzione, emozioni, interazione, linguaggio, apprendimento, memoria, percezione, prestazione, abilità, pensiero. Non esiste una vera e propria frattura con il passato: si cerca di evidenziare un insieme di problemi comuni che sono patrimonio di varie discipline (psicologia cognitiva, intelligenza artificiale, linguistica computazionale, filosofia del linguaggio, psicologia sociale, tecnologie dell'istruzione ed epistemologia). Nel 1982 John Hopfield ripropose il ruolo fondante delle reti neurali, ristabilendo un collegamento ideale con i padri fondatori che avevano dato vita alle attività interdisciplinari delle Macy Foundation Conferences on Cybernetics tenutesi a cavallo della metà del secolo XX. Nasce il connessionismo, ossia la disciplina che studia il ruolo delle reti neurali e della vita artificiale, e negli USA alcuni classici dipartimenti di Psicologia vengono ridenominati dipartimenti di ‘Brain and Cognitive Science' in cui si afferma non solo che la scienza cognitiva esiste, ma che essa cerca di muoversi di concerto con le neuroscienze.    

Nonostante la consapevolezza della arbitrarietà delle date, piace ricordare che il 1956 non solo vide emergere la scienza cognitiva ma fu anche la data ufficiale della nascita della disciplina denominata Intelligenza Artificiale.

La costruzione dell'intelligenza nelle macchine

 L'essere artificiale, nell'immaginario collettivo, deve dimostrare una di essere intelligente o di essere cosciente? Il termine intelligenza richiama una prestazione che possiamo attribuire a oggetti e animali.. Il termine coscienza sembra più appropriato per gli esseri viventi: sicuramente per gli umani, a volte per qualche specie animale.

Tuttavia per una serie di motivi economici la dicotomia intelligenza/coscienza è stata sbrigativamente ridotta al primo termine. Negli anni cinquanta era lecito solo interrogarsi sull'intelligenza delle macchine. E' interessante sottolineare che la maggior parte dei contributi scientifici sull'argomento, dagli anni Cinquanta agli anni Ottanta, è riferita a macchine i cui progettisti erano ansiosi di farle apparire intelligenti..

D'altra parte l'avvento del calcolatore suggerì ai progettisti di simulare alcune caratteristiche cognitive proprie dell'essere umano. Poiché il calcolatore riesce a operare in ambiti computazional-sintattici, la prima forma di intelligenza presa in considerazione fu il ragionamento logico. La disciplina denominata intelligenza artificiale nasce con questa connotazione, anche se non coincide con la totalità delle forme di intelligenza che potrebbero essere progettate e costruite dall'essere umano. Il motivo per cui si è identificata la progettazione ingegneristica dell'intelligenza con l'intelligenza artificiale, enfatizzando certi aspetti dell'intelligenza (le prestazioni deduttive e logico-matematiche) trova un preciso riscontro in una particolare fase dell'evoluzione del pensiero tecnico-scientifico che ha trovato nel calcolatore lo strumento paradigmatico per eccellenza. Inoltre non sono da trascurare le articolate connessioni con il mercato e le varie strategie di finanziamento: spesso nel frastagliato confine tra ricerca e mercato si confonde l'esigenza di una certa disciplina con l'esistenza della stessa.

Il calcolatore, strumento per lo studio della mente

Quando nel 1956 un gruppo di visionari coniò il termine artificial intelligence il mercato era lontano: l'obiettivo era quello di utilizzare la scienza dei calcolatori per togliere a filosofi, psicologi e neurofisiologi il monopolio dello studio delle attività mentali dell'essere umano, con particolare riferimento all'intelligenza. Molte delle speranze e delle illusioni che l'intelligenza artificiale (IA) aveva suscitato sono riconducibili all'ambiguità insita nelle sue due iniziali accezioni: IA forte e IA debole. Secondo la debole, il calcolatore è in grado di costituire un ottimo strumento per lo studio della mente; secondo la forte, i computer, se programmati, presentano stati cognitivi e, quindi, i programmi (il software) si possono identificare con le capacità cognitive dell'uomo. Era facile per il filosofo John R. Searle scrivere: "Esattamente quella caratteristica dell'intelligenza artificiale forte che sembrava così attraente - la distinzione tra il programma e la realizzazione - si dimostra letale all'affermazione in base alla quale la simulazione può essere replicazione. Nessuno crede che la simulazione al calcolatore di un incendio brucerà tutto il vicinato".

I dibattiti su tali argomenti fanno parte del passato. Tuttavia è incontestabile che l'intelligenza artificiale si sia sviluppata in aperto contrasto con la cibernetica e la neurocibernetica che avevano proposto di studiare i processi mentali attraverso la simulazione della logica delle reti neuronali. Già nel 1943 Warren S. McCulloch e Walter Pitts avevano suggerito la progettazione di macchine che simulavano alcuni aspetti dell'intelligenza; tra esse ha fatto storia il Perceptron di Frank Rosenblatt che fu aspramente criticato da Marvin Minsky - uno dei fondatori dell'intelligenza artificiale - e da Seymour Papert nel 1969 (data ufficiale della morte presunta della cibernetica, rimessa in discussione da un tardivo ripensamento degli stessi autori nel 1988).

Nel contesto della disciplina intelligenza artificiale il concetto di cane è rappresentato dall'insieme delle sue proprietà (abbaia, ha quattro zampe, ecc.) che sono anch'esse entità simboliche. Invece, durante il processo di apprendimento di una rete neurale artificiale, a ogni concetto viene associata una diversa distribuzione delle proprietà quantitative delle connessioni tra neuroni che non hanno alcun significato simbolico. E' quello che avviene nel cervello umano in cui è difficile trovare entità simboliche - come concetti, proprietà, regole - mentre quello che troviamo sono entità fisiche (neuroni, assoni, sinapsi, trasmettitori chimici) che devono essere descritte in termini fisici quantitativi. Osservava, alcuni anni fa, John Searle: "Solamente una macchina può pensare (ossia i cervelli e quelle macchine che hanno gli stessi poteri causali dei cervelli)... e questa è la principale ragione per la quale l'intelligenza artificiale forte ha avuto poco da dirci sul pensiero: perché non ha nulla da dirci sulle macchine. Per la sua stessa definizione ha a che fare con i programmi (ossia il software), e iprogrammi non sono macchine (ossia hardware)".

L'intelligenza nei robot industriali: dal manipolatore industriale ai robot presenti sulla Rete (Internet)

 Nella storia della robotica industriale ci fu un periodo in cui i cultori dell'intelligenza artificiale sembravano vicini alla realizzazione di robot industriali intelligenti. Poi, la globalizzazione dell'economia e la drastica riduzione delle spese militari hanno impedito il realizzarsi di questi sogni. Gli obiettivi si sono ridimensionati, spostando l'attenzione dal robot copia dell'essere umano al robot copia di animali più semplici (scarafaggi, ragni, coleotteri).

Contemporaneamente, il paradigma tecnologico (nell'accezione di Thomas Kuhn) prevalente dopo la seconda guerra mondiale, quello dell'elettronica sposata con la meccanica, su cui la robotica industriale si era fondata, è andato via via sfumando.

Il presente paradigma, fondato sull'informatica, porta con sè nuovi robot virtuali che si muovono nel ciberspazio: sono privi di fisicità, ma paradossalmente sono i primi robot, costruiti dall'essere umano, in grado di vivere di vita propria e di eseguire certi lavori con un soddisfacente grado di autonomia e di intelligenza. A questa categoria si possono far risalire i robot-virus o i robot-ragni presenti su Internet. I primi robot intelligenti, economicamente utili, non sono stati i robot di fabbrica imitatori di operai, bensì i robot-software in grado di imitare bibliotecari sempre alla ricerca di dati e informazioni nei siti di Internet. Ma questi robot non sono robot fisici, in grado di imitare il corpo degli esseri umani, ma piuttosto robot immateriali, in grado di vivere solo nel ciberspazio.

Quindi al tramonto del secondo millennio, parlare di robot intelligenti costringe a rivolgersi al passato: fare una riflessione sull'intelligenza naturale, sui tentativi di immettere intelligenza nelle macchine, parlare di mente e di corpo anche per i robot.

La storia dei robot intelligenti non si identifica, tout court, con la storia della simulazione dell'intelligenza umana da inserire, successivamente, in strutture artificiali. L'evoluzione dei robot intelligenti inizia all'insegna dell'approccio cibernetico-neurale per approdare ai lidi di una intelligenza artificiale muscolare, che sembra riscoprire l'originale missione della prima cibernetica. E' anche la storia dei corpi, di cui i robot sono dotati: sottolineando, di fatto, il ruolo del corpo (e della sua sensorialità e motricità) nella formazione del pensiero e nella nascita delle emozioni.

La robotica industriale: fucina di corpi per esseri artificiali

 A partire dagli anni Sessanta la storia degli automi subì il condizionamento delle politiche di ricerca e sviluppo. Le agenzie preposte alla concessione di fondi pubblici e privati pretesero precisi riscontri e non l'inseguimento di sogni. La bionica, intesa come disciplina che cerca di imitare strutture viventi, godette di un breve momento di gloria, alimentato dai finanziamenti elargiti dai militari. Poi, l'impiego del termine bionica in fortunate serie televisive ne scoraggiò l'uso in ambienti tecnico-scientifici.

La cibernetica non raggiunse mai il potere scientifico e tecnologico necessario per attivare grandi programmi o progetti. Furono le intrinseche potenzialità tecnologiche dei robot nel settore dell'industria manifatturiera a determinare i tempi e i ritmi di sviluppo.

Dal 1954, allorché George Devol ottenne il primo brevetto relativo a un progenitore degli attuali robot industriali, le analisi dell'impatto economico e sociale dei robot hanno coinciso con lo studio degli effetti della robotizzazione industriale.

La robotica industriale sembra rientrare nell'ambito delle tematiche di high-tech piuttosto che in quelle proprie della scienza. Nondimeno, la robotica industriale, che si può identificare con i manipolatori meccanici più o meno intelligenti, è riuscita nell'arco di due decenni ad assumere un suo proprio statuto disciplinare, sia sul versante industriale sia su quello accademico.

La struttura culturale della disciplina è ormai scolpita nei capitoli dei vari manuali che hanno raggiunto, durante gli anni Ottanta, una organizzazione del sapere quasi definitiva, ripetitiva: la cinematica e dinamica del braccio meccanico, gli attuatori e i sensori, i metodi di controllo, i linguaggi di manipolazione. Molti insegnamenti universitari vengono offerti secondo lo stesso schema, in cui è il sistema braccio-manipolatore a costituire il principale oggetto di studio.

Ancora all'inizio degli anni Ottanta, i robot erano considerati il simbolo della futura fabbrica senza uomini, dove molti problemi di produttività avrebbero trovato morbide ed efficienti soluzioni. Nel biennio 1984-85 si raggiunse l'apice di questa ideologia quando venne raggiunto il  picco più alto nel numero di ordinazioni di nuovi robot sul mercato USA. Nell'inconscio collettivo la robotica industriale divenne sinonimo di robotica, operando una netta cesura rispetto alle connotazioni della fantascienza. Il New York Times Index iniziò a citare insieme i termini robotica, automazione e fabbrica automatica.

Ma dopo i primi iniziali entusiasmi, i manager delle imprese industrialisi resero conto, a metà degli anni Ottanta, che il processo di robotizzazione di un impianto non poteva esaurirsi nella semplice sostituzione di un robot per ogni operaio: non si trattava di far uscire un operaio e far entrare al suo posto un robot, si trattava di progettare ex novo l'intero processo manifatturiero.

La robotizzazione dei processi industriali non ha rappresentato un evento rivoluzionario. E' stata piuttosto la ricaduta nei processi manifatturieri di un flusso continuo di innovazioni tecnologiche che hanno alimentato la veloce modernizzazione dell'industria dopo la seconda guerra mondiale.

I servomeccanismi, le macchine a controllo numerico, i microprocessori sono i componenti di base degli attuali robot industriali. A ogni livello di sviluppo tecnologico, lo iato tra potenzialità tecnologiche e applicazioni industriali è stato colmato dall'ingegneria di produzione che ha modificato l'ambiente di fabbrica per tener conto dell'evoluzione delle tecniche messe a disposizione dal mercato.

Da un punto di vista culturale, questo è un processo che si autoalimenta e che non richiede una sostanziale simbiosi con la comunità scientifica, ad eccezione degli aspetti educativi e formativi.

E' indubbio che i grandi successi della robotica industriale negli anni Settanta e Ottanta hanno condizionato la ricerca nel settore dei corpi da fornire alle macchine intelligenti.

L'homunculus nei robot

 Il robot teleguidato, utilizzato dalla polizia per ispezionare oggetti e auto sospette, è una metafora di quello che i filosofi intendono con l'ipotesi dell'homunculus. Per spiegare come funziona la mente spesso si ipotizza che tutti i vari stimoli che provengono dall'esterno (e che vengono veicolati all'interno del cervello attraverso gli organi di senso e il sistema nervoso periferico) siano interpretati e gestiti da un ente misterioso residente in qualche zona della struttura cerebrale: il cosiddetto homunculus. Esso - in base agli stimoli esterni e agli obiettivi e motivazioni che vuole darsi — decide cosa fare e invia opportuni comandi ai suoi organi effettori: i muscoli che controllano il sistema di locomozione (per esempio le gambe), il sistema di manipolazione (torso-braccia-mani), l'apparato vocale, il movimento degli occhi. Il robot teleguidato - una specie di carretto mobile dotato di ruote o cingoli, munito di uno o più manipolatori meccanici e di una o più telecamera integrata con sensori di vario tipo - è spesso ospite dei telegiornali di tutto il mondo. E' un corpo che invia segnali sensoriali e riceve comandi motori da un essere umano che diviene, quindi, l'homunculus personale del robot, ovvero la sua mente. Il fatto che l'essere umano sia situato a distanza di sicurezza è del tutto irrilevante. La metafora mantiene inalterata la sua validità anche se sarebbe più pregnante la presenza di un piccolo gnomo nascosto nel carretto, come avveniva, d'altra parte, nell'automa ‘giocatore di scacchi di Maelzel' in cui Edgar Allan Poe aveva dimostrato la presenza di un uomo nascosto.

Shakey, l'antesignano dei robot che riescono a perseguire un obiettivo prefissato 

I robot che si basano sulla presenza di homunculi sono i diretti discendenti dei manipolatori a distanza, messi a punto negli anni Cinquanta per manipolare, in condizioni di sicurezza, sostanze pericolose. Tali manipolatori - tra cui il famoso Mascotte, padre storico dei robot italiani — furono tra le prime macchine cibernetiche ad avere un impatto in ambito industriale e nell'immaginario collettivo. Queste sofisticate applicazioni dei servomeccanismi, ossia del principio di retroazione (feedback), sarebbero state in grado di traghettare un intero settore della cibernetica sui solidi e tranquilli lidi della disciplina denominata "controlli automatici".

Il primo robot, in grado di perseguire un obiettivo prefissato e nonostante un ambiente imprevedibile, è stato Shakey, un robot mobile su ruote, messo a punto presso lo Stanford Research Institute di Menlo Park, California, nel periodo 1967-69. Shakey prese il nome dal suo incedere instabile e traballante (to shake, scuotere); era fornito di una telecamera e di altri sensori. Riusciva a navigare nei corridoi dell'Istituto grazie a un modello a griglia dell'ambiente che permetteva di trovare la traiettoria più breve. La posizione del robot, rispetto all'ambiente, veniva determinata dalla cosiddetta ‘guida cieca', cioè tenendo conto del percorso effettuato A causa delle imprecisioni inerenti a tale metodo, Shakey poteva commettere errori che riusciva a compensare utilizzando un sistema di visione che operava sulle immagini provenienti dalla telecamera. Shakey rappresentò un deciso passo avanti rispetto alle tartarughe di W. Grey Walter e alle altre macchine cibernetiche mobili costruite negli anni Quaranta e Cinquanta. Ricorda Bertram Raphael, un noto studioso di intelligenza artificiale, che i progettisti di Shakey si riferivano a Shakey con il termine lui, mentre al costosissimo manipolatore Unimate (una pietra miliare nella storia della robotica industriale) si preferiva associare il termine esso. Si racconta che Shakey abbia ispirato il simpatico, traballante e autonomo robot del film Corto Circuito (John Badham, 1986).

I corpi di vecchi e nuovi robot

 L'emergere prepotente della robotica industriale tese a incorporare tutta la robotica e le discipline a essa collegate. Tuttavia, agli inizi degli anni ottanta si aprirono nuovi orizzonti ai robot. Quasi contemporaneamente - negli USA, in Europa e in Giappone - si intravvidero nuovi settori applicativi fuori dalla fabbrica.

In Europa il programma Eureka, ispirato dal Presidente della Repubblica Francese Mitterand, pose l'enfasi su questi aspetti non convenzionali della robotica: per esempio, nel settore della protezione civile. In Giappone, il primo convegno (1983) sulla robotica avanzata riesce anche a datare la storica svolta di una visione meno fabbrico-centrica della robotica.

Gli anni Settanta e l'inizio degli anni Ottanta avevano testimoniato i grandi successi dell'intelligenza artificiale e della robotica industriale. Sembrava che i costruttori di automi avessero deciso di separare lo studio del corpo degli organismi artificiali (robotica industriale) dallo studio della  loro mente (intelligenza artificiale). In realtà era stato il mercato a imporre le direzioni della ricerca. Il robot industriale non può avere vita propria, ma deve accettare e adattarsi alle regole della fabbrica. Analogamente l'intelligenza artificiale doveva simulare le attività intellettuali più sofisticate dell'essere umano, perché lì risiede la possibilità di costruire pacchetti applicativi in grado sostituire gli esperti umani. Il luogo di lavoro del robot industriale è la fabbrica; le applicazioni più redditizie dell'intelligenza artificiale sono le banche e le istituzioni  burocratico-amministrative.

L'intelligenza artificiale aveva scelto di svincolarsi dal confronto reale con l'ambiente circostante. Anzi, in analisi critiche sull'intelligenza artificiale, si osserva che il momento di stallo, in cui si è trovata la disciplina, sarebbe potuto essere imputabile alla difficoltà di gestire - secondo le classiche metodologie - alcuni tra i temi centrali dell'interazione tra le forme viventi e l'ambiente quali l'apprendimento e la rappresentazione del mondo esterno. Se ciò risultasse vero, potrebbe diventare paradigmatico il ruolo della robotica intesa come la disciplina che, nell'ambito delle forme di intelligenza costruite dall'essere umano, sposta il centro dell'attenzione dalla simulazione alla costruzione di oggetti reali che devono agire in ambienti non ordinati. 

La conseguenza di tale prospettiva consistette nella perdita del ruolo dominante della simulazione delle attività cognitive superiori, mentre esaltò il ruolo di un corpo con il quale affrontare l'infinita variabilità del mondo in cui dovrà operare. L'analogia tra l'intelligenza artificiale e quella naturale divenne fragile, sfumando confronti e rendendo più pregnanti eventuali sorgenti di preoccupazione sulle implicazioni delle future generazioni di macchine pensanti.

A partire dagli anni Ottanta i robot, in ambienti non strutturati, dettero luogo a varie categorie di esseri artificiali: i veicoli autonomi, i robot addetti ai servizi e gli esseri robotici in ordine crescente di complessità:

- il veicolo autonomo, inteso come un carrettino intelligente in grado di muoversi in modo autonomo;

- il robot addetto ai servizi in cui l'aspetto è legato al tipo di servizi che il robot offre, specie in ambito domestico od ospedaliero;

- l'essere robotico, che introduce i nuovi corpi del futuro della robotica, dando luogo a generazioni di robot che, pur ispirandosi all'essere umano o ad animali, si presentano come creature del tutto nuove e inquietanti.

Un esempio di questo approccio è dato da i robot mobili autonomi, progettati da Rodney Brooks, il costruttore al MIT di una serie di robot nei quali si rinunciava a costruire una rappresentazione centralizzata del mondo. Viste le difficoltà dell'intelligenza artificiale di creare un modello di mente, Brooks perseguì il tentativo di liberarsi della necessità di una mente vera e propria, costruendo robot che non erano altri che fasci di coppie stimolo-risposta. Questo tentativo era mosso dalla speranza, rivelatasi poi infondata, che i comportamenti di esseri complessi (quali l'uomo o gli animali superiori) potessero emergere da certosine giustapposizioni di riflessi elementari. Brooks scrisse : "Di solito non si pensa che gli insetti siano intelligenti. Tuttavia essi sono dispositivi molto affidabili. Essi operano in un mondo dinamico, eseguendo un numero elevato di compiti complessi ... Nessun altro sistema costruito dall'uomo è altrettanto affidabile ... Per questo motivo io ritengo che raggiungere il livello comportamentale di un insetto sia un nobile obiettivo per chi lavora nel settore dell'intelligenza artificiale".

Le macchine pensanti dipendono dai calcolatori

 Nella storia delle macchine pensanti le teorie sulla mente umana, cui le macchine dovrebbero ispirarsi, si intersecano con l'evoluzione dei calcolatori. Anzi alcuni commentatori ritengono che solo una ulteriore evoluzione dei calcolatori possa rendere possibile la progettazione di macchine pensanti. Quando nell'aprile del 1981 il governo giapponese annuncia un programma a lungo termine con l'obiettivo di costruire calcolatori intelligenti e super-potenti, i ricercatori giapponesi chiamano tale progetto "i calcolatori della quinta generazione". Fino ad allora le generazioni dei calcolatori erano classificate sulla base delle tecnologie adottate (valvole termoioniche, transistor, circuiti integrati …). L'evento venne così pubblicizzato e fu ritenuto così importante presso la comunità scientifica internazionale che l'autorevole rivista Spectrum (organo ufficiale dell'associazione degli ingegneri elettrici ed elettronici, la IEEE, fondata nel 1884) dedicò alla "quinta generazione" numero e copertina del novembre 1983. Anzi la rivista Spectrum si sbilancia, contrariamente alla sua lunga tradizione di cautela, in una previsione delle future generazioni proponendo la seguente tabella:

- prima generazione (1946-56), basata sulle valvole termoioniche;

- seconda generazione (1957-63), basata sui transistor;

- terza generazione (1964-81), basata sui circuiti integrali (IC);

- quarta generazione (1982-89), basata sui circuiti a elevato grado di integrazione (VLSI);

- quinta generazione (1990-), basata su architetture parallele, circuiti integrati 3D, componenti ottici …

Ossia Spectrum riteneva che avremmo assistito nel 1990 a un cambio generazionale, ricco di prospettive e di suggestioni per le applicazioni di intelligenza artificiale. Le cose, poi, non sarebbero andate così. Furono progettate macchine a elevato grado di parallelismo; la Connection Machine di Dennis Hillis godette di notevoli successi sia in campo accademico che commerciale; ma l'approccio alla costruzione di macchine pensanti attraverso calcolatori con architetture sempre più complesse non ha dato luogo ai risultati sperati. Di calcolatori della quinta generazione, all'inizio del terzo millennio, non se ne parla più; anche se alcuni, quando anticipano l'avvento di avveniristici calcolatori biologici o biochip, non disdegnano di citare una "sesta generazione" all'insegna della metafora biologica ricordando la "quinta generazione" che era stata progettata quando l'intelligenza artificiale sembrava proporre un nuovo paradigma conoscitivo.

Gli anni Novanta non sono quindi stati testimoni dell'avvento dei super-calcolatori della quinta generazione. Ha prevalso l'altro tema su cui si fondava il progetto giapponese: l'integrazione tra tecnologie informatiche e telecomunicazioni. In altre parole la quinta generazione si risolse di fatto nell'avvento delle reti e di Internet non nel definitivo affermarsi della intelligenza artificiale e delle macchine pensanti.

Dall'intelligenza artificiale alle reti neurali e al connessionismo

Nella robotica industriale ogni riferimento all'antropomorfismo o  zoomorfismo viene rifiutato: il robot industriale, all'inizio della sua storia, è una macchina utensile, forse una sua appendice, sicuramente un servitore meccanico delle macchine utensili che devono venire alimentate. Invece, la recente riscoperta delle reti neurali da parte di Hopfield, all'inizio degli anni Ottanta, potrebbe essere interpretata come un tentativo di  ritornare alle origini per trovare ispirazione, piuttosto che nelle più sofisticate attività cognitive umane, nelle funzioni nervose elementari di organismi viventi. Nell'approccio classico dell'intelligenza artificiale l'enfasi era posta sul ragionamento; nel connessionismo (che nasce come disciplina attorno alle reti neurali)oggi, l'attenzione si concentra sull'apprendimento, sul riconoscimento, sulla navigazione (movimento autonomo in un ambiente). Al contrario del ragionamento - dove il riferimento per eccellenza è il cervello umano — l'apprendimento è riscontrabile anche nei sistemi nervosi rudimentali, quali quelli di scarafaggi o di nematodi. Lo scarafaggio è un animale il cui comportamento è efficace per quanto concerne la capacità di evitare pericoli ed elaborare strategie differenziate di sopravvivenza. Il ritorno alle origini, ossia ai primi maldestri tentativi della cibernetica, assume sempre più la connotazione di un ritorno allo studio del comportamento degli organismi piuttosto che allo studio di attività cognitive superiori. Molti esseri robotici di tipo zoomorfo ricordano in modo impressionante le tartarughe elettroniche di W. Grey Walter che, negli anni Cinquanta, avevano evocato analoghe suggestioni.

Potrebbe essere uno dei tanti esempi di circolarità nella storia delle idee scientifiche; per esempio, negli anni Novanta, si ritorna a finanziare lo studio dei meccanismi fondamentali che regolano il funzionamento dei neuroni per poterne emulare il comportamento e realizzare dispositivi neuronali in grado di riconoscere suoni, caratteri, segnali.

La separazione tra software e hardware si riferisce a una particolare evoluzione della specie-calcolatore, mentre altri cervelli artificiali possono presentare caratteristiche tali per cui nell'hardware stesso sono contenuti gli elementi di integrazione e di organizzazione propri della mente-cervello: le reti neurali e il connessionismo (che diviene un altro ramo dell'evoluzione della specie-cervello) possono offrire un approccio sub-simbolico allo studio della mente e del cervello diverso dall'approccio computazionale classico, che era simbolico (spesso logico-linguistico).

Sullo sfondo, altre aggregazioni e altri approcci si stanno delineando. Nel 1987 si tiene il primo convegno internazionale sulla vita artificiale. "Obiettivo della vita artificiale è quello di generare comportamenti simili a quelli di organismi viventi naturali; essa complementa le tradizionali scienze biologiche che si interessano dell'analisi di organismi viventi attraverso il tentativo di sintetizzare comportamenti simili-alla-vita mediante i calcolatori e altri media artificiali".

Evoluzione dell'intelligenza artificiale: dal sogno delle macchine pensanti alla concretezza dei sistemi esperti

 Negli anni Ottanta la metafora della mente come computer (secondo la quale la mente sta al cervello come il software sta all'hardware) sembra perdere molto dello smalto acquisito nei precedenti decenni. O meglio i seguaci della Intelligenza Artificiale forte, per cui la mente è esattamente un programma per computer, non riescono a reggere gli attacchi di coloro che sostengono che la mente è qualcosa di più della manipolazione di simboli formali. Quando pensiamo, le parole che attraversano la nostra mente non sono semplicemente simboli formali non interpretati: le parole hanno un significato, una semantica. I simboli formali di un programma per computer non garantiscono la presenza del contenuto semantico che si trova nelle menti reali.

Si assiste, invece, alla definitiva affermazione dell'accezione debole dell'Intelligenza Artificiale, secondo la quale il computer è uno strumento utile per fare simulazioni della mente, così come lo è per fare simulazioni di qualsiasi cosa che possiamo descrivere con precisione.

Sempre nel 1987, il convegno internazionale IJCAI (International Joint Conference on Artificial Intelligence), tenutosi a Milano, nel decretare l'ingresso nella concretezza, sancisce la formalizzazione della presenza dell'industria, dell'accademia e dei mass media che si interessano prevalentemente delle applicazioni dell'intelligenza artificiale; i sogni relativi alle macchine pensanti sono lontani. Media Duemila aveva dedicato il numero di luglio-agosto al Convegno anticipandone i temi e il loro ruolo nello sviluppo della società italiana. Anzi, la rivista aveva preparato tale evento accogliendo, nelle pagine di numeri precedenti, un vivace dibattito tra Marco Somalvico, organizzatore italiano del Convegno e acceso propugnatore della disciplina, e Angelo Raffaele Meo, sostenitore della sostanziale irrilevanza dell'intelligenza artificiale di cui metteva in evidenza le ventennali promesse non mantenute.

Alla fine degli anni Ottanta si assiste alla definitiva consacrazione dei sistemi esperti intesi come strumenti informatici in grado di comportarsi in modo intelligente: gli ingegneri cognitivi interrogano gli esperti, detentori del sapere che verrà clonato nel computer, e riusciranno a fondere saperi pubblici e saperi privati in programmi di calcolatore dedicati a settori ben definiti dello scibile umano.

Gli anni Novanta: il decennio del cervello

 Nel 1989, a vent'anni dalla discesa sulla Luna del primo essere umano, si andava diffondendo lo slogan "il cervello sta prendendo il posto della Luna in questo ultimo scorcio di millennio". Fuor di metafora: l'impegno delle neuroscienze si avvicinavano a quello che aveva portato l'uomo sul satellite. Il 1989 viene definito dal Congresso degli USA il primo del Decennio del Cervello e, come tale, viene adeguatamente finanziato. La relazione commissionata dal Congresso iniziava con queste parole "Il cervello umano è un organo meravigliosamente programmato per servire come generatore occulto di movimenti, pensieri, sensazioni, emozioni e ricordi. Questo ancora misterioso regolatore della salute del nostro corpo e della nostra personalità comincia ora a rivelarci i suoi segreti. Molti quesiti rimasti a lungo al di là della nostra comprensione e dei limiti delle nostre tecnologie potrebbero trovare presto una risposta." Effettivamente durante gli anni Novanta si sono fatti passi da gigante nello studio della macchina biologica che chiamiamo cervello: si sono scoperti neurotrasmettitori, si è mappato il genoma umano, si sono studiate le basi neuroanatomiche e neurofisiologiche della funzione del sistema nervoso, si sono messi a punto sistemi per diagnosi precoce di disturbi neurologici e della comunicazione anche attraverso sofisticate tecniche di visualizzazione dell'attività cerebrale, sono stati messi a punto farmaci innovativi in grado di ridurre o di arrestare l'evoluzione della sintomatologia di malattie mentali. Le neuroscienze hanno avuto uno sviluppo imponente durante gli anni Novanta, tuttavia, paradossalmente sembra che la migliore conoscenza dei meccanismi biologici non abbia offerto ai costruttori di macchine pensanti nuovi e dirimenti suggerimenti.

Perché non ricorrere a corpi biologici artificiali o virtuali ?

 Non esiste alcun rifiuto aprioristico di utilizzare materiali di natura organica, anche se esiste di fatto una netta preclusione (rifiuto della clonazione associata a ingegneria genetica) a esperire la strada biologica, alla Capek, nella costruzione di esseri artificiali. I tentativi di innestare le antenne di una falena maschio su un minirobot - al fine di creare un robot biologizzato indotto a seguire la scia di una falena femmina - sono episodi isolati e marginali nella cultura prevalente della robotica avanzata. L'innesto di segmenti biologici in strutture non biologiche dà luogo a organismi destinati a degradare nel giro di poche ore, o al massimo di pochi giorni; a meno che non si proceda a tenere in vita la parte biologica innestata. D'altra parte il robot biologizzato può venire considerato la controparte dei cyber-insetti, o dei cyber-animali, in cui a organismi biologici (quali pesci o scarafaggi) vengono inseriti nel sistema nervoso delle opportune strutture tecnologiche trasformandoli in una sorta di cyborg non umani. Negli anni Sessanta un neuroscienziato, Delgado, aveva avuto l'onore delle prime pagine dei quotidiani internazionali perché riusciva a far crollare, a comando, un toro impegnato a caricare nell'arena.

Tuttavia, oggi, la bioelettronica e l'ingegneria proteica si propongono come potenziali candidate a offrire nuove basi tecnologiche al cervello positronico asimoviano costruito, cinquanta anni fa, con metalli nobili. Nuove generazioni di visionari costruttori di automi si stanno affacciando alla ribalta con nuovi bagagli culturali ma col sogno di sempre: essere i creatori di macchine in grado di muoversi, percepire, agire e comportarsi come esseri viventi, al servizio di committenti sempre più sofisticati, esigenti e smaliziati.

Quindi, nell'ambito delle discipline dell'artificiale, per la realizzazione dell'antico sogno dell'umanità di costruire macchine pensanti si sta operando nel seguente modo: da una parte, si lavora nel settore della progettazione e della costruzione del corpo, dall'altra, in quello della valorizzazione esclusiva del ruolo del puro robot-software, progettato per vivere solo nel ciberspazio. I robot di Internet sono i primi robot industriali che sono stati costruiti in funzione della fabbrica in cui vivono: il ciberspazio.

Le macchine pensanti devono essere intelligenti o coscienti?

 Quando l'11 maggio 1997 il calcolatore IBM Rs/6000 (fornito di 512 microprocessori funzionanti in parallelo e programmati per giocare a scacchi), denominato Deep Blue, batté il più forte scacchista umano del mondo, Garry Kasparov, nessuno sostenne che il genere umano aveva finalmente costruito una macchina pensante. Il calcolatore IBM aveva dimostrato di avere un comportamento intelligente superiore allo sfidante. Peccato che non avesse la minima idea di giocare a scacchi. Tutti si erano trovati d'accordo nel ritenere che un conto è parlare di coscienza e un conto è parlare di intelligenza: un conto è fare l'esperienza di giocare a scacchi, un conto è gestire dei simboli e predisporre delle mosse in grado di farti vincere. Finora l'esperienza del gioco è un attributo tipico dell'essere umano; dopo il 1997 la capacità di vincere è alla portata di macchine, che possono (per questo motivo) essere definite intelligenti, anche se non sono in grado di fare esperienza. Nel numero di Selezione dal Reader's Digest di marzo 1954, una rivista sulla quale si formava l'immaginario collettivo, veniva presentato un articolo dal titolo Le macchine che pensano, in cui si profetizzava che "le macchine calcolatrici diventeranno sempre più intelligenti più rapide e più utili per rispondere a nuovi quesiti. Ma in fatto di quesiti, questo è tutto ciò che sapranno fare. Non saranno mai capaci di porne."

La sfida tra Kasparov e Deep Blue avrebbe dovuto chiarire con chiarezza cosa si intende per macchina pensante: a una macchina, per essere definita pensante, non serve l'intelligenza, bensì la coscienza. Tuttavia il fascino del termine intelligenza artificiale è troppo forte per venire limitato alla omonima disciplina accademica. Anzi nel numero del 16 marzo 2002 della rivista The Economist si sottolinea che è giunto il momento di un ritorno alla grande sul mercato dell'alta tecnologia di tematiche di intelligenza artificiale.

Il fatto che il film di Steven Spielberg sia stato denominato A.I., ossia intelligenza artificiale, rivela come il successo incredibile del termine intelligenza artificiale sia entrato nell'immaginario collettivo con un'accezione ben più ampia di quello che il termine vuole trasmettere. Sicuramente il regista e gli esperti di marketing hanno attribuito al nome A.I. un valore evocativo che ha radici più nella tecnologia che non nella fantascienza. Avrebbero potuto chiamarlo CyberPinocchio o Cyberkid. Avrebbero potuto utilizzare uno dei tanti termini che la fantascienza ha messo a disposizione della letteratura: androide, robot e replicante. Invece hanno preferito appoggiarsi a un termine che ha avuto così tanto successo negli ultimi decenni.

Eppure la storia della letteratura fantastica e della fantascienza si basa sul fatto che gli esseri artificiali abbiano coscienza, non che siano intelligenti, cioè che siano soggetti: a cinquant'anni di distanza dalla pubblicazione di ‘Io, robot' di Isaac Asimov, sarebbe stata un'ottima occasione per parlare di coscienza artificiale.

Nella letteratura del fantastico gli esseri artificiali sono sempre stati dotati di coscienza; gli autori non si sono preoccupati dell'intelligenza delle loro creature ma della loro capacità di essere soggetti autonomi di decisioni e obiettivi. Frankenstein di Mary Shelley, i robot di Karel Capek e quelli di Isaac Asimov sono tutti dotati di corpi e di coscienza. Solo Stanley Kubrick riuscirà a proporre un essere artificiale, privo di corpo ma dotato di coscienza ed emozioni similumane: HAL, il computer intelligente del film 2001 Odissea nello spazio. E forse proprio il film 2001 Odissea nello spazio avrebbe dovuto essere denominato A.I., poiché in esso HAL personifica il vero grande interprete delle speranze riposte nella disciplina "intelligenza artificiale" che solo un grande genio come Kubrick poteva pensare di proporre, nelle sale cinematografiche, privo di corpo.

Uno dei primi personaggi artificiali dotati di coscienza presenti nella letteratura e non formati da materiale biologico (al di fuori degli esseri golemici) è stato Pinocchio. Il personaggio di Collodi propone una struttura di legno che in un primo momento percepisce il dolore e solo successivamente, dopo aver interagito con l'ambiente, acquista lo statuto di persona. Il suo esserci, la sua coscienza fenomenica è dunque precedente al suo sviluppo cognitivo. In altri casi, al contrario, la creatura artificiale nasce già dotata di una potente capacità elaborativa, ma raggiunge lo status di persona, reale e riconosciuta, solo dopo lunghi anni di interazione con soggetti umani. E' il caso di L'uomo bicentenario di Asimov e dell'androide Data in Star Trek. Al contrario, Frankenstein è l'assemblaggio di organi biologici, i robot di Karel Capek sono costituiti da "protoplasma vivente"; ma ciò che conta in loro è che la loro esistenza è l'effetto della volontà prometeica dei loro creatori umani di produrre un essere a loro immagine e somiglianza. Non è importante il materiale di cui sono fatti: è un costruttore, umano e quindi fattibile, a essere la loro causa formale ed efficiente, e tanto basta.

Dall'intelligenza artificiale alla coscienza artificiale:verso il decennio della coscienza?

 Come per il termine intelligenza anche per il termine coscienza sarebbe opportuno evitare di fare riferimento a definizioni formali. C'è un buon precedente. Charles Darwin, nel capitolo sull'istinto del suo lavoro L'origine della specie, scriveva:"Non tenterò di dare alcuna definizione di istinto. Sarebbe facile mostrare che parecchie e distinte attività mentali possono rientrare nel termine istinto: ma ciascuno capisce cosa significa quando si dice che è l'istinto a spingere un cuculo a migrare e a depositare le uova nei nidi di altri uccelli."

Supponiamo che qualcuno suoni il campanello della porta di casa. Conosciamo perfettamente come il campanello provochi le vibrazioni dell'aria e come queste siano in grado di eccitare il nostro apparato acustico; siamo anche in grado di ipotizzare il possibile percorso dei relativi segnali nervosi lungo le reti neurali del nostro cervello. Tuttavia come avvenga che nel mio cervello si verifichi il "din don" causato dall'aver pigiato il pulsante del campanello resta un mistero. Per coscienza intendiamo questa capacità di fare un'esperienza, un'esperienza cosciente.

Molto si è scritto negli ultimi anni sull'argomento della coscienza; alcuni ritengono che addirittura si sia scritto, o meglio riscritto, troppo. Persino David Lodge ha dedicato un suo romanzo all'ambiente di chi cerca il segreto della mente cosciente. In realtà il problema è stato affrontato con i classici strumenti della filosofia e della psicologia. Solo ora la biologia e la medicina cominciano a non tacciare di visionarietà coloro che utilizzano nuove e più appropriate tecnologie per studiare cervelli e menti. Per la prima volta una rivista internazionale autorevole, Nature Neuroscience, ha scritto (in un suo editoriale del 2000) che "sebbene dieci anni fa pochi ricercatori avrebbero preso sul serio il campo della coscienza, oggi i tempi stanno cambiando. Sebbene lo studio della coscienza resti un campo elusivo, sta nascendo un nuovo consenso tra i neuroscienziati sulle possibilità di affrontare sperimentalmente il problema della natura della coscienza". Neuroscienziati come Damasio ritengono che i prossimi dieci anni saranno decisivi per lo sviluppo di una nuova disciplina che definisca gli strumenti metodologici necessari a comprendere la coscienza. Tuttavia è indubbio che affrontare il tema della coscienza da un punto di vista ingegneristico non sembra, finora, avere suscitato l'interesse della comunità scientifica internazionale. Anzi, al di fuori della fantascienza, è incerta la collocazione temporale della nascita di una artificial consciousness, intesa come disciplina a se stante: gli studiosi non si sono ancora riuniti in occasione di un seminario estivo (sulla falsariga di quello storico di Dartmouth che segnò la nascita ufficiale della artificial intelligence) per parlare di coscienza artificiale o ingegneria della coscienza. Eppure, dopo parecchi anni dal primo convegno di Tucson tenutosi nell'aprile del 1994, si può ritenere che il tema della coscienza sia stato riletto attualizzandolo alla luce dei progressi della neurobiologia e delle scienze cognitive. In quella conferenza poi ripetutasi ogni due anni, si ebbe il primo confronto internazionale sul tema della coscienza, non solo tra filosofi, ma anche con neuroscienziati, fisici, scienziati, studiosi di scienze cognitive, psicologi, studiosi di farmacologia e di neuropsicologia. L'importanza dei convegni di Tucson, e di altri convegni centrati sul tema della coscienza, non è stato tanto il fatto di aver avanzato con successo nuove definizioni della coscienza, quanto di aver riaperto un problema che sembrava — forse a torto — essere stato risolto. Nuovi criteri per la valutazione della coscienza e delle teorie che dovrebbero descriverla sono stati avanzati e non possono più essere ignorati.

Nascita della disciplina denominata "coscienza artificiale"

 La storia della macchine pensanti è testimone di grandi speranze e di cocenti delusioni. Nel 1982, in Giappone, si diede inizio al programma di ricerca FGCS (fifth-generation computer systems) che aveva come obiettivo quello di sviluppare le applicazioni di intelligenza artificiale. Tuttavia, già nel Convegno IJCAI'87 tenutosi a Milano, ci si interrogava, a trent'anni della nascita della disciplina, sul futuro dell'intelligenza artificiale. Nello stesso anno il ritorno prepotente delle reti neurali apriva nuove prospettive alternative al classico approccio dell'intelligenza artificiale. L'intelligenza ha bisogno di una volontà che la guidi. La razionalità deve essere mossa da fini e motivazioni che non possono essere il prodotto delle elaborazioni interne di un sistema chiuso. Le attività mentali non possono essere attività cognitive nel senso di elaborazione razionale e meccanica dei simboli. E così sono diventati ineludibili gli aspetti legati alla capacità del cervello di determinare un soggetto unitario, capace di fare esperienza di se stesso e del mondo circostante, in grado di produrre motivazioni e fini, valori soggettivi e sensazioni. In poche parole, la coscienza.

Come abbiamo già accennato in un precedente paragrafo alla fine degli anni Ottanta e all'inizio degli anni Novanta il problema della mente si era allargato allo studio del comportamento intelligente negli animali e nei robot. Erano nati in questo contesto gli animat e gli esseri robotici, in cui convergono non solo la robotica e l'intelligenza artificiale, ma anche la scienza cognitiva, le scienze biologiche, la filosofia e la linguistica. La robotica si apre alla costruzione di macchine inutili, quali le creature di Rodney Brooks, le quali cominciano a proporre un approccio dal basso verso l'alto basato sulle tematiche dell'apprendimento, dello sviluppo e del ruolo fondamentale del corpo, che i primi tentativi dell'intelligenza artificiale sembravano avere accantonato. Purtroppo questo tipo di approccio, sebbene abbia fornito informazioni circa le modalità dello sviluppo sensoriale e motorio, ben poco ha aggiunto alla natura dell'essere soggettivo. Cog, una delle creature di Rodney Brooks, è sì un umanoide di forma antropomorfa, ma non condivide quasi nulla della struttura mentale e cognitiva propria degli esseri umani. Da un punto di vista strutturale e cognitivo non è altro che un insieme di riflessi elementari orchestrati dai suoi progettisti e costruttori. L'uso delle reti neurali quali strumenti di apprendimento si limita a una, pur sofisticata, capacità di approssimazione di funzioni. Le capacità di apprendimento di Cog sono limitate ad ambiti specifici: non sono in grado di determinare uno sviluppo integrato del sistema. E, a riprova dei limiti del modello proposto, sembra che l'interesse del laboratorio del MIT per Cog stia scemando. D'altra parte, nel lontano 1962 l'ingegnere ungherese Tihamér Nemes, scrivendo (già allora!) di coscienza artificiale in un libro dedicato alle macchine cibernetiche affermava: "Ovviamente, anche le macchine programmate nel modo più sofisticato saranno in grado di imitare solo le manifestazioni più esterne della coscienza".

Diverso e più complesso è l'approccio seguito da Giulio Sandini al LIRA-Lab di Genova che, attraverso un robot antropomorfo di piccole dimensioni (Babybot), cerca di determinare i vincoli e le potenzialità dello sviluppo integrato di un sistema. L'idea è di individuare un percorso di fasi distinte di crescita (mutuamente sovrapposte) tali da permettere la genesi di un organismo cognitivamente complesso. Un obiettivo che potrebbe essere irraggiungibile in un solo passo e che potrebbe richiedere la maturazione separata e graduale di tutta una serie di potenzialità separate.

Finora solo pochi hanno indirizzato la ricerca delle modalità di costruzione di un soggetto artificiale genuinamente intenzionale e pertanto anche cosciente. Fra questi va annoverato il pluriennale tentativo di Igor Aleksander, dell'Imperial College di Londra, di definire e costruire un agente artificiale cosciente, nella convinzione che uno sviluppo adeguato di un essere artificiale  non possa che corrispondere alla nascita di una dimensione mentale (cosciente) artificiale. Del resto anche Searle, storico sostenitore della natura biologica della coscienza umana, ha ribadito che non vi è alcun motivo a priori per negare che una creatura artificiale, capace di riprodurre i meccanismi fondamentali del cervello umano, possa corrispondere a un soggetto cosciente.

Quanto poi la comprensione dei meccanismi biologici sia necessaria alla realizzazione dei meccanismi che sottostanno alla emergenza della coscienza non è affatto chiaro. Da un lato l'intelligenza artificiale classica ha sempre rifiutato di imitare i processi biologici. D'altro lato, proprio il fallimento dell'IA classica — nel riprodurre un soggetto comparabile all'essere umano — sembra spingere connessionisti e neuroscienziati a cercare nella riproduzione esatta dei meccanismi del cervello l'unica via possibile per replicare un soggetto.

Anche in ambito ingegneristico vi sono state numerose aperture. Buttazzo sostiene che la nascita della prima macchina dotata di coscienza artificiale potrebbe essere legato al superamento di una soglia critica di complessità e avanza interrogativi di natura etica sulle conseguenze di una simile realizzazione. E tuttavia sono molti coloro che oggi ritengono necessaria una rivoluzione delle categorie fondamentali per poter affrontare con un nuovo metodo l'integrazione della dimensione soggettiva con quella oggettiva senza che la prima debba ridursi alla seconda. Soprattutto si sta affermando la convinzione che la coscienza sia prima di tutto un fatto empirico, non il prodotto di qualche teoria, bensì qualcosa di cui ciascun essere umano fa esperienza: un punto di partenza e non di arrivo. Anche se con fatica, nuovi metodi sono proposti, nuove ipotesi sono messe alla prova per determinare la natura e le modalità dell'intenzionalità che sta alla base dell'esperienza cosciente.

Le macchine pensanti del XXI secolo avranno gli occhi a mandorla?

 Nel 1988 Frederik Schodt scrisse un libro dal titolo Inside the Robot Kingdom. Japan, Mechatronics, and the Coming Robotopia, il cui contenuto poteva venire riassunto in una frase "I robot stanno arrivando, e sono giapponesi". Addetti ai lavori e non erano ancora suggestionati da Wasubot, il robot pianista che (a Expo'85 di Tsukuba) suonava, su un pianoforte reale muovendo dita e piedi, arie di Bach dopo aver letto lo spartito che una graziosa hostess gli deponeva sul leggìo. Orgogliosamente i giapponesi si riferivano alla loro nazione come al "regno dei robot" (robotto okoku). Anche se era in corso il progetto sui calcolatori del quinta generazione i giapponesi non trascuravano di impiegare le loro incredibili competenze nell'integrazione tra elettronica e meccanica (meccatronica) per costruire i corpi di macchine simil-umane. Seguendo una tradizione consolidata dai fumetti e dai film di animazione l'aspetto esteriore presenta tratti asettici, rigorosamente occidentali (in altre parole: nessuna concessione agli occhi a mandorla), tuttavia la struttura interna, i movimenti, la simulazione dei comportamenti è intrisa di tecnologia e cultura giapponese. I motivi per cui i giapponesi accanto ai robot industriali costruiscono robot dalle sembianze umane sono difficili da individuare. Si può ricordare, per esempio, che Ichiro Kato, all'inizio degli anni Settanta, dette inizio presso la Waseda University al progetto WABOT: tale progetto diede luogo nel 1973 a WABOT-1 (il primo robot bipede in grado di camminare) e nel 1984 a WABOT-2, il robot musicista presentato all'Expo di Tsukuba. Sempre Ichiro Kato promosse nel 1992 l progetto "Humanoid" (nel 1996 il primo convegno internazionale su "Humanoid Robots" verrà tenuto presso la Waseda University). Alcuni maligni commentatori sostengono che i giapponesi sono così terrorizzati dai fenomeni migratori che preferiscono esternalizzare in altre nazioni molte attività produttive e, per quanto concerne le attività di servizio alle persone (impossibili, ovviamente, da esternalizzare) preferiscono affidarsi alla tecnologia, anche la più sofisticata.

Altri preferiscono credere che i giapponesi stiano costruendo i corpi artificiali, rigorosamente privi di materiale vivente, in attesa che qualche demiurgo vi potrà far evolvere adeguati processi mentali allorché antiche barriere culturali e filosofiche saranno cadute. In attesa di questo momento la Sony ha costruito tutta una serie di straordinari umanoidi (da P3, del 1997 e alto 160 cm, ad Asimo, annunciato nel 2000 con i suoi 120 cm d'altezza e i suoi 43 chilogrammi) insieme a cuccioli di umanoidi (come Pino, alto 75 cm, capace di camminare e dare calci a un pallone) e a cuccioli di animaloidi domestici. AIBO - che deriva da AI e BOT (intelligenza artificiale e robot) - è uno dei più noti cagnolini-robot: si vendeva sulle bancarelle al di fuori dei grandi magazzini di Tokyo durante le vacanze di Natale del 2001. Gli strateghi della Sony e dei grandi produttori di oggetti per enternainment sono convinti che il mercato potrà decollare solo quando umanoidi e animaloidi potranno esibire caratteristiche legate ai rapporti che riusciranno ad avere con gli esseri umani: "vengono richiesti comportamenti coscienti, non necessariamente intelligenti, che derivano dalla capacità di avere esperienze e di stabilire rapporti con gli umani con i quali andranno a vivere."

Il problema della coscienza: una soluzione difficile legata al nostro cervello

 Per costruire artefatti coscienti, è necessario rivisitare l'immane lavoro preparatorio che migliaia di anni di storia hanno depositato nella cultura filosofica e psicologica.

Nell'ambito delle tematiche della coscienza artificiale ci si deve interrogare su cosa s'intende per coscienza? Non la coscienza morale, bensì quella che gli anglosassoni definiscono consciousness e che corrisponde alla capacità di un soggetto umano di fare esperienza dei propri pensieri, di se stesso e del mondo. La coscienza è stata la grande assente della ricerca scientifica nel Novecento: adesso i tempi stanno cambiando e la letteratura sull'argomento sta dilagando, impegnando studiosi e premi Nobel che provengono dalle discipline più disparate (Roger Penrose, Gerard Edelman e Francis Crick). Fino a oggi si sono applicate al problema della coscienza le categorie di Galileo, di successo nello spiegare i fenomeni fisici, ma insufficienti nello spiegare i fenomeni mentali.

Quando un essere umano fa esperienza del mondo (ossia percepisce colori e sapori, oppure prova dolore e piacere) coglie degli aspetti qualitativi della realtà, che la scienza galileiana non è in grado di misurare. Tuttavia le qualità esistono: anche se da Cartesio in poi esse sono state relegate nel chiuso di una dimensione spirituale che non può venire aggredita scientificamente. Finora è stato possibile eludere il problema perché non vi erano le condizioni tecnologiche per poter costruire un essere cosciente artificiale. Finora la progettazione di artefatti (automobili, ponti, satelliti, computer) non ha richiesto la comprensione della coscienza. Oggi che i robot iniziano ad avvicinarsi all'essere umano - sia come capacità di calcolo sia come struttura fisica — il problema non può più essere evitato.

Per esempio un embrione, prima della comparsa del sistema nervoso, non può essere considerato un soggetto cosciente (come d'altra parte una persona anencefalica); dopo un sufficiente lasso di tempo, l'essere umano risultante sarà cosciente. La mente non è più una scatola vuota che riceve suoni e immagini dal mondo esterno, ma è una porzione del mondo esterno che trova in se stessa la propria unità. In realtà non si può fare a meno di rivisitare, attualizzandole, quelle teorie filosofiche che dovrebbero suggerire agli ingegneri i processi metodologici e tecnici per realizzare uno dei più affascinanti obiettivi proposti dalla scienza nel secolo XXI: capire chi siamo attraverso la costruzione di una macchina che potrà comunicarci quello che avviene dentro di essa allorché, analogamente a quello che avviene in un essere umano, proverà una sensazione. Forse per costruire una macchina di questo tipo non occorre nessuna ulteriore innovazione tecnologica, né si dovrà attendere la scoperta di qualche misterioso fenomeno fisico o biologico finora sconosciuto, né si dovrà fare ricorso a elementi organici, quali proteine o biochip.

Come si è detto, la scienza, allo stadio attuale, non ha la minima idea di come sia possibile che un sistema fisico (un cervello, un sistema nervoso, un insieme di neuroni) possa produrre quell'insieme strano di fenomeni che corrispondono alla nostra esperienza cosciente. Non solo. La scienza non sa neppure cosa siano questi fenomeni. Paradossalmente il problema della coscienza sta diventando sempre più urgente e importante man mano che le nostre possibilità di indagine del cervello progrediscono. Alcuni decenni fa, quando era pressoché impossibile studiare, in vivo, gli unici cervelli di cui si sappia con certezza che producano la coscienza (i cervelli umani), si poteva sempre sperare che il progredire dei mezzi di indagine avrebbe permesso di scoprire all'interno del cervello un qualche fenomeno fisico sconosciuto e straordinario che avrebbe risolto ogni incertezza. Questo non è avvenuto e il cervello, per quanto complesso, è rimasto un oggetto fisico come gli altri. D'altro lato le teorie filosofiche sulla coscienza, attuali e passate, non forniscono indicazioni chiare su come procedere nella costruzione di un soggetto e sono per questo non-scientifiche nel senso di non-falsificabili empiricamente.

Ma perché è così difficile il problema della coscienza? Un esempio chiarirà la cosa. Immaginiamo di stare guardando una penna rossa. Noi facciamo esperienza della penna e delle sue proprietà, tra le quali quella del rosso. Tuttavia, secondo la scienza, noi siamo il nostro cervello e tutte le volte che facciamo esperienza di qualcosa è perché dentro il nostro cervello succede qualcosa che provoca la nostra esperienza. E tuttavia … il nostro cervello non diventa rosso quando noi guardiamo la penna rossa. Il nostro cervello rimane un oggetto fisico distinto dalla penna che osserva, non ne riproduce le proprietà. E' straordinario che per tanto tempo si sia accettata l'idea che l'oggetto cervello potesse ‘creare' le nostre sensazioni quasi che una ‘sensazione' non fosse nulla di ‘reale' o quasi che il cervello potesse compiere un'azione di ‘magica creazione'. Per quanto se ne sa, nessun oggetto è in grado di creare nessun altro oggetto, al più di assemblare, trasformare, modificare. E l'oggetto cervello non può essere diverso dagli altri da questo punto di vista. Del resto tutte le discipline scientifiche mature sono rette da qualche forma del principio di conservazione. La scienza biologica conobbe uno dei suoi più grandi progressi quando rifiutò l'idea della possibilità della generazione spontanea. La scienza fisica quando introdusse i principi di conservazione del moto e della massa. L'elenco potrebbe continuare numeroso. Non si vede perché il significato e l'esperienza dovrebbero seguire criteri diversi. Inoltre quello che il cervello dovrebbe creare non è neppure descrivibile in termini di presenza fisica. Sensazioni, pensieri, immagini, percezioni nel senso di contenuti della coscienza sono entità quantomeno evanescenti e prive di ogni traducibilità fisica oggettiva (ma non empirica). Attendersi che, quasi per magia, i "segnali nervosi diventino immagini e sensazioni" è ancora più incredibile. L'assunto Galileiano secondo il quale tutte le entità fisiche sono entità oggettive, implica che i segnali, in qualunque sistema fisico (e quindi anche dentro i nostri cervelli) siano e restino fenomeni di tipo fisico. Il plurisecolare dibattito sulla natura e sulla relazione tra le qualità primarie/secondarie ha, di fatto, generato un'innumerevole progenie di paradossi ed enigmi. Forse è tempo che sia posta in dubbio.

Ma se gli esseri umani sono coscienti si deve spiegare come sia possibile che un sistema fisico produca l'esperienza cosciente. Pensiamo alla Terra prima della comparsa degli esseri viventi. E' piuttosto ragionevole supporre che, in assenza di organismi viventi, non vi fosse nessuna esperienza cosciente. All'altro estremo, quattro miliardi di anni dopo, abbiamo la terra popolata dagli esseri umani che, come abbiamo detto, sono coscienti. A un certo punto l'evoluzione deve avere determinato la comparsa dell'esperienza cosciente: dove e perché?

Del resto, e l'esempio è così quotidiano che si tende a dimenticare, l'esperienza cosciente viene prodotta ogni volta che un nuovo essere umano è concepito e si sviluppa. Pensiamo a un ovulo fecondato. E' un oggetto fisico come gli altri dal punto di vista dell'esperienza cosciente. Siccome è privo di sistema nervoso pare ragionevole che sia privo anche di esperienza cosciente. Dopo qualche mese o dopo alcuni anni avrà un'esperienza cosciente paragonabile alla nostra. Un oggetto fisico privo di esperienza cosciente è diventato un soggetto cosciente che fa esperienza di sé e del mondo. Cosa è successo?

Oggigiorno non è chiaro quale sia l'elemento determinante per l'insorgere della coscienza. Non è neppure chiaro se la coscienza insorga in modo brusco o graduale. Nel grafico vengono mostrati alcuni possibili andamenti dell'evoluzione della coscienza. Per esempio, la linea tratteggiata corrisponde a una visione on-off della nascita della coscienza. Altre teorie vengono rappresentate da linee con pendenza e forma diverse (linea continua, linea tratto-punto, linea punto-punto). Si deve sottolineare che la linea tratto punto non presenta un limite superiore perché non è detto che ci sia un grado massimo di coscienza. Vari candidati (codice genetico, anima trascendente, complessità, grado di intelligenza, fenomeni quantistici, relazioni sociali, sviluppo delle capacità linguistiche) sono stati proposti per le unità sulle ascisse.

Oggi la scienza non è in grado di rispondere a nessuna di queste domande e questa incapacità, più di ogni altra considerazione, dimostra la necessità di affidarci, per cercare di affrontare il problema della coscienza, alla costruzione di artefatti dotati di "coscienza artificiale". Il tentativo di costruire qualcosa, di cui non si comprendono appieno i principi, può essere l'unico modo per gettare luce su di essi.

Oggigiorno non è chiaro quale sia l'elemento determinante per l'insorgere della coscienza. Non è neppure chiaro se la coscienza insorga in modo brusco o graduale. Nel grafico vengono mostrati alcuni possibili andamenti dell'evoluzione della coscienza. Per esempio, la linea tratteggiata corrisponde a una visione on-off della nascita della coscienza. Altre teorie vengono rappresentate da linee con pendenza e forma diverse (linea continua, linea tratto-punto, linea punto-punto). Si deve sottolineare che la linea tratto punto non presenta un limite superiore perché non è detto che ci sia un grado massimo di coscienza. Vari candidati (codice genetico, anima trascendente, complessità, grado di intelligenza, fenomeni quantistici, relazioni sociali, sviluppo delle capacità linguistiche) sono stati proposti per le unità sulle ascisse.

L'essere cosciente è legato a qualche altro fattore che l'evoluzione ha selezionato e che lo sviluppo realizza per ciascun individuo . Non sappiamo neppure se esistano limiti a questa capacità di essere coscienti o se possa avere una ulteriore espansione.

E' necessario sottolineare che l'essere coscienti è separato dall'essere vivi. Essere vivi significa essere costituiti da molecole basate sulla replicazione del DNA, essere coscienti significa essere in grado di fare esperienza del mondo. Il fatto che, per ora gli unici esseri coscienti siano anche esseri vivi non deve precludere il tentativo di costruire esseri coscienti senza fare ricorso a strutture biologiche viventi. Una ulteriore precisazione: in base alle conoscenze odierne, niente lega la struttura del DNA o dell'atomo di carbonio al nostro essere coscienti. E se questo fosse vero significa che è possibile supporre e immaginare il modo in cui una struttura artificiale possa produrre un soggetto dotato di esperienze coscienti. In sintesi, è possibile che il secolare impasse in cui si è imbattuta la scienza, nello spiegare la natura della mente cosciente, sia causato non tanto dalla natura della problema in sé quanto dalle ipotesi che acriticamente si sono accettate sulla natura della realtà. Cambiando queste, e sottoponendole al vaglio dell'evidenza è possibile che si guadagni una migliore comprensione tanto della coscienza quanto della realtà.

In ogni caso il problema della coscienza artificiale sembra costituire l'ultimo atto della storia dell'ingegneria. Dando al termine ingegnere il termine estensivo di colui che fa, la costruzione di un artefatto in grado di poter dire Io esisto potrebbe rappresentare il sogno finale dell'essere umano costruttore che vuole costruire anche senza sapere. Vitruvio, che costruiva (ai tempi dell'antica Roma) ponti senza conoscere le leggi della statica, poteva essere considerato un ingegnere che costruiva senza sapere. All'inizio del terzo Millennio l'atto finale del grande dramma dell'essere umano che vorrebbe capire soprattutto se stesso, potrebbe venire scritto non attraverso che la scienza che vorrebbe capire come funziona la mente umana, bensì attraverso l'ingegneria che ci permetterebbe, attraverso la coscienza artificiale di poter comunicare con dei Soggetti, che siamo stati noi a costruire.

(Ndr: ripreso dal mensile MEDIA DUEMILA di giugno 2002)