Vi racconto il futuro

di
Federico Faggin
(guru di Silicon Valley e inventore del chip)

La tecnologia di base per costruire le macchine dell'era informatica è la tecnologia dei semiconduttori, il materiale da costruzione principale per la creazione sia dell'infrastruttura che delle apparecchiature informatiche. Lo ha fatto per quarant'anni aumentando le prestazioni e riducendo il costo, l'ingombro e il consumo energetico delle funzioni elettroniche, con una progressione geometrica.

Ecco dei dati: nel 1960, il più piccolo transistore era fatto con un pezzettino di silicio di un millimetro quadrato e con uno spessore di un decimo di millimetro. Di fatto, le memorie più avanzate che si possono costruire oggi, contengono 512 milioni di bit, quanto basta per immagazzinare il testo di cento libri di 250 pagine ciascuno.

Dal 1960 a oggi, l'industria dei semiconduttori ha raddoppiato ogni diciotto mesi, in media, il numero di transistori contenuti in un chip. Contemporaneamente ne ha aumentato le prestazioni e ridotto il consumo.

Per esempio, il primo microprocessore che ho progettato, l'intel 4004, aveva 2300 transistori, lavorava a una frequenza di 750 kHz, dissipava 750 MW. Poteva eseguire circa 100 mila istruzioni al secondo e costava 30 dollari. Il microprocessore più avanzato di oggi contiene 40 milioni di transistori, cioè 2 mila volte di più, funziona a una frequenza di 2 GHZ, cioè è 2500 volte più veloce, e consuma e costa soltanto dieci volte di più del suo predecessore.

Tutto questo in poco più di trent'anni. Oggi il costo della funzione fatta dal 4004 sarebbe meno di un centesimo di dollaro.

Ma quando si fermerà questo progresso da capogiro? Le brutte notizie sono che si fermerà. Ecco le buone notizie: ci vorranno circa 30-40 anni prima di esaurire le possibilità di miniaturizzazione insite nella tecnologia attuale. Ciò poiché siamo ancora lontani dal raggiungere i limiti fisici fondamentali imposti dalla natura atomica della materia. E la storia non finirà qui: ci saranno possibilità di ulteriore miniaturizzazione usando nuove tecnologie che sono già allo studio in molti laboratori di ricerca avanzata.

Il trucco più importante che abbiamo usato per quarant'anni per fare circuiti sempre più complessi e veloci è stato quello di ridurre le dimensioni fisiche dei transistori. Nel 1970 le dimensioni critiche dei transistori più avanzati erano di 7 micrometri, sette milionesimi di metro. Oggi siamo arrivati a 0,13 micrometri, un quinto della lunghezza d'onda della luce rossa. Si stima che si riuscirà ad arrivare fino a 0,01 micrometri, ovvero 10 nanometri, dieci miliardesimi di metro, prima di raggiungere i limiti fisici insormontabili nella costruzione del transistore MOS che è alla base della microelettronica contemporanea. Si prevede che si raggiungerà questo traguardo fra dieci-quindici anni.

Tuttavia, siccome i circuiti integrati odierni sono costruiti sulla superficie di una fetta di silicio monocristallino e usano soltanto uno strato sottilissimo di silicio, man mano che ci avvicineremo al limite di 10 nm, cominceremo a costruire chips con più di uno strato attivo, aumentando gradualmente il numero degli strati fino a arrivare a qualche migliaio, fra 40-50 anni. È come se oggi sapessimo fare soltanto fabbricati a un piano. Quando i fabbricati diventano troppo estesi bisogna imparare a costruirli con più di un piano. Alla fine impareremo a fare i grattaceli.

Applicando queste nuove tecniche, il chip più complesso che saremo in grado di fare nell'anno 2050 avrà da 10.000 a 100.000 miliardi di transistori, in un cubetto di silicio di pochi centimetri cubici, contenente un migliaio di strati attivi. Potremo così portarci tranquillamente in tasca tutta l'informazione contenuta in 100 milioni di libri tradizionali, immagini incluse. Man mano che le dimensioni dei transistori diminuiscono e il livello di integrazione aumenta, i transistori diventano velocissimi; pertanto i limiti di velocità dei chip dipenderanno sempre di meno dalla velocità dei transistori, e sempre di più dalla complessità delle interconnessioni tra di loro e dalla capacità di eliminare il calore generato dalla potenza dissipata.

Sebbene la vitalità della tecnologia dei semiconduttori continuerà ad alimentare il progresso esponenziale dell'informatica per ancora tre-quattro decenni, già si cominciano a profilare all'orizzonte tecnologie alternative che potranno continuare la marcia del progresso quando la tecnologia MOS raggiungerà la maturità.

LA NANOTECNOLOGIA

La più importante di queste nuove direzioni è la nanotecnologia, che si prefigge di costruire macchine manipolando un atomo o una molecola alla volta, esattamente come fa la biologia. La differenza fondamentale è che la biologia richiede acqua mentre la nanotecnologia può essere secca.

Una cellula vivente ha il diametro di qualche micrometro ed è essenzialmente un sacchettino microscopico contenente acqua e una grande varietà di molecole inorganiche, organiche e biomolecole, queste ultime aventi dimensioni da uno a dieci nm. Le biomolecole sono fatte aggregando un gran numero di molecole organiche ed inorganiche più semplici. In sostanza, una biomolecola è come una piccola macchina specializzata a fare un compito specifico, una nanomacchina.

Molte di queste molecole sono proteine, costruite, molecola dopo molecola, da minuscole fabbriche, i ribozomi, che leggono le istruzioni scritte su una lunga molecola di acido ribonucleico - una specie di nastro dove le istruzioni sono codificate dalla sequenza di quattro molecole specifiche - e attaccano una dopo l'altra molecole di aminoacidi. È come scrivere una lunga frase usando molecole invece di lettere dell'alfabeto.

La nanotecnologia si prefigge di poter creare intere macchine complesse e non soltanto la parte elettronica di queste. In un certo senso si potrebbe dire che l'era informatica odierna è caratterizzata dalla microtecnologia, l'abilità di creare macchine sulla scala dei micrometro, e la microelettronica sta alla microtecnologia come la nanoelettronica sta alla nanotecnologia.

Una delle tecnologie importanti della microtecnologia che stanno facendo molto progresso è il MEMS (micro electrical mechanical systems) cioè micromachine meccaniche ed elettriche fatte di silicio che contengono motorini elettrici, ingranaggi, pompe, milioni di specchietti mobili, che avranno le più svariate applicazioni.

Uno dei materiali più promettenti della nanoelettronica è il nanotubo, un tubo del diametro di poco più di un nm, le cui pareti sono costituite da atomi di carbonio disposti in un reticolato di esagoni che si ripetono ad intervalli regolari. Il nanotubo è quindi una nuova forma di cristallizzazione del carbonio, scoperta per caso nel 1991. Il nanotubo può avere caratteristiche elettriche straordinarie se si aggiungono atomi di altri elementi chimici in posizioni strategiche. Può essere un conduttore, un isolante, un semiconduttore o addirittura un superconduttore. Può anche essere un laser.

È la prima volta che si intravede una nuova tecnologia con il potenziale di soppiantare il silicio quando, e solo quando, questo raggiungerà la sua maturità tecnologica.

IL SUPERCOMPUTER

Finora ho parlato della tecnologia - per creare il materiale da costruzione delle macchine informatiche, ma che cosa costruiremo? È sorprendente che, malgrado il progresso geometrico di cui ho parlato, l'appetito per velocità di elaborazione sempre più alte cresce più rapidamente dell'abilità di un computer con una sola unità centrale di soddisfarlo: pertanto vedremo sempre di più computer paralleli, cioè computer con più di una unità centrale.

Già i nostri personal computer hanno un microprocessore con più di una unità aritmetica e i server hanno tipicamente da due a otto microprocessori. Una tendenza, questa, che continuerà nel futuro. Ciò che sta accadendo nel campo dei supercomputers può essere un suggerimento del possibile futuro dei computer normali.

Quest'annuncio ha preso tutti alla sprovvista e dà un nuovo giro di vite alla corsa verso il PetaFLOP supercomputer, cioè un computer in grado di fare un milione di miliardi di operazioni al secondo, il cui traguardo potrebbe essere raggiunto prima della fine del decennio.

Una delle direttrici importanti del progresso software è quindi lo sviluppo di software per computer paralleli, la cui efficienza è condizionata dalla particolare architettura della macchina. Non c'è dubbio che il software e l'hardware dei computer paralleli coevolveranno man mano che impareremo a progettare macchine parallele sempre più efficienti.

Al di là del computer tradizionale che continuerà ad avanzare per i prossimi trent'anni con la prevedibilità del progresso geometrico dell'hardware cui ormai siamo abituati, vediamo già emergere tre nuove strade rivoluzionarie: il computer riconfigurabile, il computer intelligente e il computer quantico.

IL COMPUTER RICONFIGURABILE

Il computer riconfigurabile sarà costruito usando, in parte o completamente hardware riconfigurabile, cioè hardware contenente milioni di porte logiche le cui interconnessioni sono elettricamente programmabili. In questo modo sarà possibile ottimizzare l'hardware alla particolare applicazione al momento dell'esecuzione, nonché economizzare sulla quantità di hardware richiesto poiché lo stesso chip potrà fare tutte le funzioni di ingresso/uscita, per esempio, che ora richiedono ciascuna dell'hardware dedicato.

Nel computer riconfigurabile, anche l'architettura dell'hardware è controllata dal software. Questo computer offrirà la possibilità di riparare automaticamente i guasti e potrebbe anche creare il substrato hardware ideale per l'apprendimento automatico.

IL COMPUTER INTELLIGENTE

Il computer intelligente è stato il sogno ancora non realizzato dell'intelligenza artificiale. Malgrado l'enorme progresso fatto, oggi non sappiamo ancora come fare macchine autonome e intelligenti; per esempio, un'automobile in grado di guidarsi da sola nel caotico traffico cittadino.

Il cervello è rimasto tuttora l'unico esempio esistente di una macchina intelligente e autonoma, però il suo funzionamento è ancora essenzialmente un mistero.

Mi aspetto che lo studio del cervello come organo di elaborazione dell'informazione - non come organo biologico, che è da poco iniziato, fornirà nuovi modelli fondamentali per la realizzazione di macchine intelligenti. Parlo di macchine capaci di imparare da sole, invece di dover essere programmate. Queste a loro volta saranno la base della vera robotica, che ancora non esiste.

Se dovessi prevedere quale sarà la nuova era che sostituirà l'era informatica, direi l'era della robotica intelligente basata sulla nanotecnologia.

La tecnologia dell'era informatica sorse dalla tecnologia avanzata dell'era industriale - la telefonia - per poi creare la sua tecnologia specifica, la microelettronica e il microprocessore. Allo stesso modo mi aspetto che l'era robotica sorgerà dalla tecnologia avanzata dell'era informatica- la microtecnologia - per poi creare la sua tecnologia specifica, la nanotecnologia.

Le applicazioni di macchine autonome e intelligenti saranno innumerevoli. Sarà possibile creare fabbriche automatiche flessibili, macchine agricole per l'agricoltura automatica, robot casalinghi, macchine autoguidanti di altissime prestazioni e sicurezza che apriranno la strada a nuove possibilità di veicoli terrestri, aerei, navali e misti, e così via.

Mi aspetto anche che le nuove conoscenze richieste per fare robot intelligenti ci metteranno finalmente in grado di fare progresso nella comprensione delle nostre facoltà superiori come la creatività, I'intuizione e la consapevolezza, aprendo un nuovo capitolo della storia umana.

IL COMPUTER QUANTICO

L'altra strada rivoluzionaria cui ho accennato è il computer quantico, per certi aspetti ancora più rivoluzionario del computer intelligente. Parlo di un oggetto altrettanto strano quanto lo è la meccanica quantistica sui cui principi esso si basa.

La meccanica quantistica ci insegna che un elettrone è contemporaneamente sia una particella come un'onda e che l'azione a distanza istantanea, proibita dalla fisica classica, esiste per certe situazioni in cui gli stati quantici sono correlati.

La possibilità teorica di creare un computer quantico è già stata dimostrata sperimentalmente, almeno per alcune operazioni elementari. Durante le operazioni di calcolo del computer quantico non è possibile sapere nulla su quanto avviene all'interno del computer, tranne che i qubits diventano bit convenzionali quando è pronta la risposta finale.

(Il computer quantico invece di operare sui bit di informazione -l'uno e lo zero, il si e il no, del computer classico- opera su qubits, bit di informazione che sono simultaneamente sia uno che zero, sia si che no: un paradosso nella logica tradizionale)

La ricerca per tale tecnologia è già iniziata e potrebbe anche fornire una strada alternativa per sostituire la tecnologia del silicio, quando quest'ultima arriverà alla fine della sua evoluzione. Ma non è ancora chiaro, comunque, se riusciremo a realizzare il computer quantico.

(Ndr. Ripreso dalla rivista "Bancaforte" del bimestre novembre-dicembre 2002)