The chip of the future will work like our brain. 

 By Federico Faggin (* Biografia a fondo pagina))

 Computers combine two distinct and interacting parts: hardware and software. The hardware is the physical structure hosting the software and controlled by it. Fixed at the time the computer is built, the hardware cannot be changed, except for the simple addition of memory and peripheral devices. The versatility of the computer is determined entirely by the software loaded in its memory. The software represents the "spirit" of the machine, its unique pattern, its evolving part, reflecting the knowledge and cleverness of its creators. 
Without hardware, software would be an unexpressed potentiality frozen in the abstract pattern of its informational bits. Without software, hardware would be an inert and useless object. in the human brain there is no distinction between hardware and software: The biological neural networks of the brain are instead a special kind of intelligent hardware that is not completely fixed at birth but evolves and modifies with time as the person grows and learns. The vital functions of learning procedural and declarative knowledge and of storing and associatively retrieving information are accomplished by the unique plasticity of the brain's hardware. This hardware changes with experience and patterns of use.

The brain is a self-programming, self-learning, and self-managing system. It is an autonomous system; there are no external programmers preparing, off line, the strings of bits to be "downloaded" into its memory. So if we wish to create computers in the image of our brain, the basic architecture of our computers must change. Fortunately, important changes are already occurring, gradually transforming the architecture of our computers in new directions inspired by the extraordinary capabilities of our brain. An important ingredient in this movement was added 15 years ago by the late Ross Freeman, cofounder of Xilinx and inventor of a new type of integrated circuit: the field-programmable gate array (FPGA). 

This chip consisted of a few hundred logic gates whose interconnections could be changed by trategically positioned switches. The electronic switches were in turn individually controlled by internal memory cells. By appropriately loading and storing different streams of data in the chip's memory, the nterconnections of the gates could be altered, modifying the function of the circuit. The same hardware could then be reconfigured to perform different functions at will.

The capabilities of the early FPGAs were quite modest. But it didn't take long for semiconductor technology's exponential advances to enable the creation of today's FPGAs, with more than 200,000 reconfigurable gates in a single chip--a thousandfold increase in 15 years. Large portions of a system can now fit in a single device, and in a few years exciting new possibilities will appear as we master how to integrate millions of gates with real-time reconfigurability. Imagine having a circuit with, say, 10 million gates rapidly reconfigurable at will, as many times as one wished. Then new applications could be realized by simply changing the hardware instead of changing the software.

At first sight, this approach looks like a step backward. After all, the main reason for the phenomenal success of computers was eliminating the need to design and construct different hardware for different applications. However, there is a major benefit when an application is mapped directly into hardware: It runs much faster than an equivalent software solution running on a general-purpose computer. In fact, even today, with microprocessor clock rates approaching 1,000 megahertz (1 billion cycles per second), there are many real-time applications that cannot be handled with software only, because the processor speed is too slow. 

Suppose, however, that the particular hardware needed could be assembled in a matter of tens or hundreds of microseconds from a sea of uncommitted gates--a new design for a new application, just when it is needed. Then the very raison d'être of the traditional computer disappears. It doesn't mean hat the traditional computer will soon disappear, of course, but I believe that the natural evolution of this remarkable new technology will augment and deeply transform the architecture and capabilities of future computers. With reconfigurable computing it isn't necessary to assemble all the required hardware out of uncommitted gates. Depending on the application, it may be advantageous to reconfigure only a portion of the system, while the rest may use one or more standard microprocessors with their attendant software. Many communication applications are today ripe for reconfigurable computing, which would allow them to handle the plethora of different high-speed communication protocols more easily. 

These applications require the use of highly specialized and dedicated hardware, often in combination with special microprocessors, called DSPs (digital signal processors). In the future, it would be very cost-effective to simply reconfigure the hardware required for a particular protocol just before a communication session starts, in effect reusing the same hardware for all protocols. As the number of reconfigurable gates per chip increases, many new applications can be addressed. For example, combining one or more fixed-instruction-set microprocessors with large amounts of reconfigurable gates will further extend the capabilities and reach of "systems on a chip." Chips in which the microprocessor itself is partially, or totally, reconfigurable will be able to run legacy software written for other computers, or optimize the architecture for critical applications. 

We can also expect chips containing hundreds of identical microprocessors with reconfigurable interconnections among them to change the topology of the parallel processors in supercomputers, optimizing them for the problem at hand. It is very clear that, as time goes on, reconfigurable chips will have an ever increasing impact in mainstream applications. The real significance of a great invention ultimately rests in its ability to transcend its original purpose and empower radically new ideas. Reconfigurable hardware holds such an extraordinary potential. Not only will it give us additional flexibility in our current directions, but more importantly, it will create the substrate for emergent capabilities of awesome reach. I believe that the natural evolution of this technology will allow us to create autonomous, intelligent machines--systems capable of self-learning and self-adaptation. 

Of all the technologies we have available today, only reconfigurable hardware appears to have all the critical properties currently found only in biological neural networks. But the task ahead is daunting: To create autonomous machines, we need to invent the architectures and the intelligent hardware of self-learning and self-repairing systems. Such systems will require large amounts of flexible and uncommitted hardware resources to map new and unanticipated knowledge and to duplicate new circuits to replace faulty ones. At the moment, we know very little about autonomous systems. However, the availability of reconfigurable hardware will provide smart engineers with a sort of clay to start the experimentation process. This creative process will inevitably lead to the coevolution of both the novel architectures and the unique plastic hardware required by the truly intelligent systems of the future.

 By Federico Faggin 

"Federico Faggin led the design and development of the world's first microprocessor. He is the cofounder of Synaptics, a company creating technology based on the senses of sight, sound, and touch".

«Nel cervello umano non c’è distinzione tra hardware e software: le reti neurali biologiche del cervello sono invece un tipo speciale di hardware intelligente che non è completamente
fissato alla nascita, ma evolve e si modifica con il tempo a mano a mano che la persona
cresce e impara. Le funzioni vitali dell’apprendimento, della conoscenza procedurale
e dichiarativa e del memorizzare e richiamare in maniera associativa le informazioni
sono svolte dalla plasticità unica dell’hardware del cervello. Questo cambia con l’esperienza e le diverse modalità di utilizzo».

Federico Faggin 

è nato a Vicenza nel 1941, si è diplomato nel 1959 all'Istituto Rossi. La sua prima esperienza comincia alla Olivetti come assistente ingegnere e partecipa alla progettazione per la nascita di un piccolo computer (a transistori). Nel 1961 lascia la Olivetti per completare la sua istruzione e nel 1965 si laurea in fisica all'Università di Padova. con 110 e lode. Nel 1967 è alla Sgs Fairchild (ora Sgs Ates) dove sviluppa il processo per la fabbricazione dei circuiti Mos,  è poi promosso a capo del gruppo Mos e nel 1968 lo troviamo  negli Stati Uniti al laboratorio di sviluppo della stessa Fairchild a Palo Alto in California, dove sviluppa il Mos Silicon Gate. Nel 1970 passa alla Intel e qui realizza il ....

... primo microprocessore a 4 bit ( il famoso Mcs 4004) poi il microprocessore a 8 bit, l'8080 (solo più tardi  la Intel senza Faggin sfornò l'8088,  il primo che ebbe poi un discreto successo commerciale).

Nasce così lo strumento che ha rivoluzionato il mondo dell'informatica e la vita dell'uomo negli ultimi anni.

Nel 1974 Faggin lascia la Intel per fondare la sua Zilog Inc. E qui (9 marzo 1976) che esce un altro leggendario microprocessore lo Z80. E' l'inizio del piccolo computer di massa, non più riservato alle grandi aziende, ma finisce nelle case di tanti appassionati che seguono fin dall'inizio  quel fenomeno che d'ora in avanti prenderà il nome  


Faggin nel 1982 fonda la Cygnet Technology, un azienda d'avanguardia mondiale, e nel 1986 è il turno della Synapctics, l’azienda di cui oggi Faggin è presidente e che opera nel settore dell’intelligenza artificiale.  

L'impegno degli ultimi anni è stato lo sviluppo dei sistemi integrati di comunicazione e computing. Il Communication Cosystem, che permette di usare il personal computer non solo per computing, ma per telecomunicazioni sia telefoniche che per dati e programmi, è un computer di estrema complessità, ma che si presenterà a noi utilizzatori  come strumento di grande semplicità d'uso. E' il microcomputer delle telecomunicazioni di cui tanto si parla in questi ultimi tempi. Cioè lo strumento e la tecnologia del futuro prossimo; che alla Cygnet già realtà.
Quando lo accennò qui in Italia, in uno dei suoi rientri a Vicenza, a metà anni Ottanta, in una affollata serata alla Fiera di Vicenza con il gotha della finanza, imprenditoria, e del commercio, pochi capirono di cosa stava parlando (l'autore di questa "Cronologia", quel giorno fu invitato al famoso incontro come "imprenditore tracciante" , perchè fin dal 1981 era uno dei pochi in italia che insegnava e poi vendeva quelle strane macchine che presero poi il nome di PC, il Personal Computer - Anni di pionierismo).

In quella famosa sera assistemmo sbalorditi alla connessione a distanza di due computer tramite la linea telefonica con due accoppiatori acustici (non esisteva ancora il modem attuale).

Io stesso poi lo proposi ad una grande banca La Banca Cattolica del Veneto (oggi Banca Intesa). Feci la dimostrazione, ma un dirigente invece di gridare al miracolo, mi liquidò dicendomi "questo aggeggio non avrà fortuna da noi; i dati dei conto correnti non possono circolare su un qualsiasi filo telefonico, sono molto riservati". Il doppino telefonico - ormai quasi centenario - era guardato con commiserazione !!
Nel frattempo venni in possesso perfino di un artigianale modem funzionante a ponte radio (con un semplice CB amatoriale) e collegamenti su radiofrequenza (oggi WiFi), ma ero in anticipo su i tempi. Passò del tutto inosservato e oggi lo conservo come cimelio. L'Italia non era ancora pronta e la rete di Internet doveva ancora nascere.

Solo nel 1991 presso il CERN di Ginevra il ricercatore Tim Berners-Lee definì il protocollo HTTP (HyperText Transfer Protocol), e Il primo browser con caratteristiche simili a quelle attuali, il Mosaic, venne realizzato nel 1993. Esso rivoluzionò profondamente il modo di comunicare in rete. Nacque così il World Wide Web. - Che ha aperto l'uso di Internet ad una massa di milioni di persone


Arrivati quasi ai limiti fisici dei transistori MOs, oggi Faggin è anche  impegnatissimo negli studi  del computer intelligente e riconfigurabile, il computer neuronale, il computer quantico ancora più rivoluzionario, che si baserà sugli strani e tuttora incomprensibili principi della meccanica quantistica. ("è già dimostrato che è già possibile crearlo" afferma Faggin). E la realizzazione di un computer che opera su "quibits" bit di informazione che sono simultaneamente sia uno che zero - un paradosso nella logica tradizionale (*) -  basato sulle proprietà ondulatorie di atomi e molecole. 
Strutture molecolari  che possono essere specificate da molecole di DNA;  si potranno  realizzare dunque macchine che sono riproducibili biologicamente. Da questa tecnologia potrebbe emergere una nuova microelettronica basata sulle proprietà quantiche di molecole organiche, anzichè utilizzare le proprietà fisiche del silicio.

Concludendo recentemente un'affascinante conferenza, nella sua ultima visita a Vicenza, Faggin ha così concluso la stessa con un messaggio molto.....  filosofico
 (suo padre era un grande insegnante di Filosofia, e  chi scrive, ha conosciuto entrambi nei primi anni '80;  il primo quando tornava a Vicenza  mi onorava facendomi visita nel mio piccolo "buco" dove iniziai a vendere i primi computer in Italia ricevendo da lui preziosi consigli, mentre con il padre ci si vedeva perchè condividevamo assieme  l'amore per la filosofia e in particolare per Nietzsche - Fu poi anche l'autore di un prezioso libro su Plotino)

".....Oggi, nelle nazioni più avanzate, molte persone stanno scoprendo che il benessere economico non basta; che esso è solo una condizione necessaria ma non sufficiente, per vivere bene, in armonia con se stessi con i propri simili e con l'ambiente: Inoltre si comincia a capire che se tutto ciò che vogliamo è ottenere una quantità sempre maggiore di informazione, sempre più velocemente, dovunque ci troviamo, in una specie di frenesia compulsiva, la vita diventa un tapis-roulant insensato, che ci travolge nella sua accelerazione. E' una crisi di significato da cui sta emergendo un rinnovato interesse per le cose dello spirito dopo un periodo informato soprattutto dal materiale scientifico.

Il bisogno spirituale dell'uomo risponde ad un profondo istinto che lo spinge da sempre  a cercare di capire il proprio destino nel contesto cosmico. E' il bisogno che sentiamo tutti di significato: di capire il senso della nostra vita individuale, con le sue difficoltà, sofferenze, successi, nonchè di captare il profondo significato dell'avventura umana.

Mi auguro che da questo rinnovato interesse spirituale emerga una organizzazione senza leader,  senza manifesti, senza bilanci e senza un corpo direttivo e amministrativo; 

una organizzazione virtuale e silenziosa, i cui membri condividono il bisogno, vissuto profondamente nel loro intimo, di contribuire a risolvere i problemi che affliggono il pianeta. Creando sia la logica che gli strumenti della trasformazione sociale e dando un esempio di vita, questi individui potrebbero diventare gli attori principali della vera rivoluzione sociale, cambiando finalmente il nostro mondo in un mondo migliore. 

E potrebbe essere Internet  -esso stesso esempio eclatante di auto-organizzazione spontanea basata sulla collaborazione-  lo strumento primario di questa organizzazione virtuale, è  il crogiolo da cui nascerà la prima cultura planetaria" 

«Alimentati dal continuo progresso della microelettronica, i computer continueranno a
diventare sempre più piccoli, potenti, flessibili ed economici. Fra 50 anni potremo integrare in un singolo chip la funzione equivalente a dieci milioni dei chip più avanzati
d’oggi. Parlo di un milione di miliardi di transistori contenuti in un cubetto dal volume di pochi centimetri cubici. È una complessità da capogiro, che rivoluzionerà la nostra vita molto più di quanto non sia successo negli ultimi 50 anni, permettendoci di creare nuovi tipi di macchine non ancora pensate. Inoltre, l’interazione tra l’uomo e il computer diventerà sempre più naturale, intuitiva ed efficace, rendendo il computer accessibile a nuove utenze meno istruite. Il computer potrà acquistare i sensi: il tatto, l’udito, la vista, non solo per comunicare più efficacemente con noi, ma anche per ottenere informazioni dal contesto, autonomamente, in modo da capire meglio ciò che vogliamo.
Solo così sarà possibile che il computer faccia ciò che intendiamo anziché ciò che gli diciamo».



Ma cosa aspettiamo per proporlo per un Nobel?
Dopo Marconi e Fermi non è lui il più grande scienziato italiano di questo secolo?
Più conosciuto in America che non in Italia.

Infatti, nella Hall of Fame di Akron, in Ohio, il suo ritratto è esposto accanto
a quelli dei due italiani famosi: Guglielmo Marconi ed Enrico Fermi.
E per gli americani lui è "MISTER CHIP", lui uno dei grandi protagonisti
della Silicon Walley in California.
Lo hanno dato a Natta il Nobel, che ha inventato la plastica (!) 
perchè non a Federico Faggin? 

(*) Vedi anche (sullo 0 ) "DAI CHING AI COMPUTER"

le altre pagine di