di Riccardo Meggiato

 

 

Il mondo a venire sarà dominato dall’intelligenza artificiale, che ad oggi sta diventando sempre più sofisticata grazie alla maggior potenza di calcolo offerta dalla moderna tecnologia. Tuttavia, ciò che viene difficile percepire, per esempio di fronte a un sistema di riconoscimento vocale o facciale, che dell’intelligenza artificiale fa grande uso, è la complessità dei calcoli necessari per giungere all’obiettivo. Uno sguardo verso lo smartphone, questo si sblocca dopo averci riconosciuto e ci dà accesso alle sue funzioni. In effetti sembra un meccanismo semplice, ma dietro le quinte è frutto di complesse reti neurali. In buona sostanza, di repliche in scala ridotta del cervello umano, dove piccole entità digitali vanno a riprodurre il comportamento dei nostri neuroni. Più neuroni artificiali ci sono, più raffinati sono i sistemi di intelligenza artificiale.

Il problema è che gestire reti neurali complesse è alla portata solo di processori molto potenti e costosi, tipici di computer da ricerca, quindi la diffusione su larga scala di sistemi di intelligenza artificiale realistici passa, inevitabilmente, per alcune semplificazioni. Per esempio, i sistemi di riconoscimento facciale degli smartphone richiedono il collegamento a sistemi cloud. I dati rilevati dalla fotocamera sono inviati ai server dei produttori, computer molto potenti che eseguono i calcoli necessari e restituiscono l’informazione desiderata. In mancanza di questo escamotage, toccherebbe accontentarsi di tecnologie molto più grezze, perché i processori dedicati ai prodotti di massa, come appunto smartphone e tablet, non hanno potenza sufficiente per gestire come si conviene le reti neurali. Sulla base di questa considerazione, alcuni ricercatori del MIT hanno progettato un processore apposito per incrementare la velocità di calcolo delle reti neurali da tre a sette volte. Fino a questo momento, infatti, si era ricorsi a processori sui generis, capaci di eseguire qualsiasi tipo di calcolo, ma la mancanza di specializzazione non li rendeva particolarmente adatti allo scopo e, al contempo, alzava i consumi elettrici, il che può essere problematico, soprattutto nel settore dei dispositivi mobili. Il processore sviluppato all’MIT, invece, essendo specializzato solo sui calcoli necessari alle reti neurali, ha dalla sua anche il risparmio, visto che riduce i consumi del 94-95%.

Avishek Niswas, uno dei ricercatori coinvolti nel progetto, spiega che i processori tradizionali hanno il grosso problema di lavorare a scomparti separati., Un po’ come se contenessero al loro interno altri processori, ciascuno dotato della propria memoria. Per eseguire calcoli specifici, come quelli necessari per le reti neurali, i dati devono essere “rimpallati” fra tutte queste memorie e questi processori, con un vistoso calo delle prestazioni e un aumento dei consumi.

Ed ecco la vera, grande rivoluzione. Per migliorare le cose, si è pensato di simulare al meglio quello che avviene nel nostro cervello, a partire dalle reti neurali che rappresentano una buona approssimazione. In estrema sintesi, il progetto dei ricercatori dell’MIT consiste nel gestire a grande velocità una grossa mole di moltiplicazioni, con le quali simulare il passaggio di segnali elettrici attraverso neuroni e sinapsi. E un tale meccanismo, nel caso delle reti neurali, è riprodotto con la trasmissione di una serie di “+1” e “-1” ottenuti proprio da questi calcoli specifici.

Dario Gil, vice presidente del dipartimento di intelligenza artificiale di IBM si è dimostrato entusiasta del progetto e lo considera un grande passo in avanti verso la diffusione di massa dei sistemi basati su reti neurali. In particolare nel campo dell’Internet delle Cose (IoT), vale a dire quei dispositivi che connettono ogni aspetto della nostra vita alla rete, e che entro il 2020 toccheranno un valore di mercato di 475 miliardi di dollari. Grazie a questo chip, e alle sue future evoluzioni, avremo tecnologie pronte a servirci meglio e più in fretta. Benvenuti nel futuro!