L’intelligenza artificiale sta introducendo innovazioni in ogni settore ad una velocità folle: ogni giorno una nuova applicazione del deep learning — una particolare tipologia di algoritmi che può essere considerata il figlio prediletto dell’AI — permette di automatizzare un’attività che fino ad un momento prima si credeva fosse impossibile per una macchina. Questa accelerazione, però, sembra essere destinata a fermarsi se non vengono prodotti nuovi algoritmi.

Per capire il motivo per cui diversi ricercatori stanno cercando di sviluppare algoritmi innovativi rispetto a quelli usati dal deep learning — passando persino per vie molto meno digitali come ad esempio le scienze cognitive — dobbiamo fare un salto indietro di 60 anni.

Esattamente nel 1957 Frank Rosenblatt introduce il Percettrone, il primo prototipo di rete neurale artificiale mai prodotto e, soprattutto, talmente poco avanzato — semplicemente dei nodi di ingresso collegati a dei nodi d’uscita — da essere solamente in grado di risolvere semplici funzioni matematiche. L’unica speranza, già allora riconosciuta, era poter unire insieme più livelli del Percettrone, in modo da creare un sistema simile a quello utilizzato dagli algoritmi di deep learning oggi.

Per raggiungere un tale livello, però, mancavano ancora tre tasselli importanti. Geoffrey Hinton, considerato uno dei padri del deep learning, contribuì nel 1986 a fornire il primo: la backpropagation.

 

 

Nella sua ricerca, pubblicata insieme a David Rumelhart e Ronald Williams, si introduce la tecnica che ancora oggi viene utilizzata per addestrare i diversi nodi della rete neurale: questa tecnica permette di aggiustare i diversi coefficienti che definiscono i collegamenti dei neuroni artificiali propagando all’indietro l’errore valutato nei nodi di output — da qui il nome backpropagation.

La backpropagation, però, mostra finalmente tutta la sua efficacia solamente nel 2012, quando lo stesso Hinton pubblica un paper insieme a due suoi studenti in cui un sistema di deep learning, addestrato usando la backpropagation, riesce a produrre dei risultati strabilianti nel riconoscimento delle immagini. Da lì ha inizio il successo del deep learning.

I due tasselli che mancavano fino a quel momento erano la potenza di calcolo e una quantità gigantesca di dati. 

Questi due fattori sono però gli stessi che ora stanno mettendo in crisi lo sviluppo dell’AI: è impensabile ottenere un’intelligenza artificiale simile a quella umana se per addestrare un algoritmo a riconoscere l’immagine di un cane c’è bisogno di mostrargli il soggetto in ogni posizione immaginabile poiché anche la minima variazione nella foto potrebbe far commettere un errore all’algoritmo.

 

Un bambino, invece, riesce a riconoscere un cane visto da sopra, sotto, di lato, senza doverlo vedere migliaia di volte.

 

Il modello di reti neurali artificiali che stiamo utilizzando sono in realtà una pessima copia del nostro vero sistema nervoso — che tra l’altro ancora non abbiamo completamente capito come funziona. Per questo motivo, ricercatori nel campo delle scienze cognitive, come ad esempio Josh Tenenbaum del MIT, stanno cercando di fornire alle AI la capacità di astrarre i concetti ed applicarli in situazioni differenti. 

Al momento, un algoritmo addestrato per riconoscere gli spaghetti non può essere utilizzato per classificare gli animali, e questo è un grosso ostacolo per il raggiungimento di un’intelligenza artificiale veramente utile.

Per fare questo è necessario utilizzare degli algoritmi che permettano di procedere per macro-concetti, in grado di definire una sorta di cassetta degli attrezzi da cui attingere dei moduli riutilizzabili in altre situazioni.

Per ora questo tipo di ricerca è ancora nel suo stato embrionale ma un altro tipo di tecnica sembra già pronta per superare il deep learning e l’ideatore è sempre lo stesso, Geoffrey Hinton.

 

 

La sua nuova rete neurale prende spunto dalla disposizione dei neuroni nella neocorteccia umana, in cui i neuroni sono distribuiti sia orizzontalmente che verticalmente in colonne. Le reti neurali artificiali odierne si sviluppano solo orizzontalmente, e secondo Hinton lo sviluppo verticale è fondamentale nel riconoscimento degli oggetti da punti di vista differenti.

Hinton chiama la sua creazione rete neurale a capsule ed ha già mostrato che riesce a raggiungere lo stesso livello di accuratezza di altre tecniche attuali nel riconoscere dei numeri scritti a mano. Queste nuove reti devono ancora essere testate su raccolte di immagini più ampie ed al momento sono ancora piuttosto lente rispetto ad altri algoritmi. I maggiori benefici, però, sono dovuti alla riduzione di immagini necessarie per addestrare l’algoritmo e questo potrebbe potenzialmente beneficiare settori come quello medico in cui la disponibilità di immagini è più scarsa.

Sembrerebbe quindi di essere quasi giunti alla fine della spinta propulsiva concessa dagli attuali modelli di rete neurale. I risultati ottenuti fino ad ora sono strabilianti ma, se non ammettiamo i limiti di queste tecnologie, ci troveremmo bloccati in una via senza uscita alla ricerca della vera intelligenza artificiale.

Gli algoritmi di deep learning funzionano grazie a delle condizioni esterne che ne hanno facilitato l’utilizzo — potenza di calcolo e big data — ma questo non vuol dire che fossero corretti sin dal principio. Per proseguire la ricerca nel campo dell’AI dobbiamo per forza cerca di innovare e forse, un giorno, le attuali reti neurali saranno solo un lontano ricordo.