di Dario De Marco

In 2001 Odissea nello spazio, il supercomputer Hal 9001 si ribella all'uomo e inizia a fare di testa propria: i suoi programmatori lo hanno dotato di capacità sovrumane, e non hanno pensato che questo lo avrebbe automaticamente dotato anche di volontà umana, o quantomeno autonoma. Questa situazione, presente in una delle scene più note di tutta la storia della fantascienza, è quella che sta alla base dell'immaginario collettivo quando si parla di Intelligenza artificiale: il suo mito fondativo, per così dire. Il mito del robot che, come un Golem, si ribella al suo creatore e lo soppianta. Ma la realtà è ben diversa. Bisogna stare attenti, ma ad altre problematiche. I pericoli, se vengono da dove non ce l'aspettiamo, potrebbero produrre risultati involontariamente comici, ma altrettanto devastanti: è il caso del famoso esperimento (mentale, per fortuna) del “massimizzatore di graffette”. Se a una potentissima AI noi dicessimo solo: “produci graffette”, questa, senza i limiti di nessuna etica o ragionevolezza innata, si metterebbe a fare graffette senza sosta e senza ostacoli, ben presto trasformando tutte le risorse utili del pianeta in graffette, e estinguendo en passant il genere umano. Come in ogni relazione, anche nel rapporto tra uomo e macchina la cosa più importante è la comunicazione.

Perciò è notevole il risultato della ricerca presentata qualche settimana fa da Deep Mind (la branca di Google dedicata all'intelligenza artificiale) insieme all'istituto OpenAI. Il punto su cui si sta lavorando è la possibilità per gli umani di dare feedback alle macchine intelligenti in maniera semplice e immediata. E, quel che più conta, senza che l'essere umano che interagisce con il computer abbia bisogno di essere un esperto di programmazione, e neanche in possesso di minime conoscenze in materia di AI. In sostanza, tutti potremmo diventare 'istruttori' di intelligenze artificiali. Come funzionerebbe?

Il metodo è una variazione, o meglio uno sviluppo, di ciò che viene chiamato “reinforcement learning” (RL), basato su una modalità di apprendimento tipica degli esseri umani, che gli psicologi chiamano “per tentativi ed errori”. Nel RL classico una macchina viene dotata di un minimo di informazioni di base, e quando inizia ad agire, ripetendo all'infinito la stessa 'azione', i programmatori ne dirigono i comportamenti inserendo determinati criteri nel software. Ad esempio, se si vuole insegnare a Deep mind a giocare a un videogame Atari (cosa che in passato è stata fatta, con un successo impressionante), i criteri da inserire nel programma sono relativi all'accumulo di punti: “fai la cosa che ti fa fare più punti”, è come se si dicesse, in linguaggio macchina.

Ma appunto, ci vuole un programmatore. Quello che più di recente hanno escogitato i creativi di Deep mind, è un sistema di feedback semplificato e alla portata di tutti. Si tratta di sottoporre all'umano una serie di situazioni e comportamenti della macchina: l'uomo è chiamato a giudicare qual è la cosa migliore tra due, e a dirlo al robot, che assimila l'informazione e si comporta di conseguenza. Questo procedimento, ripetuto una serie di volte, fornisce sempre maggiori elementi alla macchina, che li integra nel processo. Così è stato possibile insegnare a giocare non con uno ma con tutti i videogame Atari. Quello che deve fare l'istruttore umano, è un'operazione simile a quella che si compie nelle visite oculistiche, quando il medico ci cambia una serie di lenti a raffica, e ogni volta chiede: “così è meglio o peggio di prima?”.

D'altra parte, se questo metodo non implica particolari abilità umane, richiede però molto tempo: per insegnare un semplice 'movimento' possono volerci migliaia di “meglio o peggio”, corrispondenti a varie ore di lavoro. Gli esperti indipendenti chiamati a commentare questa novità sottolineano come per certe attività sia più semplice e rapido inserire direttamente nel programma le istruzioni giuste. Ma quello che conta, sottolineano a Deep mind, è il concetto, la novità insita nel metodo. Ora bisogna solo testarlo in situazioni sempre più complesse, come simulazioni di ambienti a tre dimensioni: ma insegnare alle macchine sarà sempre più un gioco da ragazzi.