La ricerca nel campo dell'intelligenza artificiale sta vivendo il suo momento d'oro. Le maggiori aziende di tecnologia digitale, come Facebook e Google, hanno già aperto dei laboratori dedicati allo sviluppo ed all'implementazione degli algoritmi di AI — Così facendo, stanno chiamando a sé un gran numero di studenti e ricercatori interessati ad apportare il loro aiuto nella ricerca.

Il laboratorio di AI di Facebook (FAIR) a Parigi, diretto da Yann Le Cun, è un chiaro esempio dell'interesse rivolto verso la produzione di paper e la collaborazione con il mondo accademico per produrre miglioramenti nei settori più variegati dell'AI: fra i vari interessi di ricerca vi sono applicazioni di algoritmi intelligenti all'economia, alla connettività, alla computer vision, ed alla sicurezza.

Allo stesso tempo, di pari passo con gli sviluppi nell'ambito della ricerca, i sistemi di intelligenza artificiale vengono già impiegati in diversi settori della società: abbiamo algoritmi in grado di selezionare i dipendenti per un'azienda, sistemi che cercano di prevedere dove avverrà un crimine, ed applicazioni che ci consigliano film in base a quelle che credono essere le nostre preferenze.

Il rischio cui andiamo incontro, però, è un'introduzione rapida e vertiginosa degli algoritmi di intelligenza artificiale all'interno della nostra attività quotidiana prima ancora di essere riusciti ad analizzare approfonditamente quali procedimenti di sviluppo sono stati utilizzati e quali eventuali effetti collaterali si possono ottenere da un loro impiego.

Per cercare quindi di indirizzare lo studio ed il progresso dell'intelligenza artificiale verso un concetto di AI benefica per l'umanità, il Future of Life Institute ha riunito alla conferenza Beneficial AI (BAI) presso Asilomar, a gennaio 2017, un gruppo di accademici, industriali, filosofi, giuristi, ed economisti per parlare dell'intelligenza artificiale.

La località della conferenza ha una particolare importanza storica, già in due altre occasioni infatti vi si erano svolte delle conferenze per discutere sul futuro di due ambiti fondamentali: nel primo caso riguardava la regolamentazione della biotecnologia, nel 1975, con l'Asilomar Conference on Recombinant DNA, e nel 2009, invece, il tema era già legato all'AI con l'Asilomar Meeting on Long-Term AI Futures.

Quest'anno, il risultato della BAI è stato la produzione di linee guida per garantire che lo sviluppo futuro delle intelligenze artificiali non sfugga completamente di mano. Il documento prodotto è costituito da 23 principi ed è sottoscritto, fra gli altri, anche da Elon Musk e Stephen Hawking, e contiene alcune delle più lucide indicazioni per ottenere i massimi benefici dalla ricerca nel campo dell'intelligenza artificiale.

Come ricordano gli organizzatori dell'evento, l'attenzione sull'AI è a livelli stellari, come emerge dalla diffusione di diversi report come quello dell'Università di Stanford, quello della Casa Bianca, e da organizzazioni come l'IEEE, Institute of Electrical and Electronics Engineers.

I principi sono suddivisi in tre macro-categorie: problematiche legate alla ricerca, etica e valori umani, questioni di lungo termine. Come ricordano i promotori del documento, questa lista non è in alcun modo onnicomprensiva e certamente si presta ad interpretazioni differenti, ma allo stesso tempo mostra come l'attuale approccio alla ricerca sull'AI possa portare risultati che violano alcuni dei principi che sono stati riconosciuti importanti.

Fra questi, c'è ad esempio il suggerimento di evitare una corsa forsennata e scorretta per ottenere risultati prima degli altri team: la ricerca sull'intelligenza artificiale deve prevedere cooperazione fra le diverse parti. Inoltre, si sancisce un principio essenziale per ottenere un'AI benefica: l'allineamento dei valori della macchina con quelli degli uomini.

Stuart Russell, esperto di intelligenza artificiale ed autore del libro di riferimento Artificial Intelligence: a modern approach, per spiegare questo principio fa il paragone con la storia di Re Mida: con il suo tocco tramutava tutto in oro ma il suo vero obiettivo era quello di diventare ricco e non di trasformare anche cibo e familiari nel metallo prezioso. Allo stesso modo dobbiamo garantire che la progettazione delle AI non produca dei risultati imprevedibili, indesiderati, e che si discostino da quello che era l'intento originario dei progettisti.

Inoltre, si sancisce un principio essenziale per ottenere un’AI benefica: l’allineamento dei valori della macchina con quelli degli uomini.

I principi trattano anche del tema della privacy degli utenti, che si troveranno soggetti a decisioni prese dagli algoritmi, e si auspica la possibilità di avere il diritto di accesso, di gestione, e di controllo dei dati prodotti dagli algoritmi. Allo stesso tempo si delineano gli obiettivi di lungo termine quali prosperità economica e bene sociale che devono essere condivisi da tutta l'umanità.

La conferenza di Asilomar rimarca, quindi, il ruolo fondamentale che l'intelligenza artificiale sta già ricoprendo e ricoprirà sempre di più nel futuro della vita degli esseri umani. Vista la centralità che l'AI avrà nell'attività quotidiana, le linee guida prodotte in questa conferenza segnano chiaramente la direzione in cui andare: un'AI in grado di produrre benefici universali.