di Simone Cosimi

 

Il passaggio è di quelli significativi. DeepMind, la società britannica acquistata tre anni fa da Google per oltre 500 milioni di dollari, ha deciso di prendere di petto i principali nodi dell’intelligenza artificiale. E di affrontarli con una specifica unità di studio e analisi. Si chiama “Ethics and Society” e analizzerà alcuni argomenti che stanno sfidando in questi anni di roboante sviluppo delle tecnologie di AI i presupposti sociali e giuridici ai quali siamo abituati. Privacy, trasparenza e correttezza così come impatto economico, inclusione e uguaglianza saranno fra i sei “temi chiave”, così li hanno battezzati, su cui verranno condotti studi e approfondimenti. In pratica si è deciso di fare ricerca non solo sul cuore delle soluzioni d’intelligenza artificiale ma anche sulle loro conseguenze e implicazioni etiche e morali. Senza pregiudizi.

“A DeepMind siamo orgogliosi del ruolo che abbiamo giocato nel far avanzare la scienza dell’AI così come del nostro percorso di scoperte e pubblicazioni – si legge nell’annuncio ufficiale – crediamo che l’intelligenza artificiale possa portare straordinari benefici al mondo ma solo se mantenuta al massimi standard etici. La tecnologia non è un valore neutrale e chi ci lavora deve dimostrare responsabilità per l’impatto etico e sociale del proprio lavoro”. Presupposti importanti che il gruppo porterà avanti grazie a una serie di advisor indipendenti che ha battezzato fellow per aiutare a “fornire previsioni, pareri critici e guida per la nostra strategia di ricerca e per i programmi di lavoro”. Oltre ai consulenti/consiglieri DeepMind sfrutterà anche una serie di accordi con un gruppo di istituzioni di ricerca indipendenti. Il tutto per arricchire il più possibile i punti di vista su certi argomenti. Nella ricerca, pare di capire, di un superamento di pregiudizi e visioni distorte. In particolare sul conflitto d’interesse che coinvolge una società che fa ricerca in questo ambito all’interno del pachidermico ombrello di Alphabet, cioè in ultima istanza un gigante commerciale votato al profitto.

Le domande, d’altronde, sono moltissime. Dalle fake news agli abusi online, dalla manipolazione della pubblica opinione fino al margine di autonomia di un cervello artificiale nei confronti di una scelta complessa o di un bivio. Ancora: la gestione accorta dei big data o degli oggetti intelligenti in grado di automatizzare processi che prima coinvolgevano un essere umano e che quindi potrebbero domani riservarci sorprese. Oppure le preoccupazioni sulla riservatezza legate al moltiplicarsi di gadget smart che promettono di tenere d’occhio la nostra esistenza all’interno delle abitazioni. Le ricadute, molto discusse, sul mondo del lavoro e sull’occupazione. Insomma, i temi su cui indagare sono infiniti perché l’AI non è un settore specifico ma sarà un driver d’innovazione in ogni settore.

D’altronde la stessa DeepMind è finita sotto indagine da parte dell’autorità garante britannica della privacy rispetto – a proposito di big data – alla gestione delle informazioni di salute di quasi due milioni di persone condivise senza consenso col servizio sanitario nazionale britannico. E anche Google è stata pizzicata dall’associazione statunitense Campaign for Accountability in un lavoro pluriennale di influenza più o meno diretta di studi e paper scientifici. Insomma, uno sforzo in questo senso era fondamentale: rimane da capire ovviamente se sarà in grado di garantire gli standard previsti. Molti osservatori, fra cui il sito Tech Crunch, non hanno risparmiato critiche ma è comunque una notizia: uno dei protagonisti dell’intelligenza artificiale decide di analizzare le proprie scoperte e le implicazioni di esse.

“DeepMind Ethics & Society si affiancherà al nostro lavoro scientifico e pratico – spiega ancora la società guidata da Demis Hassabis – la nuova unità ci aiuterà a esplorare e capire gli impatti dell’AI nel mondo reale. E ha un duplice obiettivo: sostenere chi sviluppa le tecnologie a inserire l’etica nella pratica e aiutare il gruppo ad anticipare e dirigere l’impatto in modo che possano beneficiarne tutti”. Obiettivo ambizioso, quello poco dopo precisato di una “ricerca e investigazione aperta”. Per garantirne il rigore e la trasparenza del lavoro stiamo mettendo a punto una serie di principi di base insieme ai nostri consulenti, altri nomi dell’accademia e alla società civile – controbattono, consci dell’obiezione, dalla divisione di Alphabet.

Ma quali saranno questi principi che guideranno l’indagine sull’intelligenza artificiale? Anzitutto i benefici sociali: le tecnologie d’intelligenza artificiale devono (dovranno) servire alla società e all’ambiente, a costruire società più giuste ed eque. Poi rigore e scientificità: la ricerca dovrà proseguire sugli standard accademici più elevati, come è stata fin dall’inizio (DeepMind è stata fondata nel 2011). Trasparenza e apertura saranno altri pilastri essenziali: “Saremo sempre aperti sull’identità dei collaboratori e sui progetti che finanziamo – si legge, anche se per il momento i nomi di chi fa parte di un precedente board lanciato anni fa sullo stesso tema non sono stati resi noti – non proveremo mai a influenzare o predeterminare gli esiti degli studi che commissioniamo. Quando collaboreremo o copubblicheremo con ricercatori esteri, diremo se hanno ricevuto fondi da parte nostra”. E così via. Quarto punto, l’interdisciplinarietà: gli studi sugli effetti dell’intelligenza artificiale spazieranno al massimo in tutti gli ambiti, mescolando diverse discipline proprio per ottenere punti di vista più ricchi. D’altronde le questioni sollevate dall’Ai si estendono ben oltre l’ambito prettamente tecnologico, investendo filosofia e appunto etica. Le indagini saranno infine collaborative e inclusive visto che partiranno delle collaborazioni fra i ricercatori e i gruppi direttamente coinvolti da queste nuove tecnologie. Per condurre verifiche sul campo.

La scelta di DeepMind non è isolata. E d’altronde segue il sodalizio stretto qualche tempo fa con Facebook, Amazon, Ibm e Microft, la Partnership on Artificial Intelligence to Benefit People and Society. Anche l’Onu, per esempio, ha lanciato di recente un centro di studio e ricerca dedicato al tema dell’intelligenza artificiale e della robotica. È stato battezzato Centre for Artificial Intelligence and Robotics, avrà il suo quartier generale all’Aia, nei Paesi Bassi. Anche in questo caso, l’obiettivo non sarà solo sottolineare i problemi ma anche capire come queste soluzioni possano aiutare le Nazioni Unite a raggiungere i propri obiettivi periodici.