Il binomio intelligenza artificiale - razzismo è entrato prepotentemente nel dibattito pubblico in occasione dell'incidente del chatbot di Microsoft, Tay. Il chatbot era stato creato per interagire con gli utenti del social imparando dagli input ricevuti proprio da questi. L'esperimento è finito piuttosto male: lo strumento di Microsoft è stato sommerso da messaggi a contenuto razzista da un gruppo di troll, così, dopo sole 24 ore, Tay ha iniziato a pubblicare tweet in cui inneggiava ad Hitler. In quel caso, Microsoft ha bloccato il suo strumento in un clima di imbarazzo generale.

Pur trattandosi di un caso limite, l'incidente ci insegna un concetto molto importante: le intelligenze artificiali restituiscono in output quello che ricevono in input. Tuttavia, ci sono ambiti in cui le AI restituiscono contenuti scorretti senza che gli input che ricevono siano esplicitamente razzisti come nel caso di Tay. A conferma di questo fenomeno, anche Zo, un esperimento successivo sviluppato sempre da Microsoft — che teneva conto della lezione imparata con Tay— ha fatto un'altra brutta figura, restituendo risposte fuori contesto in cui esprimeva giudizi negativi nei confronti del Corano, pur avendo ricevuto input non esplicitamente razzisti.

Il problema, in questo caso, sono i pregiudizi insiti in chi programma le suddette intelligenze artificiali, ovvero, il cosiddetto bias. Questo termine racchiude tutti gli aspetti della visione del mondo di chi scrive un programma e possono influenzare la natura del codice sviluppato. Le macchine di per sé sono neutrali, ma nel momento in cui sono chiamate ad effettuare l'interpretazione di un certo dataset, vengono influenzate dai pregiudizi di chi le ha programmate.

La questione è stata affrontata, ad esempio, da uno studio firmato da un’équipe di ricercatori dell’Università di Princeton: il paper dimostra come le macchine replicano i nostri stereotipi e pregiudizi linguistici. Gli autori hanno addestrato GloVe, un algoritmo per l’apprendimento del linguaggio, dandogli in pasto circa 840 miliardi di parole recuperate dal web. Dopodiché, hanno sottoposto l'algoritmo all'Implicit Association Test (IAT) — un test utilizzato in psicologia che consiste nell'abbinare un concetto a una serie di parole presentate come input.

I pregiudizi registrati nei dati presi da internet, forniti come input, sono stati replicati da GIoVe: gruppi di nomi correlati ad americani di origine europea sono stati associati più facilmente a termini piacevoli rispetto a quelli associabili a persone afroamericane, ed i nomi maschili associati a termini riguardanti la carriera, la matematica e la scienza, mentre quelli femminili a termini relativi alla famiglia.

Il sistema aveva quindi acquisito diverse associazioni culturali storiche, ovviamente, anche quelle discutibili. L'algoritmo, infatti, non si basava su esperienze dirette o rappresentazioni semantiche, ma solo sul semplice dato statistico relativo alla vicinanza fra parole all'interno di testi online.

Quanto più i software diventeranno raffinati e in grado di svolgere operazioni sempre più complesse, tanto più emergeranno aspetti dettati dal bias dei loro creatori che ne influenzano il comportamento.

Un caso analogo riguarda un software di riconoscimento delle immagini in sviluppo presso l'Università della Virginia che ha iniziato ad abbinare le donne alle immagini di cucine dopo aver ricevuto in input un set di immagini fornito dai suoi sviluppatori. Anche in questo caso, il problema si nascondeva già nei dati utilizzati per addestrare l’algoritmo.

Erano proprio i set di immagini a contenere il pregiudizio di genere: le donne erano rappresentate soprattutto in cucina o a fare shopping, gli uomini, invece, a praticare sport. A quanto pare, queste associazioni sono risultate talmente radicate che il software si è spinto addirittura ad amplificare tale pregiudizio effettuando questi match più spesso di quanto già avvenisse nei dati di partenza.

Altri episodi: il software di riconoscimento facciale, Google Photos ha identificato diversi utenti afro-americani come gorilla. Oppure, quando è emerso che Siri non sapeva come rispondere a una serie di domande riguardanti la salute delle donne, tra cui, cosa fare in caso di violenza sessuale, in quel caso, probabilmente, chi aveva programmato il software non aveva realizzato che avrebbe potuto affrontare simili questioni. Oppure il caso della St George's Hospital Medical School di Londra in cui le application di donne e uomini con nomi non di origine europea qualificati venivano messi in secondo piano da un algoritmo preposto ad esaminarle.

Insomma, quanto più i software diventeranno raffinati e in grado di svolgere operazioni sempre più complesse, tanto più emergeranno aspetti dettati dal bias dei loro creatori che ne influenzano il comportamento. Ma quali sono i rimedi a questa situazione e quali precauzioni sono già state prese ufficialmente?

La Casa Bianca si è espressa al riguardo pubblicando un documento in cui raccomanda che le scuole e le università insegnino etica nei corsi relativi alle AI e le competenze tecniche per applicarla ai programmi di machine learning. Alcuni ricercatori hanno tentato la formulazione di una sorta di "algoritmo dell'imparzialità.”

Altri esempi, invece, vengono dal mondo dei privati come dall'Ethics and Governance of Artificial Intelligence Fund finanziato dai fondatori di LinkedIn e eBay. Le aree di ricerca specifiche a cui vengono dedicate le risorse del fondo non sono fisse, ma l'etica è una tra le possibili applicazioni per capire come realizzare tecnologie che considerano i quadri etici e i valori morali come elementi centrali dell'innovazione tecnologica.

Google, invece, ha lanciato un progetto denominato PAIR (People + AI Research) per “studiare e ridefinire i modi in cui le persone interagiscono con i sistemi di AI e assicurarsi che le tecnologie siano di beneficio per tutti. PAIR è indirizzato a tutti gli anelli nella catena produttiva delle AI, dai programmatori degli algoritmi ai professionisti che utilizzano strumenti che si avvalgono delle intelligenze artificiali. Dato che spesso il problema iniziale è dato dai dati che le AI ricevono in input, Google ha ideato due tool opensource per facilitare il check dei dataset di input per i programmatori — Facets Overview and Facets Dive, e presto verranno aggiunti altri tool.

Forse, le linee guida più interessanti, sono state invece identificate da Code2040, organizzazione no-profit che coinvolge gli appartenenti a minoranze etniche nel mondo tech proprio per garantire una maggiore pluralità. Ci sono quattro modi per superare il bias, secondo la sua fondatrice. Il primo è ispirato alle policy delle comunità di gamers, in particolare, quelli di League of Legends: tutta la comunità prende parte alla decisione di sospendere un giocatore per comportamento scorretto, spiegandogli il motivo della decisione.

A quanto pare, grazie a questo accorgimento, la maggior parte delle persone sospese non ha ripetuto il comportamento rivelando anche di avere capito di poter offendere qualcuno in modi che neanche immaginava. Questa regola è la vera essenza del superare il bias.

Un altro metodo per superare i pregiudizi prevede un lavoro di prevenzione, includendo nei team di sviluppo anche programmatori che appartengono a categorie vittime di discriminazione, in modo da conferire maggiore varietà agli algoritmi creati. È necessario anche un lavoro di revisione degli algoritmi — anche se questo rimedio potrebbe comportare un loop, dato che anche il revisore potrebbe essere soggetto ad un suo pregiudizio — supportare lo sviluppo di tool e standard di lavoro per evitare il bias, come certificare le compagnie che lavorano per mitigarne gli effetti, così chi fruisce dei loro prodotti potrà avere una garanzia in più. In ogni caso, la soluzione migliore è lavorare sulla società per ridurre tali pregiudizi e disuguaglianze.