Da quando le intelligenze artificiali sono diventate parte integrante della nostra vita quotidiana, si è troppo spesso dato per scontata la loro intelligenza: in questo momento storico, infatti, gran parte di queste tecnologie vive grazie alla loro capacità di apprendere.

 

Il processo attraverso cui i software di intelligenza artificiale sviluppano un certo grado di intelligenza viene chiamato addestramento e rappresenta una parte fondamentale per lo sviluppo delle intelligenze artificiali. Esattamente come succede con gli esseri umani, però, questi processi educativi non filano sempre lisci e di tanto in tanto le macchine possono apprendere comportamenti sbagliati ed effettuare quindi scelte errate sulla base dei dati forniti nella fase di addestramento.

In questa fase, l’incontro tra un input fatto di un’ingente mole di dati (chiamati training data) e le regole matematiche inscritte nell’algoritmo (che indicano il processo attraverso cui la macchina produce il risultato che vogliamo ottenere) producono un modello. Al suo interno troviamo una serie di coefficienti — ovvero dei numeri che indicano le relazioni fra le varie componenti del modello — che permettono di analizzare ed effettuare previsioni a partire da dati mai visti in precedenza, diversi quindi dai training data iniziali.

Con lo sviluppo di algoritmi sempre più complessi, come ad esempio gli algoritmi di deep learning, i modelli prodotti sono sempre più difficili da comprendere e spesso le motivazioni alla base delle loro predizioni sono impossibili da verificare, perché i meccanismi interni del modello sono a prima vista imperscrutabili. Proprio per questo motivo gli algoritmi di machine learning sono spesso paragonati a delle scatole nere.

 

Immaginiamo di avere a disposizione un’intelligenza artificiale capace di effettuare alcune previsioni sul comportamento di una persona e vogliamo sapere per quale motivo sono stati ottenuti determinati risultati; al momento non esistono metodi diretti per poterlo fare. L’unica soluzione è quella di effettuare un controllo chiamato black box assessment, per cercare di capire se qualcosa è andato storto nell’addestramento dell’intelligenza artificiale e come migliorarlo.

Questo tipo di controllo necessita dell’accesso diretto al modello utilizzato per effettuare la predizione. A questo punto, creando un set di dati fittizi che assomigliano a quelli che erano stati forniti inizialmente al modello per effettuare le sue previsioni, è possibile valutare quali elementi hanno portato ad un determinato risultato.

Se ad esempio i dati utilizzati per fare una predizione su di una persona includono l’età, il curriculum, la città di residenza, e l’etnia, è possibile creare un set di dati in cui uno di quei parametri è leggermente diverso dall’originale e darlo nuovamente in pasto al modello, osservando le variazioni dei risultati.

Alcune variazioni introdotte produrranno un risultato leggermente diverso da quello di partenza, altre invece produrranno delle modifiche sostanziali che permetteranno di individuare cosa è andato storto nella fase di addestramento dell’algoritmo, ottenendo così una sorta di spiegazione di quanto avvenuto.

In aggiunta, una delle questioni fondamentali per migliorare l’addestramento — e di conseguenza anche i risultati dell’algoritmo — è la selezione dei training data. Se il modello viene addestrato su un set di dati che contiene due classi ben distinte fra loro ma non numericamente comparabili, il rischio di produrre un modello poco imparziale è molto alto.

Driving_1news_inpage.jpg

Se prendiamo come esempio un algoritmo per classificare il peso delle persone in base alla loro altezza e se addestriamo questo algoritmo su un set di dati in cui il 90% sono bambini ed il 10% adulti, un modello allenato su questo dataset produrrà necessariamente dei risultati che contengono un alto bias a sfavore del gruppo di minoranza.

Se poi questo modello viene applicato in una situazione reale, in cui quelle percentuali sono completamente fasulle e non rispecchiano l’effettiva composizione dei soggetti che si affidano alle predizioni dell’algoritmo, si possono ottenere risultati imprecisi e che rischiano di avere effetti dannosi sui soggetti stessi.Dobbiamo sempre ricordarci che il machine learning individua dei pattern contenuti nei dati, non nella realtà. Se i dati sono una pessima rappresentazione della realtà anche i risultati saranno altrettanto pessimi.

Dobbiamo sempre ricordarci che il machine learning individua dei pattern contenuti nei dati, non nella realtà. Se i dati sono una pessima rappresentazione della realtà anche i risultati saranno altrettanto pessimi.

Per garantire il corretto sviluppo di algoritmi di intelligenza artificiale non solamente efficaci ma anche capaci di produrre risultati parziali e fuorvianti, è necessario quindi prevedere l’accesso pubblico ai training data, in modo da poter osservare la struttura e la conformazione dei dati stessi e poter valutare, caso per caso, quali bias sono contenuti in essi.

L’applicazione del black box assessment è certamente un approccio promettente ma non l’unico: ci sono altri ricercatori che stanno cercando di produrre degli algoritmi con un alto grado di interpretabilità, in modo da superare lo scoglio della scatola nera e svelare i meccanismi che si celano al suo interno.

Cercare di ottenere a tutti i costi degli algoritmi facili da comprendere, però, potrebbe causare un indebolimento degli algoritmi stessi. Gli attuali modelli prodotti con il deep learning e le reti neurali sono in grado di produrre risultati stupefacenti — come riconoscere gli oggetti nei video — ma algoritmi che si prestano ad una più facile interpretazione, come ad esempio la regressione logistica, risultano nettamente più deboli ed in grado di ottenere dei risultati qualitativamente inferiori rispetto alle reti neurali.

Un controllo più rigido sui dataset e la possibilità di poter effettuare una valutazione degli errori commessi dagli algoritmi di intelligenza artificiale sono i due pilastri su cui si deve basare lo sviluppo futuro di questo settore. L’AI è destinata ad interagire sempre più in profondità con le nostre vite ed è fondamentale riuscire a stabilire delle pratiche condivise per poter garantire un addestramento corretto ed imparziale di questi algoritmi.