di Riccardo Meggiato

 

Come si fa la scelta giusta? Può sembrare una domanda banale, ma solo fino a quando vi chiedono di formulare un metodo matematico per riprodurre il concetto di giustizia. Perché, in questo caso, occorre essere ben sicuri di non innescare pericolose influenze umane. Preconcetti tali da rendere la Legge un po’ meno uguale per tutti.

Proprio per evitare il così detto “bias”, cioè quell’insieme imperscrutabile di fattori che rendono una decisione meno obiettiva di quel che dovrebbe essere, i ricercatori sono da tempo impegnati nello sperimentare di software capaci di prendere decisioni importanti al posto degli esseri umani. E non c’è terreno migliore, su cui sperimentare, della Giustizia. In realtà si vorrebbe andare addirittura oltre, prevedendo i crimini. Una sorta di Minority Report dai connotati assolutamente reali che ha già un nome. Si chiama infatti CrimeScan il software sviluppato da Daniel Neill e Will Gorr, due ricercatori della Carnegie Mellon University, capace di prevedere la diffusione della criminalità in determinate zone. L’assunto di partenza è semplice: il crimine è assimilabile a una malattia e, come tale, si diffonde come un’epidemia, contagiando zone vicine. Più diventa esteso il nucleo di criminalità, più grave diventa l’epidemia. Non solo. Al tempo stesso, anche la tipologia di crimine si evolve: piccole malefatte, come furti e vandalismo, sono prodromi di azioni criminose molto più gravi. Ed è su questi e decine di altri parametri che CrimeScan basa i propri calcoli, prevedendo dove si svilupperanno nuove ondate di criminalità. Il mercato, per questi software, è così promettente che esiste già un concorrente di CrimeScan. Si chiama PredPol, la sua prima versione è stata sviluppata ben otto anni fa ed è frutto della collaborazione tra UCLA e Los Angeles Police Department, ed è utilizzato da oltre 60 dipartimenti di polizia. Con ottimi risultati, peraltro. A detta dei suoi creatori, Predpol avrebbe un’efficacia doppia rispetto alle analisi umane nel prevedere le aree dove aumenteranno determinati crimini in specifici periodi dell’anno.

Al momento, sia CrimeScan che PredPol coprono le zone dove è più probabile che si verifichi un crimine, stando ben alla larga dal prendere decisioni su chi dovrebbe commetterli, ma è chiaro che questo è uno dei punti di arrivo a cui vorrebbero giungere i ricercatori. Il problema, sempre più dibattuto da associazioni come l’American Civil Liberties Union, è che un software è pur sempre sviluppato da esseri umani e, per questo, potrebbe essere soggetto a bias inseriti da programmatori in carne e ossa. E poi c’è la questione delle forze dell’ordine. Mettiamo che un software preveda anche con grande precisione che in un certo giorno, in una certa zona, si verificheranno dei crimini gravi, non si rischia che gli agenti che andranno in quella zona, sapendo in anticipo cosa li attenderà, avranno un atteggiamento molto più aggressivo?

Parte dei problemi potrebbe essere risolta, come sostiene AI Now Institute, società di ricerca in seno all’Università di New York che studia gli impatti dell’intelligenza artificiale sulla società, abolendo le così dette “Black Box AI”. Si tratta di sistemi di intelligenza artificiale creati a scatola chiusa, senza rendere pubblici i parametri che consentono al cervello digitale di prendere le sue decisioni; con un approccio più “open source”, aperto, si potrebbe stabilire con certezza se una certa decisione viene presa davvero in modo obiettivo, senza alcun preconcetto o influenza.

In questo senso qualche passo avanti l’ha fatto il Center for Democracy & Technology, realizzando un software che aiuta ingegneri e programmatori a sviluppare algoritmi davvero obiettivi e degni di una macchina. Si tratta di una sorta di questionario che, sulla base delle risposte, stima se l’approccio al software in fase di sviluppo è scevro o meno da influenze tipiche della mente umana.

Forse, la soluzione di tutto sta semplicemente nel considerare le intelligenze artificiali legate alla lotta al crimine come degli strumenti utili a supporto degli umani, senza la pretesa che vadano totalmente a sostituirli. In fondo, in medio stat virtus.