di Simone Cosimi

 

Come fare a regolamentare l’intelligenza artificiale in tutte le sue diverse forme? Dai robot – a cui la commissione europea vorrebbe prima o poi attribuire un qualche tipo di personalità giuridica, con diritti e doveri – ai sistemi computerizzati, i prossimi anni ci riserveranno numerose sorprese e qualche inquietudine. Per questo è fondamentale che il legislatore, una volta tanto, non sia in ritardo ma possibilmente in anticipo sui tempi. Impresa ostica per parlamenti e autorità di settore, solitamente macchine burocratiche a bassa efficienza. Molti esperti di tecnologia, fra cui il vulcanico patron di Tesla, SpaceX e Hyperloop, Elon Musk, lanciano da mesi, se non da anni, un simile appello: governanti, regolamentate l’intelligenza artificiale “prima che sia troppo tardi”.

Senza arrivare a simili toni cataclismatici, che spesso confondono la realtà con la fantascienza, c’è tuttavia da riconoscere che il tema esiste. E più i mesi passano più si fa caldo, specialmente in certi ambiti – dall’automazione industriale all’automotive passando per gli armamenti, per il mondo del lavoro che abbiamo spesso approfondito e per la riservatezza dei dati personali. Tanto per stare su quest’ultimo fronte c’è per esempio da segnalare un recente esperimento di un gruppo congiunto di ricercatori britannici e indiani: hanno messo a punto un sistema in grado di identificare le persone utilizzando il riconoscimento facciale che tocca tassi notevoli di esattezza (intorno al 60%) anche quando i soggetti abbiano il volto coperto.

Una chiave di lettura illuminante l’ha da poco espressa Oren Etzioni, chief executive of the Allen dell’Institute for Artificial Intelligence, fondato nel 2013 dal cofondatore di Microsoft, Paul Allen, che rispetto alle necessità di regolamentazione ha tracciato una strada costituita da tre pilastri. Sempre tenendo in considerazione un fatto specifico: più si regolamenta un settore, più si ostacola la ricerca pura, sia quella dal basso che quella firmata dalle corporation. Col rischio, per i Paesi leader come gli Stati Uniti, di perdere il passo – e farsi superare – da potenze in questo campo emergenti come la Cina, che ha da poco lanciato un colossale programma di sviluppo nel settore che andrà a regime (è proprio il caso di dirlo) entro il 2030. Sul piatto circa 22 miliardi di dollari nel giro dei prossimi tre anni.

Il presupposto, proposto da Etzioni in un editoriale sul New York Times, è che si tenti di intervenire sui fatti concreti indotti dall’intelligenza artificiale evitando di legiferare su aspetti teorici senz’altro più affascinanti ma teoricamente meno utili sul medio-lungo periodo. Insomma, provvedimenti concreti, facilmente aggiornabili, e non filosofia da parlamenti in grado di combinare pasticci.

Per stabilire le tre regole che dovrebbero sovrintendere l’intelligenza artificiale del futuro, un macrosettore che ribalterà centinaia di ambiti, l’esperto si è rifatto alle celeberrime tre leggi della robotica introdotte dallo scrittore e guru della fantascienza Isaac Asimov nel lontano 1942, pubblicate per la prima volta all’interno del racconto Circolo vizioso, apparso sulla rivista specializzata statunitense Astounding Science Fiction. Sono, anche se non è necessario ricordarlo, quella secondo cui un robot non deve mai ferire un essere umano o permettere che a causa del proprio mancato intervento un essere umano riceva danno. Poi quella per cui “un robot deve obbedire agli ordini impartiti dagli esseri umani purché tali ordini non contravvengano alla prima legge”. Infine, la terza, per la quale “un robot deve proteggere la propria esistenza purché questo non contrasti con la prima e la seconda legge”. Più tardi il guru sovietico naturalizzato statunitense ne avrebbe aggiunta una quarta, la cosiddetta legge zero valida solo per gli automi più sofisticati: “Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno”.

Ovviamente questi pilasti vanno rivisti, alle prese con l’intelligenza artificiale. Per esempio per comprendere davvero cosa significhi “pericolo” nell’epoca odierna. Secondo Etzioni i sistemi di intelligenza artificiale dovrebbero anzitutto essere soggetti all’intero parco di leggi che si applicano ai loro operatori umani. In questo modo si riuscirebbe a coprire fatti e situazioni che riguardano l’ambito privato, aziendale e istituzionale. Insomma, bisognerebbe anzitutto partire da ciò che già abbiamo, impedendo alle macchine, comunque addestrate, di compiere azioni o scelte che siano impedite alla generalità. In altre parole, la natura artificiale non dovrebbe in alcun modo poter superare i vincoli legislativi che sovrintendono la vita della comunità, di qualsiasi Paese di parli. Né, sfumatura ancora più importante, i responsabili dovrebbero poter addurre quella natura a giustificazione di un fatto compiuto.

Il secondo filone che potrebbe accompagnarci verso una sana regolamentazione delle intelligenze artificiali ruota infatti proprio intorno a quella natura. Già questo punto potrebbe sollevare qualche grattacapo per esempio a quelle piattaforme, come Facebook ma non solo, che dell’interscambio e della relazione uomo-bot stanno facendo uno dei loro filoni di sviluppo. La seconda legge è che un sistema artificiale debba sempre e comunque dichiarare in modo chiaro e preciso la sua natura non umana. Bene i test di Turing e altri esperimenti simili in ambito scientifico, male la loro distribuzione su ampia scala, perché costruisce situazioni nei quali gli utenti non sanno con certezza con chi stanno avendo a che fare. E non possono saperlo. Si tratta di un aspetto all’apparenza di minore importanza ma che, dai social network alle piattaforme di assistenza ai clienti, restituirebbero pulizia e discrezione alla comunicazione. Oltre che onestà: è giusto sapere se dall’altra parte di una finestra di chat ci sia un uomo o un algoritmo.

Terza e ultima regola per muovere verso una regolamentazione dei sistemi che, a vario modo, cambieranno il dna degli oggetti e dei sistemi informativi è quello della riservatezza. La proposta è che l’AI non racconti nè dissemini in qualsiasi modo dati e informazioni confidenziali senza l’esplicita approvazione della fonte di quell’informazione. Avremo a che fare con sistemi forti di una capacità computazionale spaventosa, spesso legati o “alimentati” da supercomputer come Watson di Ibm. Per questo dovremo avere la certezza che gli standard di protezione delle informazioni confidenziali, che raccoglieranno per il semplice fatto di essere utilizzati o presenti in un certo ambiente (basti pensare a gadget come Echo, Google Home o Apple HomePod ma anche agli aspirapolvere robot), siano blindate.