La ricerca nel settore dell’intelligenza artificiale sta cercando di trasformare i robot in organismi quanto più vicini agli esseri umani e per far questo sta sviluppando quelli che potremmo considerare i sensi artificiali delle macchine, come ad esempio la possibilità di ascoltare, parlare e di vedere.

 

In questa ricerca, però, c’è il rischio di confondere le capacità percettive delle AI con quelle tipiche degli esseri umani, seguendo la tendenza di introdurre delle interfacce uomo-macchina che nascondono queste differenze alla nostra vista.

 

Il progetto di Kim Albrecht intitolato AI Senses, in collaborazione con il metaLAB (at) Harvard e con il supporto del Berkman Klein Center for Internet & Society, ha proprio l’obiettivo di mostrare come i sensi artificiali siano diversi da quelli umani pur avendo in superficie un’interfaccia comune, come potrebbe sembrarci l’assistente vocale Siri, sempre pronto ad ascoltarci e risponderci con una voce simile a quella umana.

Locating.jpg

AI Senses visualizza i dati raccolti dai sensori delle AI per mostrarli sotto un volto diverso, più vicino a quello della macchina, perché dobbiamo ricordarci, sottolinea Kim Albrecht contattato via mail, che “pur essendo creazioni umane, sono anche delle creature molto strane che funzionano in modi completamente diversi dai nostri.”

 

L’esperienza che le macchine fanno del mondo è di tipo binario, prosegue Albrecht, fatta di un susseguirsi di stati acceso-spento, zero-uno: “se ascoltare la musica crea in me una forte risposta emotiva, per le macchine si tratta invece semplicemente di una sequenza di cifre,” chiarisce Albrecht.

 

Sul sito del progetto è possibile vedere in tempo reale i dati del proprio dispositivo convertiti in immagini: ci sono ad esempio i dati relativi alla posizione GPS che sono mostrati come un susseguirsi di bande colorate per indicare la continua ricerca delle coordinate, ma vengono visualizzati anche i dati relativi al microfono, al giroscopio che indica l’orientamento degli smartphone, e persino i dati relativi alla posizione del proprio dito sullo schermo.

 

Se solitamente le interfacce uomo-macchina cercano di essere il più umane possibili, in questo caso l’interfaccia è completamente tesa verso la macchina, “riproducendo sullo schermo delle figure di difficile interpretazione per l’occhio umano,” aggiunge Albrecht.  

Touching.jpg

Visto il graduale aumento della collaborazione fra uomo ed intelligenze artificiali, secondo Albrecht, dobbiamo necessariamente cercare di capire di più come queste macchine percepiscono il mondo, perché altrimenti rimarremo offuscati da interfacce fittizie create appositamente per farci sentire le AI più vicine.

 

“Gran parte delle nostre attività passa attraverso queste macchine e questi strumenti determinano il modo in cui percepiamo il mondo,” prosegue Albrecht, “e percepire il mondo attraverso un sistema binario come questo cambia tutto.”

 

Osservando le immagini si nota subito che pur trattandosi di dati relativi al tatto, all’udito, o alla vista, le immagini si somigliano quasi tutte: questi sensi, però, rappresentano delle esperienze sensoriali completamente diverse e ben definite le une dalle altre per gli esseri umani, i quali associano ad esse anche emozioni e ricordi distinti.

Hearing.jpg

Secondo Albrecht, quindi, non dovremmo continuare a trasformare le AI in fotocopie degli esseri umani, “dovremmo creare un contrappeso e produrre qualcosa di non umano.”

 

Se vogliamo vivere veramente con le AI, conclude Albrecht, “dobbiamo renderci conto che non possiamo fare affidamento solamente su macchine che si rendono facilmente comprensibili ai nostri occhi, dobbiamo sviluppare una nuova comprensione sul modo in cui questi dispositivi percepiscono il mondo.”

 

AI Senses è quindi un primo passo verso la scoperta del funzionamento interno delle intelligenze artificiali che permetterà di migliorare il processo di integrazione delle AI nella nostra società.