“Ciao Dempster”, dice un uomo a un robot. “Ciao”, dice il robot. L’uomo gli chiede in tono molto gentile, “Potresti camminare in avanti?”. “Sì”, risponde il robot, “Ma non posso perché ho un ostacolo davanti”. L’uomo allora gli domanda, “Ti fidi di me?”. Il robot risponde “Sì”, così l’uomo gli spiega che l’ostacolo che ha davanti non è un muro insormontabile ma si tratta di due confezioni vuote, che prima contenevano degli orologi e che ora lui può attraversare in un attimo e senza problemi. Il robot risponde “Okay” e procede in avanti, oltrepassando l’ostacolo e facendolo cadere a terra. Questa conversazione si tiene in uno spazio bianco, in Massachussetts. Qui si trova il laboratorio di Human Robot Interaction della Tufts University ed è in corso una sperimentazione molto particolare. Da sempre l’uomo si chiede se può fidarsi dei robot, in questo caso si cerca di rispondere alla domanda: I robot possono fidarsi di noi?

noa.jpg

Imparare a dire no sembra dunque aiutare a crescere anche i robot a livello intellettivo; fa parte del loro sviluppo “psichico”, al fine di essere più funzionanti. L’uomo che chiede fiducia al robot si chiama Matthias Scheutz ed è il direttore del dipartimento di informatica e a capo del team della Tufts University. Per spiegare il fine di questi esperimenti fa un esempio molto semplice, “Un robot domestico sta facendo shopping per il suo proprietario quando uno sconosciuto lo invita a salire in auto. Il robot non dovrà limitarsi a ubbidire ma dovrà essere in grado di capire che quella persona non è una fonte attendibile. Allo stesso modo, se un bambino sta giocando per strada e una macchina rischia di investirlo, il robot dovrà sacrificarsi ed essere disposto a farsi distruggere per salvare la vita al bambino”. Due modi di scegliere e di dare fiducia, a un uomo e a una situazione umana. Le tre leggi della robotica di Asimov ne potrebbero avere così una quarta: Un robot deve sapere di che uomo fidarsi.