di Simone Cosimi

L’intelligenza artificiale può leggerci la mente? Ovviamente no, non siamo affatto dalle parti della fantascienza. Almeno, non ancora. Ma di passi avanti se ne stanno facendo molti. L’ultimo l’ha messo a segno un gruppo di ricercatori dell’università di West Lafayette, nell’Indiana: ha sviluppato una serie di algoritmi di deep learning in grado di decifrare proprio alcune dinamiche che avvengono nel cervello umano.

 

Occorre procedere con ordine. Il gruppo ha anzitutto costruito un modello artificiale del modo in cui il cervello codifica le informazioni. Lo ha fatto utilizzando l’attività cerebrale di tre volontarie che hanno trascorso diverse ore a vedere brevi video: grazie alla risonanza magnetica tomografica si sono potuti misurare i segnali dell’attività nella corteccia visiva e in altre aree. Questo è il passaggio in cui è entrata in ballo l’intelligenza artificiale: gli algoritmi sono stati infatti in grado di associare l’attività registrata con le clip osservate dalle pazienti.

 

Quando poi le donne sono state poste di fronte ad altri video, il sistema è riuscito a prevedere la tipologia di attività in una dozzina di regioni del cervello. Insomma, ha disegnato prima che accadessero i meccanismi innescati dagli stimoli ricevuti. Ha scoperto dei pattern, cioè degli schemi ricorrenti. Non solo: il sistema artificiale, basato su reti neurali convoluzionali, ispirate appunto all’organizzazione della corteccia visiva animale, ha anche aiutato gli scienziati a capire meglio quali aspetti ciascuna area coinvolta stesse processando. Insomma, anche un salto avanti in termini di competenze, oltre che un esperimento sulle potenzialità dell’AI.

 

Un altro algoritmo messo a punto dal gruppo di scienziati si è invece dedicato a decodificare i segnali neurali. In questo caso, e sempre ovviamente analizzando l’attività cerebrale, è stato in grado di prevedere con circa il 50% di accuratezza ciò che la volontaria stava vedendo, selezionando la risposta in un elenco di 15 tipologie di video (esercizio, aeroplano, uccelli e così via). Ovviamente se l’algoritmo “addestrato” sui dati e le attività di una specifica persona veniva di punto in bianco messo al lavoro su quelle di un’altra il tasso di successo nelle previsioni si abbassava al 25%.

 

Lo studio, pubblicato su Cerebral Cortex e battezzato “Neural Encoding and Decoding with Deep Learning for Dynamic Natural Vision”, ha inoltre sottolineato – questo, forse, il dato più eclatante – come la rete neurale abbia tentato di ricostruire ciò che i partecipanti avevano visto. Come? Trasformando l’attività cerebrale in pixel. Ovviamente le immagini risultanti erano del tutto inservibili, poco più che bolle bianche, ma un tentativo, un primissimo passo di “lettura della mente” e ricostruzione a posteriori, c’è stato. Non a caso i ricercatori sperano che il loro lavoro possa guidare a ulteriori approfondimenti sui processi mentali di visualizzazione per poter trasmettere magari a macchine addestrate i propri pensieri (o i propri sogni) e trasformarli in contenuti. O anche aiutare chi abbia problemi di comunicazione. Ma siamo già oltre.

 

“Per secoli filosofi e scienziati hanno speculato, osservato, cercato di capire e decifrare i processi del cervello che consentono agli esseri umani di percepire ed esplorare visivamente l’ambiente circostante – si legge nello studio – in questa indagine ci siamo chiesti come il cervello rappresenti l’informazione visuale dinamica proveniente dal mondo esterno e se l’attività possa essere direttamente decodificare per ricostruire e categorizzare ciò che una persona sta vedendo. Queste domande, che toccano la codificazione e decodificazione neurale, sono state spesso affrontare con stimolazioni statiche o artificiali. Tuttavia ciò che ci serve è una strategia alternativa che consideri la complessità della visione per scoprire e “leggere” le rappresentazioni visuali dell’attività corticale distribuita”.

 

Di indagini sul tema, che utilizzano le potenzialità dell’intelligenza artificiale per gli studi sul cervello, se ne stanno susseguendo moltissimi. L’ultimo, per esempio, sembra aver provato come comprendere alcuni pattern dell’attività, cioè schemi ricorrenti, possa consentirci appunto di capirne i significati e di associarvi tendenze di vario tipo. Ad esempio, alcuni studi hanno decodificato i pattern associati con problemi come la depressione, altri hanno approfondito un campo di ricerca storico di questo settore di ricerca che è quello del linguaggio e delle sue proprietà. L’ultimo, pubblicato su Nature Human Behavior e firmato dall’università Carnegie Mellon di Pittsburgh ha messo sotto la lente 34 partecipanti, la metà dei quali avevano sperimentato in passato tendenze suicide. Dopo le analisi di rito nelle quali sono stati stimolati con parole legate a quel contesto come “morte” e “stress”, ma anche con termini positivi, gli scienziati sono riusciti a individuare dei processi attivati in cinque regioni del cervello e sei parole-chiave in grado di individuare i possibili suicidi. I dati sono stati utilizzati per addestrare un algoritmo che, in seguito, è riuscito a far segnare un tasso di precisione di 15 su 17 pazienti e 16 su 17 membri del gruppo di controllo. Ha cioè scovato le persone che effettivamente, in passato, avevano tentato di togliersi la vita.