Passeggeri che si intrattengono in diversi modi: leggono, sonnecchiano, guardano uno show dai display incorporati negli allestimenti dei veicoli. Magari lavorano, sulla strada per l’ufficio o per una vacanza. Nella scalata verso il livello massimo di automazione, il quinto – la modalità che non richiede alcun conducente a prescindere dal tipo di strada, dalla velocità e dalle condizioni ambientali – il concetto di distrazione alla guida sembrerebbe destinato a eclissarsi. Ma forse non andrà così, anche in quel caso. Perché l’intelligenza artificiale sarà in grado di aiutare i guidatori e i passeggeri a mantenere un atteggiamento appropriato. Sia che si trovino, come accadrà ancora per diversi anni, al volante di vetture segnate da un elevato livello di autonomia (vedi Audi A8) ma pur sempre da condurre in modo proattivo sia che vengano dolcemente trasportati da un mezzo che fa tutto da solo. 

Nel percorso che ci porterà verso l’auto completamente autonoma, infatti, non potremo permetterci di rilassarci troppo. O meglio, potremo farlo proprio perché i sistemi della vettura, sempre più empatici e intelligenti, ci sveglieranno se siamo troppo stanchi, capiranno quando siamo distratti e non abbiamo lo sguardo sulla strada o, magari, quando abbiamo alzato un po’ troppo il gomito. In fondo anche gli esperimenti di questi anni, da Waymo a Uber, hanno dimostrato che in certi casi e nonostante tutto il “controllore” in carne e ossa sarebbe potuto intervenire per rimediare a quei pochissimi incidenti (un paio dei quali fatali) provocati dai veicoli driverless.

Startup e case automobilistiche confidano, per questo, nella carta vincente degli algoritmi: sistemi ipersensibili in grado di tenere sotto controllo il guidatore/passeggero in tempo reale individuando eventuali atteggiamenti a rischio. E intervenendo di conseguenza. Funzionalità che, col progredire dei livelli di autonomia delle vetture, saranno sempre più centrali nel bilanciamento fra macchina ed essere umano, cioè fra indipendenza dei sistemi di navigazione e sorveglianza dei (sempre più ex) conducenti. 

Immaginate se la camera installata nell’auto Uber che ha investito una donna a Tempe, in Arizona, lo scorso 19 marzo, stesse analizzando la posizione della testa del guidatore, il tasso di abbassamento delle palpebre, la direzione dello sguardo sulla strada e altri stati cognitivi ed emotivi e, con tutto questo patrimonio d’informazioni, fosse stato in grado di allertare il pilota di sicurezza, avvisandolo che non stava fornendo la giusta attenzione”. Sono parole di Rana el Kaliouby, Ceo di Affectiva, una rivoluzionaria startup specializzata in soluzioni di intelligenza artificiale e al lavoro con molti produttori proprio su questo delicato punto.

Un aspetto che, fra l’altro, potrebbe intervenire anche nello sbloccare i complicati aspetti legislativi e normativi legati alle auto driverless: c’è da scommettere che di fronte a sistemi del genere, in grado di tenere sotto controllo il guidatore, governi e amministrazioni sarebbero più propensi ad accordare spazi e modi di sperimentazione per i veicoli con livelli di autonomia superiori al terzo. Insomma, l’intelligenza artificiale applicata all’analisi delle condizioni di chi occupa un mezzo su ruote diventerà la nuova cintura di sicurezza o il nuovo airbag. È cioè destinato a diventare standard di garanzia in particolare nelle lunghe fasi di transizione.

D’altronde molti costruttori stanno già marciando in quella direzione: Audi, per esempio, ha rivoluzionato queste categorie con Audi Intelligent Assistance e Audi connect incrociando comfort, sicurezza e connettività. In generale i modelli più avanzati della casa dei quattro anelli leggono la strada, ne prevedono le insidie e si integrano con l’ambiente circostante, traghettando il conducente verso il futuro della guida. È per esempio il caso dell’Adaptive cruise control, grazie al quale, tramite frenate e accelerazioni controllate, il sistema regola in autonomia la distanza di sicurezza, fino alla velocità di 250 km/h. Oppure del Pre sense front, che interviene all’improvviso presentarsi di un ostacolo, proprio come capitato alla Uber qualche mese fa. Il sistema Audi, grazie alla scansione dell’area davanti all’auto, riconosce la presenza di vetture e pedoni e avvisa il conducente con un segnale acustico, frenando nei casi più pericolosi. Ancora il Pre sense basic o il Pre sense rear avvolgono il conducente nella protezione rispetto a situazioni di pericolo o possibili tamponamenti dell’auto che segue, il Pre sense city avvisa sui rischi di collisione fino a 85 km/h e nei casi peggiori frena, mentre il Night vision fornisce una visione a infrarossi dell’area circostante e il Traffic jam assist sterza e tiene le distanze quando siamo imbottigliati.

Quella è la strada. Ma, secondo Affectiva, si dovrà procedere ancora oltre. Scendendo all’analisi emozionale degli occupanti. Ad esempio dotando i veicoli di videocamere collocate nello sterzo in grado di tracciare posizione della testa e degli occhi del conducente. Se il sistema individua una forte distrazione può avvisare il guidatore e, nel caso più preoccupante, prendere il controllo della vettura. Magari rallentando e trovando un parcheggio oltre che, senza ricevere reazioni ad altre sollecitazioni, chiamare i soccorsi. Questo il quadro della situazione per come lo delineano gli esperti del settore, con le differenze legate ovviamente alla velocità di guida e soprattutto a quella di sviluppo e di elaborazione dell’intelligenza artificiale.

Non è un caso che la Euro Ncap, un’organizzazione di sicurezza in ambito automotive finanziata dalla Commissione europea e da cinque governi del Vecchio Continente, abbia già messo nero su bianco proprio quanto si spiegava in precedenza: cioè che la presenza di simili sistemi di AI influenzerà in modo decisivo i loro giudizi sulla sicurezza dei veicoli, che siano driverless o sfoggino livelli di autonomia inferiori. “L’idea di fondo è che si costruisca una relazione simbiotica fra macchina ed essere umano – aggiunge el Kaliuby – abbiamo bisogno di approfondire questo rapporto finché i veicoli non potranno viaggiare davvero in totale autonomia”.

Al momento le soluzioni di Affectiva possono lavorare e riconoscere sette diverse emozioni (rabbia, disgusto, paura, gioia, tristezza, sorpresa e perfino disprezzo) legate a una ventina di espressioni facciali differenti. Ma la ricerca prosegue e aziende come questa non faranno che fornire le tecnologie di riconoscimento e lettura di volti, sguardi, posizioni: il resto, cioè l’implementazione nel veicolo e soprattutto le conseguenze di alcune condizioni, saranno stabilite dai costruttori. Si potrà per esempio, come alcuni stanno facendo, modulare la scala degli avvisi da un semplice richiamo sonoro al controllo totale del veicolo. D’altronde perché mai le capacità di guida autonoma o semiautonoma di cui alcuni modelli dispongono non dovrebbero salire a bordo e attivarsi non solo per le minacce esterne ma anche in base alle condizioni di chi occupa l’abitacolo?

Anche in questo caso, comunque, il percorso è complesso: i muscoli facciali possono produrre centinaia di espressioni e comunicare altrettante emozioni e l’analisi di questi movimenti, così come la loro lettura e classificazione, presenta sfide che solo lo sviluppo dell’intelligenza artificiale può superare. Per esempio combinando, come fa Affectiva, l’uso di reti neurali convoluzionali e reti ricorrenti in grado di riconoscere pattern e schemi di comportamenti all’interno di database più ampi. Cercando di immortalare per un attimo, magari quello fondamentale, la continua evoluzione del nostro stato emotivo.