L’intelligenza artificiale non ci condurrà solo a leggere e interpretare la realtà meglio di quanto siamo mai stati in grado di fare grazie alle incredibili capacità di calcolo e all’autoapprendimento di algoritmi sempre più raffinati. Ha infatti anche un suo lato per così dire demiurgico che si manifesta in numerosi ambiti creativi – oltre a quelli più strettamente informatici, come la capacità di generare algoritmi straordinariamente efficienti – e che potrebbe intervenire profondamente nella realtà che ci circonda. Regalandoci “oggetti” inediti e prima inesistenti. Insomma cose mai viste. O, com’è più appropriato in questo caso, mai sentite.

Ci sta pensando Magenta, un piccolo gruppo interno a Google composto da agguerriti ricercatori specializzati in IA, a inventare la musica del futuro. O almeno le sue componenti essenziali: nuovi suoni per nuovi strumenti. D’altronde il punto di partenza di Magenta è affascinante: “Le macchine possono fare musica e arte? E se sì, come? E se no, perché?”. L’obiettivo è dunque quello di aiutare i creativi ad esserlo sempre di più e sempre meglio. Con l’aiuto della ricerca tecnologica.

Il progetto ha intanto preso un aspetto concreto con NSynth, annunciato il mese scorso in un post ufficiale sul blog e le cui potenzialità sono state protagoniste di una dimostrazione all’ultimo Moogfest di Durham, in California, una rassegna annuale di tecnologia, musica e arte. L’obiettivo è dare in pasto all’intelligenza artificiale suoni e campionamenti da strumenti già esistenti per partorirne di totalmente nuovi. In un innesto di creatività umana e potenzialità dell’AI.

900x550R2-02.jpg

Non è un caso che Magenta faccia parte di Google Brain, la divisione più importante di Mountain View dedicata appunto all’intelligenza artificiale e a tutto ciò che le ruota intorno, dall’esplorazione dei limiti delle reti neurali – i sistemi matematici che mimano il funzionamento del cervello – ad altre e diverse forme di machine learning. Anziché tradurre, riconoscere volti e oggetti o svolgere altri compiti per certi versi passivi su cui queste soluzioni sono state messe alla prova negli ultimi anni, il team di Magenta insieme a quello di DeepMind ha voluto mettere alla prova queste soluzioni neurali con un task creativo: insegnare alle macchine a realizzare nuovi generi di musica ma anche, potenzialmente, inediti tipi di manifestazioni espressive.

“Diversamente da un sintetizzatore tradizionale NSynth sfrutta le reti neurali per produrre suoni al livello di sample individuali – si legge sul blog di Tensor Flow, la library open source delle soluzioni di Google per il machine learning lanciata nel dicembre 2015 – imparando direttamente dai dati, NSynth assegna agli artisti il controllo sul timbro e la dinamica nonché l’abilità di esplorare nuovi suoni che sarebbe difficile o impossibile produrre”.

Di casi simili ce ne sono già stati, in passato. Lo scorso anno, per esempio, una galleria d’arte olandese ha esposto un quadro che sembrava in ogni suo aspetto un lavoro uscito dalla mente, dalle mani e dall’estro di Rembrandt. Miracolo? No, più semplicemente gli autori erano computer e big data. Non si trattava infatti di una copia ma di un’opera inedita in qualche modo allineata allo stile creativo del maestro di Leida resuscitato attraverso la potenza di calcolo dei calcolatori. Non si trattava dunque di una riproduzione ma di un dipinto soggetto originale partorito da un algoritmo dopo l’analisi di un corpus di opere dell’artista: per la precisione 168.263 frammenti pittorici presi da oltre trecento dipinti in particolare realizzati fra il 1632 e il 1642, acquisiti con scanner ad alta risoluzione in oltre 500 ore di scansioni per un totale di 150 GB di materiale. Si tratta solo dell’esempio più celebre ma la stessa Google ha più volte messo in mostra la potenza dei suoi mezzi, specialmente sotto l’aspetto figurativo.

Stavolta NSynth ci prova con il suono. Anzi, i suoni. Tutto muove da un gigantesco database di suoni e rumori. L’hanno messo insieme Jesse Engel e Cinjon Resnick fra gli altri membri del gruppo (Adam Roberts, Sander Dieleman, Karen Simonyan e Mohammad Norouzi). Note da circa un migliaio di strumenti diversi date in pasto a una rete neurale. Questa tramite l’analisi ha compreso ogni specifica caratteristica dei singoli suoni creando per ciascuno un vettore matematico grazie al quale può mimarlo – che sarebbe il minimo – ma anche utilizzarlo come ingrediente di partenza per mescolarlo con un altro. E sfornare così qualcosa che non avevamo mai sentito prima.

Non basta. Non c’è solo un suono nuovo di zecca. Il team di Magenta, coordinato da Douglas Eck, ha infatti creato un’interfaccia che consente all’utente di esplorare lo spazio udibile fra quattro diversi strumenti alla volta, cioè di spaziare fra i quattro vertici creando, almeno potenzialmente, decine di suoni diversi a seconda del mix.

Com’è evidente gli obiettivi sono importanti: un’altra rete neurale potrebbe ad esempio imparare nuovi modi per mimare e combinare i suoni da questi neostrumenti, dando vita a una branca musicale del tutto sconosciuta. La infoelettronica, o qualcosa del genere. Una situazione prodotta da un doppio lavoro dell’intelligenza artificiale: non solo la “materia prima” è nuova (i suoni) ma verrebbe anche combinata in modi diversi. Ma questo è lo scenario progressivo, attualmente lo stadio di sviluppo è fermo al primo passo. Come capita spesso, queste scoperte sono libere e a disposizione. Gli algoritmi che muovono NSynth sono insomma aperti: chiunque può scaricarli e usare il loro database di nuovi suoni.