Gli sviluppatori di software hanno ormai abbracciato da tempo il mondo dell’open source: grazie a piattaforme collaborative come Github e GitLab, ed a forum di discussione come Stack Overflow, chiunque può diffondere online il proprio codice, permettendo ad altri utenti di utilizzarlo per i propri progetti.

La strategia open source garantisce quindi una democratizzazione dell’accesso al software, favorendo lo scambio di conoscenza e la diffusione del sapere che non rimane più rinchiuso all’interno delle mura di aziende private.

Questo stesso approccio è stato adottato anche per il codice alla base degli algoritmi di intelligenza artificiale: Google e Facebook hanno pubblicato librerie software per produrre algoritmi di machine learning, e sono nate associazioni come OpenAI che puntano a diffondere gli strumenti e i risultati delle loro ricerche pubblicamente.

Recentemente, Nick Bostrom, professore di filosofia presso l’Università di Oxford e direttore del Future of Humanity Institute, ha pubblicato uno studio che cerca di gettare le basi per un’analisi puntuale degli effetti — sia positivi che negativi — legati all’adozione di una strategia open source anche per quanto riguarda l’AI.

L’approccio open source infatti non riguarda solo il codice ed i dati utilizzati, ma anche la diffusione degli obiettivi che le aziende si prefiggono nello sviluppo delle intelligenze artificiali, delle tecniche di sicurezza adottate, e delle possibilità offerte attualmente dall’AI

L’intelligenza artificiale è una tecnologia in grado di rivoluzionare completamente la vita per come la conosciamo, ma fino ad ora non erano stati analizzati in dettaglio gli eventuali risultati che una strategia open source può produrre sia nel breve che nel lungo termine.

Bostrom effettua un’analisi preliminare della diffusione pubblica di tutti gli strumenti e delle informazioni collegate agli algoritmi di AI: l’approccio open source infatti non riguarda solo il codice ed i dati utilizzati, ma anche la diffusione degli obiettivi che le aziende si prefiggono nello sviluppo delle intelligenze artificiali, delle tecniche di sicurezza adottate, e delle possibilità offerte attualmente dall’AI.

Nel breve periodo, sottolinea Bostrom, l’approccio open source favorisce la diffusione e l’applicazione di algoritmi che presentano lo stesso elevato livello di qualità: quando tutti i ricercatori possono usufruire del miglior codice disponibile in quel momento, il livello generale aumenta.

Quando ci si concentra, però, sugli effetti prodotti nel lungo periodo la situazione si fa più complessa. Bostrom introduce due problematiche che devono essere valutate adeguatamente: il problema del controllo, ossia come produrre dei sistemi di intelligenza artificiale che rispettino gli scopi dei loro sviluppatori, ed il problema politico relativo a come garantire che gli individui o le istituzioni sfruttino l’AI per il bene comune.

La strategia open source può velocizzare lo sviluppo di AI sempre più complesse ed evolute lasciando, però, poco tempo agli esseri umani per prepararsi al loro arrivo. Inoltre, la concorrenza sarebbe sempre più serrata e se qualcuno si trovasse nella posizione di dover fermare lo sviluppo della propria AI per poter effettuare degli ulteriori controlli di sicurezza sul sistema prodotto, perdendo quindi il vantaggio rispetto alle altre aziende, ci sono buone probabilità che si decida di sacrificare la sicurezza, con il rischio drammatico di perdere il controllo dell’AI stessa.

In una situazione di accesa competizione è improbabile che una singola azienda ottenga il monopolio dei benefici dell’AI, ed inoltre una maggiore apertura del settore garantisce anche l’aumento di interesse da parte di ricercatori e personalità esterne ai progetti veri e propri

Allo stesso tempo, però, Bostrom sottolinea come in una situazione di accesa competizione sia più improbabile che una singola azienda ottenga il monopolio dei benefici dell’AI, ed inoltre una maggiore apertura garantisce anche l’aumento di interesse da parte di ricercatori e personalità esterne ai progetti veri e propri, che possono quindi contribuire a risolvere il problema del controllo delle AI monitorando ed intervenendo direttamente nel suo sviluppo.

Un maggiore coinvolgimento di attori esterni, favorito dalla pubblicazione degli obiettivi di ricerca e delle capacità effettive dei sistemi possono garantire anche un controllo politico più efficace, permettendo di prevedere in anticipo problematiche ed implicazioni inaspettate collegate all’adozione dell’intelligenza artificiale in tutte le attività quotidiane.

Secondo questo studio preliminare, quindi, le strategie open source, pur presentando il rischio di instaurare dinamiche competitive dannose, in generale garantiscono sia una riduzione dei monopoli nel settore, con una conseguente redistribuzione dei benefici, sia una maggiore sensibilizzazione alla discussione su questi temi, fornendo anche la possibilità alle istituzioni ed ai cittadini di supervisionare più facilmente lo sviluppo dell’intelligenza artificiale.