I social network sono diventati una vetrina, nel bene o nel male: status e video possono dire qualcosa di più sullo stato d'animo di una persona, o annunciare decisioni drammatiche in pochi secondi di filmato. Dopo essere stato criticato per aver permesso la diffusione  di video di suicidi, Facebook ha deciso di intervenire sul più delicato dei nodi che riguardano le sue bacheche. Come? Il colosso fondato da Mark Zuckerberg ha reso noto di aver messo a punto un algoritmo di intelligenza artificiale in grado di prevenire il suicidio. Il sistema individua caratteristiche e contenuti tipici di situazioni a rischio dai contenuti pubblicati da un certo utente, segnalandoli ai community managers del social network. Nei casi più urgenti, lo staff può addirittura tentate di mettersi in contatto con l'utente; in quelli meno gravi, si entra in comunicazione con amici e parenti per avviare un dialogo con i soggetti tenuti sotto stretta osservazione. Facebook sostiene che l'intelligenza artificiale sia «più accurata» dei report statistici nel rilevare situazioni a rischio. Ma la tecnologia è destinata a far discutere, a partire dalla prima (e più ovvia) delle accuse: la violazione della privacy.