Nell’aprile 2018, su Internet era apparso un video di Barack Obama. Il filmato mostrava sObama in giacca scura e camicia immacolata che guardava dritto nella telecamera sottolineando le sue parole con le mani tese in avanti: «Il presidente Trump è uno stronzo fatto e finito».
E proseguiva, senza l’ombra di un sorriso. «Ora, vedete, io non direi mai una cosa del genere. Almeno non in un discorso pubblico. Ma qualcun altro sì». L’immagine sullo schermo si divideva in due parti e rivelava l’attore Jordan Peele. Obama non aveva detto niente: il prodotto univa il video vero di un discorso di Obama all’audio interpretato da Peele. Il messaggio andava avanti con le due immagini fianco a fianco mentre Peele, come un ventriloquo digitale, continuava a mettere parole in bocca all’ex presidente.
In quest’era di fake news, il video era un messaggio di pubblica utilità prodotto da BuzzFeed News che metteva in luce la possibile applicazione di una nuova tecnologia di intelligenza artificiale (IA) che potrebbe significare per l’audio e il video ciò che Photoshop ha rappresentato per le immagini digitali: la possibilità di manipolare la realtà.

I risultati sono ancora abbastanza rudimentali, ma questa tecnologia in rapida evoluzione, pensata per i montatori cinematografici di Hollywood e i progettisti di videogiochi, getta lunghe ombre nella mente di alcuni esperti di sicurezza e studiosi di comunicazione.
Forse la prossima generazione di questi strumenti renderà possibile la creazione di falsi convincenti a partire da zero, senza bisogno di modificare video esistenti, come nel discorso di Obama, ma creando scene che non sono mai avvenute.
Gli esperti di informatica stanno elaborando strumenti di rilevamento basati sull’IA che segnalano i video falsi, ma sono sempre un passo indietro rispetto alla possibilità di creare contenuti manipolati. Intanto, gli esperti di scienze sociali, come Alexei Efros, fanno notare che controllare i falsi a posteriori non è una soluzione sufficiente.
Le fake news in forma scritta sono state un fattore di disturbo nelle elezioni del 2016 negli Stati Uniti. La ricerca indica che i video falsi potrebbero essere particolarmente efficaci nell’alimentare la paura, un’emozione che rafforzai contenuti virali. Uno dei motivi di preoccupazione è che tutto ciò finisce per erodere la fiducia in tutti i mezzi di comunicazione, anche quelli che propongono contenuti veri.

Lo scorso marzo il Center for Artificial Intelligence della Finalndia ha annunciato un programma che inviterà psicologi, filosofi, esperti di etica e altri ad aiutare chi fa ricerca sulla IA a capire le implicazioni sociali più ampie del proprio lavoro.
E in aprile Persily e Gary King, ricercatori di scienze politiche alla Harvard University, hanno lanciato la Social Data Initiative, un progetto che per la prima volta permetterà agli esperti di scienze sociali di avere accesso ai dati di Facebook, così che possano studiare il diffondersi delle informazioni false.
Con un vuoto di responsabilità agli alti livelli, l’onere di scoprire ed eliminare i video falsi ricade sui giornalisti e sui cittadini investigatori. Verso la fine del video fake di Obama e Peele, i due uomini dicono: «Andando avanti, dobbiamo essere più atten- ti a quello a cui crediamo su Internet. In questo momento storico dobbiamo affidarci a fonti di informazione affidabili». Quel video sarà anche stato un falso, ma diceva la verità.