I pericoli dei “deep fake”
di Michele Bargagli
La scorsa settimana il noto programma satirico Striscia la notizia ha mandato in onda un breve video in cui viene ripreso l’ex presidente del Consiglio Matteo Renzi intento a straparlare e a schernire pesantemente vari esponenti della politica italiana, arrivando persino a rivolgere una sonora pernacchia al presidente della Repubblica Mattarella. Era ovviamente un servizio montato, con l’intento di beffeggiare la recente scissione del senatore fiorentino dal Partito Democratico. Per simulare la voce e l’aspetto del politico si è utilizzata l’intelligenza artificiale, sempre più utile nelle nuove tecnologie di manipolazione delle immagini e dei volti; il viso del vero Renzi è stato sovrapposto al corpo di un imitatore e animato in maniera da fargli dire ciò che più si desiderava.
Ovviamente il servizio ha generato un’ondata di indignazione e polemiche sui social, e Renzi è stato molto criticato per i toni utilizzati nel video. Sono già numerose le vittime illustri di tale trucco, noto come Deep fake: come suggerisce il nome, una forma di fake news ancora più subdola e manipolatoria. A giugno fu fatto dire a Mark Zuckerberg di voler controllare il futuro, essendo in possesso dei dati di più di due miliardi di persone, ma anche video di Obama prima e Trump poi sono stati maneggiati con lo scopo di creare scompiglio nell’opinione pubblica.
Il pericolo principale di una tale tecnologia risiede nel fatto che essa può raggiungere milioni di individui senza che questi vengano avvertiti preventivamente della contraffazione del video, rischiando di creare inutile confusione ed allarme. Tutto ciò rappresenta un’ulteriore sfida che il giornalismo e l’opinione pubblica si trovano ad affrontare: come si fa a distinguere un contenuto se neanche chi lo pubblica spiega di cosa si tratti?
Un deep fake ci impone di prestare una soglia di attenzione enormemente superiore rispetto alle classiche fake news, spesso velocemente smascherabili. È prevedibile, inoltre, che con l’inesorabile progredire dei sistemi di intelligenza artificiale tali video risulteranno sempre più difficili da smascherare. È importante, perciò, essere fortemente critici con questo tipo di tecnologie, e di non considerarle come una goliardata o la classica burla satirica.
La sfida al deep fake si presenta su due diversi binari. Da un lato c’è la digitalizzazione dell’informazione, con il conseguente ampliamento dell’influenza dei social network e lo sgretolamento dei media tradizionali. Dall’altro vi è il progressivo aumentare della potenza computazionale degli algoritmi, in grado di elaborare una vastissima quantità di dati simultaneamente. Ma non è finita qui: l’abbinamento alla crescente esposizione dei nostri dati personali (Big Data) nel cyberspazio può rendere i deep fake ancora più dannosi. Infatti, i dati raccolti possono servire per individuare nelle loro caratteristiche personali i soggetti bersaglio delle fake news. Il video o la notizia non vengono inviate casualmente, ma spediti a quei soggetti che possono risultare più influenzabili da certi tipi di notizie. CBInsights riporta, ad esempio, come in un’email di Cambridge Analytica (la società coinvolta nello scandalo sulle presunte illecite interferenze nelle ultime elezioni presidenziali americane) erano indicate numerose caratteristiche volte a individuare il comportamento di un soggetto: dall’orientamento politico/religioso, fino alla predilezione per l’uso di armi da fuoco o alla credenza nell’astrologia.
Il deep fake non è solo pericoloso per gli effetti che potrebbe produrre in un’opinione pubblica già avvelenata da fiumi di idiozie sui social e in TV o per il rischio di implicazioni in ambito politico e diplomatico, ma lo è soprattutto per le conseguenze che potrebbe portare nelle nostre vite quotidiane. È lo strumento ideale per raggiri di vario genere, per nuovi tipi di ricatto enormemente più efficaci e per vessazioni psicologiche potenzialmente devastanti.
In che modo, quindi, ci si può difendere da questo inquietante strumento?
Sicuramente vi deve essere un deciso intervento in ambito legislativo, volto a tutelare sia i soggetti già colpiti, che quelli potenzialmente più a rischio. È necessaria, inoltre, una forte campagna di sensibilizzazione per fenomeni di questo tipo, soprattutto verso i soggetti più giovani, che sulle piattaforme online sono costantemente esposti a queste minacce. Per quanto suoni paradossale, tuttavia, probabilmente la soluzione più efficace può provenire dalla tecnologia stessa, che tanto si profila minacciosa all’orizzonte. Sarebbe forse corretto uscire da quella visione dualistica della macchina buona e della macchina cattiva. Sarebbe forse più costruttivo applicare alla tecnologia quell’aspetto che rende così unico il cervello umano: la coscienza.