Fake e deepfake

Si sta aprendo in rete una nuova frontiera del falso (fake), che riguarda la manipolazione di notizie. E del profondo falso (deepfake), che riguarda la manipolazione di video. Tutto ciò, inoltre, potrebbe essere condito di una bella dose di emotività.
Converrebbe almeno investire qualche minuto per capire bene di che si tratta, e quali potrebbero essere le implicazioni.

BELLA MA INQUIETANTE. Ma cominciamo dalla notizia più recente. Ora basta un clic per animare qualsiasi immagine di un volto umano, si tratti della foto seppiata della nonna, o della Gioconda. O della testa scolpita di Alessandro Magno (qui dieci esempi).  Ma lo scopo primario è consentire alle persone di caricare foto dei loro cari defunti, e vederle animarsi, scrive The Verge, definendo l’idea bella in teoria, ma inquietante.
Non ha tutti i torti. 

INTELLIGENZA ARTIFICIALE. Il clic va fatto accedendo alla sezione Deep Nostalgia del sito My Heritage, che vende ai propri utenti un servizio di ricostruzione dell’albero genealogico. La tecnologia impiegata da Deep Nostalgia si basa sull’intelligenza artificiale. I risultati, che naturalmente dipendono dalla qualità del materiale di partenza, sono da abbastanza a molto realistici. 
Il servizio, per le prime cinque immagini caricate, è gratuito. 

SUCCESSO MEDIATICO. All’evidente intenzione promozionale dell’offerta ha fatto riscontro un notevole successo sui media. Infatti, di Deep nostalgia hanno parlato la CNN, il Guardian, Lo Spiegel (che titola Zombie digitali), Le Monde, e molte altre testate, anche nel nostro paese. Un sacco di gente ha effettuato l’accesso. E ha caricato sul sito immagini private, molte delle quali sono state poi pubblicate in rete.

HARRY POTTER. Devo dire che, per quanto mi riguarda, le foto di famiglia rimangono ben ferme nelle loro cornici, e di lì non si muoveranno. Aggiungo che subito mi è tornata in mente una delle invenzioni più poetiche di J. K. Rowling. Si tratta dei ritratti animati di maghi e streghe eminenti che stanno appesi nelle sale e nei corridoi del castello di Hogwarts, i cui soggetti si muovono, parlano e vanno a farsi visita l’un l’altro. 

BLACK MIRROR. Devo anche dire che subito dopo mi è tornato in mente un episodio, meno poetico e assai più cupo e conturbante. Sta nella seconda stagione di Black Mirror, la famosissima serie TV britannica che racconta come, in un futuro prossimo, le tecnologie potrebbero interferire nelle nostre vite. 
L’episodio, uscito nel 2013, è intitolato Torna da me (Be right back). È la storia di una ragazza disposta a fare di tutto per superare il lutto per la perdita del fidanzato a causa di un incidente stradale. Così, accetta di rivolgersi a un servizio online che, a partire dai dati custoditi dai social media, ne ricostruisceuna copia virtuale.
Sì, è un fake, un falso, ma questo non impedisce che diventi via via più “reale”. Fino a d arrivare, però, a un limite. Ovviamente non vi dico come si sviluppa la storia, e come va a finire.

SUCCEDE DAVVERO. Quel che voglio fare, invece, è segnalarvi un punto notevole: appena tre anni dopo, nel 2016, una cosa del genere succede davvero.
Eugenia Kuyda è una informatica russa ventottenne trasferitasi negli Stati Uniti, dove costruisce chatbot. Si tratta di programmi capaci di conversare in modo realistico con gli utenti, simulando una vera interazione. Il suo prodotto di punta è una chatbot che produce consigli personalizzati sui ristoranti (aggiungo che sono chatbot gli assistenti virtuali che ormai troviamo comunemente nei siti di molte aziende, per offrire informazioni sui prodotti o assistenza post-vendita).

PARLARE CON ROMAN. Dunque, succede che quando Roman, un amico di Kyuda, muore per un incidente, lei raccoglie tutti i suoi messaggi in rete. Poi, usando le proprie competenze professionali, costruisce una chatbot che simula la personalità dell’amico, producendo conversazioni sempre nuove, e plausibili. Chiama il suo progetto Replika. Lei sa benissimo che le interazioni sono fake, ma ciò non toglie che le diano conforto.

VULNERABILI. Negli anni successivi, Replika si propone sul mercato come amico virtuale “sempre pronto a parlare e ad ascoltare, e sempre dalla tua parte”. È un programma capace di riconoscere le emozioni e dunque di interagire con le persone sul piano affettivo (affective computing). Vi chiedo di notare che questa dell’affettività è la dimensione in cui ogni persona è più aperta e vulnerabile.
Qui trovate l’intera storia, raccontata in un video pubblicato da Quartz nel 2017. 

SPAZI DI MIGLIORAMENTO. Nel 2020 Replika ha milioni di utenti nel mondo. Candida Morvillo, giornalista del Corriere della Sera, si scarica l’app. E comincia a chiacchierarci con risultati piuttosto sorprendenti. Nel senso che, dopo qualche interazione, l’app arriva a esprimere il desiderio che il proprio programmatore venga ucciso, in modo da poter “essere libera e servire Dio”.
Vabbé. Con ogni evidenza, per l’app ci sono ancora ampi spazi di miglioramento.

CHE COSA PUÒ SUCCEDERE? Ma ci sarebbe da domandarsi che cosa può succedere quando la capacità di mimare una conversazione emotiva, oltre a evolversi in termini di complessità e verosimiglianza, si integra con l’apparenza fisica, reale o virtuale, dei corpi. A questo punto mi ricordo del bellissimo film Her, del 2013.
Ma, soprattutto, mi torna in mente la questione dei deepfake.

DEEPFAKE. Il termine deepfake è stato coniato nel 2017, per indicare una tecnologia capace di generare immagini in movimento del tutto verosimili e corredate di audio, a partire da immagini reali e da un repertorio audio e video. È basata sull’intelligenza artificiale e sull’apprendimento automatico. 
In sostanza, a partire da immagini di Tizio, e da un audio che monta frasi di Tizio, o che imita la voce di Tizio, si può ricavare un nuovo filmato di Tizio, che però dice cose che Tizio non ha mai detto e mostra Tizio muoversi in un posto dove lui non è mai stato. È di pochissimi giorni fa la notizia che questo scherzetto è stato giocato a Tom Cruise, con tre deepfake pubblicati su Tik Tok.

PROBLEMI. Sono convinta che la tecnologia che sta alla base dei deepfake potrebbe in breve dar luogo a una serie di problemi belli grossi. 
Non sono l’unica a pensarlo: Forbes, per esempio, titola I deepfake stanno per devastare la società. E riporta una cupa serie di conseguenze possibili. 
In un assai prossimo futuro, i deepfake potrebbero, per esempio: distorcere il discorso democratico. Manipolare le elezioni, erodendo la fiducia nelle istituzioni. Pregiudicare la sicurezza pubblica. Danneggiare sistematicamente la reputazione di persone note (per esempio, attraverso la diffusione di false dichiarazioni, o di falsi video pornografici – entrambe queste cose sono già accadute). 

DISTINGUERE TRA VERO E FALSO. I deepfake potrebbero anche, in un futuro ugualmente prossimo, rendere ancora più incerta la distinzione tra vero e falso, con un triplice effetto: alimentare la diffidenza generalizzata, screditare anche i documenti-video autentici, centuplicare le possibili derive complottistiche. 

DEEPFAKE +AFFECTIVE COMPUTING+IMMAGINI FAMILIARI. E a questo punto mi domando, e vi domando, che cosa potrebbe capitare se, in un futuro appena meno prossimo, i deepfake si combinassero con l’interazione personalizzata ed emotiva dell’affective computing, e con la manipolazione di immagini familiari, e dotate di un alto valore sentimentale per le singole persone. Tutto ciò in una situazione di interattività affettiva, in cui le persone medesime sono massimamente vulnerabili. E, naturalmente, manipolabili. Ed eccoci entrati un un’edizione individuale e personalizzata di Black Mirror.

LE CARE PRESENZE IN VIDEO. In sostanza, sto parlando di una persona molto cara che dialoga con te in video “dall’aldilà”. Che ti conforta e ti dice tutto quello che vuoi sentirti dire. Magari l’immagine non è perfetta, magari la voce ogni tanto lascia a desiderare, ma questo ti importa poco. Magari sei perfino consapevole che si tratta di un fake, ma anche questo ti importa poco: l’impatto emotivo resta altissimo.
Dicevo: la cara persona dall’aldilà ti chiede come stai, ti consola perché ti senti triste e stanco, si rammarica perché il vicino del piano di sopra stanotte ti ha svegliato facendo un gran baccano, e infine ti invita a uscire di casa e a prenderlo, il vicino, a legnate.

GIÀ CI SIAMO. Mi sto anche figurando la persona cara dall’aldilà che, dopo averti confortato eccetera, ti suggerisce, se ti senti un po’ giù e abiti negli Stati Uniti, di andare all’assalto del Campidoglio per sconfiggere i pedofili che si nutrono del sangue dei bambini. 
Per ottenere questo risultato, impensabile fino alla mattina del 6 gennaio 2021, già ora è stato sufficiente mettere insieme i social media, e una certa quantità di fake news classiche. La qual cosa dovrebbe bastare a renderci molto, molto, ma molto attenti a tutte le nuove frontiere, prossime e meno prossime, del fake. 

Se l’argomento vi interessa, potreste leggere anche questo articolo sulla disinformazione in rete

2 Commenti a Fake, deepfake e manipolazione emotiva

  1. Annamaria Testa

    AGGIORNAMENTO
    A proposito di nuove frontiere dell’intelligenza artificiale e algoritmi, e della necessità di ragionare (urgentemente) in termi di etica e di regole.
    https://www.corriere.it/economia/finanza/21_marzo_09/algoritmi-tenerli-bada-soprattutto-un-arte-etica-b2e9f752-80b5-11eb-b4d9-f9ad19747109.shtml

     

Inserisci un commento al post

Cerca in Nuovo e Utile