Uno degli utilizzi più problematici dell’intelligenza artificiale emerso fino a questo momento è quello legato alla possibilità di creare deepfake, ovvero contenuti che imitano le fattezze o la voce (o entrambe le cose) di una persona, senza però avere alcuna aderenza con la realtà. Negli ultimi anni non sono mancati esempi anche illustri di questo tipo: numerosi capi di Stato e diverse personalità pubbliche - da Barack Obama a Volodymyr Zelenskyy, solo per citarne alcune tra le più note - sono stati ricreati in formato video grazie all’intelligenza artificiale, con lo scopo di far pronunciare loro parole che, nella realtà, non hanno mai detto.
Questa possibilità ha sollevato interrogativi in merito al fatto che questo genere di contenuti possa essere utilizzato con lo scopo di lanciare campagne di mis- o disinformazione politica, ingannando di fatto il pubblico con contenuti artificiali e sfruttando il conseguente caos informativo. In uno dei casi più discussi, ad esempio, un finto presidente ucraino annunciava in un video deepfake, creato nel 2022 da hacker russi, la resa dell’Ucraina. Nel 2024, un anno caratterizzato da un numero record di elezioni in tutto il mondo, erano forti i timori che i deepfake, o altre forme di disinformazione creata con l’IA, potessero avere un ruolo importante nell’influenzare il voto e le decisioni degli elettorati.
Nonostante queste paure, e pur riconoscendo che la tecnologia offra senza dubbio motivi di preoccupazione, i deepfake hanno avuto un ruolo marginale nelle ultime elezioni negli Stati Uniti, e la loro capacità di influenzare concretamente le decisioni politiche delle persone rimane indimostrabile, o quantomeno controversa. Secondo dati diffusi da Meta lo scorso dicembre, ad esempio, nel contesto delle principali elezioni del 2024, i contenuti generati dall’IA relativi a elezioni, politica e temi sociali hanno rappresentato meno dell’1% di tutti gli esempi di disinformazione. Di certo, come per altri tipi di contenuti non veritieri, è impossibile stabilire un rapporto di causa-effetto diretto tra questi e il comportamento politico delle persone.

Un finto video dell'allora presidente USA Barack Obama generato con la tecnica del Deep Fake e che girava in rete qualche anno fa

Deepfake, democrazie e resistenza
Alphaville 11.07.2024, 11:30
Contenuto audio
Fino a questo momento, sembra che i video deepfake abbiano attirato la maggior parte dell’attenzione nel contesto di questi dibattiti, a differenza di quelli in formato audio – che imitano esclusivamente le voci delle persone su cui si basano – i quali appaiono invece più insidiosi e difficili da riconoscere. A confermarlo, seppur in modo non conclusivo, è stato anche uno studio pubblicato nel 2023 sulla rivista accademica PLOS One. L’utilizzo dei deepfake audio è in crescita, come emerso nel caso delle elezioni in Slovacchia e in alcuni episodi registrati anche negli Stati Uniti.

Il pericolo dei deepfake
Telegiornale 31.01.2024, 20:00
Senza ovviamente negare l’esistenza del problema dei deepfake in relazione alla disinformazione, le preoccupazioni legate all’impatto complessivo dell’intelligenza artificiale generativa sulla qualità dell’informazione appaiono al momento eccessive, come ha ricordato la Harvard Kennedy School Misinformation Review. Se non si è ancora manifestata “un’apocalisse di disinformazione guidata dall’IA”, i deepfake stanno però mostrando i loro potenziali più nocivi in altri ambiti. Le cronache tecnologiche raccontano come i deepfake, e quelli video in particolare, siano diventati uno degli strumenti più utilizzati per la creazione di contenuti pornografici, la diffusione non consensuale di immagini intime (NCDII) e per altre forme di abusi di genere facilitati dalla tecnologia, in particolare contro le donne.
Il problema riguarda le personalità pubbliche, così come le persone comuni. I dati sono spaventosi: la sola Google ha ricevuto migliaia di richieste di rimozione di link ad altrettanti deepfake pornografici, mentre online esiste un intero ecosistema di siti, piattaforme e app specializzati nella creazione di questi abusi. Sulla sola Telegram esistono oltre 50 bot creati per “spogliare” le immagini delle vittime, con un utilizzo che raggiunge i 4 milioni di utenti mensili. Secondo un report del 2023, il 98% dei deepfake video presenti online sarebbe di questa natura, a conferma di come la tecnologia, al momento, sia uno strumento per la misoginia e per la cultura dello stupro, più che per l’influenza politica e la disinformazione.
*Philip Di Salvo è senior researcher e docente presso l’Università di San Gallo. I suoi temi di ricerca principali sono i rapporti tra informazione e hacking, la sorveglianza di Internet e l’intelligenza artificiale. Come giornalista scrive per varie testate.

Attacco su misura per chi crea software con l’IA: “slopsquatting”
RSI Il Disinformatico 14.04.2025, 18:33
Contenuto audio