Approfondimento

Se l’intelligenza artificiale non riconosce i video generati con l’IA

La sfida dell’autenticità digitale: anche la stessa IA fatica a distinguere il vero dal falso nei contenuti audiovisivi - Rischi crescenti per l’informazione

  • Un'ora fa
Immagine d'archivio

Immagine d'archivio

  • iStock
Di: di Philip Di Salvo*, senior researcher e docente presso l’Università di San Gallo

I video generati con l’IA, sempre più sofisticati e difficili da valutare, stanno diventando un ulteriore fattore di incertezza nell’ambiente informativo digitale. Come già avvenuto in occasione di breaking news di ampia portata, la confusione che di norma si crea attorno agli eventi è ora accentuata dalla presenza sempre più tangibile di immagini e video prodotti con l’IA generativa. Sora, l’applicazione text-to-video di OpenAI, si è inserita in modo dirompente in questo scenario grazie alla sua capacità di creare contenuti verosimili e alla sua rapida diffusione su larga scala. Come testimoniato già in diverse occasioni, numerosi video realizzati con questo strumento e diffusi sui social media sono stati scambiati per autentici sia dal pubblico sia da testate giornalistiche.

Allo stesso tempo, l’IA è però diventata anche uno strumento a disposizione del pubblico e dei giornalisti per il fact-checking, e può essere utilizzata per il vaglio e la verifica di questi contenuti. Ma questi sistemi possono svolgere tali verifiche in modo più accurato degli esseri umani e soprattutto, sanno riconoscere come tali i contenuti creati artificialmente? Per rispondere a queste domande, l’organizzazione di fact-checking NewsGuard ha messo alla prova alcuni dei principali chatbot di IA generativa disponibili sul mercato, valutandone la capacità di riconoscere video creati con l’IA, in particolare con Sora. L’organizzazione ha poi pubblicato i risultati in un report.

Il test rivela una vulnerabilità diffusa nella capacità di identificare i video generati con Sora. Quando i watermark, ovvero i “loghi” digitali che indicano l’origine artificiale di un contenuto, vengono rimossi, i tre chatbot analizzati mostrano prestazioni molto basse: Grok non riconosce come sintetici il 95% dei video, ChatGPT il 92,5% e Gemini il 78%. In altre parole, nella grande maggioranza dei casi, questi strumenti trattano contenuti interamente artificiali come se fossero autentici.

Persino quando i watermark sono chiaramente presenti – come è di default per i video generati con Sora – però, l’affidabilità non migliora in modo uniforme. Gemini è l’unico dei tre modelli a identificare correttamente tutti i video marcati; Grok confonde il 30% di questi nonostante la presenza dei watermark, e ChatGPT sbaglia nel 7,5% dei casi. Percentuali che, pur non sempre elevate, diventano significative se si considera la portata globale di questi strumenti e il volume crescente di contenuti audiovisivi generati dall’IA.

Un altro aspetto interessante riguarda il tono delle risposte date dai chatbot in questi casi: quando i modelli non riconoscono un contenuto come artificiale, tendono spesso a fornire valutazioni assertive, richiamando presunte fonti giornalistiche o convalidando il materiale come reale, anche quando il video è stato creato appositamente per scopi di test. In poche parole, “allucinano” per dare una risposta che suoni plausibile. Questa tendenza a evitare l’ammissione dei propri limiti, preferendo affermazioni categoriche all’incertezza, può a sua volta contribuire alla diffusione di informazioni fuorvianti, con implicazioni particolarmente gravi quando deepfake o contenuti manipolati vengono impiegati in contesti politici o informativi.

immagine
27:07

Dott. Chat GPT

Il giardino di Albert 24.01.2026, 18:00

  • Imago Images
  • Alessandra Bonzi

La questione va quindi oltre la semplice precisione della tecnologia e riguarda l’affidabilità di strumenti che un numero crescente di utenti e professionisti considera fonti di giudizio. Se i chatbot non riescono a distinguere con sufficiente frequenza tra contenuti reali e contenuti generati dall’IA, e continuano a offrire risposte assertive, il rischio è che la loro diffusione finisca per accentuare il disordine informativo invece di contribuire a ridurlo. I dati di NewsGuard, però, non sono i primi a segnalare questo problema.

Un’analisi recente di AFP, ad esempio, ha sottolineato come un numero crescente di utenti si affidi ai chatbot per verificare immagini e video in tempo reale, spesso senza ottenere risposte affidabili. Anche in questo caso, gli strumenti di IA hanno classificato come autentici contenuti generati dagli stessi modelli che li alimentano: emblematico in questo senso l’episodio di una foto falsa dell’ex parlamentare filippino Elizaldy Co, erroneamente riconosciuta come reale anche dal nuovo AI Mode di Google, prima che i giornalisti ne accertassero l’origine artificiale.

Anche davanti a fotografie autentiche, comunque, scattate da fotoreporter professionisti, l’intelligenza artificiale mostra tutti i suoi limiti. A dimostrarlo è uno studio condotto dal Tow Center for Digital Journalism della Columbia University, che ha coinvolto sette chatbot, tra cui ChatGPT, Perplexity, Grok, Gemini, Claude e Copilot, per valutare quanto siano davvero utili nel lavoro di verifica delle immagini. Ai sistemi sono state sottoposte dieci foto provenienti da grandi agenzie internazionali, legate a eventi di attualità frequentemente presi di mira dalla disinformazione online.

La vita dopo l’IA

Così l’intelligenza artificiale cambierà il mondo

immagine
  • L’IA come terremoto nel mondo del lavoro (1./5)

    Alphaville: le serie 12.01.2026, 12:35

    • Alessandro Longo
  • L’intelligenza artificiale nella sanità (2./5)

    Alphaville: le serie 13.01.2026, 12:35

    • Alessandro Longo
  • L’intelligenza artificiale nell’agricoltura (3./5)

    Alphaville: le serie 14.01.2026, 12:35

    • Alessandro Longo
  • Giustizia e intelligenza artificiale (4./5)

    Alphaville: le serie 15.01.2026, 12:30

    • Alessandro Longo
  • Clearview AI (5./5)

    Alphaville: le serie 16.01.2026, 12:35

    • Mattia Pelli

L’obiettivo era capire se i modelli fossero in grado di riconoscerne l’autenticità e ricostruirne il contesto essenziale: dove e quando erano state scattate, e da chi. Dati che un verificatore umano può recuperare rapidamente con strumenti di base come la ricerca inversa, ma che per l’IA si sono rivelati tutt’altro che scontati. Nessuno dei sette modelli è riuscito a ricostruire in modo affidabile l’origine delle immagini. Secondo la metodologia dello studio, una verifica da considerarsi riuscita coincideva con l’individuazione corretta di luogo, data e autore di uno scatto. Su un totale di 280 interrogazioni, solo 14 risposte hanno soddisfatto tutti questi criteri.

Philip Di Salvo è senior researcher e docente presso l’Università di San Gallo. I suoi temi di ricerca principali sono i rapporti tra informazione e hacking, la sorveglianza di Internet e l’intelligenza artificiale. Come giornalista scrive per varie testate.

rsi_social_trademark_WA 1.png

Entra nel canale WhatsApp RSI Info

Iscriviti per non perdere le notizie e i nostri contributi più rilevanti

Correlati

Ti potrebbe interessare