Nel mondo della comunicazione globale, l’immagine è diventata il primo linguaggio della compassione. Ogni giorno, milioni di sguardi si posano su fotografie che promettono di “mostrare la realtà” e di mobilitare empatia, attenzione pubblica e donazioni. Ma cosa accade quando quelle immagini non sono più reali, bensì generate da un algoritmo?
È quanto successo recentemente: diverse organizzazioni umanitarie hanno utilizzato immagini di povertà create dall’intelligenza artificiale. Nel 2023 L’Organizzazione Mondiale della Sanità lanciò una campagna antitabacco con al centro l’immagine di un bambino nero sofferente e affamato di fronte ad un piatto pieno di mozziconi di sigarette, con la didascalia “Quando fumi, io muoio di fame”. Lo stesso anno, Plan International pubblicò due video di immagini generate dall’IA che raffiguravano adolescenti incinte - vittime di abusi sessuali e costrette al matrimonio - ottenendo oltre 300.000 visualizzazioni. Mentre nel 2024, le Nazioni Unite pubblicarono sul loro canale Youtube un video con avatar che rievocavano le testimonianze di sopravvissute alla violenza sessuale durante le guerre con l’hashtag #EndRapeInWar. Entrambi i video vennero rimossi a seguito delle critiche.
Bambini denutriti, villaggi africani arsi dal sole, mani che chiedono aiuto — tutti soggetti inesistenti, ma costruiti per sembrare autentici. Le ragioni di questo fenomeno sono molteplici: i costi di produzione fotografica, i vincoli di consenso, la volontà (apparentemente etica) di evitare l’esposizione diretta di persone reali in condizioni di vulnerabilità. Ma, se da un lato la soluzione tecnologica “protegge” i soggetti, dall’altro crea una povertà astratta, simbolica, replicabile all’infinito. Un’estetica della miseria standardizzata e facilmente vendibile nei circuiti delle stock-photo come è il caso di Adobe Stock Photos e Freepik.
Le IA, addestrate su milioni di immagini precedenti, hanno appreso il codice visivo della povertà: colori desaturati, volti infantili in lacrime, ambientazioni polverose. Così, nel momento in cui generano nuove immagini, non fanno che riprodurre — e amplificare — una retorica coloniale dell’alterità.
«L’IA generativa riproduce fedelmente la vecchia “grammatica visiva” della povertà — stereotipi razziali, scene decontestualizzate, sofferenza messa in scena — esattamente ciò da cui il settore ha cercato di allontanarsi. Questo non solo rappresenta male le persone, ma mina la fiducia del pubblico confondendo fatti e finzione», afferma Noah Arnold, responsabile per l’Impatto Sociale per Fairpicture. La piattaforma promuove trasparenza e dignità nella comunicazione visiva del settore umanitario, producendo contenuti fotografici e video equi in tutto il mondo grazie alla collaborazione con creatori locali. Questo anche grazie a FairConsent, un app sviluppata per la raccolta e la gestione etica del consenso, utilizzata da organizzazioni come Oxfam International.
Una questione culturale e politica
Il dibattito, dunque, non riguarda unicamente la tecnologia. Ogni immagine — anche quella generata da un algoritmo — nasce da una scelta di rappresentazione: qualcuno decide come deve apparire la povertà. E nel farlo, attribuisce forma e senso a un’intera categoria di persone.
Noah Arnold ci tiene a sottolineare che, «la causa profonda non è la tecnologia, ma il razzismo radicato e la mentalità coloniale che hanno plasmato l’aiuto umanitario e la salute globale fin dalle origini. Ben prima dell’avvento dell’IA, molte organizzazioni diffondevano immagini stereotipate e dannose, spesso costruite ad arte da fotografi del Nord globale per soddisfare le aspettative dei finanziatori.» Questa estetica della miseria, infatti, non è un concetto nuovo: già dagli anni Ottanta si parlava di poverty porn. «Queste pratiche — che strumentalizzano corpi neri e di colore per raccogliere fondi e privilegiano lo sguardo occidentale — esistono da decenni. L’intelligenza artificiale non ha creato questo impulso, ma lo rende più visibile e può accelerarlo. Questo è un punto cruciale nel dibattito.» riassume Arnold. L’IA, quindi, non cancella questo paradigma: lo automatizza.
La giustificazione più comune è che queste immagini sintetiche non “sfruttano” individui esistenti. «È un’elusione della responsabilità. Le scene fabbricate sfruttano comunque storie e comunità reali: appiattiscono realtà complesse, bypassano il consenso e spostano il rischio dagli individui alla verità stessa», chiarisce Arnold. «Il confine è chiaro: proteggere le persone attraverso l’anonimizzazione consensuale e una narrazione attenta — mai inventando sofferenza o testimonianze.» Le fotografie reali, per quanto problematiche, restano tracce di un incontro. C’è un fotografo, un soggetto, un contesto. Le immagini IA, invece, “cancellano” il corpo: eliminano la complessità, la voce, la presenza. Rappresentano la povertà senza i poveri. In questa rimozione si nasconde una nuova forma di violenza simbolica: l’assenza sostituita dal cliché.
Le ONG che utilizzano immagini sintetiche rischiano di perdere credibilità, ma anche di consolidare un immaginario paternalista: il Sud globale come scenario di miseria atemporale. Le piattaforme di stock-photo, dal canto loro, vendono queste immagini come “materiale ispiratore”, alimentando un’economia della compassione che funziona a prescindere dalla verità.
La sensazione è di essere immersi in una cultura visiva in cui l’autenticità è costantemente sospesa. Lo spettatore, ormai abituato alla manipolazione digitale, tende a non chiedersi più se un’immagine sia vera, ma solo se funziona emotivamente. In questo senso, le immagini di “povertà sintetica” non scandalizzano: rassicurano. Offrono la possibilità di provare empatia senza confrontarsi con la realtà, di commuoversi senza sentirsi complici.
Ogni immagine contribuisce a una memoria collettiva
Se le fotografie del Novecento hanno documentato guerre, carestie e resistenze, le immagini IA rischiano di produrre un archivio fittizio del dolore umano. «Senza provenienza e consenso, le scene sintetiche possono contaminare gli archivi e la memoria pubblica. Ecco perché sono essenziali contenuti visivi verificati e responsabili — e l’etichettatura trasparente di qualsiasi contenuto sintetico — per proteggere il registro storico e la fiducia pubblica», sottolinea Arnold.
Il vero nodo, dunque, non è proibire o demonizzare la tecnologia, ma ridefinire i criteri di autenticità, responsabilità e rispetto nella rappresentazione del dolore umano. Le agenzie e i media dovrebbero dichiarare l’origine delle immagini, promuovere pratiche di visual transparency e coinvolgere le comunità rappresentate nella creazione dei propri materiali comunicativi. «Chi racconta la storia è importante. Restituire l’autorialità a chi la storia la vive — narrazione centrata sulla comunità da parte di fotografi e filmmaker locali — è il primo passo per smantellare questa grammatica visiva stereotipata», propone Arnold. «Creare immagini IA al di fuori di questa grammatica è difficile, e allontanarsi dai cliché richiede rara sensibilità culturale, giudizio creativo e profonda conoscenza locale — il che spesso richiede più lavoro che commissionare una storia reale e consensuale.»
Nel linguaggio dell’umanitarismo contemporaneo, l’immagine resta un’arma potentissima. Ma proprio per questo, chi la impugna deve essere consapevole delle sue potenziali ferite. L’intelligenza artificiale ci costringe a ripensare la verità, la compassione e la dignità visiva. «Il valore della narrazione reale ed etica aumenterà. Ciò che guadagnerà attenzione e fiducia saranno fotografie e film con un consenso documentato, un contesto e una provenienza che il pubblico può verificare. La fotografia, il video e la narrazione attenta restano fondamentali in un’epoca di IA, deepfake e automazione», conclude Noah Arnold.
La domanda ultima, forse, non riguarda più la realtà dell’immagine, ma la realtà del nostro sguardo: se tutto può essere generato, a cosa scegliamo di credere? E, soprattutto, chi scegliamo di vedere?




