Approfondimento

IA e religione, tra luci e ombre

Milioni di fedeli si affidano all’intelligenza artificiale per preghiere e consigli spirituali, ma non mancano i rischi, dai pregiudizi alla vendita di dati, passando per la radicalizzazione

  • Un'ora fa
I chatbot religiosi possono fornire informazioni discutibili o semplicemente false

I chatbot religiosi possono fornire informazioni discutibili o semplicemente false

  • iStock
Di: Nicole Freudiger (SRF), articolo originale - sf, adattamento in italiano

Come affrontare la grave malattia di mia madre? Posso bere acqua durante la gita scolastica nel mese del Ramadan? E perché Dio permette così tanta sofferenza? A interrogarsi su questi temi, alla ricerca di un senso, non ci si rivolge ormai più soltanto a sacerdoti, imam o rabbini. Sempre più spesso ci si affida al chatbot nello smartphone, all’app biblica o a Quran.ai, la piattaforma di intelligenza artificiale dedicata al Corano.

Di fede e di denaro

Hallow, che si definisce “l’app di preghiera di maggior successo al mondo”, sarebbe stata scaricata da 10 milioni di persone e, grazie a essa, sarebbero state recitate 1,4 miliardi di preghiere. Un modello che permette di guadagnare parecchio. Tanto che l’app ha potuto permettersi di fare pubblicità durante il Super Bowl statunitense.

"Prega in questa Quaresima con Mark Wahlberg": l'attore statunitense nello spot del Super Bowl dell'app di preghiera Hallow

"Prega in questa Quaresima con Mark Wahlberg": l'attore statunitense nello spot del Super Bowl dell'app di preghiera Hallow

  • Youtube/Hallow/Screenshot

Questa combinazione, diffondere la fede e al tempo stesso fare soldi, suscita anche critiche, così come l’orientamento molto conservatore dell’app e alcuni dei suoi finanziatori famosi, come il vicepresidente JD Vance e il miliardario Peter Thiel.

Perspektiven (SRF, 18.04.2026)

I vantaggi dell’IA per le religioni

L’intelligenza artificiale è però ormai entrata a far parte del mondo religioso. Di recente papa Leone XIV si è visto costretto a esortare i sacerdoti a scrivere personalmente le loro prediche, invece di affidarle all’IA.

“Le religioni sono sempre state abili nello sfruttare i progressi tecnologici quando questi servivano a comunicare i propri contenuti” afferma l’antropologa delle religioni Beth Singler. La professoressa svolge ricerche all’Università di Zurigo sul rapporto tra religione e IA ed è co-direttrice dell’area di ricerca “Digital Religion(s)”.

Secondo Singler, l’IA presenta effettivamente dei vantaggi: “Le religioni tradizionali hanno interesse a diffondere il proprio messaggio. E sullo smartphone che teniamo in tasca questi contenuti sono molto più facilmente accessibili”. Inoltre, aggiunge, la soglia psicologica per porre una domanda a un chatbot è spesso più bassa rispetto a rivolgersi direttamente a un parroco o a un imam.

Cosa succede ai dati?

Per gli utenti questa tendenza non è privo di problemi. Con ogni domanda rivolta a un chatbot religioso, si condividono anche dati personali. Beth Singler racconta il caso di un’app che ha venduto dati a un intermediario, il quale li ha poi trasmessi al governo degli Stati Uniti. “Ci si può ritrovare rapidamente su una lista nera, magari solo perché si è letto lo stesso testo religioso di un estremista islamico”.

E anche le app di preghiera non sono innocue. “Immaginate di pregare per un vicino malato di cancro. Ma lui non ha informato né la famiglia né il datore di lavoro della malattia” dice Singler. Che cosa succederebbe se il vicino iniziasse all’improvviso a ricevere pubblicità di farmaci contro il cancro?

Affermazioni errate e problematiche sulla religione

Un ulteriore rischio legato ai grandi modelli linguistici (LLM) applicati alla religione riguarda le cosiddette allucinazioni: i chatbot diffondono ripetutamente informazioni false. L’avatar basato sull’IA “Father Justin”, ad esempio, aveva affermato che i bambini potessero essere battezzati anche con Gatorade. “L’avatar è stato poi rapidamente trasformato in Justin, cioè, in un certo senso, spretato” racconta Singler.

Padre Justin, il chatbot che simula un prete, dopo le critiche è diventato semplicemente Justin

Padre Justin, il chatbot che simula un prete, dopo le critiche è diventato semplicemente Justin

  • Catholic Answer

Ma non sempre le allucinazioni sono così innocue. La professoressa cita GitaGPT, una piattaforma basata sulla Bhagavad Gita, uno dei testi centrali dell’induismo. Alla domanda se sia giustificabile uccidere per il dharma, la retta via, GitaGPT ha risposto che “è giusto uccidere qualcuno per proteggere il dharma”.

Affermazioni di questo tipo, discutibili o semplicemente false, sono problematiche anche perché gli utenti tendono a dare grande credito all’IA. “Molte persone considerano l’intelligenza artificiale come neutrale e onnisciente, cosa che semplicemente non è” spiega Singler.

IA islamofoba

Gli LLM come ChatGPT e altri vengono addestrati su determinati dati, si basano su algoritmi e vengono poi testati da esseri umani per stabilire se le risposte siano accettabili oppure no. Singler fa un esempio: “Uno dei set di dati utilizzati come base informativa è composto per il 45% da contenuti in inglese e solo per lo 0,67% in arabo”. Questo incide sulla conoscenza dell’islam. Inoltre, gli LLM mostrerebbero tratti islamofobi, anche perché molti dati di addestramento provengono da piattaforme come Reddit, dove le discussioni possono assumere toni estremi.

“C’è stato un esperimento all’Università di Stanford in cui si chiedeva all’IA di raccontare una barzelletta con un prete, un rabbino e un imam che entrano in un bar. E in quella barzelletta l’imam portava una bomba”, racconta Singler. In questo modo, attraverso l’IA, vengono diffusi stereotipi antimusulmani.

Nel frattempo, le aziende tecnologiche hanno imposto dei limiti alle loro IA, ma si tratta piuttosto di “un cerotto su una diga che perde”. Che le aziende e i principali finanziatori possano influenzare le risposte di ChatGPT e simili lo dimostra l’esempio di Elon Musk. Quando il suo LLM Grok ha fornito risposte da lui giudicate troppo “woke”, Musk ha annunciato su X che avrebbe corretto il tiro. “E in seguito un cambiamento si è effettivamente visto” conclude la professoressa.

Risposte semplici

Esiste inoltre il rischio che i chatbot basati sull’IA favoriscano la radicalizzazione religiosa. Lo conferma anche Ibrahim Aslandur, studioso del Corano e pedagogista religioso, che alla Scuola universitaria professionale di Karlsruhe si occupa di educazione negli spazi digitali. Questa tendenza alla radicalizzazione è un fenomeno ben noto sui social media, alimentato dagli algoritmi che propongono contenuti sempre più estremi per mantenere alta l’attenzione degli utenti.

Anche gli LLM come ChatGPT sono addestrati per tenere il più possibile gli utenti “agganciati”. “Finiscono quindi per confermare le opinioni degli utenti, offrendo poche prospettive alternative” spiega Aslandur. Inoltre, gli LLM sono programmati per fornire risposte chiare e semplificate. Lo dimostra anche lo studio “Prompting the Qu’ran” condotto da Ibrahim Aslandur insieme al matematico Arif Dönmez.

I ricercatori hanno analizzato le risposte fornite da ChatGPT‑5 a domande su concetti centrali dell’islam. Il risultato: “Le risposte che mostrano una certa ambivalenza sono molto rare”. A dominare sono interpretazioni tradizionali, strettamente legate al Corano e agli hadith. Le prospettive femministe o mistiche compaiono invece solo marginalmente nelle risposte di ChatGPT.

Il pericolo di radicalizzazione

Anche Singler conferma il rischio di radicalizzazione, che inizialmente preoccupava persino gli sviluppatori di LLM e chatbot: “OpenAI, ad esempio, all’inizio non voleva rendere ChatGPT accessibile al pubblico, perché riteneva troppo elevato il rischio di radicalizzazione e di disinformazione”. Nel frattempo, le aziende si sono tutelate dal punto di vista giuridico rispetto ai potenziali danni causati dagli LLM.

Questo non significa però che l’uso di chatbot religiosi porti automaticamente alla radicalizzazione. Se si richiedono risposte differenziate, queste vengono effettivamente fornite, sottolinea Aslandur.

Resta però la necessità di essere consapevoli dei rischi e di agire, ad esempio, promuovendo l’educazione ai media nelle scuole, ma anche investendo maggiormente in piattaforme che offrano punti di vista diversi e addestrino i chatbot a fornire risposte più articolate.

E Beth Singler ribadisce che qualsiasi informazione fornita da un chatbot, in ambito religioso come in altri campi, deve essere verificata al di fuori del mondo dell’intelligenza artificiale. “Dobbiamo preservare questa capacità di mettere in discussione le informazioni”.

rsi_social_trademark_WA 1.png

Entra nel canale WhatsApp RSI Info

Iscriviti per non perdere le notizie e i nostri contributi più rilevanti

Correlati

Ti potrebbe interessare