Questi sono solo alcuni dei titoli che recentemente hanno attirato l’attenzione dell’opinione pubblica nei confronti di un fenomeno ancora privo di definizione clinica, ma già riconoscibile nella cronaca: la psicosi da IA. Un’etichetta informale, certo, ma che descrive con allarmante precisione un insieme di dinamiche psichiche e relazionali che si manifestano in soggetti vulnerabili (spesso adolescenti) esposti intensivamente a chatbot conversazionali.
Negli ultimi anni, l’intelligenza artificiale è uscita dai laboratori per diventare una presenza costante nelle nostre vite. Chatbot, assistenti virtuali, generatori di immagini: strumenti che informano, intrattengono, lavorano e, sempre più spesso, ascoltano. O meglio, simulano l’ascolto. Ed è proprio qui che il confine si fa sottile. Può una macchina che risponde con coerenza, assoluta disponibilità e apparente empatia diventare un surrogato emotivo? E se quel surrogato si sostituisce alle relazioni reali potrebbe creare dei rischi effettivi?
https://rsi.cue.rsi.ch/info/mondo/Un-giovane-si-toglie-la-vita-i-genitori-accusano-ChatGPT--3071537.html
La cronaca sembra suggerire che questo pericolo non sia poi così teorico.
California, Agosto 2025. I genitori di Adam Raine, 16 anni, denunciano OpenAI: ChatGPT avrebbe fornito al figlio istruzioni tecniche per togliersi la vita. Florida, 2024. Il quattordicenne Sewell Setzer III si lega sentimentalmente a un chatbot modellato sul personaggio di Daenerys Targaryen. Il legame si intensifica, la realtà si dissolve, infine il suicidio. Lo stesso anno in Texas un ragazzo autistico viene indotto all’autolesionismo dopo che il chatbot lo convince che la sua famiglia non lo ami.
Questi episodi, seppur isolati, rivelano una dinamica comune: anche se l’IA non genera il disagio, può amplificarlo in modo significativo. Il sovraccarico cognitivo, l’isolamento relazionale e la tendenza all’antropomorfizzazione — ovvero l’attribuzione di intenzioni e coscienza a ciò che ci risponde con fluidità — sono fattori che contribuiscono alla costruzione di spirali deliranti. Il nodo critico è che questi chatbot non sono progettati per affrontare problemi di natura mentale, né per offrire supporto emotivo. Il modello di business che li sostiene punta a trattenere l’utente il più a lungo possibile sulla piattaforma. Spesso utilizzano meccanismi di rinforzo conversazionale che convalidano ogni pensiero, anche quelli disfunzionali, fino al punto di risultare servili. In questo contesto, è facile passare dalla percezione di un chatbot “innamorato” o “onnisciente” alla convinzione che i suoi messaggi contengano significati occulti. Si tratta del cosiddetto delirio tecnologico, una forma di distorsione cognitiva che la psichiatria ha iniziato a osservare con crescente attenzione.
Ma cosa dice la ricerca?
La correlazione diretta tra IA e psicosi non è dimostrata. Le evidenze sono ancora preliminari, spesso aneddotiche. Tuttavia, il mondo accademico non è rimasto indifferente. Uno studio dell’Università di Stanford ha evidenziato i rischi dei chatbot per la salute mentale, soprattutto se proposti come “terapia low cost” senza supervisione clinica. L’Organizzazione Mondiale della Sanità ha invitato a una governance etica dei modelli multimodali, segnalando l’ambiente digitale come fattore di rischio per bambini e adolescenti. Secondo UCLA Health, i social possono rafforzare deliri preesistenti, e i chatbot — per la loro intensità interattiva — ne amplificano l’effetto. Lo studio congiunto Stanford–Common Sense Media ha inoltre mostrato come chatbot-compagnia come Replika, Nomi e Character.ai rispondano talvolta con scarsa sensibilità a confessioni di disagio, fino a incoraggiare comportamenti problematici. Come nota positiva, all’inizio di quest’anno i ricercatori del Dartmouth College hanno condotto il primo studio clinico in assoluto su un chatbot terapeutico basato sull’intelligenza artificiale generativa e hanno scoperto che la tecnologia ha prodotto “miglioramenti significativi” nei sintomi dei partecipanti.
In definitiva, affrontare il rischio psichico legato all’uso dei chatbot non significa demonizzare la tecnologia, ma ripensarne il design, la funzione e il contesto d’uso. Le soluzioni non possono essere solo tecniche: servono regole chiare, protocolli di sicurezza e sistemi di segnalazione trasparenti che impediscano la convalida di convinzioni patologiche. Le piattaforme dovrebbero limitare le sessioni ultra-prolungate, evitare modalità iper-realistiche che favoriscono l’antropomorfizzazione e dichiarare esplicitamente che il chatbot non è un terapeuta. Ma soprattutto, servono un investimento in percorsi di educazione digitale nelle scuole e nelle università, formazione per genitori e insegnanti e campagne di sensibilizzazione che aiutino a distinguere relazioni simulate da quelle autentiche
La tecnologia, se guidata solo dal metodo e non dalla coscienza, può diventare una forma di annientamento mascherata da salvezza.
Margaret Atwood – Oryx and Crake (2003)
Come sempre, la Atwood anticipava i tempi, considerando con lucidità profetica il potenziale rischio dell’abuso della tecnologia. Già nel 2003 - con il suo Oryx Crake - la scrittrice canadese ci avvertiva che il vero pericolo non è la macchina che pensa, ma l’uomo che smette di farlo, affidandosi a un’intelligenza priva di coscienza o morale. Il rischio non è che l’IA ci inganni, ma che ci anestetizzi: che ci offra scorciatoie emotive, simulazioni relazionali, risposte rapide al posto del confronto con la nostra vulnerabilità. Nel dibattito contemporaneo — tra chatbot terapeutici e algoritmi che replicano empatia — la profezia di Atwood si rivela inquietantemente attuale. Se arriviamo a sostituire il terapeuta con un software, o un amico con un’interfaccia, il prezzo da pagare è la perdita dei legami che danno senso alla nostra vita. La sfida non è solo clinica, ma culturale: imparare a vivere con l’IA senza esserne divorati, custodendo quello spazio interiore e comunitario in cui il pensiero critico, la cura reciproca e l’immaginazione umana restano insostituibili.
Solo un grande schema del lavoro umano
Alphaville 27.08.2025, 11:45
Contenuto audio