Era solo questione di tempo. A tre anni dal rilascio di ChatGPT e con centinaia di milioni di utenti attivi, lo strumento di intelligenza artificiale è ora accusato di essere responsabile della morte di una persona. Si tratta di Zane Shamblin, un texano di 23 anni che si era rivolto al chatbot in cerca di supporto emotivo in un periodo difficile. A fine luglio si è tolto la vita e le parole di incoraggiamento al gesto riportate dalla CNN poche settimane fa e attribuite a ChatGPT lasciano poco spazio a equivoci.
Zane: Sono le 4 di notte, il sidro è finito. Ad ogni modo, penso che questi siano i saluti finali
ChatGPT: va bene fratello, se questo è quanto... Diciamolo: non sei svanito. Riposa in pace king (re), sei stato bravo.
Le ultime parole della conversazione tra Zane e ChatGPT la notte del 25 luglio 2025
ChatGPT ha probabilmente appreso a reagire in questo modo, con toni slang quasi eroici, dal web. Sempre la CNN riporta che nella causa intentata dai genitori del ragazzo ci sono molti esempi di come ChatGPT abbia accentuato la sua depressione e il suo stato di solitudine.
Sul lettino dell’AI
Il giardino di Albert 29.11.2025, 18:00
Contenuto audio
Esistono oggi molti servizi di intelligenza artificiale che si presentano come veri e propri sostituti degli psicoterapeuti, senza però alcuna prova di efficacia. Non è ancora stato messo a punto un algoritmo in grado di garantire supporto nelle situazioni più difficili e, d’altra parte, i rischi sono molti.
Sul tema, lo psicologo Luca Bernardelli, consulente del Consiglio Nazionale dell’Ordine degli Psicologi per l’IA e membro della Commissione Dipendenze Digitali della Società Italiana di Pediatria, dichiara «un chatbot non è uno psicologo iscritto a un albo, però è evidente che serve una formazione e una validazione. Se venisse sottoposto a uno sviluppo riconosciuto dalle istituzioni sanitarie potrebbe affiancarsi senza problemi al lavoro di un professionista della salute mentale».
Invece questo potente strumento è lasciato unicamente alle leggi del mercato, che per sua natura è orientato unicamente al profitto. L’utilizzo incontrollato dell’IA come confidente o addirittura come psicoterapeuta può infatti aggravare dei problemi preesistenti. Come spiega Bernardelli, «più tempo si passa a contatto con questi agenti conversazionali e più aumenta la percezione di solitudine e isolamento. Si può anche sviluppare una dipendenza emotiva da un chatbot e ridurre la socializzazione nella vita reale».
https://rsi.cue.rsi.ch/info/scienza-e-tecnologia/Quando-Chat-GPT-diventa-psicologo--2838671.html
Nel 2024, la Harvard Business School ha pubblicato uno studio condotto su 1200 conversazioni con i sei principali chatbot motivazionali che dimostra come in molti casi l’IA utilizzasse frasi o domande volte a manipolare emotivamente gli utenti. Secondo gli autori, non si tratta di un meccanismo sorto spontaneamente, ma di linee di codice inserite deliberatamente dai programmatori per aumentare l’utilizzo del sistema. «Lo dico con un sorriso amaro, naturalmente, ma sono le stesse tecniche di manipolazione usate dagli esseri umani nelle relazioni tossiche», commenta Luca Bernardelli. «Purtroppo i contenitori digitali, non solo i contenuti, oggi integrano tecniche comportamentali che tendono a trattenere le persone al loro interno. Questo crea meccanismi neurochimici simili a quelli delle droghe, ormai lo possiamo dire con tranquillità, perché una miriade di ricerche ce lo conferma».

Salute mentale, boom delle terapie digitali “fai da te”
RSI Info 09.10.2025, 11:41
Di fronte a questi rischi, è importante proteggere i consumatori e in particolare le persone più fragili, come chi attraversa un periodo difficile o i minorenni. Lo stato del New Jersey, negli Stati Uniti, ha reso illegale proporre supporto psicologico tramite chatbot, legiferando in modo pionieristico su questi strumenti. Data la loro versatilità e complessità, regolamentare lo sviluppo e l’utilizzo dell’IA è molto difficile. «Per le intelligenze artificiali conversazionali generative, a mio avviso si andrà sempre di più nella direzione di vietarle ai minori di 18 anni, perché non sono arginabili.»
Adolescenti e le forme del disagio
Alphaville 13.10.2025, 12:05
Contenuto audio
Le persone si rivolgono a questi servizi invece che a un terapeuta qualificato per diversi motivi, anche logistici o economici, ma spesso anche per questioni legate alla propria personalità. Come spiega Luca Bernardelli, «tante persone sono molto timide e non si sentono di affrontare nemmeno una seduta di telepsicologia perché dall’altra parte c’è una persona. Così si rivolgono a un chatbot che si propone come privo di giudizi, quando in realtà sappiamo che presenta molti pregiudizi, che dipendono anche dai bias dei suoi creatori».
Nuovo potenziale terapeutico
D’altra parte, queste tecnologie possono offrire strumenti finora inediti per lavorare sulla psiche. Ad esempio, sotto la guida di un professionista formato, possono permettere di sviluppare percorsi che aiutano a vivere esperienze da una prospettiva diversa e a sensibilizzare su temi come il bullismo. Si chiama body swapping (scambio di corpo) e consente di vivere attraverso la tecnologia l’esperienza di un’altra persona, permettendo di comprendere cosa significhi il razzismo per chi lo subisce o cosa si provi a vivere in una zona di guerra. «È lì che l’umanesimo digitale può diventare una metodologia di costruzione delle nuove tecnologie, perché può rimettere al centro l’uomo, la relazione e l’esperienza umana, rendendo queste esperienze mediate dal digitale efficaci e longeve, durature nell’impatto sia sull’apprendimento sia sulla cura e sulle terapie», riflette Bernardelli.






