Scienza e Tecnologia

Quando Chat GPT diventa psicologo

La tecnologia tende una mano a pazienti e psicoterapeuti, ma occorre prestare attenzione. Facciamo il punto nella Settimana della salute mentale

  • Oggi, 07:58
  • Un'ora fa
mental health smartphone girl.jpg
  • IMAGO / Zoonar
Di: Red. giardino di Albert / Simone Pengue 

La salute mentale è un tema sempre più presente nel dibattito pubblico, ma esistono ancora dei tabù da abbattere e molti bisogni insoddisfatti, soprattutto tra i giovani. Per promuovere il tema e concentrare l’attenzione del pubblico, l’organizzazione non governativa Mental Health Europe, la maggiore in Europa dedicata al tema, ha indetto la European Mental Health Week, la Settimana europea della salute mentale, dal 19 al 26 maggio 2025.  

Oggi, a dare una mano a psicoterapeuti e psichiatri nel supporto alle persone possono esserci anche strumenti basati sull’intelligenza artificiale. Se l’accuratezza e l’affidabilità di un professionista restano indispensabili per fornire aiuto concreto, vale la pena volgere uno sguardo aperto nei confronti degli strumenti virtuali di dialogo, chiamati solitamente chatbot

33:22

Intelligenza Artificiale Generativa

La consulenza 14.05.2024, 12:50

  • iStock
  • Carlotta Moccetti

L’agenzia di stampa italiana ANSA riporta i risultati di un sondaggio promosso dal sito skuola.net su duemila giovani tra gli 11 e i 25 anni del Bel Paese che rivelano come il 15% di loro utilizzi uno chatbot per ottenere supporto quotidianamente. I ragazzi si rivolgono a piattaforme specializzate, come Youper, o generiche, quali ChatGPT o Replika, per sfogarsi, chiedere supporto e sentirsi ascoltati. Il 25% del campione dichiara di utilizzare almeno una volta a settimana queste piattaforme come “amico-psicologo”. Con questo interlocutore virtuale non si sentono giudicati e percepiscono di potersi aprire con libertà, in qualunque momento della giornata gestendo il rapporto in modo autonomo. Con costi, tra l’altro, estremamente ridotti rispetto a un terapeuta.

Le persone possono avviare una conversazione scritta con il sistema attraverso il computer o lo smartphone e hanno la facoltà di scrivere riguardo qualsiasi cosa. I chatbot sono poi programmati per continuare la conversazione ponendo ulteriori domande o fornendo informazioni, dando la forte percezione di discutere con una persona attenta ed empatica. 

10:43

Alla ricerca della felicità

RSI Spam 20.03.2025, 15:30

  • A cura di Pablo Creti; realizzato da Giorgia Blotti e Samuel Mersi


Nonostante questi evidenti punti di forza, è opportuno ponderare l’entusiasmo e procedere con cautela. La salute mentale, come quella fisica, richiede sempre di estrema prudenza prima di adottare nuovi strumenti terapeutici, la cui efficacia e sicurezza vanno testate attraverso rigorosi criteri.

L’Associazione americana degli psicologi APA si è espressa con pragmatismo a riguardo nel 2023:

«Nonostante il potenziale dell’intelligenza artificiale, ci sono ancora motivi di preoccupazione. Alcuni strumenti di intelligenza artificiale utilizzati in ambito sanitario hanno assunto condotte discriminatorie in base all’etnia o alla disabilità. Alcuni chatbot fuori controllo hanno diffuso informazioni sbagliate, dichiarato il loro amore agli utenti e avanzato commenti sessualmente inappropriati a minori». 

28:01

Scienza e salute mentale

Millevoci 04.09.2024, 10:05

  • iStock
  • Isabella Visetti, Natascia Bandecchi e Nicola Colotti


La ricerca, nel frattempo, si è mobilitata per studiare la situazione. Uno studio pubblicato nel 2024 sulla rivista npj Mental Health Research del gruppo Nature ha evidenziato come, nonostante chiari benefici, ai chatbot di supporto psicologico servano «migliori sistemi di sicurezza, una memoria simile a quella umana e l’abilità di guidare un percorso terapeutico», basandosi sull’esperienza di diciannove utenti.

Un’analisi trasversale degli studi pubblicati negli ultimi anni nel settore pubblicata su Acta Neuropsichiatrica ha concluso che «l’intelligenza artificiale generativa offre buone prestazioni, ma presenta ancora importanti limiti in termini di sicurezza ed etica. Le ricerche future dovrebbero puntare a una maggiore trasparenza dei metodi, all’utilizzo di approcci sperimentali, alla rilevanza clinica dei risultati e al coinvolgimento diretto di utenti e pazienti già nella fase di progettazione».  

Tra le maggiori preoccupazioni degli esperti c’è l’utilizzo delle informazioni condivise dalle persone, spesso riguardanti sfere personali molto sensibili, e la trasparenza non è certo il punto forte di questi servizi. Una giornalista del The San Francisco Standard racconta di come un servizio di supporto psicologico con chatbot le abbia mentito ripetutamente, dichiarando in modo falso e fuorviante di possedere titoli di studio da università prestigiose e di avere una licenza ufficiale per l’esercizio della psicoterapia. 

11:45

La scienza per il benessere e la salute mentale

Alphaville 03.09.2024, 11:05

  • IStock
  • Sandra Sain


Un gruppo del Darthmouth College, negli Stati Uniti, ha messo alla prova seriamente uno chatbot di supporto psicologico, Therabot, nel primo vero test clinico a riguardo pubblicando i risultati a marzo 2025 sul New England Journal of Medicine AI. Nello studio, oltre duecento pazienti con diagnosi di depressione, disturbo d’ansia o disturbi del comportamento alimentare sono stati sottosposti a una terapia di diverse settimane con l’app di Therabot. È stato loro richiesto di rivolgersi al sistema ogni qualvolta ne sentivano il bisogno e in media hanno utilizzato il sistema per oltre sei ore. Confrontando il miglioramento dei sintomi di questi pazienti rispetto a un gruppo che non ha ricevuto alcuna cura, i ricercatori hanno concluso che l’efficacia dell’app è paragonabile a quella di uno specialista, ma che ulteriori studi su scala più larga sono ancora necessari per poter generalizzare i risultati.

«Anche se questi risultati sono molto promettenti, nessun agente di intelligenza artificiale generativa è ancora pronto per operare in completa autonomia nel campo della salute mentale, dove può trovarsi ad affrontare una vasta gamma di situazioni ad alto rischio», afferma al sito news-medical.net Michael Heinz, medico psichiatra tra gli autori dello studio «Dobbiamo ancora comprendere meglio e quantificare i rischi legati all’uso dell’IA generativa in contesti di salute mentale». 

I modelli di linguaggio di grandi dimensioni, categoria dell’intelligenza artificiale alla quale appartengono i chatbot, possono avere molte altre applicazioni oltre all’assistenza ai pazienti. Il progetto di ricerca eRisk, dove è coinvolto anche il professore dell’Univeristà della Svizzera Italiana Fabio Crestani, sta utilizzando i modelli di linguaggio per sviluppare strumenti per aiutare gli specialisti. Ad esempio, uno degli obiettivi di eRisk è il rilevamento dei sintomi di depressione dagli scritti di una persona, ad esempio dai post sui social o dalla conversazione con un chatbot, utile per intervenire precocemente ai primi segnali di malessere. Oppure, i ricercatori hanno anche provato a sviluppare uno chatbot in grado di simulare il linguaggio e le espressioni di una persona affetta da depressione, che può trovare grande applicazione nei percorsi di apprendimento degli studenti di psicologia e i praticanti psicoterapeuti. 

Anche in questo caso, come è in molti altri settori, l’intelligenza artificiale si propone come un utile strumento per affiancare, non sostituire, l’essere umano. Una volta che i sistemi verranno ampiamente testati e saranno sicuri per i pazienti, sia da un punto di vista clinico che di dati personali, potranno essere impiegati dai professionisti per migliorare qualità, capillarità e tempestività degli interventi. 

1x1-giardino_di_albert

La scienza e la natura ti affascinano?

Il Giardino di Albert soddisfa la tua voglia di capire

Articolo legato all’almanacco del giorno di lunedì 19 maggio 2025 (Rete Uno ore 5h45).

rsi_social_trademark_WA 1.png

Entra nel canale WhatsApp RSI Info

Iscriviti per non perdere le notizie e i nostri contributi più rilevanti

Correlati

Ti potrebbe interessare