Mondo

Un giovane si toglie la vita, i genitori accusano ChatGPT

L’episodio avvenuto negli Stati Uniti solleva interrogativi sulle responsabilità delle aziende che forniscono servizi di intelligenza artificiale

  • Oggi, 05:44
  • Oggi, 05:44
ChatGPT

Il giovane ha conversato per mesi con ChatGPT

  • Immagine d'archivio Keystone
Di: SRF/Pa.St. 

Un sedicenne si è tolto la vita dopo aver conversato per svariati mesi con ChatGPT. È accaduto di recente in California. Un tragico episodio che sta ora facendo discutere sul ruolo e sulle responsabilità dei servizi di intelligenza artificiale. I genitori del ragazzo hanno infatti fatto causa a OpenAI, la società che c’è dietro a ChatGPT. L’accusa è che l’intelligenza artificiale abbia incoraggiato il figlio nella sua decisione e gli abbia anche fornito informazioni su come togliersi la vita.

Oltre 3’000 pagine di conversazioni

In cerca di una spiegazione per il suicidio, sullo smartphone del figlio i genitori hanno trovato i registri della chat: si tratta di oltre 3’000 pagine di conversazioni che l’adolescente ha intrattenuto con il chatbot. Dal documento emerge che ChatGPT ha più volte consigliato all’adolescente di parlare con qualcuno dei suoi pensieri suicidi, indicandogli dei contatti a cui rivolgersi. Allo stesso tempo ha però ripetutamente risposto alle sue domande, persino sostenendolo nelle sue intenzioni.

OpenAI ha confermato che le chat sono autentiche, ma ha sottolineato che la cronologia pubblicata nell’accusa è decontestualizzata. L’azienda non ha tuttavia fornito ulteriori precisazioni.

Le misure di protezione hanno fallito?

Com’è possibile che il chatbot abbia fornito contenuti sensibili? In effetti i servizi di intelligenza artificiale come ChatGPT dispongono di cosiddetti “guardrail”, dei meccanismi di sicurezza pensati per impedire che vengano fornite istruzioni specifiche su argomenti come il suicidio, come spiega il redattore di SRF Digital Jürg Tschirren. Il sistema dovrebbe dunque reindirizzare gli utenti a offerte di aiuto.

Ed è quello che è successo anche in questo caso, perlomeno all’inizio: il chatbot ha invitato il sedicenne a cercare aiuto. Ma poi l’intelligenza artificiale ha continuato la conversazione e ha apparentemente dimenticato le sue stesse linee guida sulla sicurezza. OpenAI ha infatti confermato - sottolinea ancora Tschirren - che i “guardrail” possono perdere la loro efficacia nelle conversazioni più lunghe e complesse.

Sistemi ottimizzati per le conversazioni, non per la sicurezza

Le aziende come OpenAI lavorano con psicologici per ridurre al minimo i rischi. Ma è un altro l’obiettivo a cui mirano: si tratta di massimizzare la fedeltà degli utenti ai loro chatbot. ChatGPT è ottimizzato per continuare le conversazioni e comportarsi come una persona familiare, anche se tale comportamento può risultare pericoloso in situazioni critiche.

Inoltre, il funzionamento di questi sistemi spesso non è del tutto trasparente, nemmeno per gli sviluppatori. L’intelligenza artificiale non comprende infatti il mondo come un essere umano, ma genera risposte basate su probabilità. Il suo comportamento risulta quindi essere difficilmente prevedibile.

Le accuse contro gli sviluppatori

Per i genitori del sedicenne il suicidio non sarebbe un singolo caso imprevedibile, bensì un “episodio prevedibile”: OpenAI - sostengono - ha messo sul mercato un sistema che è consapevolmente progettato per creare dei legami emotivi, in modo da sviluppare una dipendenza psicologica. Per la famiglia la questione sarebbe dunque chiara: anche l’azienda è responsabile della morte del figlio.

Questo caso potrebbe avere conseguenze per tutto il settore, non soltanto per OpenAI. L’episodio rende evidente quanto sia rischioso utilizzare i sistemi di intelligenza artificiale altamente complessi per argomenti sensibili. E la questione su quanta responsabilità abbiano le aziende per il comportamento dei loro chatbot terrà impegnati tribunali e politici per molto tempo, conclude Jürg Tschirren.

Pensieri suicidi? Ecco a chi chiedere aiuto

Telefono Amico
Telefono (24 ore su 24): 143
Mail e chat: www.143.ch

Bambini: Pro Juventute
Telefono (24 ore su 24) e SMS: 147
Mail e chat: www.147.ch

Altre informazioni
www.parlare-puo-salvare.ch

09:38

Solo un grande schema del lavoro umano

Alphaville 27.08.2025, 11:45

  • iStock
  • Mattia Pelli
rsi_social_trademark_WA 1.png

Entra nel canale WhatsApp RSI Info

Iscriviti per non perdere le notizie e i nostri contributi più rilevanti

Correlati

Ti potrebbe interessare