Un sedicenne si è tolto la vita dopo aver conversato per svariati mesi con ChatGPT. È accaduto di recente in California. Un tragico episodio che sta ora facendo discutere sul ruolo e sulle responsabilità dei servizi di intelligenza artificiale. I genitori del ragazzo hanno infatti fatto causa a OpenAI, la società che c’è dietro a ChatGPT. L’accusa è che l’intelligenza artificiale abbia incoraggiato il figlio nella sua decisione e gli abbia anche fornito informazioni su come togliersi la vita.
Oltre 3’000 pagine di conversazioni
In cerca di una spiegazione per il suicidio, sullo smartphone del figlio i genitori hanno trovato i registri della chat: si tratta di oltre 3’000 pagine di conversazioni che l’adolescente ha intrattenuto con il chatbot. Dal documento emerge che ChatGPT ha più volte consigliato all’adolescente di parlare con qualcuno dei suoi pensieri suicidi, indicandogli dei contatti a cui rivolgersi. Allo stesso tempo ha però ripetutamente risposto alle sue domande, persino sostenendolo nelle sue intenzioni.
OpenAI ha confermato che le chat sono autentiche, ma ha sottolineato che la cronologia pubblicata nell’accusa è decontestualizzata. L’azienda non ha tuttavia fornito ulteriori precisazioni.
Le misure di protezione hanno fallito?
Com’è possibile che il chatbot abbia fornito contenuti sensibili? In effetti i servizi di intelligenza artificiale come ChatGPT dispongono di cosiddetti “guardrail”, dei meccanismi di sicurezza pensati per impedire che vengano fornite istruzioni specifiche su argomenti come il suicidio, come spiega il redattore di SRF Digital Jürg Tschirren. Il sistema dovrebbe dunque reindirizzare gli utenti a offerte di aiuto.
Ed è quello che è successo anche in questo caso, perlomeno all’inizio: il chatbot ha invitato il sedicenne a cercare aiuto. Ma poi l’intelligenza artificiale ha continuato la conversazione e ha apparentemente dimenticato le sue stesse linee guida sulla sicurezza. OpenAI ha infatti confermato - sottolinea ancora Tschirren - che i “guardrail” possono perdere la loro efficacia nelle conversazioni più lunghe e complesse.
Sistemi ottimizzati per le conversazioni, non per la sicurezza
Le aziende come OpenAI lavorano con psicologici per ridurre al minimo i rischi. Ma è un altro l’obiettivo a cui mirano: si tratta di massimizzare la fedeltà degli utenti ai loro chatbot. ChatGPT è ottimizzato per continuare le conversazioni e comportarsi come una persona familiare, anche se tale comportamento può risultare pericoloso in situazioni critiche.
Inoltre, il funzionamento di questi sistemi spesso non è del tutto trasparente, nemmeno per gli sviluppatori. L’intelligenza artificiale non comprende infatti il mondo come un essere umano, ma genera risposte basate su probabilità. Il suo comportamento risulta quindi essere difficilmente prevedibile.
Le accuse contro gli sviluppatori
Per i genitori del sedicenne il suicidio non sarebbe un singolo caso imprevedibile, bensì un “episodio prevedibile”: OpenAI - sostengono - ha messo sul mercato un sistema che è consapevolmente progettato per creare dei legami emotivi, in modo da sviluppare una dipendenza psicologica. Per la famiglia la questione sarebbe dunque chiara: anche l’azienda è responsabile della morte del figlio.
Questo caso potrebbe avere conseguenze per tutto il settore, non soltanto per OpenAI. L’episodio rende evidente quanto sia rischioso utilizzare i sistemi di intelligenza artificiale altamente complessi per argomenti sensibili. E la questione su quanta responsabilità abbiano le aziende per il comportamento dei loro chatbot terrà impegnati tribunali e politici per molto tempo, conclude Jürg Tschirren.
Solo un grande schema del lavoro umano
Alphaville 27.08.2025, 11:45
Contenuto audio