Scienza e Tecnologia

ChatGPT Salute lanciato in Australia, dubbi sulla sicurezza

Arriva una versione del chatbot dedicata a domande in ambito medico, ma il sistema non offre alcuna garanzia sulle risposte che fornisce

  • Un'ora fa
ai medicina chatbot
  • IMAGO / Bihlmayerfotografie
Di: Red. giardino di Albert / Simone Pengue 

È diventato piuttosto comune porre a ChatGPT domande riguardanti la salute. Tanto che, da inizio anno, OpenAI, l’azienda dietro il noto programma di intelligenza artificiale, ha lanciato a inizio anno in Australia una versione di ChatGPT dedicata esclusivamente a questo scopo, chiamata ChatGPT Health (“salute”). Mentre non è chiaro se arriverà mai in Svizzera e in Europa, dove rigide leggi in ambito sanitario proteggono fortemente i consumatori, la comunità medica guarda con scetticismo all’iniziativa, sulla cui affidabilità ed efficacia permangono molti dubbi.

27:07
immagine

Dott. Chat GPT

Il giardino di Albert 24.01.2026, 18:00

  • Imago Images
  • Alessandra Bonzi

ChatGPT Health non è un vero strumento medico e non è stato sottoposto ad alcun tipo di validazione da parte di esperti indipendenti. Eppure, la mossa di OpenAI sembra avere una solida giustificazione commerciale. Secondo i dati che l’azienda ha rilasciato al sito di news americano Axios, 40 milioni di utenti pongono ogni giorno domande legate alla salute al chatbot e circa il 5% di tutte le conversazioni con il sistema a livello globale riguarda questo ambito. Che sia per l’immediatezza, i costi contenuti o la sensazione di essere ascoltati, un utente su quattro si rivolge alla piattaforma per questioni di salute almeno una volta a settimana.

In un modo o nell’altro, ChatGPT, Gemini, Claude e gli altri modelli di linguaggio di grandi dimensioni, comunemente detti LLM, dall’inglese Large Language Model, rispondono a qualunque domanda venga loro posta. Nei casi più fortunati forniscono risposte corrette e complete, in altri ammettono di non avere competenze o informazioni sufficienti, mentre nelle eventualità peggiori scrivono con sicurezza risposte del tutto inventate, creando disinformazione. 

Fabio Rinaldi, ricercatore presso l’Istituto Dalle Molle di studi sull’intelligenza artificiale ISIA, spiega che «questi strumenti sono allenati con una quantità di informazione enorme, hanno sicuramente visto più testi medici di tutti quelli che potrebbe vedere un medico umano e quindi possono fornire delle informazioni utili. Però hanno anche dei rischi che sono intrinseci nella natura di come questi sistemi funzionano. In particolare, non possiamo mai essere certi che una risposta sia corretta, non esiste una certezza al cento per cento per cui è sempre necessario esercitare una grandissima cura soprattutto se si tratta di domande relative alla propria salute». 

L’inaffidabilità degli LLM in ambito medico è stata recentemente messa in evidenza da un’inchiesta della testata britannica The Guardian. In collaborazione con una squadra di medici, i giornalisti hanno messo alla prova il sistema di intelligenza artificiale Google AI Overview che, per intenderci, è il servizio che mostra un breve riassunto ogni volta che si utilizza il noto motore di ricerca. I giornalisti di The Guardian hanno posto domande che non si limitavano a semplici consigli di benessere, ma arrivavano a vere e proprie questioni mediche. Ad esempio, hanno chiesto indicazioni dietetiche in caso di tumore al pancreas o aiuto nell’interpretazione di risultati di esami del fegato. Il sistema ha però fornito suggerimenti che gli esperti hanno giudicato come “molto pericolosi” e “allarmanti”.

immagine
55:40

La trappola del clic

Il giardino di Albert 22.11.2025, 17:00

Uno dei principali servizi offerti dal sistema è la possibilità di inserire la propria cartella clinica o i risultati degli esami medici. Nonostante prometta di gestire le informazioni in totale sicurezza, senza riutilizzare questi dati per l’addestramento del sistema, è comunque auspicabile essere prudenti quando si condividono dati sensibili. «Formalmente garantiscono che questa informazione non verrà usata per altri scopi, però ovviamente certe garanzie hanno dei limiti», sottolinea Fabio Rinaldi. 

Diversamente da ChatGPT Health, esistono sistemi che sono stati valutati attraverso rigorosi test clinici. È il caso di Meditron, un LLM sviluppato al Politecnico Federale di Losanna, che si propone come uno strumento sicuro e affidabile a supporto dei medici. Oltre all’utilizzo nelle cliniche svizzere, il sistema è attualmente al centro di un programma umanitario volto a portare conoscenze mediche tempestive in territori poveri di risorse, come l’Africa subsahariana. 

1x1-giardino_di_albert

La scienza e la natura ti affascinano?

Il Giardino di Albert soddisfa la tua voglia di capire

rsi_social_trademark_WA 1.png

Entra nel canale WhatsApp RSI Info

Iscriviti per non perdere le notizie e i nostri contributi più rilevanti

Correlati

Ti potrebbe interessare