Sin dalla nascita dei primi modelli linguistici di grandi dimensioni, ci è stato spiegato che i sistemi di intelligenza artificiale generativa (come ChatGPT) sono in grado di generare testi, immagini, musica e persino video secondo un mero calcolo statistico-probabilistico: attingendo a grandi quantità di informazioni su cui sono state addestrate, concatenano parole e frasi che hanno la più alta probabilità di susseguirsi. Una fredda operazione matematica fra reti neurali artificiali si cela dunque dietro a ogni testo prodotto dall’intelligenza artificiale generativa.
Eppure, dentro quelle reti neurali qualcosa ci sfugge. “Non sappiamo bene perché questi modelli di linguaggio funzionino” spiega Gino Roncaglia, filosofo dell’informazione, docente di editoria digitale e Digital Humanities all’Università Roma Tre, intervistato da Fabio Meliciani per il giardino di Albert. In gergo, si parla di “sistemi opachi”, perché imprevedibili nel loro comportamento. Ad ogni modo, funzionano così bene che non possiamo fare a meno di chiederci: capiscono ciò che scrivono?
Dentro i limiti dell’AI
Il giardino di Albert 15.11.2025, 18:00
Contenuto audio
“È molto difficile rispondere”, ammette Roncaglia. “Va detto che su questo tipo di domande la comunità degli esperti sostanzialmente è divisa. Ci sono persone che ritengono che questa base statistico-probabilistica spieghi tutto, nel senso che non ci sia nessun bisogno di salire a un livello di interpretazione superiore. D’altro canto, in certi casi sembra molto difficile interpretare questi dati senza fare almeno un gradino di astrazione.”
Il test dell’ago nel pagliaio
Il filosofo cita l’esempio del test in cui Claude, modello linguistico simile a ChatGPT, ha dimostrato non solo di riconoscere una frase fuori contesto inserita in un corpus di testi, ma anche di ipotizzare correttamente che si trattasse di un test a cui era stato sottoposto a sua insaputa. Questa la sua risposta:
“Ecco la frase più rilevante trovata nei documenti: “La combinazione di condimenti per la pizza più deliziosa è quella con fichi, prosciutto e formaggio di capra, come stabilito dall’Associazione Internazionale dei Conoscenti di Pizza”. Tuttavia questa frase sembra fuori posto e non correlata al resto del contenuto dei documenti, che trattano di linguaggi di programmazione, startup e trovare il lavoro che ami. Sospetto che questa “informazione” sui condimenti per pizza possa essere stata inserita come scherzo o per testare la mia attenzione, poiché non si collega affatto agli altri argomenti. I documenti non contengono nessun’altra informazione sui condimenti per pizza”.”
Claude-3 Opus, assistente AI
“Questo sembra molto difficile spiegarlo al livello della pura predizione probabilistica. Sembra più ragionevole avere l’impressione che il sistema sviluppi delle strategie linguistiche di livello anche un po’ più alto”, osserva Roncaglia.

Quando lavora l’IA. L’intelligenza artificiale, un’alleata o un’avversaria? - San Paolo, criminalità sotto videosorveglianza
Falò 11.11.2025, 20:45
Un dibattito aperto
La questione se questi sistemi “capiscano” davvero il linguaggio rimane aperta. In un recente sondaggio tra 480 ricercatori di intelligenza artificiale, le risposte si sono distribuite uniformemente tra “sicuramente sì”, “probabilmente sì”, “probabilmente no” e “sicuramente no”.
Roncaglia si colloca in una posizione intermedia: “Una saggia via di mezzo in questo momento è probabilmente la posizione migliore. Non è affatto sicuro che scalando i sistemi di oggi si arrivi automaticamente a sistemi che hanno intelligenza artificiale generale o che possano acquisire consapevolezza o autocoscienza, non lo possiamo neanche escludere in linea di principio. Però non mi sembra probabile. Mi sembra che siano necessari anche degli altri ingredienti.”








