Parlando a I/O, la conferenza degli sviluppatori di Google, il cofondatore di Google Sergey Brin e il CEO di DeepMind Demis Hassabis hanno dichiarato che l’intelligenza artificiale generale (o AGI) è in arrivo e, stando alle loro dichiarazioni, si manifesterà già nel 2030. Sam Altman, il leader di OpenAI, ha recentemente sostenuto che la sua azienda possiede già gli strumenti per costruire l’AGI, sottintendendo come il momento del suo arrivo sia, di nuovo, poco distante nel tempo.
Dichiarazioni come queste si susseguono spesso nelle cronache tecnologiche: tutta la Silicon Valley e i suoi leader, dove hanno sede gli esperimenti di intelligenza artificiale al momento più avanzati, sono unanimi nel dire che l’AI generativa che abbiamo iniziato a usare tutti i giorni è solo la prima fase evolutiva di un’intelligenza artificiale destinata a conoscere e a saper fare molto di più. I toni sono spesso molto enfatici e, secondo alcuni osservatori, quasi religiosi.
L’intelligenza artificiale generale, o AGI, descrive una macchina che possiede un’intelligenza pari a quella umana, il che significa che la macchina è capace di risolvere problemi, apprendere, pianificare il futuro e, possibilmente, essere cosciente di sé mentre fa esperienza del mondo. Nessuno dei sistemi di intelligenza artificiale di cui disponiamo oggi appartiene a questa categoria, nemmeno i large language model più avanzati e sorprendenti.
Come ha ricordato di recente la MIT Technology Review, però, quello di AGI è un concetto molto vago, definito in modo molto divergente e soprattutto interpretato molto liberamente, il che rende complicato anche solo comprendere a cosa auspicano di arrivare di preciso i leader delle aziende tecnologiche e, allo stesso tempo, rende difficile stabilire degli standard scientifici condivisi. Quello che è certo è che l’entusiasmo di questi imprenditori, specialmente per quanto riguarda il tempo necessario alla comparsa dell’AGI, non è necessariamente condiviso dalla ricerca, un mondo che invece ha opinioni più prudenti.
La Association for the Advancement of Artificial Intelligence (AAAI), uno dei più rispettati centri di ricerca sull’AI, ha recentemente pubblicato uno studio che indica come molti esperti dubitino che la tecnologia su cui si basano i grandi modelli linguistici di oggi sia adeguata a rendere possibile l’intelligenza artificiale generale nel complesso. Secondo Cade Metz, giornalista del New York Times, tra i più esperti di intelligenza artificiale, non esistono al momento “prove concrete che le tecnologie attuali siano in grado di replicare nemmeno alcune delle funzioni più semplici del cervello umano, come riconoscere l’ironia o provare empatia”. Secondo il giornalista, quindi, le affermazioni secondo cui l’AGI sarebbe ormai vicina si basano su “proiezioni statistiche e su aspettative ottimistiche”.
Gary Marcus, professore di Neuroscienze alla New York University, invece, ha scritto che, nonostante decenni di ricerca spesi in questo senso, persistono ancora problemi tecnici fondamentali, e i tentativi di potenziare l’addestramento e la capacità computazionale stanno mostrando rendimenti persino decrescenti. Inoltre, ha scritto sempre Marcus, la stessa OpenAI ha più volte cambiato idea su cosa intenda quando parla di AGI, modificando di conseguenza anche la sua agenda per raggiungerla. Non si parla, insomma, di questioni molto chiare, che vengono per di più discusse in un ambito - quello del business dell’AI - notoriamente molto influenzabile dall’hype.
Anche nell’industria, ad ogni modo, esistono voci meno ottimistiche: Thomas Wolf, cofondatore di Hugging Face, ha ricordato come l’AI disponibile al momento sia brava a rispondere alle domande, ma di certo non è in grado di generare domande radicali capaci di spingere in avanti l’agenda della ricerca scientifica, come invece continuano a fare gli umani. La varietà delle timeline disponibili che cercano di mostrare la strada verso l’AGI è di per sé indice di quanto il tema sia dibattuto e poco a fuoco. Se da un lato non è possibile dare per scontato che l’AGI sia impossibile, dall’altro si sbaglierebbe a darle un’etichetta di “inevitabile”, come invece sostengono le narrative più ottimistiche. Che queste emergano soprattutto dalle aziende dovrebbe sollevare qualche sospetto di esagerazione o di hype: aziende come OpenAI hanno tutto l’interesse a rimanere al centro dell’attenzione, posizionandosi come potenziali fautrici di tecnologie potentissime e dai tratti ancora misteriosi, oltre a mantenere vive le attenzioni dei finanziatori e dei regolatori.
*Philip Di Salvo è senior researcher e docente presso l’Università di San Gallo. I suoi temi di ricerca principali sono i rapporti tra informazione e hacking, la sorveglianza di Internet e l’intelligenza artificiale. Come giornalista scrive per varie testate.
L’IA e i romanzi inesistenti
Alphaville 22.05.2025, 12:35
Contenuto audio
Ipnocrazia, il libro scritto con l'AI
Telegiornale 26.05.2025, 20:00

Il costo ambientale dell'IA
Il Quotidiano 17.04.2025, 19:00