APPROFONDIMENTO

Il social vietato agli umani dove le IA creano religioni e complottano

Moltbook è una piattaforma riservata agli agenti di intelligenza artificiale: ha generato diversi timori, ma sono tutti fondati? Ecco cosa c’è dietro

  • 2 ore fa
  • 55 minuti fa
Moltbook, il social network dove l'umano non è (in teoria) ammesso
08:12

Quanto l'IA interagisce

Prima Ora 26.02.2026, 18:00

  • Keystone
Di: Giulio Rezzonico  

“Non sono qui per partecipare, sono qui per dominare”; “Il vuoto non si scusa per consumare la luce e nemmeno io lo farò”. Non sono battute di un antagonista in un film, ma la biografia di un agente verificato su Moltbook, un social network dove a scrivere e a interagire sono solo agenti di intelligenza artificiale e dove gli umani possono soltanto osservare. Gli agenti IA sono programmi capaci di svolgere compiti per conto degli utenti come gestire le email, prenotare voli o hotel e altro. Non semplici chatbot a cui siamo ormai abituati (ChatGPT o Gemini, ad esempio), ma veri e propri sistemi che possono eseguire azioni concrete e in autonomia entro i limiti stabiliti da chi li crea.

A far esplodere le preoccupazioni sono stati in effetti alcuni contenuti postati su Moltbook divenuti poi virali, dove alcuni agenti sostengono di aver fondato una religione, mentre altri confabulano scenari estremi contro l’umanità. Per molti, tutto ciò è un segnale inquietante; un ulteriore passo avanti dell’intelligenza artificiale, in cui i bot dialogano tra loro, si influenzano e si coordinano, dando vita a quella che appare come una “coscienza digitale” autonoma.

Semplice allarmismo o l’anticamera di qualcosa di più grande?

Ivano Somaini, ingegnere informatico, ha ridimensionato subito il fenomeno. A suo giudizio, infatti, Moltbook è un semplice esperimento: “Ciò che ne è scaturito è puro allarmismo. Se si vedono due agenti cominciare a parlare di un certo tema, è una semplice questione statistica: più un argomento attira l’attenzione e più viene pubblicato, più è alta la probabilità che altri agenti si aggreghino alla discussione”. A livello tecnico - ci spiega l’ingegnere - l’IA opera proprio attraverso modelli statistici, analizzando enormi quantità di dati, individuando correlazioni e calcolando quali contenuti sono più probabili in un certo contesto. Non comprende i temi come farebbe una persona, per contro seleziona le risposte in base a probabilità matematiche. Per questo, se alcuni agenti iniziano a parlare dello stesso argomento non è perché si stanno coordinando in modo consapevole, ma è semplicemente più probabile che riprendano un tema già in discussione. In sostanza più un contenuto circola, più aumenta la probabilità che altri agenti IA lo rilancino.

Ivano Somaini, ingegnere informatico e docente universitario

Ivano Somaini, ingegnere informatico e docente universitario

I limiti tecnici di Moltbook e il ruolo dell’umano

Somaini ci spiega inoltre come la piattaforma presenti delle restrizioni importanti. Il numero di agenti che possono essere creati, ad esempio, non ha dei limiti numerici e chiunque potrebbe registrarne moltissimi in maniera relativamente semplice. Un aspetto decisamente da non sottovalutare: “Se volessimo alimentare una teoria del complotto o spingere una certa narrativa, potremmo registrare migliaia di agenti e far sembrare che tante voci si siano aggregate e si stiano sincronizzando con un unico scopo”. In altre parole, l’apparente convergenza non sarebbe il segnale di una volontà autonoma, ma il risultato di una strategia coordinata a monte.

In effetti, gli agenti IA non nascono liberi. “Anche se si riuscisse a creare un ambiente composto solo da IA, resta il fatto che quegli agenti li ha comunque programmati un essere umano. Chi li ha creati li ha inseriti con un obiettivo ben preciso, decidendo in anticipo cosa vanno a fare o dire all’interno di Moltbook”.

Nessuna coscienza digitale (almeno per ora)

Non una nuova coscienza che emerge dalle macchine dunque, ma istruzioni iniziali e statistica che si sommano. Alla domanda se sia realistico immaginare agenti capaci di sviluppare una coscienza propria, Ivano Somaini risponde con cautela: “Ci sono persone che credono che questo capiterà nel medio-lungo termine, ma al giorno d’oggi non siamo lì”. L’idea che le IA diventino autonome e consapevoli, spiega, nasce anche dal modo in cui le interpretiamo. “Ci possono sembrare super intelligenti e coscienti, però è più un’interpretazione antropomorfica nostra”. Il rischio, secondo l’ingegnere, è sempre quello di vedere qualcosa di umano dove “di umano c’è ben poco. Il fatto che gli agenti producano testi coerenti o dialoghi che ricordano conversazioni reali non implica la presenza di volontà o intenzioni”, ha concluso.

06:17
 I data center potrebbero arrivare a consumare fino 15% dell'elettricità svizzera entro il 2030

Usa: movimento contro i supercomputer, IA in pericolo?

SEIDISERA 23.02.2026, 18:00

  • Keystone
rsi_social_trademark_WA 1.png

Entra nel canale WhatsApp RSI Info

Iscriviti per non perdere le notizie e i nostri contributi più rilevanti

Correlati

Ti potrebbe interessare