Grok, il chatbot sviluppato da xAI, la startup dedicata all’intelligenza artificiale fondata da Elon Musk, ha nuovamente fatto parlare di sé questa settimana quando ha ripetutamente risposto ai suoi utenti parlando ossessivamente del “genocidio dei bianchi” in Sudafrica, rispondendo a domande su temi completamente diversi. Grok è integrato nel social media X (già Twitter), a sua volta controllato da Musk, e le sue risposte sono apparse sulla piattaforma di fronte a domande su temi come il baseball, i software aziendali e l’allestimento di impalcature e il nuovo Papa.
L’incidente sembra essere stato risolto in breve tempo, ma il malfunzionamento alla sua base ha riacceso la discussione attorno all’attendibilità dell’AI generativa e delle dinamiche utilizzate per il suo training. La situazione politica negli Usa e il ruolo attivo di Musk alla Casa Bianca, inoltre, non possono essere ignorati. Il cosiddetto “genocidio dei bianchi” in Sudafrica è ampiamente ritenuta una teoria cospirativa di estrema destra, che è stata spinta nella sfera pubblica statunitense di recente proprio da Elon Musk (a sua volta di origine sudafricana) o il giornalista Tucker Carlson, entrambi molto vicini al Presidente statunitense e alla destra trumpista, nel contesto, a sua volta cospirazionista, della “grande sostituzione etnica”. Proprio di recente, l’amministrazione Trump ha concesso ai discendenti dei coloni europei in Sudafrica asilo politico negli Usa, sostenendo che queste persone bianche siano vittime di discriminazioni e violenze. Il governo sudafricano ha parlato chiaramente di disinformazione.
In una dichiarazione apparsa su X, l’azienda ha fornito la sua versione dei fatti: qualcuno avrebbe modificato il prompt di sistema del chatbot, indirizzandone così le risposte su quel tema. Secondo il social network, questo intervento avrebbe “violato le politiche interne e i valori fondamentali di xAI” e sarebbe stato quindi causato dall’intervento diretto di un suo stesso dipendente. Non è la prima volta che succede, ha notato la testata tecnologica The Verge: già qualche mese fa, Grok accusava qualsiasi notizia critica contro Musk o Trump di essere “disinformazione” e l’azienda già allora parlò di un “dipendente ribelle” come responsabile.
Complessivamente, non è la prima volta che Grok si ritrova coinvolta in incidenti di questo tipo e spesso sono sorti dubbi sui potenziali interventi diretti di Musk o dei suoi dipendenti sulle risposte di stampo politiche del chatbot. In altri casi, invece, Grok ha spesso risposto in modo opposto ai punti di vista di Musk e della sua area politica di riferimento. Come ha riportato Platformer, due informatici che hanno parlato con 404 Media hanno a loro volta indicato la modifica del “prompt di sistema” come causa più probabile del problema. In sostanza, qualcuno avrebbe effettivamente modificato i parametri che stabiliscono come Grok debba comportarsi, determinando tono, linee guida etiche e approccio generale in merito a questo specifico tema. Non vi è chiarezza su chi possa, però essere direttamente responsabile.
Tra la democrazia e la macchina
Alphaville 06.05.2025, 12:35
Contenuto audio
La notizia conferma in ogni caso quanto I’AI generativa sia una scatola nera il cui funzionamento è ben poco trasparente e verificabile dall’esterno e questo tipo di AI sia direttamente emanazione di chi la produce e come. In risposta a questo incidente, Xai ha annunciato l’introduzione di alcuni interventi di trasparenza, come la pubblicazione su GitHub dei prompt di sistema di Grok, l’attivazione di un team di monitoraggio, e il lancio di “ulteriori controlli e misure per garantire che i dipendenti di xAI non possano modificare il prompt senza una revisione preventiva”.
Nonostate queste correzioni, l’AI generativa rimane oscura e le aziende che la producono rivelano poco dei meccanismi interni dellea tecnologia, a cominciare dai dati di training – il succo di quello che I chatbot possono sapere – e i principi di progettazione, e per i temi “critici” in particolare. È una questione irrisolta di sicurezza e affidabilità ma anche di potere, specialmente in un momento storico in cui I leader della tecnologia non fanno mistero della loro vicinanza alla Casa Bianca.
*Philip Di Salvo è senior researcher e docente presso l’Università di San Gallo. I suoi temi di ricerca principali sono i rapporti tra informazione e hacking, la sorveglianza di Internet e l’intelligenza artificiale. Come giornalista scrive per varie testate.

Papa Leone XIV e l'intelligenza artificiale
SEIDISERA 13.05.2025, 18:00
Contenuto audio