Expert Review, una funzione della popolare piattaforma di scrittura assistita basata sull’AI Grammarly, è diventata l’ultimo caso emblematico delle tensioni crescenti tra l’industria dell’intelligenza artificiale e il mondo della produzione culturale. Expert Review funzionava generando suggerimenti editoriali per i testi degli utenti come se provenissero da persone celebri e chiaramente identificate: il romanziere Stephen King, l’astrofisico Neil deGrasse Tyson, lo scienziato Carl Sagan, la teorica femminista bell hooks, e centinaia tra giornalisti, accademici e professionisti.
L’idea alla base della funzione era quella di fornire agli utenti di Grammarly la possibilità di ricevere feedback sul proprio testo nello stile di questi nomi noti, come se fossero loro stessi a suggerire correzioni e miglioramenti. Expert Review non aveva un training specifico sulle opere dei singoli esperti, ma utilizzava un LLM di terze parti – presumibilmente OpenAI – selezionando i nomi in base alla disponibilità pubblica e alla citabilità dei loro lavori.
La reazione dei coinvolti e le conseguenze legali
Nessuna delle personalità coinvolte, però, era stata consultata, nonostante la funzione citasse i loro nomi in maniera esplicita e all’interno di un prodotto commerciale a pagamento. La giornalista investigativa Julia Angwin, già fondatrice della testata tech The Markup e firma del New York Times, una delle persone coinvolte, ha definito il servizio proposto dall’azienda un deepfake della propria mente. La storia è stata raccontata per la prima volta dal giornalista Casey Newton: la reazione da parte dei nomi coinvolti a loro insaputa è stata ampia e immediata, ed è stata anche depositata una class action presso il Tribunale del Distretto Sud di New York contro Superhuman, la società madre che produce Grammarly, con Angwin come principale ricorrente. L’argomento giuridico dell’iniziativa si fonda sulle norme relative al “right of publicity”: la legge dello Stato di New York che vieta l’uso commerciale del nome e dell’immagine di una persona senza il suo consenso. La richiesta di compensazione per danni complessiva supera i cinque milioni di dollari. In seguito alle polemiche, il CEO di Superhuman Shishir Mehrotra ha rilasciato una dichiarazione pubblica di scuse e annunciato che la funzione sarebbe stata disattivata e che verrà riprogettata, ammettendo che l’azienda aveva commesso un errore.
Consigli erronei sotto falso nome
Angwin, una pioniera delle tecniche di algorithmic accountability nel giornalismo, ha esaminato direttamente i consigli che il suo sosia digitale su Grammarly forniva agli utenti e li ha trovati non semplicemente generici, ma attivamente erronei. In un caso emblematico, ad esempio, l’IA suggeriva di sostituire l’apertura fattuale di un articolo investigativo con una scena aneddotica incentrata su un personaggio di finzione, una mossa che, se seguita da qualsiasi giornalista, avrebbe introdotto contenuto inventato all’interno di un pezzo basato su fatti accertati. Come ha sottolineato la stessa Angwin, non si tratta solo di cattiva redazione nel senso ordinario del termine: è una forma di inganno con cui nessun giornalista vorrebbe trovarsi associato.
Gli “sloppelgänger” e il problema strutturale degli LLM
La scrittrice Ingrid Burrington ha invece coniato il termine “sloppelgänger” per descrivere il prodotto di Grammarly: AI slop travestita da persona autorevole. Come ha osservato il giornalista Casey Newton su Platformer, però, c’è un punto ulteriore da sottolineare: la differenza tra Expert Review e un qualsiasi chatbot generico è più sottile di quanto possa sembrare in apparenza. Chiunque, infatti, può chiedere a un LLM come Claude o ChatGPT di editare un testo nello stile di un autore reale, e il modello eseguirà (o proverà a eseguire) le istruzioni senza chiedere il permesso né apporre alcun disclaimer. La specificità di Grammarly non sta solo nell’aver usato le identità altrui, capacità ipoteticamente già latente in ogni LLM, ma nell’averla resa esplicita, attribuendo l’output a persone reali identificate all’interno di un prodotto commerciale a pagamento.
Una logica estrattiva che anticipa le regole
Maja Korica, professoressa di management strategico alla IÉSEG School of Management, ha commentato i fatti definendo il modello di Grammarly non come un’anomalia, ma come l’espressione di una logica predatoria ed estrattiva su cui si regge l’intera industria dell’IA generativa. Gli esempi sono ormai numerosi e riguardano le questioni di copyright, come quelle ambientali e i rapporti con la legislazione. Quel che il caso Grammarly ha messo in luce, più di ogni altra cosa, è l’asimmetria strutturale tra la velocità con cui questi sistemi vengono concepiti, distribuiti e monetizzati, e la lentezza con cui le istituzioni — giuridiche, regolatorie, accademiche — riescono a elaborare una risposta adeguata. Chi agisce per primo, in questo settore, ha storicamente considerato il consenso, o le norme, un ostacolo operativo. Vale anche nei casi in cui le norme esistono già: persino il right of publicity, una tutela giuridica più che consolidata, si è rivelato insufficiente a prevenire la violazione.
La fantasia applicativa delle aziende dell’IA generativa, pare, corre più veloce anche del diritto che già c’è.
*Philip Di Salvo è senior researcher e docente presso l’Università di San Gallo. I suoi temi di ricerca principali sono i rapporti tra informazione e hacking, la sorveglianza di Internet e l’intelligenza artificiale. Come giornalista scrive per varie testate.
IA etica: un’illusione?
Alphaville 12.03.2026, 12:05
Contenuto audio











