L’intelligenza artificiale di cui disponiamo oggi, nella sua veste generativa, è più “umana” di quanto si sia soliti pensare ed è il prodotto di uno stretto intreccio di mansioni svolte da esseri umani, che rimane nell’ombra. Il training dei modelli di AI generativa e la moderazione dei contenuti che essi possono produrre passano, in particolare, dal lavoro invisibile di centinaia di migliaia di persone, in larga parte impiegate nel Global South, che etichettano, annotano e ripuliscono i dati, valutano gli output dei sistemi e filtrano i materiali più atroci, come testi violenti, immagini di abuso sessuale su minori, propaganda estremista, affinché il prodotto finale risulti utilizzabile e presentabile. Dinamiche simili sono visibili anche nel settore della moderazione dei contenuti pubblicati sui social media.
Una ricerca recentemente pubblicata dal Centre for Research on Multinational Corporations (SOMO) offre una mappatura ampia di questa filiera e ne mette in luce l’opacità strutturale. Il rapporto prende in esame cinque tra le più potenti aziende tech al mondo - Amazon, Google, Meta, Microsoft e Nvidia - che, complessivamente, si avvalgono di almeno trenta società intermediarie per l’approvvigionamento del lavoro umano necessario ad addestrare e moderare i propri sistemi di intelligenza artificiale. La sola Amazon risulterebbe collaborare con diciotto di questi fornitori, mentre Google e Microsoft ne conterebbero quindici ciascuna. Si tratta, da un lato, di grandi imprese di outsourcing tradizionali e, dall’altro, di piattaforme di crowdwork, in cui i lavoratori svolgono piccoli compiti digitali a cottimo, retribuiti soltanto se il risultato viene approvato dal cliente.
Questa stratificazione di intermediari consente alle principali aziende del settore di mantenere una distanza formale dai lavoratori, pur incidendo in modo diretto sulle condizioni in cui questi operano: anche quando non li impiegano direttamente, le Big Tech ne influenzano retribuzioni, stabilità e sicurezza attraverso pressioni sui prezzi, scadenze ravvicinate e il continuo spostamento dei contratti tra fornitori. La catena, inoltre, rende particolarmente arduo individuare il soggetto responsabile delle condizioni di lavoro, che, come emerge dal rapporto SOMO e da indagini precedenti, risultano spesso estremamente gravose. Una parte crescente di questi lavoratori si occupa invece di valutare i sistemi AI già in uso: testano chatbot, verificano che le risposte siano accurate e, soprattutto, setacciano i contenuti generati dall’intelligenza artificiale per individuare quelli pericolosi o inappropriati. È un lavoro che richiede di passare ore a visionare materiale estremo e disturbante affinché i modelli imparino a non produrlo. Un compito che, come hanno denunciato in molti, lascia tracce profonde.
Come scrive SOMO, lavoratori in Kenya, nelle Filippine e negli Stati Uniti hanno recentemente denunciato salari inferiori al minimo legale, nessun accesso all’assicurazione sanitaria o alle ferie retribuite, e un’esposizione quotidiana a contenuti disturbanti. Il report ricorda alcuni dei casi recenti di mobilitazione. Nel gennaio 2026, i dipendenti di un’azienda a Dublino che forniva servizi di addestramento AI a Meta hanno scioperato per chiedere il riconoscimento sindacale e salari più equi. Negli Stati Uniti, invece, nel settembre 2025, alcune inchieste giornalistiche hanno raccontato come alcuni lavoratori di GlobalLogic, impegnati a migliorare i modelli Gemini di Google e le funzioni di ricerca generate dall’AI, erano stati licenziati dopo aver sollevato preoccupazioni circa le condizioni di lavoro e le basse retribuzioni.
La risposta standard delle Big Tech di fronte a queste denunce è scaricare la responsabilità sugli intermediari, chiamandosi fuori da qualsiasi possibilità di accountability. Ma la ricerca di SOMO smonta questa tesi. I rapporti di forza sono, infatti, asimmetrici e i rapporti molto più stretti: una Big Tech, infatti, può in molti casi arrivare a rappresentare quasi la metà del fatturato totale di un fornitore di data work. Ad esempio, quando nel 2024 Google ha rescisso il contratto con Appen (una multinazionale del settore con sede in Australia, nda), ricorda SOMO, ad esempio, l’azienda è stata costretta a tagliare oltre tredici milioni di dollari di costi. Questa narrazione costruita sulla presunta non-responsabilità delle Big Tech è diventata sempre più difficile da sostenere nel giugno 2025, quando Meta ha annunciato l’acquisizione di una quota del 49 per cento in Scale AI, una delle principali piattaforme del settore data work. Nel giro di poche settimane, diversi concorrenti hanno interrotto i propri contratti con Scale AI per timore che i loro dati finissero a Meta.
Trump, meme politici e AI
Kappa in libertà 15.04.2026, 17:50
Contenuto audio
Il rapporto SOMO illumina le dinamiche strutturali del settore, ma la documentazione di questo lavoro invisibile è ormai estesa e convergente. Già nel 2019 Mary L. Gray e Siddharth Suri, in Ghost Work, avevano descritto il consolidarsi di una “nuova sottoclasse globale di lavoratori digitali” occultata dietro l’automazione apparente delle piattaforme. Antonio Casilli, nei suoi studi sul digital labor e segnatamente in Schiavi del clic, ha mostrato come l’IA non sostituisca il lavoro umano ma lo sposti, frammentandolo in micro-mansioni a cottimo che ricadono in larga parte sul Sud globale. Il progetto Data Workers‘ Inquiry, invece, mappa da diversi anni le forme di data work in tutto il mondo e i movimenti per i diritti che si sono costituiti a livello internazionale. Sul versante giornalistico, l’inchiesta di Billy Perrigo per TIME nel 2023 ha rivelato il ricorso da parte di OpenAI, tramite il subappaltatore Sama, a lavoratori kenioti retribuiti tra 1,32 e 2 dollari l’ora per etichettare contenuti estremi destinati ad addestrare i filtri di sicurezza di ChatGPT; più di recente, un’inchiesta congiunta del Guardian e del Bureau of Investigative Journalism ha documentato condizioni analoghe - con tentativi di suicidio e licenziamenti ritorsivi - presso i moderatori impiegati da Teleperformance ad Accra per conto di Meta, alimentando una nuova azione legale.

Dietro le IA c’è manodopera africana sfruttata
RSI Il Disinformatico 13.04.2026, 17:17
Contenuto audio
Resta, al fondo, un nodo giuridico irrisolto che il rapporto SOMO pone al centro della propria analisi: lo statuto di questi lavoratori, inquadrati come independent contributor, gig worker o dipendenti di subappaltatori, li colloca in una zona grigia in cui le tutele del diritto del lavoro si applicano con difficoltà, mentre le committenti declinano ogni responsabilità rinviando ai vendor intermediari. Contro questa opacità si sono mobilitate forme inedite di organizzazione collettiva transnazionale, tra cui l’African Content Moderators Union, costituita a Nairobi nel 2023, e la Data Labelers Association keniota. Come osserva la ricerca di SOMO in chiusura, ciò che è in gioco non è soltanto il futuro del lavoro nell’AI, ma la natura stessa dell’economia digitale che stiamo edificando.
*Philip Di Salvo è senior researcher e docente presso l’Università di San Gallo. I suoi temi di ricerca principali sono i rapporti tra informazione e hacking, la sorveglianza di Internet e l’intelligenza artificiale. Come giornalista scrive per varie testate.
Legato alla trasmissione Rendez-vous di SRF del 16.04.2026:









