ChatGPT, lanciato alla fine del 2022 da OpenAI, e chatbot simili, sono frutto dei progressi dell’Intelligenza Artificiale (IA), in particolare nell’elaborazione del linguaggio naturale. Ad oggi viene usato da più di 400 milioni di utenti a settimana, il che evidenzia la popolarità di questo modello di linguaggio evoluto. Ma quanto ne risente davvero l’ambiente dell’uso di tali modelli di IA?
Che impatto hanno le IA sull’ambiente?
RSI Ambiente 23.10.2024, 09:01
Amato da molti e temuto da altri, ChatGPT, ossia Chat Generative Pertrained Transformer, è un chatbot sviluppato da OpenAI che sfrutta l’IA per svolgere una vasta gamma di compiti, tra cui scrivere, correggere, tradurre testi e generare codice. Questa tecnologia ha suscitato grande interesse, ma anche molte discussioni, in particolare riguardo alle sue implicazioni nel mondo del lavoro e non solo.
Il giornalista e specialista informatico italiano, Marco Hugo Barsotti, ci spiega l’impatto ambientale di ChatGPT e altri sistemi di IA.

Marco Hugo Barsotti
Potrebbe spiegarci come le operazioni di ChatGPT potrebbero contribuire all’inquinamento ambientale?
Dunque ChatGPT, come tutti gli altri sistemi di Intelligenza Artificiale, utilizzano dei sistemi hardware specializzati nel trattare e gestire le operazioni grafiche e visive di un computer. In altre parole, possiamo dire che le reti neuronali, che sono quelle che guidano sistemi come ChatGPT, sono molto simili ai neuroni nel nostro cervello. Quando un segnale passa da un neurone all’altro, questo passa sotto forma di energia elettrica e quindi immaginiamo migliaia di neuroni con piccoli flussi di energia elettrica, sommando il tutto si ottiene un grande consumo di corrente.
Quindi quanta energia viene effettivamente consumata durante l’interazione con ChatGPT e come si collega alle emissioni di carbonio?
Dunque, quanta energia viene consumata è molto difficile da dire precisamente, anche perché non è un dato pubblico. Intanto va detta una cosa, quando si considera l’interazione dell’utente finale, cioè quando si pone una domanda, si consuma molta meno corrente di quando si fa il training del modello, cioè quando gli si fa apprendere tutto ciò che deve sapere per conoscere il mondo e per poter rispondere alle varie richieste. I dati che abbiamo sono una stima dell’insieme delle due, il che a mio avviso personale non è particolarmente corretto, perché chiaramente se fosse un solo utente che usa ChatGPT, la quota parte di consumo per la domanda è irrisoria rispetto a quella per il consumo, ma se fossero milioni di persone le cose si ribaltano. Ma attenzione, la parte di query, cioè le domande che fai, consumano infinitamente meno corrente, quindi il bilanciamento è davvero difficile da trovare. Comunque per darti dei numeri, le stime vanno da 0.0025 kWh a 0.3 W/h. Per fare un esempio semplice: se hai una lampadina da 100 W e la lasci accesa un’ora, consumi 100 W/h. Se hai una lampadina da 100 W e la lascia accesa mezz’ora, consumi 50 W/h. Quindi nel caso sopracitato, la stima che viene fatta è apparentemente molto bassa, ma bisogna ricordare che si basa su una singola query. Tra l’altro i dati vengono dati in Watt/ore, non in Watt, che crea un’altra fonte di confusione, perché il Watt è quello che stai consumando nell’istante preciso e il Watt/ore è quello che consumi nel tempo. A mio avviso, il futuro sarà fatto di domande fatte a sistemi a device locali, ossia quelle che chiamano edge computing, che è un sistema che elabora i dati vicino alla fonte, come sensori o dispositivi, invece di inviarli a server lontani. Questo riduce i tempi di risposta, migliora le prestazioni ed è utile in applicazioni che richiedono velocità.
Che ruolo giocano i data center nell’emissione di carbonio prodotta da ChatGPT?
Allora, il carbon footprint, cioè quanto carbonio viene emesso nell’atmosfera, funziona nello stesso modo in cui viene generata la corrente. Le stime attuali sono le seguenti: ogni domanda posta a ChatGPT dovrebbe emettere tra i 2 e i 10 grammi di CO2 e il confronto viene fatto con le ricerche su Google, che vanno da 0.2 a 7 grammi a ricerca. Quindi, come si vede qui, il consumo causato dall’utilizzo di Google è molto più basso, ma bisogna chiedersi perché. Il sistema di Intelligenza Artificiale è un sistema che risponde non solo a domande, ma che crea un’interazione vera e propria con l’utente e soprattutto, gli ultimi modelli usciti recentemente, ragionano anche. Quindi, non è che cercano online le risposte e te le forniscono, bensí fanno un ragionamento loro che è indipendente da tutto quello che c’è scritto sul web. Per cui il consumo è più alto sì, ma perché dà più servizi. Per concludere, occorre pensare molto bene a come alimentare questi data center, se con il nucleare o con il solare, insomma con energie che possono essere più compatibili possibile con l’ambiente, perché altrimenti andiamo a emettere altro carbonio nell’atmosfera.
Esistono iniziative per ridurre l’impatto ambientale dei modelli di Intelligenza Artificiale come ChatGPT?
Sì, esistono iniziative che vengono dalla Cina .Attualmente i componenti dei chip usati nei sistemi di IA sono quelli prodotti da NVIDIA e sono molto efficienti ma consumano anche tanto e gli ultimi modelli sono addirittura raffreddati ad acqua. Qualche mese fa è uscito un modello cinese di nome DeepSeek che risulta efficiente e intelligente come il famoso GPT4, uno dei modelli di linguaggio più avanzati. Questo sistema è stato creato con componenti molto più arretrati rispetto a quelli che usano gli americani, ma favorendo l’uso del cervello invece della potenza, ossia trovando un modo di arrivare allo stesso risultato e mantenendo l’efficienza dei sistemi operati dall’IA ma usando meno potenza ed energia
Per concludere, puoi dirci se esistono alternative sostenibili o miglioramenti che potrebbero essere attuati per ridurre l’impronta ecologica dei sistemi di Intelligenza Artificiale?
Sí, esistono miglioramenti che possiamo addirittura fare tutti e che implicano un piccolo investimento. Quando noi usiamo i sistemi come ChatGPT, Anthropic, Copilot, Gemini, etc., in genere li usiamo online, quindi apriamo un browser, facciamo una domanda, il sistema risponde e così stiamo facendo funzionare un data center lontano che non sappiamo esattamente come è alimentato. Ma ci sono tutta una serie di modelli che possiamo caricare in locale sui nostri dispositivi. Il famoso DeepSeek, che è super intelligente, funziona anche con un iPhone 15 o 16 per esempio. Basta che scarichi ed esegui il modello in locale e così sai esattamente quanto consumi, perché è il tuo device che consuma. Se carichi un modello di Intelligenza Artificiale sul tuo dispositivo e lo usi direttamente lì, allora possiamo dire che se per una domanda il sistema impiega un minuto a risponderti, per quel minuto lì ha consumato 20 watt, dopodichè va a zero, mentre se fai la la stessa domanda al sistema on line su ChatGPT.com, ad esempio, non hai la minima idea di cosa succede. Tra l’altro i tuoi bit viaggiano in rete per arrivare fino in California facendo un sacco di salti, quindi dovresti teoricamente sommare anche quanto costano i router, cioè i dispositivi che trasportano i bit, etc., conto impossibile da fare, ma ponendo le domande in locale direttamente sul nostro dispositivo, il consumo è veramente minimo e si evita anche la propagazione di dati sensibili sul web.
Quindi se vogliamo trarre una specie di conclusione, la stampa ha fatto molto parlare di questa impronta carbone gigantesca e di questo pericolo ecologico causato dall’IA. È vero che ci sono consumi molto importanti, soprattutto nella fase di addestramento di un sistema di Intelligenza Artificiale, però è anche importante ricordare che una volta addestrato il sistema poi lo usi milioni di volte e il consumo non è più così elevato. Inoltre, l’efficienza dei componenti sta migliorando sempre di piú. Ma forse la questione principale dovrebbe essere come smantellare le centrali nucleari alla fine della loro vita, perché in fin dei conti questo è solo uno dei tanti problemi ambientali che dobbiamo sostenere nella nostra epoca.
Fabbriche di dati
Il giardino di Albert 12.04.2025, 18:00
Contenuto audio