Dietro le risposte rapide e precise dell’intelligenza artificiale si nasconde un grande impatto ambientale. Energia, acqua ed emissioni crescono in modo impressionante: dall’addestramento dei modelli alla produzione dei chip, fino all’uso quotidiano di milioni di persone ogni giorno, scopriamo il costo nascosto della tecnologia che usiamo quotidianamente
L’intelligenza artificiale sta rivoluzionando il nostro quotidiano: ci aiuta a scrivere, a lavorare, a cercare informazioni in un lampo. Ma dietro a questa magia digitale si nasconde un prezzo poco visibile: ogni interazione con un modello di AI consuma energia, acqua e risorse, trasformando la promessa dell’innovazione in una sfida per il pianeta. Non è solo questione di tecnologia: è una scelta collettiva, che coinvolge aziende, governi e cittadini, tra benefici tangibili e responsabilità ecologiche. In questo scenario sarebbe bene chiedersi qual è l’impatto ambientale dell’AI.

Foto Shutterstock
Impatto ambientale dell’AI: il prezzo nascosto dell’intelligenza artificiale
Acqua, elettricità, inquinamento ed energia richiesta per la produzione delle componenti hardware. Per calcolare l’impatto ambientale dell’AI è necessario sezionare l’intero comparto così da capire quali risorse utilizza e in che modo.
Consumo di acqua
Pensiamo a un gesto banale: scrivere un’email di 100 parole con ChatGPT. Secondo uno studio citato dal Washington Post, questo piccolo compito richiede circa 519 millilitri d’acqua, l’equivalente di una bottiglietta da mezzo litro. Ora proviamo ad allargare lo sguardo: se anche solo un decimo della forza lavoro italiana – circa 2,3 milioni di persone – usasse ChatGPT per inviare un’email a settimana per un anno, il risultato sarebbe impressionante: si arriverebbe a oltre 62 milioni di litri consumati, pari all’acqua bevuta in un giorno da un’intera città, della grandezza di Modena o Parma.
Consumi energetici
E non si tratta solo di acqua: quella stessa email richiede 0,14 kWh di elettricità, come tenere accese 14 lampadine LED per un’ora. Su scala nazionale, lo scenario ipotizzato implicherebbe un consumo annuo di circa 16.700 MWh, l’equivalente del fabbisogno energetico di oltre 6.000 famiglie italiane.
E questi sono solo numeri parziali: a livello globale, le proiezioni sono ancora più allarmanti: entro il 2030 l’acqua necessaria per raffreddare i data center potrebbe passare da 175 a 664 miliardi di litri, mentre i consumi elettrici potrebbero diventare undici volte superiori rispetto al 2023.
Emissioni di CO₂ e produzione di hardware
Adesso facciamo un passo indietro: per imparare a scrivere una mail o un testo più complesso seguendo le istruzioni dell’utente, un modello di intelligenza artificiale deve prima imparare e allenarsi. Questo significa studiare enormi quantità di dati per riconoscere schemi, capire il linguaggio e imparare a generare risposte coerenti.
Un “modello” di AI è quindi come un cervello virtuale: più dati assorbe, più diventa capace di rispondere in modo utile e accurato. Ma questo addestramento ha un costo concreto per l’ambiente: GPT-3, uno dei modelli più noti, ha prodotto durante il suo addestramento circa 552 tonnellate di CO₂ e consumato 700.000 litri d’acqua. Per rendere l’idea, è l’equivalente delle emissioni di circa 300 voli tra Roma e New York.
Il suo successore, GPT-4, è più potente e preciso: gestisce testi più lunghi e offre risposte più articolate. Ma questa maggiore capacità richiede più energia e risorse, perché il modello è più complesso e l’addestramento più intenso.
Anche i chip che fanno funzionare l’AI hanno un impatto notevole: tra il 2023 e il 2024, il consumo di elettricità e le emissioni legate alla produzione di semiconduttori sono cresciuti di più del 350%. Gran parte di questa energia proviene ancora dai combustibili fossili, soprattutto in Paesi come Corea del Sud, Giappone e Taiwan, principali produttori di chip.

Foto Shutterstock
Aziende, governi e cittadini: la responsabilità condivisa
I chip sono utilizzati da aziende tecnologiche, piattaforme online, fornitori di servizi cloud e, più in generale, da qualsiasi sistema che sfrutti l’intelligenza artificiale. La responsabilità, però, non ricade solo sulle imprese che producono e utilizzano questi chip: i governi possono incentivare l’uso di energie rinnovabili e regolare il consumo idrico dei data center, mentre i consumatori possono fare scelte consapevoli, preferendo servizi digitali trasparenti e sostenibili.
Quando si parla di impatto dell’AI, infatti, è importante ricordare che ogni singola interazione genera consumo e inquinamento: energia, acqua ed emissioni vengono consumate anche quando ringraziamo per una risposta, e per quanto l’intelligenza artificiale possa migliorare la medicina, l’efficienza industriale e persino la gestione delle reti energetiche, non può farlo a scapito del pianeta.
È dunque un preciso dovere di tutti riuscire a bilanciare innovazione e responsabilità ecologica, perché la domanda non è più se l’AI abbia un impatto ambientale, ma come ridurlo in tempo, per evitare che una tecnologia nata per risolvere problemi ne generi di nuovi, ben più gravi.
Paola Greco

