Quanto energia per l'Intelligenza Artificiale? Un futuro incerto
I server che addestrano modelli come quelli dietro ChatGPT, rispondendo a miliardi di richieste giornaliere da ogni angolo del pianeta consumano hanno un costo energetico enorme. Ogni data center potrebbe consumare tanta elettricità quanto decine di migliaia di case, mettendo sotto pressione le reti locali e facendo lievitare i costi per i residenti. Da dove arriverà tutta questa energia? Una domanda che non trova ancora risposta chiara, soprattutto in una regione come la Virginia, già nota come la “capitale mondiale dei data center, dove queste strutture consumano oltre un quarto dell’elettricità statale.
L’impatto locale di una rivoluzione globale
In tutto il mondo, i data center stanno spuntando a ritmo record per soddisfare la fame di energia dell’AI generativa, che richiede molta più potenza rispetto ai modelli tradizionali. A differenza di altre industrie energivore, come le acciaierie, i data center tendono a concentrarsi in cluster densi, condividendo reti elettriche e sistemi di raffreddamento. In Irlanda, ad esempio, queste strutture consumano oltre il 20% dell’elettricità nazionale, soprattutto attorno a Dublino. Negli Stati Uniti, almeno cinque stati vedono i data center assorbire più del 10% della loro energia.
A livello globale, però, l’impatto dell’AI sull’elettricità potrebbe sembrare contenuto. L’Agenzia Internazionale dell’Energia (IEA) stima che nel 2022 i data center abbiano usato tra 240 e 340 terawattora (TWh), pari all’1-1,3% della domanda mondiale. Anche con la crescita dell’AI, questa quota resterà marginale rispetto all’aumento previsto dell’80% del consumo elettrico globale entro il 2050, spinto dall’elettrificazione di trasporti e industrie. Tuttavia, a livello locale, l’effetto è tutt’altro che trascurabile, soprattutto dove le infrastrutture non sono pronte a reggere il carico.
Un’equazione senza dati certi
Calcolare quanta energia l’AI consumerà davvero è una sfida, resa più ardua dalla scarsa trasparenza delle grandi aziende tecnologiche. “Mancano dati dettagliati, stiamo lavorando al buio,” lamenta Jonathan Koomey, esperto di energia informatica da oltre 30 anni. I ricercatori, come Alex de Vries della Free University di Amsterdam, devono ricorrere a stime indirette. Nel 2023, de Vries ha analizzato il consumo dei server NVIDIA A100, utilizzati per l’AI generativa, calcolando che integrare un sistema simile a ChatGPT in ogni ricerca Google potrebbe richiedere 23-29 TWh all’anno – 23-30 volte l’energia di una ricerca tradizionale. Ma queste cifre, basate su ipotesi e dati di terze parti, sono già superate: i modelli attuali sono più efficienti di quelli del 2023.
Un approccio alternativo, detto “bottom-up”, misura il consumo di singole richieste AI usando modelli open-source. Sasha Luccioni, di Hugging Face, ha sviluppato CodeCarbon, un software che stima l’energia usata per generare testi o immagini. I suoi studi mostrano che creare un’immagine consuma circa 0,5 wattora (Wh), meno di una ricarica di smartphone, ma i modelli più grandi, come quello di ChatGPT, possono richiedere molto di più. Questi numeri, però, sono un limite inferiore: le aziende non condividono dati sui loro sistemi proprietari, né sull’energia usata per il raffreddamento dei data center.
Verso una maggiore trasparenza
La mancanza di openness da parte di colossi come Google e Microsoft, i cui rapporti recenti mostrano un aumento delle emissioni di carbonio legato ai data center, è un problema crescente. In Europa, la Direttiva sull’Efficienza Energetica del 2023 obbliga i data center più grandi a riportare i loro consumi, un passo verso la trasparenza. Negli Stati Uniti, invece, si dipende ancora dalle stime, come quelle di un rapporto del Dipartimento dell’Energia che prevede un raddoppio o triplo del consumo dei data center entro il 2028, fino al 7-12% dell’elettricità nazionale.
Innovazione o insostenibilità?
L’AI generativa promette di rivoluzionare il nostro modo di lavorare e vivere, ma il suo costo energetico solleva interrogativi urgenti. Servono dati precisi e una pianificazione oculata per bilanciare i benefici economici – in Virginia, i data center portano lavoro e investimenti – con la sostenibilità ambientale. Progetti come l’AI Energy Score, che valuta l’efficienza dei modelli AI, sono un inizio, ma senza la collaborazione delle aziende il quadro resterà incompleto. Come sottolinea Koomey, “nessuno sa davvero cosa ci riserva il futuro”. Una cosa è certa: l’energia che alimenterà l’AI non può essere un mistero.
Post a Comment