Energia

AI, nel 2027 l’industria dell’Intelligenza Artificiale consumerà tanta energia quanto una piccola Nazione

I servizi basati sull’AI consumeranno presto quanto intere nazioni: all’industria dell’intelligenza artificiale serve infatti molta energia, molta di più delle applicazioni tradizionali che sta in parte sostituendo.

Secondo uno studio, sottoposto a peer review e pubblicato sulla rivista Joule, le grandi industrie dell’AI, da quando ChatGPT e DALL-E di OpenAI, Bard di Google, il bot Discord di Midjourney e affini sono entrati di dominio pubblico, entro il 2027 potrebbero consumare tanta energia quanto una piccola nazione, un Paese delle dimensioni di Belgio o Paesi Bassi.

Lo studio, basato su una ricerca speculativa, quindi non fondata su dati effettivi, poiché non resi noti dalle aziende tecnologiche, ha analizzato il ritmo di crescita dell’AI, la disponibilità di chip AI e i server necessari per sostenere il suo funzionamento nei prossimi anni. L’intelligenza artificiale richiede hardware più potenti rispetto alle attività informatiche tradizionali e consuma molto di più: usare un chatbot potrebbe infatti costarci 10 volte più energia rispetto ad una semplice ricerca su Google.

ai energia

Il ricercatore, dottorando presso la VU Amsterdam School of Business and Economics, ha previsto che Nvidia sia il principale fornitore dei kit di elaborazione AI richiesti dal settore. Stimando la potenziale crescita e diffusione di questi hardware, il ricercatore ha previsto che entro il 2027 il consumo energetico dell’intelligenza artificiale andrà dagli 85 ai 134 terrawattora (TWh) ogni anno. Si tratta all’incirca della quantità di energia elettrica utilizzata annualmente da nazioni come Belgio o Paesi Bassi. L’Italia nel 2022 ha consumato 295,8 TWh.

E tutto questo al netto dei consumi secondari legati al funzionamento dei “computer” e ai data center. I sistemi di AI e i sistemi linguistici con cui interagiamo usando i popolari chatbot, richiedono infatti grandi magazzini pieni di computer specializzati, che consumano grandi quantità di energia e che vanno anche raffreddati costantemente, utilizzando spesso sistemi ad alto consumo di acqua. Per questo i data center spesso vengono collocati in zone dal clima già più freddo.

Danny Quinn, capo della società scozzese di data center DataVita, ha descritto alla BBC la differenza nel consumo energetico tra un rack contenente server standard e uno contenente processori AI: “un rack standard pieno di kit normali ha una potenza di circa 4 kilowatt (kW), che equivale a una casa familiare. Mentre un rack per kit AI è circa 20 volte superiore, quindi circa 80 kW di potenza. E potresti averne centinaia, se non migliaia, di questi all’interno di un unico data center.”

Redazione

Redazione giornalistica composta da esperti di clima e ambiente con competenze sviluppate negli anni, lavorando a stretto contatto con i meteorologi e i fisici in Meteo Expert (già conosciuto come Centro Epson Meteo dal 1995).

Articoli correlati

Back to top button