Intelligenza Artificiale, servono soluzioni per i consumi troppo alti
L’Intelligenza Artificiale fa ormai parte del nostro mondo ma i consumi energetici connessi all’utilizzo di questa tecnologia non sono al momento sostenibili. I data center sono degli edifici colossali al cui interno operano macchine che necessitano di elettricità in quantità. Spesso per coprire le esigenze dei dispositivi ci si affida ancora ai combustibili fossili ma gli scienziati stanno sviluppando soluzioni per migliorare il quadro.

Quanto consuma l’Intelligenza Artificiale?
Dietro le risposte precise che l’Intelligenza Artificiale ci restituisce si nascondono consumi energetici massicci. I data center dove le AI generative vengono addestrate ed eseguite necessitano di 7-8 volte più elettricità delle strutture di “vecchia generazione”. Nel 2024 questi edifici hanno utilizzato l’1.5% dell’energia mondiale per consumi pari a 415 Terawattora.
Tali valori continuano per altro ad aumentare a una velocità allarmante. Ci si attende quindi che entro il 2030 i consumi arrivino a toccare quota 1.050 TWh. Si tratta della quantità di elettricità utilizzata dall’intero Giappone. A tutto ciò va poi aggiunto l’impatto della costruzione dei centri e dell’installazione degli impianti di raffreddamento, nonché l’utilizzo di acqua e altre risorse.
Ridurre i consumi di energia dell’Intelligenza Artificiale
Gli scienziati hanno iniziato a concentrarsi su come i ridurre i consumi energetici dell’Intelligenza Artificiale generativa e le soluzioni per quanto parziali non mancano. Le strategie passano da due strade principali: miglioramento dell’efficienza degli algoritmi e modifiche nel design dei data center. Un primo accorgimento consiste nel limitare l’utilizzo della GPU in alcune fasi così da ridurre i consumi di 3/10 senza compromettere le prestazioni.
Gli esperti definiscono questo gesto come l’equivalente dell’abbassare le luci in casa e sottolineano che esso permette anche di migliorare il raffreddamento dei server. L’addestramento dei modelli di machine learning richiede poi il funzionamento di più GPU insieme. Si stima che una simile tecnologia all’avanguardia possa necessitare di 576 unità connesse contemporaneamente. Utilizzare processori meno potenti per specifici carichi di lavoro potrebbe quindi fare un’enorme differenza.
Consumi energetici dell’Intelligenza Artificiale e sostenibilità
Intervenire per rendere più sostenibili i consumi energetici connessi all’Intelligenza Artificiale generativa appare cruciale. Un altro fattore su cui gli scienziati pongono attenzione è il fatto che spesso metà dell’energia utilizzata dalla tecnologia in fase di addestramento è impiegata per raggiungere gli ultimi 2-3 punti percentuali nell’accuratezza. Fermare il processo prima, dove è possibile, permetterebbe di risparmiare ingenti quantità di elettricità.
Risulta poi fondamentale che nel quadro guadagnino spazio le energie rinnovabili. Fare in modo che determinate operazioni particolarmente energivore vengano concentrate nei periodi di picco di eolico e solare potrebbe risultare utile. Allo stesso modo sfruttare la capacità di analisi dell’Intelligenza Artificiale per mappare il sistema e individuare quali connessioni e quali miglioramenti si possano rivelare in grado di alterare gli equilibri in favore dell’energia pulita è già parte integrante del lavoro.
Gli enormi consumi energetici legati all’Intelligenza Artificiale rischiano di avere un impatto drammatico sulla corsa della crisi climatica. Se il 60% della domanda di elettricità verrà soddisfatto grazie ai combustibili fossili, verranno infatti introdotte in atmosfera 220 milioni di tonnellate di carbonio. Considerando che guidare un’auto per oltre 8.000 chilometri ne rilascia una tonnellata l’urgenza degli interventi appare chiara.






