6,4 miliardi di litri di acqua: questo è stato necessario per sviluppare la AI di Microsoft
L’intelligenza artificiale non viene senza costi, soprattutto impattanti sui consumi idrici.
Nei loro ultimi rapporti ambientali, sia Microsoft che Google hanno rivelato picchi significativi nel consumo di acqua dovuti all’uso della tecnologia dell’intelligenza artificiale (AI) e questo è stato ripreso da un articolo dell’AP.
Quasi 6,4 miliardi di litri d’acqua
La Microsoft ha riportato un aumento del 34% dal 2021 al 2022, pari a quasi 1,7 miliardi di galloni (6,4 miliardi di litri) di acqua, mentre il secondo ha riportato un aumento del 20% nello stesso periodo di tempo.
Tutto questo per la necessità di raffreddamento degli elaboratori elettronici che fanno funzionare
“È giusto dire che la maggior parte della crescita è dovuta all’intelligenza artificiale”, compresi “i suoi pesanti investimenti nell’intelligenza artificiale generativa e la partnership con OpenAI”, ha detto ad AP Shaolei Ren, uno scienziato dell’Università della California, Riverside, che è stato in missione valutare l’impatto ambientale dell’IA.
Un addestramento incredibilmente costoso
L’addestramento GPT-3 da parte di OpenAI ha consumato 700.000 litri d’acqua, “sufficienti per produrre 370 BMW”
La ricerca ha inoltre stimato che ChatGPT, che ha seguito GPT-3, avrebbe dovuto consumare l’equivalente di una bottiglia d’acqua da 500 millilitri per eseguire una discussione con un utente di circa 25-50 domande.
Una persona che risponde a 25-50 domande non consuma tutta quest’acqua…
Sono necessarie soluzioni di raffreddamento su larga scala nei data center, dove vengono eseguiti i calcoli dell’intelligenza artificiale, per evitare il surriscaldamento dei server e degli altri dispositivi che alimentano la tecnologia.
I sistemi HVAC (riscaldamento, ventilazione e condizionamento dell’aria) e le torri di raffreddamento utilizzano una quantità significativa di acqua.
Inoltre, i calcoli dell’intelligenza artificiale possono richiedere un consumo elevato di energia.
In alcuni luoghi, produrre l’elettricità necessaria per queste operazioni può comportare un notevole consumo di acqua, soprattutto quando si utilizzano tecnologie di generazione di energia come gli impianti termoelettrici, che fanno molto affidamento sull’acqua per il raffreddamento.
AP ha contattato Microsoft, che ha risposto con una dichiarazione affermando che l’azienda sta “lavorando su come rendere i sistemi di grandi dimensioni più efficienti, sia nella formazione che nell’applicazione”.
Per raggiungere i suoi obiettivi di sostenibilità di diventare carbon negative, water positive e senza rifiuti entro il 2030, l’azienda ha dichiarato che continuerà ad analizzare le proprie emissioni, a incrementare l’uso di energia pulita per alimentare i data center, ad acquistare energia rinnovabile e a investire in altre iniziative eco-friendly.
Rimane però il problema delle risorse idriche.
Nel frattempo, Open AI ha dichiarato al notiziario che l’azienda “riconosce che l’addestramento di modelli di grandi dimensioni può comportare un dispendio energetico e idrico” e sta lavorando attivamente per migliorare l’efficienza.
Soluzioni esplorate
Una soluzione allo studio è quella di ridurre i requisiti energetici dei calcoli dell’intelligenza artificiale.
Questi sforzi possono rendere l’intelligenza artificiale più efficiente dal punto di vista energetico costruendo algoritmi e hardware migliori, che possono indirettamente ridurre l’uso dell’acqua.
Inoltre, collocare i data center in aree con accesso a fonti di energia rinnovabile potrebbe ridurre l’utilizzo di acqua legato all’intelligenza artificiale.
C’è anche un’opzione più creativa.
Nel 2018, Microsoft ha affondato uno dei suoi data center al largo delle coste delle Orcadi e ne ha studiato le prestazioni per due anni.
Si è scoperto che il centro ha operato con maggiore efficienza durante quel periodo di tempo.
Parte del motivo potrebbe essere stato che l’acqua che lo circondava lo manteneva fresco, Microsoft disse al momento del suo recupero nel 2020 che il processo aveva benefici ambientali.
“Il recupero ha avviato la fase finale di uno sforzo durato anni che ha dimostrato che il concetto di data center sottomarini è fattibile, oltre che pratico dal punto di vista logistico, ambientale ed economico”, ha scritto John Roach di Microsoft in un blog.
Quindi la soluzione potrebbe essere quella di mettere i centri di calcolo nelle regioni fredde.
Chissà che un giorno non pensino di utilizzare questi centri anche per la co-generazione..
Fonte: scenarieconomici