OGNI INNOVAZIONE PROVOCA UN’EMISSIONE – L’INTELLIGENZA ARTIFICIALE, SU CUI STANNO PUNTANDO TUTTI I GIGANTI DEL WEB, PER FUNZIONARE HA BISOGNO DI UN’ENORME POTENZA DI CALCOLO, E QUINDI DI ENERGIA. RISULTATO? IL CONSUMO GLOBALE DI ENERGIA POTREBBE QUINTUPLICARE NEI PROSSIMI ANNI. RENDENDO PALESE L’IPOCRISIA DELLE AZIENDE DELLA SILICON VALLEY, CHE A PAROLE DICONO DI VOLERE UN MONDO A EMISSIONI ZERO…
Articolo di “El Pais” – dalla rassegna stampa estera di “Epr comunicazione”
Azioni quotidiane come trovare il percorso migliore per arrivare da qualche parte o tradurre un testo richiedono grandi quantità di energia, acqua e risorse minerali. Queste applicazioni vengono eseguite nel cloud, un eufemismo per indicare milioni di potenti computer organizzati in vasti data center.
Per funzionare, le applicazioni mobili richiedono legioni di computer che immagazzinano trilioni di dati ed eseguono operazioni di una frazione di secondo (ad esempio, il calcolo delle distanze in base al traffico). Si stima che il consumo energetico dei centri dati rappresenti l'1-2% del totale mondiale. Ma queste cifre sono destinate a salire alle stelle – leggiamo su El Pais
L'intelligenza artificiale generativa (AI), quella che rende possibili chatbot intelligenti come ChatGPT e strumenti che generano opere d'arte o musica originali a partire da un testo, richiede una grande potenza di calcolo. Le grandi aziende tecnologiche, guidate da Microsoft e Google, hanno deciso di integrare queste funzionalità nei motori di ricerca, negli editor di testo e nelle e-mail.
Il nostro rapporto con il software di tutti i giorni cambierà: finora eravamo abituati a premere una serie di comandi per svolgere determinate attività; presto ci troveremo a conversare con la macchina, chiedendole di svolgere compiti che prima svolgevamo da soli.
Che effetto avrà questo cambio di paradigma sull'ambiente? Nessuno lo sa, ma tutte le stime sono ottimistiche. "L'intelligenza artificiale può sembrare eterea, ma sta fisicamente plasmando il mondo", afferma Kate Crawford in Atlas of AI. L'australiana, ricercatrice senior presso Microsoft Research e direttrice dell'AI Now Institute, ha avvertito due anni fa che i "costi planetari" associati alla tecnologia stanno aumentando. Quattro anni fa alcuni scienziati avevano stimato che il settore tecnologico sarebbe stato responsabile del 14% delle emissioni globali entro il 2040; altri che la domanda di energia dei centri dati sarebbe aumentata di 15 volte entro il 2030.
Tutte queste previsioni potrebbero essere errate. Esse risalgono a prima della comparsa della ChatGPT. Google e Microsoft hanno centinaia di milioni di utenti, ma cosa accadrebbe se tutti iniziassero a utilizzare strumenti supportati dall'IA generativa? Il canadese Martin Bouchard, cofondatore dei centri dati Qscale, ritiene che sarebbe necessaria una potenza di calcolo da quattro a cinque volte superiore per ogni ricerca.
Interpellate sui loro attuali livelli di consumo e sulle loro previsioni di crescita nell'era dell'IA generativa, Google e Microsoft hanno rifiutato di fornire a questo giornale informazioni specifiche, salvo ribadire la loro intenzione di raggiungere la neutralità delle emissioni di carbonio entro il 2030. Per Crawford, ciò "significa che compensano le loro emissioni acquistando il credito delle persone" attraverso azioni di make-up ambientale, come piantare alberi o altre azioni simili.
"L'IA generativa produce più emissioni di un normale motore di ricerca, che consuma anche molta energia perché, dopo tutto, sono sistemi complessi che scorrono milioni di pagine web", afferma Carlos Gómez Rodríguez, professore di Informatica e Intelligenza Artificiale all'Università di La Coruña. Ma l'intelligenza artificiale genera ancora più emissioni dei motori di ricerca, perché utilizza architetture basate su reti neurali, con milioni di parametri che devono essere addestrati".
Quanto inquina l'IA?
Un paio di anni fa, l'impronta di carbonio dell'industria informatica ha raggiunto quella dell'aviazione quando era al suo apice. L'addestramento di un modello di elaborazione del linguaggio naturale equivale a un numero di emissioni pari a quello di cinque automobili a benzina nel corso della loro vita, compreso il processo di produzione, o di 125 voli di andata e ritorno tra Pechino e New York.
Oltre alle emissioni, il consumo di risorse idriche per raffreddare i sistemi (Google ha speso 15,8 miliardi di litri nel 2021, secondo uno studio di Nature, mentre Microsoft ha dichiarato 3,6 miliardi di litri), così come la dipendenza da metalli rari per la produzione dei componenti elettronici, fanno dell'IA una tecnologia con un forte impatto sull'ambiente.
Non esistono dati sulla quantità e sul tipo di energia consumata dalle grandi aziende tecnologiche, le uniche che dispongono di un'infrastruttura sufficientemente solida per addestrare e alimentare i grandi modelli linguistici su cui si basa l'IA generativa. Non ci sono nemmeno dati concreti sulla quantità di acqua utilizzata per raffreddare i sistemi, una questione che sta già causando tensioni in Paesi come gli Stati Uniti, la Germania e i Paesi Bassi. Le aziende non sono obbligate a fornire tali informazioni. "Quello che abbiamo sono stime. Per esempio, l'addestramento del GPT3, il modello su cui si basa ChatGPT, avrebbe generato circa 500 tonnellate di carbonio, l'equivalente di un viaggio in auto fino alla luna e ritorno. Potrebbe non essere molto, ma bisogna considerare che il modello deve essere riaddestrato periodicamente per incorporare dati aggiornati", dice Gómez. OpenAI ha appena presentato un altro modello più avanzato, GPT4. E la gara è iniziata.
Secondo un'altra stima, l'utilizzo di elettricità nel gennaio 2023 da parte di OpenAI, l'azienda che sta dietro a ChatGPT, potrebbe essere equivalente all'utilizzo annuale di circa 175.000 famiglie danesi, che non sono le più spendaccione. "Queste sono proiezioni basate sulle cifre attuali di ChatGPT; se il suo uso diventasse ancora più diffuso, potremmo parlare del consumo equivalente di milioni di persone", aggiunge.
L'opacità dei dati inizierà presto a dissiparsi. L'UE è consapevole del crescente consumo energetico dei data center. Bruxelles ha in cantiere una direttiva che inizierà a essere discussa l'anno prossimo (e che quindi richiederà almeno due anni per entrare in vigore) che stabilisce requisiti di efficienza energetica e trasparenza. Gli Stati Uniti stanno lavorando a una normativa simile.
Il costoso addestramento degli algoritmi
"Le emissioni di carbonio dell'IA possono essere suddivise in tre fattori: la potenza dell'hardware utilizzato, l'intensità di carbonio della fonte energetica che lo alimenta e l'energia utilizzata nel tempo necessario per addestrare il modello", spiega Alex Hernandez, ricercatore post-dottorato presso l'Istituto di Intelligenza Artificiale del Quebec (MILA).
È nella formazione che si concentra la maggior parte delle emissioni. L'addestramento è un processo chiave nello sviluppo di modelli di apprendimento automatico, la modalità di IA in più rapida crescita negli ultimi anni. Consiste nel mostrare all'algoritmo milioni di esempi per aiutarlo a stabilire modelli che gli consentano di prevedere le situazioni. Nel caso dei modelli linguistici, ad esempio, l'idea è che quando l'algoritmo vede le parole "la Terra è" sappia dire "rotonda".
La maggior parte dei data center utilizza processori avanzati chiamati GPU per addestrare i modelli di intelligenza artificiale. Le GPU hanno bisogno di molta potenza per funzionare. L'addestramento di modelli linguistici di grandi dimensioni richiede decine di migliaia di GPU, che devono funzionare giorno e notte per settimane o mesi, secondo un recente rapporto di Morgan Stanley.
"I modelli linguistici di grandi dimensioni hanno un'architettura molto ampia. Un algoritmo di machine learning che vi aiuta a scegliere chi assumere potrebbe avere bisogno di 50 variabili: dove lavora, qual è il suo stipendio attuale, l'esperienza precedente e così via. GhatGPT ha più di 175 miliardi di parametri", illustra Ana Valdivia, ricercatrice post-dottorato in informatica e IA al King's College di Londra. "È necessario riqualificare tutto questo tipo di struttura, nonché ospitare e sfruttare i dati su cui si sta lavorando. Anche l'archiviazione consuma", aggiunge.
Hernández, di MILA, ha appena presentato un documento che analizza il consumo energetico di 95 modelli. "C'è poca variabilità nell'hardware utilizzato, ma se si addestra il modello in Quebec, dove la maggior parte dell'elettricità è idroelettrica, si riducono le emissioni di carbonio di un fattore 100 o più rispetto ai luoghi in cui predominano il carbone, il gas o altri", afferma. È noto che i data center cinesi sono alimentati per il 73% da elettricità generata dal carbone, il che ha comportato l'emissione di almeno 100 milioni di tonnellate di CO? nel 2018.
Guidata da Joshua Bengio, il cui contributo alle reti neurali profonde gli è valso il premio Turing (considerato il Nobel dell'informatica), MILA ha sviluppato uno strumento, Code Carbon, in grado di misurare l'impronta di carbonio di chi programma e addestra algoritmi. L'obiettivo è che i professionisti lo integrino nel loro codice per sapere quanto emettono e che questo li aiuti a prendere decisioni.
Maggiore capacità di calcolo
C'è l'ulteriore problema che la capacità di calcolo necessaria per addestrare i più grandi modelli di IA raddoppia ogni tre o quattro mesi. Questo è stato rivelato già nel 2018 in uno studio di OpenAI, che ha anche avvertito che "vale la pena prepararsi per quando i sistemi avranno bisogno di capacità molto più grandi di quelle attuali". Si tratta di una velocità molto superiore alla Legge di Moore, secondo la quale il numero di transistor (o potenza) nei microprocessori raddoppia ogni due anni.
"Considerando i modelli che vengono attualmente addestrati, è necessaria una maggiore capacità di calcolo per garantirne il funzionamento. Probabilmente le grandi aziende tecnologiche stanno già acquistando altri server", prevede Gómez.
Per Hernández, le emissioni derivanti dall'uso dell'IA sono meno preoccupanti per diversi motivi. "Ci sono molte ricerche volte a ridurre il numero di parametri e la complessità dell'energia necessaria ai modelli, e questo migliorerà. Tuttavia, non ci sono altrettanti modi per ridurli durante l'addestramento: questo richiede settimane di utilizzo intensivo. Il primo aspetto è relativamente facile da ottimizzare, il secondo meno.
Una delle possibili soluzioni per rendere l'addestramento meno inquinante sarebbe quella di ridurre la complessità degli algoritmi senza perdere in efficienza. "Sono davvero necessari così tanti milioni di parametri per ottenere modelli che funzionino bene? GhatGPT, ad esempio, ha dimostrato di avere molti bias. Sono in corso ricerche su come ottenere gli stessi risultati con architetture più semplici", afferma Valdivia.