
TUTTO IL MONDO SI BUTTA SULL'INEVITABILE RIVOLUZIONE DELL'INTELLIGENZA ARTIFICIALE. E L'ITALIA CHE FA? AL SOLITO, CINCISCHIA - FUBINI: "INTEGRARLA NELLE IMPRESE, NELLA SANITÀ E NELLE AMMINISTRAZIONI IN ITALIA PORTEREBBE A UN AUMENTO DI VALORE AGGIUNTO DELL'ECONOMIA DI 312 MILIARDI ENTRO IL 2040. MA CON POCHISSIME E SPARSE ECCEZIONI, NON FACCIAMO NIENTE: NON CI STIAMO NEANCHE RENDENDO CONTO DELLA CAPACITÀ DI VISIONE E DEL CORAGGIO CHE SERVIREBBE…"
Estratto dalla newsletter “Whatever it Takes”, di Federico Fubini
Succede a tutti di avere un momento in cui dici: «Come ho fatto a non capirlo prima?». A me è capitato al World Economic Forum di Davos, quando in una sala affollata si è alzato un uomo di nome Toshihaki Higashihara. È il presidente del conglomerato giapponese Hitachi e a Davos ha detto una cosa semplice e terribile: ha citato una stima secondo la quale entro il 2050 i centri di calcolo informatico («data center» o «cloud») avranno bisogno di «mille volte più energia elettrica di oggi» a causa dei loro consumi «associati al funzionamento dell’intelligenza artificiale» (AI). […]
Le implicazioni per l’ambiente o per le scelte davanti alle quali una rivoluzione del genere mette ogni Paese sono gigantesche: dobbiamo aumentare esponenzialmente i consumi di elettricità – con tutto ciò che questo comporta per le fonti energetiche e per il clima – o è meglio accettare una decrescita (più o meno) felice nella quale perdiamo terreno sui Paesi che usano di più le tecnologie e dunque sono più produttivi, più veloci, più ricchi, più capaci di attrarre anche i nostri giovani più istruiti? E ci stiamo rendendo conto che siamo davanti a un bivio del genere? […]
Jensen Huang, l’amministratore delegato del colosso americano dei microchip Nvidia, prevede che la rivoluzione dell’AI nei prossimi cinque anni porterà a raddoppiare da mille a duemila miliardi di dollari il valore degli investimenti realizzati in data centre nel mondo. […] L’intelligenza artificiale usa i data centre in modo particolarmente intenso perché i suoi cosiddetti «large language model», in sostanza i sistemi grazie ai quali le piattaforme di AI prevedono le risposte alle domande che ricevono, si formano su quantità colossali di dati per arrivare a fare «inferenze» sui risultati che sembrano statisticamente più probabili. Solo il creare quell’intelligenza artificiale «generativa» consuma tantissima energia. […]
I data centre dell’intelligenza artificiale funzionano grazie a semiconduttori che, da decenni, diventano sempre più piccoli. […] La cosiddetta «legge di Gordon Moore» – da uno dei fondatori dell’industria dei semiconduttori americana negli anni ’60 – prevede che il progresso nella potenza dei microchip, dunque nella loro efficienza e nella loro capacità di funzionare con meno energia, sia esponenziale: raddoppia due anni. In un circuito integrato entreranno sempre più transistor. Ma la rivoluzione dell’AI sta infrangendo quella «legge» o meglio la sta inopinatamente rendendo inutile. La brutale fame di infrastrutture digitali e di energia dell’intelligenza artificiale aumenta il fabbisogno di data centre e il consumo elettrico in modo apparentemente incontrollabile. […]
Oggi un tipico data centre negli Stati Uniti consuma dieci volte più megawatt di dieci anni fa e il fabbisogno dell’AI sta quintuplicando entro il 2025, come peso relativo nel totale del consumo dei data centre. Dunque per integrare l’intelligenza artificiale nei suoi sistemi, nelle sue imprese, nella sua sanità, nella sua amministrazione, nelle sue capacità di difesa o di gestione delle sue banche, un Paese ha bisogno di una programmazione micidiale.
Deve investire nell’infrastruttura dei data centre, altrimenti sarà costretto ad immagazzinare i suoi dati più sensibili e strategici nei centri di altri Paesi: non si sentirebbe mai davvero al sicuro. Deve immaginare da dove attingere a sempre nuove fonti di energia, per alimentare quei data centre e deve capire come farlo in modo da non alimentare le emissioni a effetto serra: non potrà certo aprire nuove centrali a carbone e probabilmente neppure a gas, né potrà sostenere il conto di comprare tutta quell’energia dall’estero.
Deve anche accettare che le fonti rinnovabili non garantiscono le quantità e la stabilità del flusso che serve per far funzionare centinaia, migliaia di centri di calcolo a flusso continuo. […] Mi dice ancora Giorgio Metta, il direttore scientifico dell’IIT: «Per connettere fra loro alcuni dei nostri centri di ricerca, abbiamo iniziato a investire somme rilevanti per dotarci di fibre ottiche dedicate fino a 400 Gigabit al secondo, perché la connettività ordinaria non basta. Dati da spostare tra i nostri centri a Genova possono essere un milione di volte più ingombranti di un film o un video da scaricare su un’utenza domestica».
C’è chi ha iniziato a pensare al futuro in maniera strategica, perché la rivoluzione dell’AI cambia le strutture di un sistema. Sam Altman, il CEO di OpenAI che ha di fatto innescato l’attuale ondata di intelligenza artificiale «generativa», lo ha capito: sta investendo nella produzione diretta di microchip, perché non vuole dipendere da quelli di Nvidia; e investe anche in due start up nell’energia nucleare civile (una a fissione, l’altra a fusione) per garantirsi l’energia di cui la sua azienda avrà bisogno.
Dice Altman: «Il mondo ha bisogno di più infrastrutture dell’AI – di più fabbriche di chip, di più energia, di più data centre – di quanti oggi si programmi di costruire». La Francia sta lanciando un programma di quattordici nuove centrali nucleari – attirando a suon di centinaia di milioni di euro anche delle start up del settore nate in Italia – in gran parte per alimentare i data centre che sta costruendo e così competere nell’AI. E noi? Possiamo decidere che in Italia l’AI non c’interessa.
Un rapporto co-prodotto per il think tank Teha da Microsoft (che è parte in causa, come azionista di riferimento di Sam Altman a OpenAI) prevede che integrare l’intelligenza artificiale nelle imprese, nella sanità e nelle amministrazioni in Italia porterebbe a un aumento di capacità di cura e un aumento di valore aggiunto dell’economia italiana di 312 miliardi – a parità di ore lavorate – entro il 2040. Sarebbe un modo per compensare in parte il calo di capacità produttiva che arriverà dalla perdita di quasi quattro milioni di lavoratori a causa della demografia. Ma, appunto, possiamo decidere che non c’interessa.
Che vogliamo continuare con le tecnologie del Novecento, scalando all’indietro di una o due marce. Sarebbe legittimo: scegliamo di rientrare fra quelli che Jensen Huang di Nvidia chiama gli «haves not» della nuova rivoluzione, contrapposti invece agli «haves», i ricchi che ce l’hanno. Invece noi vogliamo avercela. Vogliamo tutto: questo mondo e quell’altro. Vogliamo restare nella «serie A» del mondo avanzato. Ma, con pochissime e sparse eccezioni, non facciamo niente per questo: non ci stiamo neanche rendendo conto della capacità di visione e del coraggio che servirebbe.