Gli esperti si dividono. Una parte degli addetti ai lavori sottoscrive la tesi che molto rapidamente i data centre, a cominciare da quelli che fanno girare i vari sistemi di intelligenza artificiale, diventeranno un fattore importante nei consumi energetici del pianeta. Tanto da costringere a dedicar loro addirittura blocchi di reattori nucleari finalizzati soltanto ad alimentare i data server di ChatGPT e delle sue sorelle, oltre a quelli molto esigenti sul piano dei consumi che gestiscono i bitcoin.
Un’altra parte sostiene invece che i dati mostrano già che sarà la stessa intelligenza artificiale a trovare la soluzione per i propri esagerati consumi, affinando sempre più l’efficienza energetica e “pianificando” una propria crescita sostenibile. Infine, alla luce della rivoluzionaria esperienza di DeepSeek, il sistema di IA ideato in Cina, c’è chi pensa che sia possibile mettere a punto modelli di intelligenza artificiale molto più efficienti e meno costosi di quelli usati finora, potenzialmente in grado di ridimensionare i consumi dei data centre. Insomma, che in realtà lo spauracchio dei sovraconsumi legati all’IA non sia un rischio così drammatico.
L’iniziativa IA di von der Leyen
Lo scorso 11 febbraio, a Parigi, la presidente della Commissione europea Ursula von der Leyen ha annunciato un piano per investire 200 miliardi di euro nell’intelligenza artificiale per quello che ha definito “il più grande partenariato pubblico-privato al mondo per lo sviluppo di un'IA affidabile”. L’alleanza vede la partecipazione di una serie di partner privati chiamata EU AI Champions Initiative, che riunisce oltre sessanta società tra cui grandi gruppi industriali (come Airbus, L'Oréal, Mercedes, Siemens) e tecnologici (tra cui Spotify, Mistral AI). "Vogliamo che l'Europa sia uno dei principali continenti nel campo dell'intelligenza artificiale”, dicono.
Progetti molto ambiziosi anche da parte del presidente francese Emmanuel Macron, che ha dichiarato che la Francia punta ad attrarre 109 miliardi di investimenti in data centre e progetti di IA, mettendo insieme risorse degli Emirati Arabi Uniti e di aziende private (o sotto controllo pubblico), come Iliad, Orange e Thales.
Analisi preoccupate
Vero è che per adesso le preoccupazioni sono che l’intelligenza artificiale e la gestione dei dati possano crescere tanto velocemente da mettere a rischio una volta di più gli obiettivi della transizione energetica globale. A suo tempo, all’inizio del 2024, BloombergNEF e DC Byte hanno calcolato che i data centre (tutti, quindi non solo quelli per l’IA) potrebbero consumare 514 TWh di elettricità all’anno, ovvero più di quanto faccia un paese come l’Italia. Secondo la IEA, l’Agenzia internazionale dell’energia, una ricerca su Google richiede 0,3 watt-ora di elettricità, mentre una richiesta a ChatGPT ha bisogno di 2,9 watt-ora. Ogni giorno si contano 9 miliardi di ricerche, e se all’uopo venisse usata l’IA, la domanda di energia crescerebbe di 10 TWh l’anno, lo stesso consumo di 1,5 milioni di abitazioni in Europa.
Esperti stimano che usare uno dei più potenti modelli di IA per generare un’immagine richieda tanta energia quanta ne serve per caricare al massimo uno smartphone. E secondo l’ultimo rapporto dello scorso gennaio della IEA, nel 2022 i data centre, le criptovalute e l’intelligenza artificiale pesavano per il 2% della domanda globale di energia, ma la previsione è che per il 2026 la domanda raddoppi. Immagina invece un rialzo vertiginoso del 250% entro fine decennio Semi Analysis, una società che monitora la catena di fornitura dei semiconduttori. Di certo, finora il costo energetico per allenare i modelli di IA è raddoppiato ogni nove mesi.
I dati per l’Italia
Lo scorso 22 gennaio nel corso di un’audizione alla Camera, Terna, il gestore della rete elettrica nazionale ad alta e altissima tensione, ha ricordato che in effetti un aumento significativo delle richieste di connessione da parte dei centri dati (per IA, ma non solo) c’è stato. Soltanto negli ultimi tre anni sono aumentate di 20 volte in termini di potenza, arrivate a circa 30 GW a fine 2024, con potenze medie di 140-150 MW per singolo centro dati.
Una crescita che pone “importanti sfide per la gestione del sistema elettrico”, sia sul piano infrastrutturale che su quello autorizzativo, ha detto Mauro Caprabianca, responsabile della struttura di pianificazione territoriale efficiente di Terna, visto che come ovvio queste richieste si concentrano al Nord e intorno a Milano. Tuttavia, nulla che appaia ingestibile al momento: le soluzioni tecniche e amministrative ci sono.
Stime passate e presenti della domanda
È vero però che, se guardiamo al passato, i consumi reali dei data centre sono risultati molto inferiori alle stime più pessimistiche, come quella del 2015, quando uno studio di Huawei previde che i data center avrebbero utilizzato oltre il 6% dell’elettricità globale, o quella del 2017, formulata al World Economic Forum, secondo cui il mining di criptovalute avrebbe potuto consumare tutta l’energia elettrica mondiale entro il 2020. Insomma: non sarebbe la prima volta che i pronostici sui consumi elettrici legati a una nuova tecnologia informatica risultassero sovradimensionati.
Anche se la domanda di energia dei data centre raddoppiasse o triplicasse, le stime più recenti suggeriscono che i loro consumi rimarrebbero comunque attorno al 5-6% del fabbisogno mondiale. Non dovrebbe essere impossibile gestire il problema, magari facendosi aiutare dalla stessa intelligenza artificiale a pianificare nel modo migliore e migliorare l’efficienza energetica di un po’ tutte le attività, compensando quindi il proprio maggiore consumo con il minore consumo di altri settori.
E comunque, come si legge in un recente rapporto di Wood Mackenzie, il boom dei data centre diventa anche un’opportunità per lo sviluppo di fonti rinnovabili. Non è un caso che nel cosiddetto Stargate Project, l’investimento per le infrastrutture IA da 100 miliardi di dollari (destinati a salire a 500) di cui ha parlato Donald Trump appena reinsediatosi alla Casa Bianca, una parte dell’energia verrà fornita da SB Energy, un’unità di SoftBank che sviluppa progetti di fotovoltaico e batterie. In uno scenario estremo, la domanda legata all’IA potrebbe anche raddoppiare o triplicare nei prossimi anni. Ma ciò corrisponderebbe comunque a molto meno del 10% del consumo elettrico mondiale.
La rivoluzione DeepSeek
E sull’altro piatto della bilancia non possiamo non citare anche la rivoluzione tecnologica rappresentata da DeepSeek. La società cinese di IA ha a sorpresa annunciato nuove soluzioni energeticamente ed economicamente più efficienti, basate su codici e implementazioni open source, quindi facilmente verificabili e replicabili, tali da ridurre i consumi dei sistemi di intelligenza artificiale e i costi sia d’investimento che di gestione dell’IA.
Come è emerso nelle scorse settimane, il modello IA di DeepSeek è stato addestrato utilizzando 2,78 milioni di ore di GPU su chip Nvidia H800, rispetto ai 30,8 milioni di ore di GPU utilizzate da Llama 3.1 di Meta. Ciò vuol dire che DeepSeek ha usato circa il 91% di energia in meno per sviluppare il proprio modello rispetto a Meta. Non ci sono dati puntuali sulla cosiddetta efficienza delle inferenze, cioè delle singole richieste che gli utenti fanno ai motori di ricerca IA, che secondo molti fra i principali operatori del settore rappresentano la fetta maggiore dei consumi energetici dell’IA. Ma a occhio si potrebbe ipotizzare che anche le risposte a ciascun prompt richiederebbero circa il 90% in meno dell’energia consumata da altre piattaforme.
Leggi anche: Calcoli e potere, intervista a Kate Crawford
In copertina: immagine Envato