Intelligenza artificiale e data centre: combattere la disinformazione per proteggere le risorse naturali
Uno sguardo su problematiche ambientali e prospettive future legate all'intelligenza artificiale nell'epoca della disinformazione: l'uso corretto e consapevole del nuovo strumento.
Data:
02 settembre 2025
Oggigiorno è difficile navigare sui social media senza imbattersi in una discussione sull’intelligenza artificiale. L’IA è il nuovo tema caldo del momento, e rappresenta il più grande cambiamento che ha investito la nostra società nell’ultimo decennio. Il cambiamento e il progresso hanno sempre incusso terrore nel corso della storia, e per combattere la paura serve un antidoto all’incertezza: informazioni chiare, semplici e obiettive.
La verità è che neanche gli esperti del settore hanno risposte certe, ma si basano su analisi e studi spesso parziali. L’international energy agency (Iea) ha pubblicato un report completo lo scorso aprile, chiamato “Energia e IA”, in cui si analizza la richiesta energetica odierna e futura dei data centre dedicati all’IA.
Infatti, l’intelligenza artificiale — di qualsiasi tipo — richiede una potenza di calcolo molto elevata, di conseguenza si appoggia su grandi strutture informatiche energivore che sono i data centre, o centri di gestione dei dati. All’interno di questi centri sono situati migliaia di server che eseguono una moltitudine di calcoli in parallelo e si surriscaldano durante il processo. La maggior parte dei centri è quindi dotata di sistemi di raffreddamento ad acqua.
Il report dell’Iea, secondo le proiezioni, ha evidenziato che la richiesta energetica da parte dei data centre di tutto il mondo raddoppierà entro il 2030, raggiungendo i 945 terawattora, paragonabile a quella consumata attualmente dall’intero Giappone. In termini di emissioni di gas serra, l’incremento non sarà eccessivo se paragonato a quello dell’intero settore energetico. Questo perché le fonti rinnovabili saranno protagoniste nei progetti di sostenibilità dei grandi investitori. Al momento, la maggior parte dei data centre è alimentata da combustibili fossili. Una normale richiesta a ChatGPT, afferma Sam Altman, CEO di OpenAI, consuma in media 0,34 wattora, più o meno quello che consuma una normale ricerca di Google (senza il riassunto di Gemini, ora diventato uno standard per ogni ricerca). Gli articoli allarmistici che dichiarano un consumo maggiore di 10-20 volte rispetto all’utilizzo dei motori di ricerca sarebbero perciò inesatti. Degli studi indipendenti hanno confermato la cifra condivisa da Altman, ma il problema emerge quando la richiesta a ChatGPT raggiunge le dimensioni di un testo lungo o si generano immagini. In quel caso il consumo cresce esponenzialmente, ed è bene essere parsimoniosi con tali richieste.
Il problema etico principale che affligge il pubblico quando si parla di utilizzare large language models (Llms) come ChatGPT, Gemini e Copilot è il consumo di acqua per il raffreddamento. Ogni richiesta fatta a ChatGPT consuma in media 25 mL di acqua, contro i soli 0,5 mL di acqua usati in media da Google per ogni ricerca. Il consumo di acqua, perciò, incrementa di venti volte con l’utilizzo dell’IA, e molte comunità locali lamentano una peggior qualità dell’acqua e una carenza di risorse, che invece vengono incanalate verso i centri. La risposta delle grandi aziende, come Meta, è prettamente burocratica: loro seguono perfettamente le linee guida dettate dalle autorità nazionali o regionali.
Per ovviare a questo problema alcune aziende si affidano al raffreddamento ad aria, ma questo è efficiente solo in climi freddi e secchi. Il vero cambiamento avverrà soltanto con l’ottimizzazione dei sistemi di raffreddamento e lo sviluppo delle infrastrutture.
Nel quotidiano, ognuno dovrebbe essere consapevole del consumo legato all’intelligenza artificiale, ma non è necessario demonizzare l’intero settore. Le recenti pubblicazioni danno un’accezione negativa al termine “IA”, sebbene il termine non includa solo le Llm o l’IA generativa. Altri tipi di computazione fondamentali per la ricerca nel campo medico o per ottimizzare i processi produttivi, come quello dell’idrogeno verde, potranno essere svolti in tempi accettabili solo con l’IA. Farà inevitabilmente parte del nostro futuro come supporto per alcuni lavori automatizzati, per analisi di pattern o per la scrittura di codice informatico. È uno strumento, non un sostituto all’ingegno umano, e deve essere pensato come tale. EF
Ultimo aggiornamento
03/09/2025, 08:45