Ogni volta che ChatGPT risponde a una domanda o Gemini genera un’immagine, dietro le quinte si attiva una catena di data center che consumano molta energia. Abbiamo già visto quanta acqua ed energia viene consumata, ma in realtà si tratta di una misura puntuale che restituisce un quadro parziale. Il punto infatti non è tanto quanto consuma una singola interazione con le GenAI, quanto la scala con cui questo avviene.
Siamo arrivati all’ultimo quarto del 2025, che è un anno particolare. Vedrà infatti un aumento del 17,7% della capacità globale dei centri di elaborazione dati, la seconda crescita più rapida della storia moderna. Siamo nel pieno di quella che gli analisti chiamano “la nuova corsa all’oro” dell’era digitale. Ma c’è chi inizia a chiedersi se, sull’onda dell’entusiasmo per l’intelligenza artificiale, non si stia costruendo troppo e troppo in fretta.
I numeri raccontano una crescita vertiginosa che ha pochi precedenti nella storia industriale. Dal 2005 a oggi la capacità globale dei data center è quintuplicata, passando da 21 a oltre 114 gigawatt. Nel mondo esistono poco meno di 10.500 data center, il 38% dei quali si trova negli Stati Uniti (secondo JLL e McKinsey).
Meta, Alphabet, Amazon e Microsoft hanno investito complessivamente 180 miliardi di dollari nel solo 2024 per costruire nuove infrastrutture. Nel secondo trimestre dell’anno il 40% della crescita del PIL americano è stato innescato proprio dagli investimenti in data center e infrastrutture per l’intelligenza artificiale.
L’Europa ospita il 32% dei data center mondiali, con l’Italia al terzo posto nell’Unione Europea dopo Germania e Francia. Nel nostro Paese se ne contano 198, concentrati soprattutto in Lombardia. Anche se i numeri europei sono inferiori a quelli americani, la crescita procede a ritmi sostenuti. Le previsioni indicano che la domanda continuerà ad aumentare, trainata non solo dall’AI ma anche dalla digitalizzazione delle aziende e dall’Internet delle cose.
La fame energetica dell’intelligenza artificiale
Non tutti i centri di calcoli nascono uguali. La differenza principale tra i data center tradizionali e quelli progettati per l’intelligenza artificiale sta nel consumo energetico. Un centro per AI consuma da 10 a 20 volte più energia di uno tradizionale, principalmente per alimentare processori specializzati e sistemi di raffreddamento.
Per capire le dimensioni del fenomeno basta un esempio: nello stato americano del Wyoming stanno progettando un data center che da solo consumerà più elettricità di tutte le case dello stato messe insieme. Questa fame energetica richiede investimenti non solo in infrastrutture informatiche, ma anche in reti elettriche, sistemi di raffreddamento e fonti di energia rinnovabile.

Quanto è grosso un data center?
Va prima capita una cosa: come si misurano le dimensioni di un centro di calcolo. Come si fa a dire “quanto è grande”? Le misure utilizzate nel settore non hanno a che fare né con i metri quadri dell’impianto né con il numero di server o di processori e GPU, e neanche con la potenza di calcolo potenziale (calcolata in operazioni al secondo).
Invece, la misurazione della capacità di un data center avviene in gigawatt, che indicano la potenza elettrica massima consumata per far funzionare server, sistemi di archiviazione e raffreddamento. Per valutare l’efficienza si usa il PUE (Power Usage Effectiveness), un indice che divide la potenza totale consumata per quella effettivamente utilizzata dalle apparecchiature informatiche.
Un PUE ideale sarebbe 1, ma i valori medi attuali si attestano intorno a 1,8 (secondo le stime di Uptime Institute e McKinsey), il che significa che quasi la metà dell’energia (il 44%) serve al raffreddamento e ad altre funzioni ausiliarie. Un data center considerato di grandi dimensioni può consumare 3.000 kilowatt, quanto circa mille appartamenti.
Utilizzare il consumo energetico è una metrica molto utile anche perché permette di capire due cose importanti: quanto effettivamente venga usato e quanto sia efficiente un centro di calcolo.
Per questo abbiamo capito che ora il problema è che molti data center esistenti funzionano al 10-15% della loro capacità teorica massima. È proprio questo dato a sollevare interrogativi sull’effettiva necessità di costruirne di nuovi anziché ottimizzare quelli esistenti. Se lo chiedono ad esempio le principali società di consulenza e analisi di mercato: da McKinsey, a Uptime Institute, JLL, BCG, Cushman & Wakefield.
Inoltre, la carenza di chip specializzati per l’AI ha creato colli di bottiglia nella fornitura che permette di realizzare nuovi centri di calcolo, con il paradosso di strutture che rimangono parzialmente inutilizzate per mancanza di componenti. Se infine si guarda l’aspetto finanziario delle operazioni di creazione di nuovi centri di calcolo, si vede che gli investimenti stanno crescendo anche ricorrendo al debito, un segnale che ricorda le dinamiche delle bolle finanziarie del passato.
Un quarto di secolo di centri di calcolo
Anno | Capacità Datacenter Globale (GW) | Milestone Tecnologica |
---|---|---|
2000 | 12 | Dot-com crash, inizio virtualizzazione |
2005 | 21,4 | Espansione uso di internet, colocation, web-hosting |
2010 | 35 | Lancio AWS EC2 (cloud pubblico), cloud mainstream |
2015 | 55 | Adozione globale cloud/virtualizzazione, Open Compute Project |
2020 | 91 | AI, big data, hyperscale, cloud-first |
2025 | 114 | Diffusione AI generativa/LLM, liquid cooling, edge AI, SMR nucleari annunciati |
L’impatto ambientale preoccupa
Quanto pesano i centri di calcolo nel bilancio energetico del pianeta? Secondo tutte le stime degli analisti i data center consumano già il 3% dell’elettricità mondiale e sono responsabili del 2% delle emissioni globali di gas serra, un’impronta paragonabile a quella dell’intero settore dell’aviazione ma inferiore di un ordine di grandezza ai sistemi di trasporto (automobili, ferrovie, trasporti via mare).
L’espansione legata all’AI rischia di vanificare gli obiettivi climatici europei se l’energia aggiuntiva dovesse provenire da fonti fossili. Non è solo questione di elettricità: come abbiamo già visto, un singolo data center da 100 megawatt può consumare fino a 2 milioni di litri d’acqua al giorno per il raffreddamento. Gli impianti sono a circuito chiuso nel senso che non utilizzano l’acqua prelevata direttamente da fonti esterne, ma comunque c’è un ciclo di gestione e di scarico che porta al consumo di acqua fresca.
Per questo motivo città come Dublino, Amsterdam e Singapore (dove ci sono forti concentrazioni di centri di calcolo) hanno imposto moratorie sulla costruzione di nuovi centri proprio per tutelare le risorse locali.
Il settore sta reagendo investendo in energie rinnovabili e tecnologie di raffreddamento più efficienti. Aziende come Microsoft e Google hanno annunciato accordi per alimentare i loro data center con energia nucleare, mentre altre stanno sperimentando sistemi di raffreddamento a immersione liquida. Alcuni addirittura sott’acqua. Tuttavia, la crescita della domanda potrebbe vanificare questi sforzi se non accompagnata da una pianificazione energetica più integrata.
Infine, non bisogna dimenticare che i data center sono anche vulnerabili ai cambiamenti climatici: ondate di calore, alluvioni e interruzioni della rete elettrica possono causare blackout con conseguenze economiche rilevanti.
Il mercato dice che non bastano
Nonostante i timori di sovraccapacità, il tasso di occupazione dei data center racconta una storia diversa. Il vacancy rate globale è sceso al 2,8%, secondo Data Center Frontier e JLL, un record negativo che indica scarsità piuttosto che eccesso di offerta. Molte strutture trovano acquirenti prima ancora di essere completate, segno di una domanda che continua a superare l’offerta.
McKinsey stima che entro il 2030 gli Stati Uniti potrebbero trovarsi con un deficit di 15 gigawatt di capacità se i ritmi di costruzione non accelerassero ulteriormente. In alcune zone degli Stati Uniti il costo della corrente elettrica sta aumentando vertiginosamente perché la domanda (spinta dai data center) supera l’offerta. La ricaduta sulle famiglie è molto forte.
Le grandi aziende tecnologiche stanno già spostando i loro investimenti verso mercati con maggiore disponibilità di energia e terreni. La migrazione non rappresenta un abbandono del settore, ma una ricerca di condizioni più favorevoli per espandere la capacità. Hyperscaler come Amazon e Microsoft hanno lamentato limiti di capacità che avrebbero impatti negativi sui loro servizi cloud. Il paradosso è che mentre alcuni analisti parlano di bolla, le aziende del settore faticano a tenere il passo con una domanda in continua crescita.

Tra necessità e speculazione
La questione centrale non è se i data center siano necessari, ma se il ritmo attuale di costruzione sia sostenibile dal punto di vista ambientale ed economico. L’intelligenza artificiale rappresenta una discontinuità tecnologica che giustifica investimenti massicci, ma la storia insegna che le rivoluzioni digitali spesso generano prima bolle speculative e poi correzioni di mercato. La sfida a questo punto è distinguere tra domanda genuina e speculazione finanziaria, bilanciando la necessità di innovazione con la sostenibilità ambientale e la stabilità economica.
La risposta, secondo un numero crescente di esperti, probabilmente sta in una pianificazione più attenta che privilegi l’efficienza rispetto alla quantità. Ottimizzare i data center esistenti, investire in tecnologie di raffreddamento avanzate e coordinarsi con le reti elettriche locali potrebbe essere più efficace di una corsa sfrenata alla costruzione.
Il futuro dei data center dipenderà dalla capacità di conciliare l’appetito per l’innovazione con la responsabilità verso l’ambiente e le comunità locali, cercando di contenere le speculazioni di chi invece vede in questo mercato un’opportunità per fare molti soldi molto velocemente, sulla spinta della forte domanda di calcolo generata dall’innovazione dell’AI. Altrimenti sarà solo una nuova corsa all’oro in cui cercheranno di arricchirsi soprattutto i più spregiudicati.
Alcune fonti di questo articolo:
- https://www.visualcapitalist.com/charted-the-growth-of-global-data-center-capacity-2005-2025/
- https://www.jll.com/en-us/insights/market-outlook/data-center-outlook
- https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/the-cost-of-compute-a-7-trillion-dollar-race-to-scale-data-centers
- https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/ai-power-expanding-data-center-capacity-to-meet-growing-demand
- https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025
- https://www.linkedin.com/pulse/ai-data-centers-2025-gold-rush-market-qdzbc
- https://dataxconnect.com/insights-2025-global-data-center-market-comparison-key-takeaways/
- https://www.cnbc.com/2025/04/27/ai-data-center-boom-isnt-going-bust-but-the-pause-is-trending.html
- https://uptimeinstitute.com/resources/research-and-reports/five-data-center-predictions-for-2025
- https://www.bcg.com/publications/2025/breaking-barriers-data-center-growth