Liquid Cooling
L’evoluzione del Data Center: potenza, raffreddamento e sostenibilità verso il 2030
Anno: 2025
Entro il 2030, lo sviluppo delle infrastrutture fisiche sarà trainato dall’innovazione nella generazione, distribuzione e gestione termica dell’energia.
Crescita fisica e potenza ai massimi livelli
Secondo l’analisi Cloud and Data Center di Omdia (2025), l’infrastruttura IT continuerà a rappresentare la voce di costo principale nei data center. La crescente domanda di capacità di calcolo rende infatti indispensabili investimenti costanti in nuove tecnologie hardware e di gestione energetica.
I progetti di AI computing su scala rack stanno spingendo la densità di potenza per rack a livelli mai raggiunti, rendendo obsolete le tecnologie tradizionali di alimentazione e raffreddamento.
Le esigenze di calcolo e memoria in costante aumento stanno trasformando i sistemi rack (dati in aggiornamento costante):
- 120 kW nel 2025
- 240 kW nel 2026
- fino a 600 kW nel 2027
Il raffreddamento diventa una priorità strategica
Il raffreddamento non è più solo una questione tecnica, ma una leva strategica. Entro il 2030, la distribuzione elettrica del Data Center sarà riprogettata con un innalzamento della tensione dagli attuali 400 volt a sistemi a 800 volt.
Mantenere temperature stabili è essenziale per garantire la continuità operativa e la sicurezza dei dati, per questo l’innovazione nel raffreddamento a liquido crescerà rapidamente insieme alla diffusione dei nuovi data center.
Sempre secondo l’analisi Cloud and Data Center di Omdia (2025), a differenza dei sistemi di condizionamento tradizionali, i sistemi di raffreddamento AI potranno utilizzare algoritmi intelligenti capaci di adattare dinamicamente la strategia di raffreddamento in base a dati in tempo reale — come carico di lavoro, temperatura ambientale e condizioni operative — migliorando così l’efficienza e riducendo il consumo energetico.
Direct-to-Chip: la tecnologia di riferimento
Nel breve termine, la tecnologia Direct-to-Chip Liquid Cooling sarà la principale soluzione di raffreddamento a liquido.
Questo sistema asporta il calore direttamente a livello del chip, grazie a un “cold plate” attraversato da liquido PG25. Sono presenti due versioni di funzionamento: monofase o bifase.
Un’alternativa è l’Immersion Liquid Cooling, che immerge l’intero server in un liquido dielettrico. Anche questa può lavorare in modalità monofase o bifase, a seconda della tipologia di dissipazione del calore.
Il raffreddamento a liquido, soprattutto Direct-to-Chip, è destinato a diventare dominante grazie a tre fattori chiave:
- alta conducibilità termica,
- compatibilità con ambienti di calcolo ad alta densità,
- riduzione dei costi operativi.
Tuttavia, non può rappresentare una soluzione unica e definitiva.
Soluzioni ibride: l’unione tra aria e acqua
I sistemi di raffreddamento a liquido garantiscono maggior efficienza termica e minore consumo energetico, anche con microprocessori sempre più potenti. Ma non eliminano del tutto il problema: circa il 10–20% del calore viene comunque disperso nell’aria.
Per questo motivo è necessario ricorrere a soluzioni ibride, che combinano in modo coordinato raffreddamento ad aria e a liquido per i server, in versione Direct-to-Chip.
L’obiettivo è sfruttare la sinergia tra aria e acqua per ridurre al minimo le inefficienze e garantire la massima continuità operativa dei data center.
Le tecnologie per l’efficienza termica del DC
Le Coolant Distribution Units (CDUs) sono componenti fondamentali nei sistemi di raffreddamento a liquido, che assicurano la distribuzione e circolazione ottimale del liquido refrigerante, mantenendo le temperature ideali dei componenti.

Parallelamente a CDU, HiRef propone soluzioni complementari per il Data Center:
- Rear Door Units: sistemi di climatizzazione attivi o passivi che dissipano il calore dei server direttamente sul retro dei rack;
- Dry Coolers: unità esterne abbinabili a sistemi interni a condensazione ad acqua, per sfruttare al meglio il free cooling e che sono progettate per funzionare con miscele acqua-glicole fino al 60%.
Altro elemento chiave è HiNode, un sistema di gestione e supervisione che permette di monitorare e controllare tutti i componenti del sistema di raffreddamento, garantendo un funzionamento efficiente e integrato.
I sistemi di recupero del calore — che trasformano l’energia termica di scarto dei data center in fonte di riscaldamento per gli edifici — diventeranno sempre più diffusi.