En plena revolución de la inteligencia artificial y con un crecimiento imparable del consumo de datos, los centros de datos se enfrentan a uno de los mayores retos de su historia: la gestión térmica. Para mantener operativos los millones de servidores que alimentan la nube, procesan algoritmos de IA y dan soporte a servicios globales, es necesario disipar el calor generado por sus componentes, algo que ya representa una parte significativa del consumo energético total de estos centros.
Según un estudio publicado en Science, los centros de datos del mundo consumen aproximadamente 205 teravatios hora (TWh) al año, lo que equivale a más del 1% del consumo eléctrico global. Y en muchas instalaciones, entre el 30% y el 50% de esa energía se destina exclusivamente a refrigeración.
¿La solución? Sumergir los servidores
Frente a los límites de los sistemas tradicionales de refrigeración por aire, la industria está apostando cada vez más por tecnologías de inmersión líquida. Este sistema consiste en sumergir directamente los componentes electrónicos —placas base, CPUs, GPUs, memorias, etc.— en un fluido dieléctrico no conductor que absorbe y disipa el calor de forma mucho más eficiente.
Existen dos variantes principales de esta tecnología: inmersión de una fase (single-phase), donde el fluido permanece en estado líquido y se enfría mediante intercambiadores de calor, e inmersión de dos fases (two-phase), donde el líquido se vaporiza con el calor y luego se condensa para ser reutilizado.
Ambos enfoques permiten reducir drásticamente la necesidad de ventiladores y sistemas de climatización tradicionales, eliminar los pasillos de aire frío/caliente, y operar racks con densidades mucho más altas, incluso superiores a los 100 kW por rack.
¿Por qué ahora?
La adopción de refrigeración por inmersión está siendo impulsada por varios factores:
- Aumento de la densidad energética: con la llegada de chips de alto rendimiento para IA y HPC (como las GPU de NVIDIA o los aceleradores de AMD, Intel o Google), las cargas térmicas por servidor se han multiplicado, superando los límites de la refrigeración por aire.
- Eficiencia energética: los sistemas por inmersión pueden reducir hasta un 95-99% del consumo energético asociado a la refrigeración. Esto se traduce en un PUE (Power Usage Effectiveness) mucho más bajo, incluso por debajo de 1,05.
- Reducción del uso de agua: frente a los sistemas de refrigeración evaporativa, la inmersión reduce o elimina por completo el uso de agua, algo cada vez más importante en zonas con estrés hídrico.
- Aprovechamiento del calor residual: al operar a temperaturas más altas y de forma más estable, el calor generado por los sistemas sumergidos es más fácil de reutilizar, por ejemplo, para calefacción urbana o procesos industriales.
Un reto arquitectónico
David Carrero Fernández-Baillo, cofundador de Stackscale (Grupo Aire) y experto en infraestructura cloud, advierte que “aunque la refrigeración por inmersión promete grandes ventajas, requiere repensar por completo cómo se construyen los centros de datos”.
“La mayoría de los data centers actuales están diseñados para racks de 42U, con pasillos fríos y calientes, suelos elevados y climatización centralizada. Integrar sistemas de inmersión exige rediseñar la disposición física, reforzar la estructura, y adaptar el mantenimiento y la logística”, explica.
Esto implica también nuevos retos en seguridad, formación de personal técnico, y estandarización de los equipos. Además, no todos los fabricantes de hardware ofrecen productos certificados para trabajar sumergidos, aunque esta situación está cambiando rápidamente.
Una tendencia global
Grandes operadores como Microsoft, Meta y algunos hyperscalers en Asia y Oriente Medio ya están realizando pruebas piloto o desplegando sistemas de inmersión en entornos de producción. En paralelo, diversas iniciativas europeas, como los programas Horizon y proyectos promovidos por la Comisión Europea, están financiando desarrollos en este ámbito.
El objetivo es claro: hacer frente al impacto ambiental y energético de una infraestructura digital que no deja de crecer. Según estimaciones de Uptime Institute y Green Grid, en 2030 el consumo eléctrico de los centros de datos podría duplicarse si no se adoptan medidas eficientes.
¿El futuro de la IA será líquido?
A medida que la inteligencia artificial exige más recursos computacionales, la eficiencia energética se convierte en un factor estratégico. Las GPU de última generación consumen cientos de vatios por chip, y los clústeres de entrenamiento de modelos como GPT de OpenAI, Deepseek, Gemini o Claude requieren salas enteras llenas de servidores. Mantenerlos fríos sin comprometer la sostenibilidad es ya una prioridad para los operadores.
Carrero resume así el desafío: “La refrigeración por inmersión no es solo una mejora técnica, es una necesidad. Pero su adopción masiva requerirá una evolución del ecosistema: desde el diseño físico de los centros hasta la estandarización del hardware. Es un camino inevitable si queremos que el crecimiento de la IA y del cloud sea compatible con la eficiencia energética y el respeto por el medio ambiente”.
Y como ya se está viendo en muchos proyectos punteros, ese camino comienza por sumergirse.
Referencia: Noticias cloud. Imagen de AI Free images.