En el marco del Generative AI Summit Silicon Valley 2025, Vishal Sarin, fundador y CEO de Sagence AI, abordó uno de los desafíos más apremiantes del ámbito de la inteligencia artificial generativa: la demanda de energía. Durante una entrevista con Tim Mitchell, líder de línea de negocio en el AI Accelerator Institute, Sarin destacó la urgencia de optimizar la eficiencia energética para que esta tecnología alcance su verdadero potencial.
Sarin expuso que, a pesar de las inmensas oportunidades que ofrece el AI generativo, se enfrenta a un cuello de botella significativo debido a los altos requerimientos energéticos. Según él, para que esta tecnología sea económicamente viable, es esencial liberar la innovación en eficiencia energética, lo que implica repensar la arquitectura de la inteligencia artificial desde los chips hasta los sistemas de refrigeración.
En su diálogo, se discutieron las áreas clave donde se pueden realizar mejoras significativas en el consumo energético a lo largo de la pila de IA. A pesar de que existen oportunidades en la generación y distribución de energía, el enfoque más crucial se encuentra en la computación y memoria, donde se gasta la mayor parte de la energía en la transferencia de datos. Sarin enfatizó que la implementación de la computación en memoria podría reducir tanto los costos como el consumo energético.
El concepto de computación en memoria, que busca integrar más estrechamente el proceso de cómputo con la memoria, se presenta como un cambio fundamental. Actualmente, las arquitecturas tradicionales tienden a separar estas funciones, lo que conlleva un alto consumo energético por el movimiento continuo de datos. Esta innovación promete mejorar la eficiencia energética de manera significativa, particularmente en las tareas de inferencia del AI generativo.
Sarin también abordó el papel de los aceleradores de hardware, como las GPU, que a pesar de ser fundamentales para el rendimiento, contribuyen al alto consumo energético. Para avanzar más allá de las limitaciones actuales, se requiere una combinación de las fortalezas de estos aceleradores con innovaciones arquitectónicas, como la computación en memoria. Además, mencionó que los modelos de lenguaje pequeños (SLMs) pueden ser parte de la solución, ya que ofrecen una alternativa más ligera que reduce la necesidad de infraestructuras masivas.
Otro aspecto crítico que Sarin destacó es la innovación en sistemas de refrigeración y energía. La infraestructura de alta densidad para IA genera una cantidad considerable de calor, y las soluciones tradicionales ya no son suficientes. Innovaciones como el enfriamiento líquido y sistemas de recuperación de energía son esenciales para mantener el consumo de energía bajo control.
Mirando hacia el futuro, Sarin expresó optimismo sobre la capacidad de la industria para afrontar estos desafíos. La alineación hacia la eficiencia y la sostenibilidad se ha convertido en una prioridad, lo que promete un futuro más viable para el AI generativo. La visión de Sarin es clara: romper las barreras de eficiencia energética no es una opción, sino una necesidad, y estas innovaciones determinarán si el AI generativo puede ofrecer un valor transformador a largo plazo.