Canonical oficializa Ubuntu para la plataforma NVIDIA Rubin y acelera el salto hacia las “fábricas” de Inteligencia Artificial

CES 2026 (Las Vegas). Canonical, la empresa detrás de Ubuntu, ha anunciado soporte oficial para la plataforma NVIDIA Rubin —incluidos los sistemas “rack-scale” NVIDIA Vera Rubin NVL72— y su colaboración para distribuir las nuevas versiones de los modelos abiertos NVIDIA Nemotron-3. El movimiento no es menor: cuando los proyectos de Inteligencia Artificial (IA) dejan de ser pruebas de concepto y se convierten en infraestructuras masivas, el sistema operativo pasa de ser “un requisito” a convertirse en la capa que determina estabilidad, rendimiento, seguridad y repetibilidad en producción.

Según Canonical, Ubuntu se posiciona como el “sustrato” que unifica CPU, GPU y DPU dentro de un entorno coherente de ejecución: NVIDIA Vera CPU, NVIDIA Rubin GPU y NVIDIA BlueField-4 DPU bajo una misma base operativa. Ese enfoque pretende reducir fricción en el camino “de desarrollo a producción”, especialmente en despliegues empresariales y en escenarios de nube privada o soberana, donde el control del stack y la trazabilidad de la seguridad son parte del producto.

“Democratizar la IA” con una base que ya usan las empresas

En el anuncio, NVIDIA y Canonical enmarcan el acuerdo como una respuesta práctica al problema de siempre: el salto desde el laboratorio al centro de datos suele ser caro, lento y lleno de incompatibilidades. Justin Boitano, vicepresidente de productos de IA empresarial en NVIDIA, defendió que la “democratización” de la IA exige algo más que silicio potente: necesita un entorno seguro y sin fricción desde nube hasta edge. Del lado de Canonical, Cindy Goldberg (VP Cloud and Silicon Partnerships) subrayó que la colaboración busca facilitar la construcción de cloud privado o soberano y de nuevas aplicaciones “inteligentes” sobre una base “segura y de confianza”.

El mensaje de fondo es claro: si Rubin aspira a ser la siguiente plataforma de referencia para IA a gran escala, Ubuntu quiere ser el sistema operativo “de facto” en ese tipo de despliegues.

Arm como ciudadano de primera en Ubuntu 26.04: virtualización anidada y control de recursos

Uno de los puntos más técnicos del anuncio gira en torno a Ubuntu 26.04 y el papel de Arm en la arquitectura Vera Rubin. Canonical afirma que, en esta versión, Arm pasa a ser “first-class citizen” con paridad de rendimiento frente a x86, y que está integrando funciones upstream críticas como:

  • Nested Virtualization (virtualización anidada).
  • MPAM (Memory System Resource Partitioning and Monitoring), para particionar ancho de banda de memoria y caché a nivel hardware, algo especialmente relevante en entornos multi-tenant donde la previsibilidad del rendimiento es un requisito contractual.

Además, Canonical indica que reforzará esta base con soporte nativo Arm en OpenStack Sunbeam y Apache Spark, apuntando a que equipos de datos puedan ejecutar pipelines completos sobre silicio Arm sin “parches” ni soluciones a medias.

Mission Control: el sistema operativo también opera el centro de datos

Otro detalle relevante: Canonical sitúa Ubuntu como host OS de NVIDIA Mission Control, el software orientado a acelerar tareas de operación de infraestructura, desde la configuración e integración del despliegue con instalaciones hasta la gestión de clústeres y cargas de trabajo. En la práctica, el anuncio sugiere que Rubin no se vende solo como computación, sino como una plataforma operable (y “operada”) de forma consistente.

Inference snaps: empaquetar modelos (y dependencias) como si fueran “infraestructura”

Canonical también pone foco en un dolor muy real para cualquier equipo de IA: dependencias, conflictos de versiones y entornos difíciles de reproducir al desplegar LLMs. Para atacar ese problema, presenta los inference snaps, un formato de empaquetado que permite instalar modelos optimizados para el hardware con un solo comando, en un entorno inmutable y autocontenido (librerías, runtimes y todo lo necesario). En paralelo, Canonical confirma que trabajará con NVIDIA para empaquetar y distribuir la familia NVIDIA Nemotron-3, empezando por los modelos Nano.

En un mercado donde el tiempo de despliegue importa tanto como el benchmark, la idea es sencilla: menos “artesanía” de dependencias y más repetibilidad, algo clave cuando una organización quiere estandarizar despliegues de inferencia en decenas o cientos de nodos.

BlueField-4, DOCA y GPUDirect Storage: el cuello de botella ya no es solo la GPU

Rubin no vive únicamente de la GPU. En IA a gran escala, el rendimiento se hunde si el pipeline de datos no acompaña. Canonical “re-apuesta” por NVIDIA BlueField-4 como pieza de red y seguridad para escalar fábricas de IA, y remarca su papel como base para NVIDIA DOCA, descargando tareas de red, almacenamiento y seguridad desde CPU a DPU.

En cifras, NVIDIA enmarca BlueField-4 como una evolución para infraestructuras “gigascale” con 800 Gb/s de throughput y una combinación de Grace CPU + ConnectX-9, además de una capa de microservicios DOCA pensada para acelerar almacenamiento, red y seguridad en entornos multi-tenant.

En almacenamiento, Canonical apunta a optimizaciones junto a partners para exprimir GPUDirect Storage con BlueField-4: el objetivo es mejorar el acceso de alta velocidad entre NVMe y memoria de GPU, evitando cuellos de botella cuando los datasets (y los contextos de inferencia) crecen.

Por qué importa: la guerra ya no es “solo” de chips, es de plataformas

El trasfondo de este anuncio es el mismo que recorre CES 2026: el mercado está pasando de “comprar aceleradores” a construir plataformas de IA completas (hardware + red + almacenamiento + software + operación). En ese tablero, Rubin se presenta como un sistema “rack-scale” y NVIDIA lo acompaña de un ecosistema que incluye NVLink de nueva generación y redes a gran escala para sostener el crecimiento de entrenamiento e inferencia.

Para Canonical, entrar como soporte oficial en ese stack equivale a asegurarse un sitio en las próximas grandes compras de infraestructura IA, especialmente donde hay requisitos de soberanía, cumplimiento y estandarización del entorno.

Canonical remata el anuncio invitando a conocer la colaboración en el CES (booth #10562, LVCC North Hall), una señal de que, además de tecnología, esto también va de “go-to-market”: convencer a la empresa de que la IA industrial se construye con plataformas completas, no con piezas sueltas.


Preguntas frecuentes

¿Qué significa que Ubuntu tenga “soporte oficial” para NVIDIA Rubin?
Que Canonical valida y mantiene compatibilidad para que Ubuntu funcione como base estable en sistemas Rubin (CPU, GPU y DPU), reduciendo riesgos de integración y facilitando despliegues empresariales.

¿Qué ventaja aporta MPAM en infraestructuras multi-tenant de IA?
Permite particionar y monitorizar recursos de memoria y caché a nivel hardware, mejorando la previsibilidad del rendimiento cuando varios equipos o clientes comparten la misma plataforma.

¿Qué son los “inference snaps” y por qué importan en producción?
Son paquetes autocontenidos e inmutables que simplifican el despliegue de modelos y dependencias, reduciendo conflictos de versiones y mejorando la reproducibilidad en entornos reales.

¿Por qué BlueField-4 y GPUDirect Storage son clave en IA a gran escala?
Porque el rendimiento no depende solo de la GPU: mover datos desde almacenamiento a memoria de GPU sin cuellos de botella es crítico para sostener altas tasas de inferencia y entrenamientos más eficientes.

Suscríbete al boletín SysAdmin

Este es tu recurso para las últimas noticias y consejos sobre administración de sistemas, Linux, Windows, cloud computing, seguridad de la nube, etc. Lo enviamos 2 días a la semana.

¡Apúntate a nuestro newsletter!


– patrocinadores –

Noticias destacadas

– patrocinadores –

¡SUSCRÍBETE AL BOLETÍN
DE LOS SYSADMINS!

Scroll al inicio
×