NVIDIA ha presentado su nueva plataforma Rubin, una arquitectura diseñada para transformar los centros de datos en “fábricas de IA” capaces de entrenar e inferir modelos complejos de forma continua y eficiente. El enfoque de Rubin es extremo co-diseño: no se trata solo de GPUs más potentes, sino de integrar CPU, GPU, redes, seguridad, refrigeración y energía como un único sistema que opera de manera coherente a escala de rack en un centro de datos. En lugar de optimizar componentes aislados, Rubin considera el rack completo como unidad de computación, lo que permite un rendimiento sostenido y menor costo por token —una métrica crítica para IA industrial.
🧱 Los seis chips que componen la plataforma
La plataforma Rubin se construye sobre seis nuevos chips, cada uno con un papel esencial:
Vera CPU: CPU de alto ancho de banda con 88 núcleos diseñados para mover datos y coordinar el flujo de trabajo eficiente entre CPU y GPU.
Rubin GPU: GPU con memoria HBM4 y un “Transformer Engine” optimizado para entrenamiento e inferencia de IA moderna.
NVLink 6 Switch: Interconexión de sexta generación que ofrece alta velocidad de comunicación GPU-GPU en el mismo rack.
ConnectX-9 SuperNIC: Red de alta velocidad para conectar nodos dentro del rack o entre racks.
BlueField-4 DPU: Unidad de procesamiento de datos para ofload de tareas de infraestructura y seguridad.
Spectrum-6 Ethernet Switch: Switch Ethernet de alto rendimiento para interconexiones masivas.
🚀 Qué ofrece Rubin
Permite mayor rendimiento sostenido en cargas de IA continuas, no solo picos aislados.
Optimiza energía, comunicaciones y refrigeración para mantener operaciones intensivas estables.
Reduce el costo por token en inferencia y entrenamiento comparado con generaciones anteriores de sistemas.
