ASUS revoluciona la IA generativa con sus soluciones basadas en NVIDIA Blackwell

ASUS revoluciona la IA generativa con sus soluciones basadas en NVIDIA Blackwell

ASUS ha participado en la Cumbre Global OCP 2024, que se celebró del 15 al 17 de octubre en el Centro de Convenciones de San José, en el stand #A31. Con casi tres décadas de experiencia en la industria de servidores, ASUS ha forjado una sólida trayectoria en colaboración con proveedores de servicios en la nube. Sobre esta base, ASUS ha desarrollado una amplia gama de servidores especializados en inteligencia artificial (IA), que fueron presentados en la cumbre, afianzando su compromiso con el avance de la IA y las tecnologías para centros de datos.

Innovación en IA con la plataforma NVIDIA Blackwell

En su camino para seguir impulsando la innovación en IA, ASUS ha expuesto sus soluciones construidas sobre la plataforma NVIDIA Blackwell, diseñada para casos de uso avanzados como la IA generativa, que inauguran una nueva era de rendimiento para los centros de datos.

Uno de los productos emblema es el ASUS ESC AI POD, una solución de rack innovadora, equipada con el sistema NVIDIA GB200 NVL72, que integra 36 CPUs NVIDIA Grace y 72 GPUs NVIDIA Blackwell. Todo ello en un solo dominio NVIDIA NVLink a escala de rack, funcionando como una GPU masiva. El ESC AI POD brinda opciones de refrigeración combinadas líquido-aire y líquido-líquido, y optimizadas para una eficiencia energética máxima, desde racks individuales hasta grandes centros de datos. Esta solución está diseñada para acelerar la inferencia de grandes modelos de lenguaje (LLM), facilitando un rendimiento en tiempo real para aplicaciones que demandan enormes recursos computacionales, como los modelos de lenguaje con billones de parámetros. Asimismo, incluye soluciones de software exclusivas de ASUS, junto con metodologías de verificación de sistemas y estrategias de despliegue remoto que permiten escalar o reducir el tamaño de los centros de datos con facilidad.

Otro lanzamiento clave es el ASUS ESC NM2-E1, un servidor 2U basado en la plataforma NVIDIA GB200 NVL2. Está diseñado para IA generativa y computación de alto rendimiento (HPC). Un equipo que ofrece una comunicación de alto ancho de banda, optimizado para toda la pila de software NVIDIA, proporcionando una plataforma poderosa para desarrolladores e investigadores que buscan nuevas formas de impulsar la innovación en IA.

Mejora del rendimiento de IA con la arquitectura NVIDIA MGX y GPUs NVIDIA H200 Tensor Core

ASUS también ha presentado su servidor ASUS 8000A-E13P, un modelo 4U que admite hasta ocho GPUs NVIDIA H200 Tensor Core. Este servidor, completamente compatible con la arquitectura NVIDIA MGX, está diseñado para implementaciones rápidas en infraestructuras de IA a gran escala. Con una configuración que contiene la topología NVIDIA 2-8-5 (CPU-GPU-DPU/NIC) y cuatro SuperNIC ConnectX-7 o BlueField-3 de gran ancho de banda, que mejora significativamente el tráfico de datos entre nodos (tráfico este-oeste) así como el rendimiento general del sistema.

Sesión destacada en la Cumbre Global OCP 2024: Arquitectura modular para centros de datos

La sesión especial de ASUS en la Cumbre Global OCP 2024, celebrada el 16 de octubre, de 10:20 a 10:35 ha tenido una notable repercusión. Durante esta charla, ASUS presentó el Sistema de Hardware Modular para Centros de Datos (DC-MHS) desarrollado por OCP que emplea la arquitectura modular de NVIDIA MGX. Además, se exploró cómo esta arquitectura está revolucionando el diseño de servidores, brindando flexibilidad, con un mantenimiento simplificado y una escalabilidad eficiente, características clave para los centros de datos modernos.

Sobre el autor