
La compañía china posiciona este sistema como su mayor apuesta para competir directamente con las plataformas Rubin de NVIDIA, previstas para finales de 2026. El Atlas 950 integra 524.288 unidades de procesamiento neuronal Ascend 950DT, distribuidas en más de 10.240 armarios, lo que marca un salto masivo respecto a generaciones anteriores.
Arquitectura y rendimiento
El diseño del Atlas 950 SuperCluster se compone de 64 Atlas SuperPoDs, cada uno con 8.192 chips Ascend 950DT. Esto supone 20 veces más unidades de procesamiento que los anteriores Atlas 900 A3.
Cada SuperPoD ofrece 8 FP8 ExaFLOPS, superando ampliamente a soluciones rivales como la NVIDIA Vera Rubin NVL144, que alcanza 1,2 FP8 ExaFLOPS. Además, el sistema soporta tanto RoCE como el protocolo propietario de Huawei UBoE (UnifiedBus over Ethernet), junto a una interconexión óptica de 16 PB/s de ancho de banda y una latencia de 2,1 microsegundos.
Comparativa con competidores
El Atlas 950 no solo mejora a Oracle con su OCI Supercluster, basado en 131.072 GPUs B200 (2,4 FP4 ZettaFLOPS), sino que también supera al Colossus de xAI, ofreciendo 2,5 veces más NPUs y 1,3 veces mayor capacidad de cómputo.
Huawei plantea este diseño para soportar modelos de IA de cientos de miles de millones a decenas de billones de parámetros, cubriendo las necesidades de entrenamiento más exigentes en la industria.
Escala física y despliegue futuro
Cada Atlas SuperPoD ocupa unos 1.000 metros cuadrados, equivalentes a dos canchas de baloncesto, y requiere 160 armarios. En total, el Atlas 950 SuperCluster se extiende por 64.000 metros cuadrados, una superficie similar a 150 canchas de baloncesto o nueve campos de fútbol.
La estrategia de Huawei pasa por usar un mayor número de aceleradores en lugar de chips más potentes individualmente, lo que conlleva más necesidades de energía, refrigeración y soporte.
El lanzamiento oficial del Atlas 950 SuperCluster está previsto para finales de 2026, mientras que el futuro Atlas 960 SuperCluster debutará un año después, superando el millón de NPUs y ofreciendo entre 2 y 4 ZettaFLOPS de potencia.
Con este anuncio, Huawei busca consolidarse como uno de los actores clave en la carrera por la computación a exaescala en el ámbito de la inteligencia artificial.
Vía: NotebookCheck