TMLink de Moore Threads escala hasta 10.000 GPUs propias en un clúster de inteligencia artificial

TMLink de Moore Threads escala hasta 10.000 GPUs propias en un clúster de inteligencia artificial

El fabricante chino de GPUs Moore Threads ha anunciado una importante actualización de su servidor para centros de datos KUAE. A partir de ahora, la firma podrá conectar hasta 10.000 GPUs en un mismo clúster, lo que representa un gran avance en su capacidad de escalabilidad para aplicaciones de inteligencia artificial y computación de alto rendimiento.

El mejorado servidor KUAE incorpora un total de hasta ocho GPUs MTT S4000, que sacan partido de la tecnología de interconexión MTLink patentada por Moore Threads. Basadas en la arquitectura MUSA, cada una de estas GPUs cuenta con 128 Tensor Cores y 48 GB de memoria GDDR6, proporcionando un ancho de banda de 768 GB/s.

Si bien no se han dado a conocer todos los parámetros de rendimiento de un cluster de 10.000 GPUs, la mera escala de 1.280.000 Tensor Cores deja entrever un potencial computacional digno de mención. En la actualidad, las GPUs de Moore Threads no están al mismo nivel de rendimiento que las GPUs de NVIDIA. La compañía afirma, sin embargo, que su MTT S4000 sigue siendo competitiva frente a determinados modelos de NVIDIA, sobre todo en tareas de aprendizaje e inferencia de modelos lingüísticos de gran tamaño.

Por su parte, la firma china se enfrenta a importantes obstáculos debido a su inclusión en la Lista de Entidades del Departamento de Comercio de Estados Unidos, que restringe el acceso a procesos de fabricación avanzados. Aun así, el fabricante ha conseguido asociarse con importantes operadores de telecomunicaciones y firmas tecnológicas estatales chinas, centrándose en el desarrollo de nuevos proyectos de clusters informáticos.

Moore Threads, gracias a una reciente ronda de financiación en la que ha recaudado aproximadamente 343,7 millones de dólares, contribuirá a sus ambiciosos planes de expansión. Ahora bien, el acceso restringido, en el futuro, a las tecnologías de fabricación de semiconductores más avanzadas podría limitar el crecimiento del fabricante.

En cualquier caso, la creación de una infraestructura de servidores escalable con hasta 10.000 GPUs resulta fundamental para el entrenamiento y la inferencia de LLM, sobre todo a medida que los laboratorios chinos de IA se aproximan a los occidentales en lo que respecta al rendimiento de sus modelos de IA.

Vía: TechPowerUp

Sobre el autor