Intel y AMD han publicado el documento técnico de ACE (AI Compute Extensions), la extensión para x86 diseñada para acelerar la multiplicación de matrices en cargas de IA. El proyecto forma parte de la iniciativa conjunta x86 Ecosystem Advisory Group (EAG), junto a FRED, AVX10 y ChkTag.
La publicación supone el primer detalle técnico completo sobre lo que ACE puede ofrecer. Ambas firmas lo describen como la arquitectura estándar de aceleración matricial para x86, un estándar compartido que pretende unificar el ecosistema frente a soluciones propietarias de otros fabricantes.
¿Por qué la multiplicación de matrices es el núcleo del problema?
La multiplicación de matrices es la operación fundamental de las redes neuronales y los modelos de lenguaje de gran tamaño. Su eficiencia determina directamente el rendimiento en inferencia y entrenamiento, y es el cuello de botella más frecuente en cargas de IA sobre hardware de propósito general.
Las extensiones SIMD actuales como AVX10 pueden realizar multiplicación de matrices, pero su densidad de cómputo y escalabilidad tienen límites claros. Técnicas de aceleración mejoran el rendimiento, pero no de forma eficiente ni escalable entre diferentes segmentos de hardware sin reescribir código específico para cada implementación.
ACE resuelve ese problema introduciendo aceleración matricial nativa que escala desde portátiles hasta superordenadores. La compatibilidad con las optimizaciones existentes de AVX10 reduce la fricción para los desarrolladores y evita reescribir código para cada implementación de hardware específica.
Densidad de cómputo 16 veces superior a AVX10
El dato más llamativo del documento técnico es la ventaja de densidad de cómputo de 16 veces que ofrece la operación de producto exterior de ACE frente a una operación equivalente de multiplicación-acumulación de AVX10, consumiendo el mismo número de vectores de entrada.
Esa diferencia permite ejecutar cargas de IA con mucha mayor eficiencia sobre el mismo silicio. Para un portátil o servidor x86 sin acelerador dedicado, la diferencia entre AVX10 puro y ACE puede determinar si una tarea de inferencia en tiempo real es viable o no.
ACE soporta de forma nativa los formatos de datos de IA más populares: INT8, OCP FP8, OCP MXFP8, OCP MXINT8 y BF16. La cobertura de estos formatos garantiza compatibilidad con los principales marcos de trabajo de aprendizaje automático sin conversiones adicionales que penalicen el rendimiento.
Integración con el ecosistema de software existente
La habilitación de software de ACE ya está en marcha. Las integraciones previstas cubren bibliotecas de aprendizaje profundo y computación de alto rendimiento, incluyendo primitivas de LLM y operaciones GEMM de baja precisión, así como NumPy, SciPy, PyTorch y TensorFlow.
Que la integración comience por PyTorch y TensorFlow no es casual: son las herramientas que usa la inmensa mayoría de desarrolladores de IA. Una extensión de ISA sin soporte en estos marcos desde el primer momento tiene adopción práctica muy limitada, independientemente de sus ventajas técnicas en papel.
La compatibilidad con AVX10 como base permite que el código existente pueda beneficiarse de ACE con modificaciones mínimas. Reduce la barrera de adopción para proyectos ya en producción que no pueden permitirse una reescritura completa de sus optimizaciones de bajo nivel.
ACE como respuesta estratégica al ecosistema propietario de NVIDIA
La publicación conjunta no es solo un avance técnico: es una señal de posicionamiento estratégico frente a NVIDIA y su ecosistema CUDA. Durante años, el desarrollo de IA en hardware de propósito general ha estado condicionado por la ventaja acumulada de CUDA en herramientas y optimizaciones.
ACE intenta construir una alternativa estandarizada que no dependa de un único fabricante. Si Intel y AMD consiguen que los principales marcos adopten ACE con la misma profundidad que CUDA, el argumento para elegir hardware x86 en cargas de IA mejora de forma sustancial.
El propio CEO de NVIDIA, Jensen Huang, reconoció que la alianza x86 entre Intel y AMD era necesaria para mantener la arquitectura viva. Es un reconocimiento indirecto de que x86 tiene un papel relevante en el ecosistema de IA, y que estándares como ACE fortalecen esa posición.
Lo que la hoja de ruta conjunta revela sobre el futuro de x86 en IA
Intel y AMD han confirmado que continúan cooperando en la hoja de ruta futura de ACE y AVX10, con el objetivo de cubrir nuevas oportunidades en IA y otros dominios. Es una señal de que la colaboración tiene vocación de largo plazo más allá de este documento técnico.
La escalabilidad de ACE desde portátiles hasta superordenadores es el argumento más poderoso para los desarrolladores. Una única base de código que funcione en toda la gama de hardware x86 reduce drásticamente los costes de desarrollo y mantenimiento frente a soluciones que requieren optimizaciones específicas por plataforma.
El éxito de ACE dependerá de la velocidad de adopción en el ecosistema de software y del rendimiento real en benchmarks independientes. Pero el respaldo de los dos principales fabricantes de procesadores x86 sitúa a ACE en una posición de partida más sólida que cualquier iniciativa similar de los últimos años.
Vía: Wccftech










