
Intel ha presentado sus últimos resultados en MLPerf Inference v5.1, demostrando el potencial de sus sistemas GPU basados en Intel Xeon con P-cores y gráficas Intel Arc Pro B60, conocidos bajo el nombre en clave Project Battlematrix. Estos benchmarks comparan seis cargas clave de trabajo de inferencia en IA, incluyendo Llama 8B, donde la compañía afirma ventajas de hasta 1,25x frente a NVIDIA RTX Pro 6000 y hasta 4x frente a NVIDIA L40S, en términos de rendimiento por dólar.
Project Battlematrix: una plataforma IA “todo en uno”
Los nuevos sistemas de inferencia Intel GPU están diseñados para cubrir las necesidades de IA en estaciones de trabajo avanzadas y aplicaciones edge, combinando hardware y software validados de extremo a extremo. La propuesta incluye un stack optimizado para inferencia y una solución contenerizada para Linux, capaz de escalar mediante multi-GPU y transferencias PCIe P2P, con características de nivel empresarial como ECC, SR-IOV, telemetría y actualizaciones remotas de firmware.
Según Lisa Pearce, vicepresidenta corporativa de Intel: “Los resultados de MLPerf v5.1 validan nuestra estrategia GPU e IA. Las Arc Pro B-Series junto a un software optimizado simplifican el despliegue de aplicaciones de IA en estaciones de inferencia potentes, accesibles y escalables.”
CPU Xeon: el pilar de la orquestación en IA
Aunque las GPU lideran en inferencia, los procesadores Intel Xeon siguen siendo esenciales como núcleo de orquestación: se encargan del preprocesamiento, transmisión y coordinación del sistema. La compañía destaca que Xeon 6 con P-cores ha logrado un 1,9x de mejora intergeneracional en MLPerf Inference v5.1.
Intel subraya que es el único fabricante que sigue presentando resultados de CPU para servidores en MLPerf, reforzando su liderazgo y compromiso en acelerar la IA tanto en arquitecturas de cómputo como en aceleradores.
Con Project Battlematrix, Intel busca posicionarse como alternativa sólida a las soluciones propietarias, ofreciendo una plataforma completa, con alto rendimiento, costes más accesibles y mayor privacidad de datos para profesionales y empresas que trabajan con modelos de lenguaje de gran tamaño (LLMs).
Vía: TechPowerUp