Intel ha redefinido su estrategia dentro del mercado de inteligencia artificial, optando finalmente por una colaboración estratégica con SambaNova Systems en lugar de una adquisición completa. Lo que inicialmente se interpretó como un posible movimiento para acelerar su presencia en la IA de inferencia ha terminado convirtiéndose en una inversión directa dentro de la nueva ronda de financiación de la compañía, señalando un enfoque más gradual para recuperar terreno frente a sus competidores.
El acuerdo contempla el despliegue de infraestructura basada en procesadores Intel Xeon, combinada con soluciones de inferencia que integrarán tecnologías de ambas empresas. Según Intel, esta colaboración complementa su hoja de ruta actual en centros de datos, donde continúa desarrollando GPU, arquitectura de sistemas y software orientados a cargas de trabajo de IA desde el edge hasta la nube.
Centros de datos heterogéneos como eje de la nueva estrategia
Ambas compañías pretenden construir una nueva generación de centros de datos de IA heterogéneos, combinando CPU Xeon, aceleradores gráficos de Intel, redes de alta velocidad y los sistemas especializados de SambaNova. El objetivo es posicionarse dentro del creciente mercado de inferencia a escala empresarial, considerado actualmente uno de los segmentos con mayor potencial económico dentro del sector de IA.
Este movimiento refleja un cambio estratégico relevante: Intel busca competir no solo mediante potencia bruta de silicio de GPU, sino mediante plataformas completas capaces de integrar distintos tipos de aceleradores según la carga de trabajo. La apuesta por arquitecturas heterogéneas responde a una tendencia clara del mercado, donde la eficiencia energética y el coste por inferencia empiezan a pesar más que el rendimiento puro en entrenamiento de modelos.
RDUs de SambaNova: hardware diseñado para ejecutar redes neuronales completas
El núcleo tecnológico de SambaNova reside en sus unidades Reconfigurable Data Unit (RDU), aceleradores diseñados para mapear grafos completos de redes neuronales directamente en hardware. Este enfoque reduce la necesidad de fragmentar procesos entre múltiples unidades de cálculo, mejorando la eficiencia del movimiento de datos y reduciendo la latencia en escenarios de inferencia complejos.
La compañía presentó recientemente el chip SN50, afirmando lograr costes hasta tres veces inferiores frente a GPUs tradicionales en cargas de trabajo de IA agentiva, además de ofrecer hasta cinco veces más capacidad de computación por acelerador respecto a su generación anterior. Este tipo de arquitectura especializada sigue una línea similar a la explorada por nuevos actores del sector centrados exclusivamente en inferencia.
Inversión estratégica y señales internas dentro de Intel
SambaNova está recaudando aproximadamente 350 millones de dólares en su ronda Series E, respaldada por inversores como SoftBank e Intel Capital. Un detalle relevante es que el actual CEO de Intel, Lip-Bu Tan, ya figuraba entre los inversores tempranos de la empresa a través de Walden Capital, lo que refuerza la confianza interna en el potencial tecnológico de la compañía.
La doble vinculación financiera sugiere que Intel considera a SambaNova una pieza clave dentro del ecosistema emergente de infraestructura de inferencia, aunque sin asumir el riesgo operativo de una integración completa mediante adquisición.
Inferencia: el frente decisivo para Intel en la carrera de la IA
Tras perder impulso en el auge inicial del entrenamiento de modelos frente a NVIDIA, Intel intenta ahora posicionarse en la siguiente fase del mercado: la inferencia a gran escala. La compañía ya ha insinuado que integrará tecnologías de SambaNova en cargas específicas, creando configuraciones híbridas que combinen CPU, GPU y aceleradores especializados dentro de un mismo entorno operativo.
El calendario de estas soluciones sigue siendo incierto, pero el margen de error es cada vez menor. Si Intel vuelve a quedarse atrás en el segmento de inferencia, el impacto competitivo podría ser significativo en un mercado donde la ventaja ya no depende únicamente del hardware más potente, sino de quién logra construir el ecosistema de infraestructura de IA más eficiente y escalable.
Vía: Wccftech










