OpenAI será el mayor cliente del chip de IA NVIDIA-Groq con 3 GW dedicados a inferencia

El sector de la infraestructura de inteligencia artificial continúa acelerando su expansión y una nueva información apunta a un movimiento estratégico clave entre OpenAI y NVIDIA. Según recientes informes, la compañía responsable de ChatGPT se convertirá en el mayor cliente del próximo sistema basado en chips NVIDIA-Groq, reservando hasta 3 GW de capacidad dedicada a inferencia, una cifra que refleja la creciente importancia del procesamiento de inferencia a gran escala dentro del ecosistema de IA moderna.

Este acuerdo no solo reforzaría la colaboración existente entre ambas compañías, sino que también marcaría un cambio relevante en la estrategia de OpenAI, que estaría priorizando optimización de inferencia, eficiencia energética en centros de datos y reducción de latencia en modelos de IA frente al enfoque tradicional centrado exclusivamente en entrenamiento.

OpenAI refuerza su apuesta por la inferencia dentro de la infraestructura de IA

OpenAI se encuentra actualmente inmersa en múltiples acuerdos de financiación e infraestructura con actores clave del sector tecnológico. La compañía ha asegurado recientemente alrededor de 110.000 millones de dólares en nuevo capital respaldado por empresas como NVIDIA, SoftBank y Amazon, inversiones destinadas a garantizar el acceso continuo a capacidad computacional de alto rendimiento necesaria para sostener el crecimiento de modelos de inteligencia artificial avanzados.

Un informe del Wall Street Journal indica que NVIDIA presentará durante el GTC 2026 una nueva solución orientada específicamente a inferencia basada en tecnología desarrollada junto a Groq. Dentro de este contexto, OpenAI habría comprometido el uso de 3 GW de capacidad de inferencia dedicada, probablemente ligada al hardware especializado en inferencia que será anunciado oficialmente durante el evento.

Informaciones previas señalaban que la inferencia se había convertido en uno de los principales desafíos para OpenAI, especialmente en cargas sensibles a latencia, procesamiento en tiempo real y eficiencia operativa en centros de datos, lo que explicaría la magnitud del acuerdo alcanzado.

Competencia con Cerebras y decisión final a favor de NVIDIA

Durante los últimos meses, OpenAI también habría mantenido conversaciones con empresas como Cerebras y la propia Groq, explorando alternativas capaces de ofrecer mejor rendimiento en workloads sensibles a latencia y ejecución eficiente de modelos. Sin embargo, las últimas filtraciones sugieren que la compañía finalmente continuará apostando por NVIDIA, lo que indicaría que la nueva solución basada en LPUs de Groq ofrece mejoras suficientes en rendimiento por vatio, eficiencia de inferencia y escalabilidad para justificar una reserva de capacidad a gran escala.

Según fuentes citadas por el WSJ, “OpenAI ha acordado convertirse en uno de los mayores clientes del nuevo procesador, representando una victoria significativa para NVIDIA”, destacando además que la empresa llevaba meses evaluando alternativas más eficientes de aceleración IA frente a generaciones anteriores de hardware.

Qué esperar del anuncio en el GTC 2026

Todo apunta a que la colaboración entre NVIDIA y Groq podría materializarse mediante una arquitectura híbrida de computación para inferencia, basada en bandejas de cómputo especializadas diseñadas para centros de datos de alta densidad energética. Este enfoque combinaría aceleradores optimizados para inferencia, infraestructura escalable y mejoras en la eficiencia térmica y energética del procesamiento IA.

Se espera que durante el GTC 2026 NVIDIA presente oficialmente avances relacionados con la arquitectura Vera Rubin, posibles detalles sobre la futura generación Feynman y, especialmente, la nueva plataforma enfocada en inferencia desarrollada junto a Groq, un movimiento que podría redefinir la escala operativa de la IA global y la evolución del sector de GPU y aceleradores de IA.

Vía: Wccftech

Sobre el autor