Google ha presentado dos aceleradores orientados a procesamiento de IA a gran escala, con el objetivo de reforzar su control sobre el silicio de TPU, reducir la dependencia de terceros y optimizar el coste total de propiedad en infraestructuras de alto rendimiento. La firma ha desvelado el TPUv8ax Sunfish, centrado en el entrenamiento de modelos multimodales, y el TPUv8x Zebrafish, diseñado para procesos de inferencia de altísimo volumen.
Este movimiento consolida la estrategia de Google de avanzar hacia un ecosistema propio de hardware especializado, con mejoras en ancho de banda, latencia, eficiencia energética y escalabilidad horizontal, factores críticos en los grandes despliegues empresariales.
TPUv8ax Sunfish: silicio optimizado para entrenamiento de modelos
La compañía ha presentado el TPUv8ax Sunfish como su acelerador principal para entrenamiento de modelos de IA, incluyendo sistemas multimodales como Gemini. Para este desarrollo, Google ha colaborado con Broadcom, que se ha encargado del empaquetado, los controladores de memoria, la interconexión de alta velocidad y otros componentes auxiliares necesarios para su integración en servidores dedicados.
Aunque Google no ha revelado cifras exactas, se espera un salto notable respecto al TPUv7 Ironwood, que ofrecía 4.614 TeraFLOPS en FP8 y 192 GB de HBM por módulo. El nuevo silicio de TPU prioriza la comunicación entre nodos, la reducción de latencia y el ancho de banda efectivo, esenciales para acelerar la convergencia de modelos de gran tamaño.
TPUv8x Zebrafish: inferencia de alta densidad con diseño interno reforzado
El acelerador TPUv8x Zebrafish apunta a cargas de inferencia masiva. Google ha confiado en MediaTek únicamente para tareas puntuales como los chips auxiliares y el encapsulado, mientras que la compañía gestionará directamente el silicio de TPU, la memoria HBM y el suministro de obleas, una práctica típica en el sector español para describir la cadena de fabricación de semiconductores.
Esta estrategia permite a Google controlar aspectos clave como la densidad del empaquetado, el rendimiento térmico, el consumo por operación y la escalabilidad, elementos esenciales en infraestructuras destinadas a servir millones de inferencias simultáneas.
Ecosistema en expansión y demanda creciente de Google Cloud
Fuentes del sector indican que Safe Superintelligence Inc. (SSI), fundada por Ilya Sutskever, ya utiliza TPUv7 como base para acelerar sus experimentos. Asimismo, Anthropic ha ampliado el empleo del TPUv7 Ironwood, realizando parte del procesamiento de inferencia de Claude en la infraestructura de Google Cloud.
Con la creciente demanda de aceleradores de IA, se estima que Google suministrará millones de TPUs en los próximos años, apoyándose en ventajas como la eficiencia energética, la capacidad de escalado horizontal y la consistencia del rendimiento bajo grandes cargas. La compañía ha confirmado que Gemini 3 se ha entrenado y se sirve exclusivamente sobre TPUs, sin recurrir a GPU de NVIDIA o AMD, subrayando la madurez de su hardware propio.
Vía: TechPowerUp


















