IA

Intel Xe3P se centrará en GPUs Crescent Island para IA y estaciones de trabajo y deja en pausa Arc Gaming

Intel Xe3P se centrará en GPUs Crescent Island para IA y estaciones de trabajo y deja en pausa Arc Gaming

La hoja de ruta gráfica de Intel no solo evoluciona con Xe3P, sino que redefine claramente dónde quiere competir. Las filtraciones apuntan a una generación centrada en GPUs dedicadas para IA y entornos profesionales, dejando fuera, al menos de momento, una ofensiva clara en gaming. No es un ajuste menor: es un cambio de foco Intel Xe3P se centrará en GPUs Crescent Island para IA y estaciones de trabajo y deja en pausa Arc Gaming

Sobre el autor

Unigen Amaretti lleva la IA local a M.2 con 60 TOPS, hasta 32 GB de memoria y consumo de solo 10W

Unigen Amaretti lleva la IA local a M.2 con 60 TOPS, hasta 32 GB de memoria y consumo de solo 10W

El avance de la IA local está dando lugar a soluciones cada vez más compactas, y Unigen ha presentado una propuesta especialmente interesante con su módulo Amaretti E1.S, capaz de integrar aceleración de inteligencia artificial en un formato similar a un SSD M.2 tradicional. Este enfoque busca aprovechar el hardware existente en equipos convencionales. La Unigen Amaretti lleva la IA local a M.2 con 60 TOPS, hasta 32 GB de memoria y consumo de solo 10W

Sobre el autor

Meta y Broadcom impulsan XPUs propias con un ecosistema de IA de más de 1 GW y nueva generación MTIA

Meta y Broadcom impulsan XPUs propias con un ecosistema de IA de más de 1 GW y nueva generación MTIA

Meta ha reforzado su apuesta por el silicio propio al anunciar una colaboración estratégica con Broadcom para desarrollar múltiples generaciones de aceleradores de IA personalizados (XPUs). Este movimiento responde a la necesidad de escalar su infraestructura ante el crecimiento de la inteligencia artificial generativa, donde la demanda de cómputo ya supera en muchos casos a Meta y Broadcom impulsan XPUs propias con un ecosistema de IA de más de 1 GW y nueva generación MTIA

Sobre el autor

Tesla AI5 ya está diseñado con hasta 192 GB de memoria LPDDR5X y producción repartida entre Samsung y TSMC

Tesla AI5 ya está diseñado con hasta 192 GB de memoria LPDDR5X y producción repartida entre Samsung y TSMC

Tesla ha confirmado el diseño de su nuevo chip AI5 para conducción autónoma (FSD), un paso clave dentro de su estrategia de desarrollo de silicio propio para inteligencia artificial. El anuncio ha llegado a través de Elon Musk, quien también ha adelantado que este nuevo acelerador ofrecerá un rendimiento comparable a la arquitectura Hopper de Tesla AI5 ya está diseñado con hasta 192 GB de memoria LPDDR5X y producción repartida entre Samsung y TSMC

Sobre el autor

ASML prevé enviar más de 60 sistemas EUV en 2026 impulsada por la demanda de memoria para IA

ASML prevé enviar más de 60 sistemas EUV en 2026 impulsada por la demanda de memoria para IA

El sector de semiconductores está acelerando su inversión en litografía avanzada, y ASML ya anticipa un año de fuerte crecimiento en entregas de equipos EUV (litografía ultravioleta extrema). En sus resultados del primer trimestre de 2026, la compañía ha confirmado que planea superar las 60 unidades enviadas este año, una cifra superior a las 48 ASML prevé enviar más de 60 sistemas EUV en 2026 impulsada por la demanda de memoria para IA

Sobre el autor

Qualcomm prepara una NPU dedicada con DRAM 3D para duplicar la IA en smartphones de gama alta

Qualcomm prepara una NPU dedicada con DRAM 3D para duplicar la IA en smartphones de gama alta

Los smartphones actuales integran la NPU dentro del SoC, compartiendo recursos con CPU y GPU, lo que limita su capacidad real en tareas de inteligencia artificial avanzada. Este enfoque obliga a repartir el presupuesto energético, reduciendo el margen disponible para cargas exigentes como la traducción en tiempo real o la generación de imágenes en local. Qualcomm prepara una NPU dedicada con DRAM 3D para duplicar la IA en smartphones de gama alta

Sobre el autor

TSMC aceleraría su capacidad de encapsulado avanzado para aliviar el cuello de botella de la IA

TSMC aceleraría su capacidad de encapsulado avanzado para aliviar el cuello de botella de la IA

TSMC estaría intensificando su estrategia para resolver uno de los mayores cuellos de botella del sector de semiconductores: el encapsulado avanzado (advanced packaging). Según un informe de CNA, la compañía aceleraría la expansión de capacidad, incluyendo la conversión de fábricas de obleas de 8 pulgadas y el despliegue de nuevas instalaciones enfocadas en tecnologías clave TSMC aceleraría su capacidad de encapsulado avanzado para aliviar el cuello de botella de la IA

Sobre el autor

TurboQuant no frena el superciclo de la memoria: la escasez seguirá pese a la caída puntual de precios DDR

TurboQuant no frena el superciclo de la memoria: la escasez seguirá pese a la caída puntual de precios DDR

El sector de memoria ha vivido semanas de fuerte volatilidad tras la irrupción de TurboQuant de Google, una tecnología que promete mejorar la eficiencia en el uso de memoria en cargas de IA. La reciente caída en los precios de la DDR llevó a muchos a pensar en el fin del ciclo alcista, pero los TurboQuant no frena el superciclo de la memoria: la escasez seguirá pese a la caída puntual de precios DDR

Sobre el autor

Ajinomoto, clave en la IA: el fabricante de MSG controla el cuello de botella del empaquetado avanzado con ABF

El sector de semiconductores para IA enfrenta una presión creciente en toda su cadena de suministro, desde el silicio de GPU hasta el empaquetado avanzado. Sin embargo, uno de los mayores cuellos de botella no está en los chips, sino en un componente menos visible: el ABF (Ajinomoto Build-up Film). Este material, producido por Ajinomoto, Ajinomoto, clave en la IA: el fabricante de MSG controla el cuello de botella del empaquetado avanzado con ABF

Sobre el autor

Intel presenta TSNC, su compresión neural de texturas con hasta 17x de reducción y aceleración por XMX

Intel presenta TSNC, su compresión neural de texturas con hasta 17x de reducción y aceleración por XMX

Intel ha dado un paso relevante en el ámbito gráfico durante la GDC 2026 con la presentación de Texture Set Neural Compression (TSNC), su propia tecnología de compresión neural de texturas. Esta propuesta sigue una línea similar a enfoques como el NTC de NVIDIA, apostando por modelos deterministas capaces de mejorar la eficiencia frente a Intel presenta TSNC, su compresión neural de texturas con hasta 17x de reducción y aceleración por XMX

Sobre el autor