IA

Rambus entra en SOCAMM2 con LPDDR5X para servidores de IA y apunta a memoria modular y eficiente

Rambus entra en SOCAMM2 con LPDDR5X para servidores de IA y apunta a memoria modular y eficiente

Rambus entra de lleno en el terreno de la memoria modular para centros de datos de IA con su nuevo chipset LPDDR5X SOCAMM2, una pieza que apunta directamente a uno de los problemas más evidentes del sector: cómo escalar capacidad sin disparar consumo energético. El movimiento no es casual, llega en un momento donde la Rambus entra en SOCAMM2 con LPDDR5X para servidores de IA y apunta a memoria modular y eficiente

Sobre el autor

JEDEC presenta LPDDR6 con hasta 512 GB y módulos SOCAMM2 para impulsar la próxima generación de IA

JEDEC presenta LPDDR6 con hasta 512 GB y módulos SOCAMM2 para impulsar la próxima generación de IA

El organismo JEDEC ha adelantado los primeros detalles de su nuevo estándar LPDDR6 (JESD209-6), una evolución diseñada para responder al crecimiento de la IA, tanto en centros de datos como en PC y dispositivos móviles. Lejos de ser una simple mejora incremental, esta nueva generación apunta directamente a resolver uno de los grandes cuellos de JEDEC presenta LPDDR6 con hasta 512 GB y módulos SOCAMM2 para impulsar la próxima generación de IA

Sobre el autor

AMD roza los 500.000 millones de valor bursátil con récord histórico y apuesta total por centros de datos de IA

AMD roza los 500.000 millones de valor bursátil con récord histórico y apuesta total por centros de datos de IA

AMD ha marcado un nuevo hito en su trayectoria financiera tras alcanzar un precio de 303,46$ por acción y una capitalización cercana a los 494.740 millones de dólares, su nivel más alto hasta la fecha. Este salto no es casual: responde a una ejecución sólida en centros de datos de IA, donde la compañía está AMD roza los 500.000 millones de valor bursátil con récord histórico y apuesta total por centros de datos de IA

Sobre el autor

OpenAI apunta a 30GW de computación en 2030, un reto que pone al límite a la industria de semiconductores

OpenAI apunta a 30GW de computación en 2030, un reto que pone al límite a la industria de semiconductores

La escalada de la inteligencia artificial entra en una nueva fase con objetivos mucho más ambiciosos. OpenAI ha fijado como meta alcanzar 30GW de capacidad de computación para 2030, un salto enorme respecto a los niveles actuales que redefine el ritmo de crecimiento del sector. No se trata solo de más centros de datos, sino OpenAI apunta a 30GW de computación en 2030, un reto que pone al límite a la industria de semiconductores

Sobre el autor

La IA presiona la memoria y golpea a Samsung, su división móvil podría entrar en pérdidas por la falta de DRAM

La presión de la IA está empezando a generar efectos internos incluso en los grandes fabricantes. Samsung podría ver cómo su división móvil entra en pérdidas, impulsada por la escalada en precios y la escasez de memoria DRAM. El contexto no es puntual: la demanda global de memoria para IA está absorbiendo gran parte del La IA presiona la memoria y golpea a Samsung, su división móvil podría entrar en pérdidas por la falta de DRAM

Sobre el autor

Tenstorrent acelera la generación de vídeo con IA, su modelo Wan2.2-14B logra tiempos casi en tiempo real

Tenstorrent acelera la generación de vídeo con IA, su modelo Wan2.2-14B logra tiempos casi en tiempo real

El rendimiento en generación de vídeo con IA da un salto interesante con el último avance de Tenstorrent. La compañía ha mostrado su modelo optimizado Wan2.2-14B, ejecutado sobre su infraestructura de servidores Blackhole, con resultados que apuntan directamente a generación de vídeo en tiempos cercanos al tiempo real. Este tipo de mejora no es incremental. Tenstorrent acelera la generación de vídeo con IA, su modelo Wan2.2-14B logra tiempos casi en tiempo real

Sobre el autor

OpenAI diseña un chip con 20 stacks de HBM, su patente apunta a un salto en memoria para IA

OpenAI diseña un chip con 20 stacks de HBM, su patente apunta a un salto en memoria para IA

La carrera por escalar la memoria en IA sigue acelerándose, y ahora con una pista directa desde el propio diseño de hardware. OpenAI ha registrado una patente que describe un chip con múltiples chiplets de cómputo rodeados por numerosos stacks de HBM, conectados mediante puentes lógicos embebidos. Más allá del concepto, lo relevante es lo OpenAI diseña un chip con 20 stacks de HBM, su patente apunta a un salto en memoria para IA

Sobre el autor

Intel y AMD encarecen sus CPUs por la IA, subidas en cadena hasta 2026 con escasez en consumo y servidores

Intel y AMD encarecen sus CPUs por la IA, subidas en cadena hasta 2026 con escasez en consumo y servidores

El mercado de procesadores vuelve a tensarse, esta vez con una señal clara desde la cadena de suministro. Intel y AMD están aumentando precios en CPUs de consumo y servidor, impulsados por una combinación de escasez de capacidad y demanda creciente ligada a la IA. Lo relevante no es solo la subida inicial, sino que Intel y AMD encarecen sus CPUs por la IA, subidas en cadena hasta 2026 con escasez en consumo y servidores

Sobre el autor

TSMC no podrá cubrir la demanda de IA pese a invertir 56.000 millones de dólares en nuevas fábricas

TSMC no podrá cubrir la demanda de IA pese a invertir 56.000 millones de dólares en nuevas fábricas

El ciclo de la inteligencia artificial está tensando toda la industria de semiconductores hasta niveles inéditos. TSMC ha reconocido que no podrá cubrir la demanda de chips para IA, pese a una inversión prevista de 56.000 millones de dólares en 2026. La cifra es enorme, pero insuficiente ante un mercado que crece más rápido que TSMC no podrá cubrir la demanda de IA pese a invertir 56.000 millones de dólares en nuevas fábricas

Sobre el autor

CXMT retrasa su HBM3 a 2026 y deja en evidencia el mayor cuello de botella de China en la carrera por la IA

CXMT retrasa su HBM3 a 2026 y deja en evidencia el mayor cuello de botella de China en la carrera por la IA

El mercado de memoria para inteligencia artificial está entrando en una fase de máxima tensión, y China acaba de evidenciar uno de sus puntos más débiles. CXMT ha retrasado su HBM3 hasta la segunda mitad de 2026, un movimiento que no solo afecta a su hoja de ruta, sino que expone una limitación estructural en CXMT retrasa su HBM3 a 2026 y deja en evidencia el mayor cuello de botella de China en la carrera por la IA

Sobre el autor