
Micron ha anunciado el inicio de las pruebas de sus nuevos módulos de memoria SOCAMM2 de 192 GB, fabricados con tecnología 1-gamma LPDDR5X DRAM. La compañía, con sede en Idaho (EE. UU.), presentó oficialmente esta evolución el 22 de octubre de 2025, destacando mejoras significativas tanto en rendimiento como en eficiencia energética.
Un salto de capacidad y rendimiento frente a la primera generación
Los módulos SOCAMM2 ofrecen un incremento del 50% en capacidad respecto a la primera generación, acompañados de una mejora superior al 20% en eficiencia energética a nivel de chip DRAM.
Además, alcanzan velocidades de transferencia de 9600 MT/s, lo que supone un salto considerable en ancho de banda y densidad de memoria, factores críticos para entornos de IA generativa y computación en la nube.
Estas mejoras buscan responder a la creciente demanda de sistemas capaces de manejar cargas de trabajo masivas sin comprometer el consumo energético, una prioridad en la infraestructura de data centers modernos.
Reducción del tiempo de inferencia y latencia de respuesta
Durante las pruebas internas en entornos de IA, Micron informó de una reducción del 80% en el TTFT (First Token Latency), lo que se traduce en tiempos de inferencia mucho más rápidos para modelos de lenguaje y procesamiento intensivo.
En configuraciones avanzadas como el sistema Micron Vera Rubin NVL144, cada CPU puede equiparse con seis módulos SOCAMM2, alcanzando más de 40 TB de memoria total por rack.
Este nivel de densidad y velocidad convierte al SOCAMM2 en un componente clave para la próxima generación de servidores de IA, donde la latencia, el ancho de banda y la eficiencia energética son esenciales para mantener la escalabilidad.
Diseñados para la era de la inteligencia artificial y la computación eficiente
Micron afirma que los SOCAMM2 de 192 GB están orientados a aplicaciones de IA, HPC y análisis de datos, ofreciendo una arquitectura optimizada para procesadores multinúcleo y aceleradores de nueva generación.
La compañía destaca que estos módulos reducen el consumo energético total del sistema sin sacrificar rendimiento, contribuyendo así a infraestructuras más sostenibles y preparadas para las demandas futuras de la computación acelerada por IA.
Vía: Guru3D