El sector de la IA generativa y agentic AI está llevando los sistemas actuales al límite, especialmente en el apartado de memoria, donde HBM ya no cubre por sí sola las necesidades de almacenamiento activo. En este contexto, AMD y Qualcomm estarían explorando la adopción de SOCAMM, un nuevo estándar de memoria que hasta ahora había estado ligado principalmente a NVIDIA.
Según un informe del medio coreano Hankyung, ambas compañías estarían evaluando integrar módulos SOCAMM en futuros racks y clústeres de IA, con el objetivo de reducir los cuellos de botella de memoria que afectan a cargas de trabajo avanzadas basadas en agentes, inferencia continua y grandes volúmenes de tokens activos.
Qué es SOCAMM y por qué resulta relevante para la IA
La SOCAMM (System-On-Chip Attached Memory Module) es un formato de memoria basado en LPDDR DRAM, tradicionalmente asociada a dispositivos móviles y sistemas de ultrabajo consumo, pero con una diferencia clave: no va soldada a la placa base y es actualizable, algo que no ocurre con soluciones como LPDDR5X ni con HBM.
Este enfoque permite utilizar SOCAMM como memoria complementaria a HBM, orientada a cargas de trabajo limitadas por la memoria, donde el volumen resulta prioritario frente a la latencia extrema. En escenarios de agentic AI, esto es especialmente relevante, ya que permite mantener millones de tokens activos y manejar terabytes de memoria por CPU, algo inviable si se depende únicamente de HBM por coste y disponibilidad.
Aunque su ancho de banda es inferior al de HBM, SOCAMM destaca por su eficiencia energética, su flexibilidad de configuración y su capacidad para escalar sin rediseñar por completo la plataforma.
Enfoques distintos frente al diseño de NVIDIA
El informe apunta a que AMD y Qualcomm estarían valorando un diseño distinto al planteado inicialmente por NVIDIA. En lugar de una disposición tradicional, ambas compañías estudiarían un módulo cuadrado con dos filas independientes de DRAM, lo que permitiría integrar el PMIC directamente en el propio módulo.
Este enfoque tiene varias ventajas técnicas relevantes: mejor control de energía, regulación más precisa a altas frecuencias y una reducción de la complejidad del diseño de la placa base, al eliminar parte del circuito de alimentación necesario. Además, desplazar el control energético al propio módulo facilitaría operar SOCAMM a velocidades elevadas sin comprometer la estabilidad térmica.
SOCAMM 2 y el futuro de los clústeres de IA
Por su parte, NVIDIA ya ha confirmado que SOCAMM 2 formará parte de sus futuros clústeres de IA Vera Rubin, consolidando esta memoria como un componente clave en la próxima generación de infraestructuras de computación avanzada.
Si finalmente AMD y Qualcomm adoptan este estándar en sus plataformas, la utilización de DRAM SOCAMM podría crecer de forma significativa, reforzando su papel como memoria intermedia entre HBM y almacenamiento persistente. En un escenario donde la memoria activa se ha convertido en un factor crítico, SOCAMM se perfila como una solución pragmática y energéticamente eficiente para la IA a gran escala.
Vía: Wccftech











