Samsung ha presentado en GTC 2026 su nueva generación de soluciones de memoria para inteligencia artificial, destacando la llegada de HBM4E, junto a unidades SSD PCIe 6.0 y módulos SOCAMM2, todos orientados a infraestructuras basadas en plataformas NVIDIA Rubin y Rubin Ultra. Este conjunto de tecnologías busca responder a la creciente demanda de ancho de banda, capacidad y eficiencia en sistemas de IA de nueva generación.
La propuesta se centra en mejorar el rendimiento de memoria en entornos de cálculo intensivo, donde el acceso a datos es crítico. En este contexto, Samsung plantea una evolución clara respecto a generaciones anteriores, tanto en velocidad por pin, como en capacidad por stack y eficiencia térmica.
HBM4E: más ancho de banda y capacidad para IA avanzada
La nueva HBM4E alcanza velocidades de hasta 16 Gbps por pin, lo que permite lograr un ancho de banda de hasta 4 TB/s por stack, junto a configuraciones de 16 capas (16-Hi) que alcanzan 48 GB por stack. Estas cifras suponen un salto relevante frente a la memoria HBM4 actual, especialmente en escenarios donde la transferencia de datos es el principal cuello de botella.
Pensada para plataformas como Rubin Ultra, esta memoria permitiría configuraciones de hasta 384 GB de capacidad total y un ancho de banda que podría alcanzar los 64 TB/s, duplicando el enfoque de arquitecturas anteriores. Este incremento posiciona a HBM4E como una pieza clave en la evolución de la infraestructura de IA.
HBM4 también evoluciona con mejoras en proceso y eficiencia
Junto a HBM4E, Samsung ha mostrado su memoria HBM4 de sexta generación, ya en producción, con velocidades sostenidas de 11,7 Gbps, superando el estándar actual de 8 Gbps, y con margen de mejora hasta 13 Gbps. Estas mejoras se apoyan en un proceso de fabricación avanzado de clase 10 nm (1c), que permite mejorar el rendimiento sin comprometer la estabilidad.
Además, la compañía ha introducido su tecnología de unión híbrida de cobre (HCB), que permite apilar más capas de memoria reduciendo la resistencia térmica en más de un 20% frente a métodos tradicionales, mejorando así la eficiencia en escenarios de alta densidad.
SOCAMM2 y SSD PCIe 6.0 para infraestructuras de IA
Samsung también ha presentado SOCAMM2, un módulo de memoria basado en DRAM de bajo consumo, diseñado para servidores de IA que requieren alto ancho de banda y flexibilidad de integración. Este tipo de solución permite optimizar la eficiencia energética en sistemas escalables, siendo especialmente relevante en centros de datos.
En almacenamiento, destaca el SSD PM1763 con interfaz PCIe 6.0, orientado a ofrecer transferencias de datos más rápidas y mayor capacidad en entornos de IA. Estas unidades están diseñadas para trabajar junto a arquitecturas como NVIDIA BlueField-4, mejorando tanto el rendimiento como la eficiencia en cargas de inferencia.
Memoria para IA local y dispositivos personales
Más allá del entorno de servidor, Samsung también ha mostrado soluciones orientadas a IA en dispositivos locales, incluyendo unidades como PM9E3 y PM9E1, pensadas para sistemas compactos como estaciones DGX personales.
En el ámbito de memoria, la compañía ha destacado sus módulos LPDDR5X y LPDDR6, diseñados para dispositivos como smartphones, tablets o wearables. LPDDR5X alcanza velocidades de hasta 25 Gbps por pin con una reducción de consumo de hasta 15%, mientras que LPDDR6 amplía el rango hasta 30–35 Gbps, incorporando mejoras en gestión energética como voltaje adaptativo y control dinámico de refresco.
Vía: Wccftech










