Se rumorea que Samsung y SK Hynix potenciarán el rendimiento de los aceleradores de IA con la llegada del estándar DRAM HBM4

Se rumorea que Samsung y SK Hynix potenciarán el rendimiento de los aceleradores de IA con la llegada del estándar DRAM HBM4

La DRAM HBM sigue siendo bastante más cara en comparación con la solución GDDR que vemos integrada en las tarjetas gráficas de consumo, aunque el precio justifica en gran medida el aumento de rendimiento. Por eso, la HBM se suministra de momento con aceleradores de HPC e IA.

También es la razón por la que las últimas tarjetas H100 de NVIDIA son tan caras, ya que incorporan DRAM HMB3E. Fuentes surcoreanas cercanas a DigiTimes afirman que la situación podría cambiar próximamente con la introducción del estándar HBM4, que duplica la anchura del bus de memoria con respecto a la versión anterior.

Según DigiTimes, HBM4 supondrá la actualización más importante en la historia de la DRAM HBM, puesto que incrementará la anchura del bus de pila de 1024 a 2048 bits. El actual estándar HBM3 cuenta con unos 9 GT/s por chip, lo que supone un ancho de banda máximo de 1,15 TB/s para todas las pilas. Si el estándar HBM4 mantiene el mismo número de pilas, el ancho de banda máximo podría alcanzar los 2,30 TB/s.

Por poner un ejemplo, la NVIDIA H100. Esta tarjeta cuenta con seis HBM3E de 1024 bits (KGSD, known good stack dies) que se combinan para crear una interfaz de 6144 bits. Debido a la dificultad de fabricar pilas de memoria con más de 1.024 a través de las vías de silicio, Samsung y SK Hynix tendrán que demostrar que pueden mantener el mismo número de pilas y aumentar el ancho del bus a 2048 bits, a pesar de las afirmaciones de rendimientos cercanos al 100%.

Vía: NotebookCheck

Sobre el autor