Samsung, SK hynix y Micron afrontan el dilema de ampliar DRAM sin crear sobrecapacidad

Samsung, SK hynix y Micron afrontan el dilema de ampliar DRAM sin crear sobrecapacidad

Samsung, SK hynix y Micron están intentando encontrar un equilibrio muy delicado entre suministrar suficiente DRAM para la expansión de la IA y evitar una ampliación de capacidad que termine generando sobreoferta. La demanda actual es enorme, pero construir nuevas fábricas de memoria exige años de inversión, pedidos anticipados de maquinaria y planificación industrial de largo plazo.

El debate ha ganado fuerza tras las declaraciones de Chey Tae-won, presidente de SK Group, que advierte de un riesgo claro: si los fabricantes no aumentan suministro, los clientes acabarán optimizando sus infraestructuras para usar menos memoria por modelo, servidor o carga de inferencia. Esa reacción podría cambiar las previsiones futuras de demanda de DRAM.

La IA está absorbiendo toda la DRAM disponible

La demanda de memoria no procede solo de HBM para aceleradores de IA. Los grandes centros de datos también necesitan DRAM para CPU, memoria de sistema, servidores de inferencia y plataformas de entrenamiento. A medida que los modelos crecen hasta decenas de billones de parámetros, cada despliegue exige cientos de gigabytes de memoria para operar con eficiencia.

Hiperescaladores, fabricantes de aceleradores y clientes como AMD, NVIDIA y otros actores del sector están intentando asegurar todo el suministro posible. La memoria ya no se compra solo como componente de servidor: se reserva como recurso estratégico para sostener entrenamiento, inferencia masiva y despliegues de IA a largo plazo.

Esta situación ha dejado a los fabricantes vendiendo buena parte de su producción con meses de antelación. El problema es que ampliar capacidad no es inmediato. Aunque la demanda haya crecido rápido, las nuevas líneas requieren salas limpias, obleas, herramientas EUV, validación de procesos y acuerdos de suministro que tardan años en materializarse.

Los fabricantes temen repetir un ciclo de sobreoferta

La cautela de los fabricantes de memoria tiene una explicación histórica. La DRAM es un mercado cíclico, con fases de escasez, precios altos y grandes inversiones que luego pueden desembocar en exceso de capacidad. Si la demanda de IA se estabiliza justo cuando llegan nuevas fábricas, los precios podrían caer con fuerza.

Ese temor explica por qué Samsung, SK hynix y Micron no están ampliando de forma ilimitada, aunque la escasez actual parezca justificarlo. Cada nueva inversión debe calcularse con años de margen, porque una fab de memoria no se construye para cubrir un pico trimestral, sino para operar durante ciclos completos de mercado.

SK hynix ya habría realizado pedidos importantes de herramientas Low-NA EUV de ASML para apoyar sus planes de expansión en DRAM avanzada y memoria vinculada a IA. Aun así, esa capacidad no llegará de inmediato, porque la instalación, validación y entrada en producción de nuevas herramientas puede tardar varios años completos.

Los clientes empiezan a optimizar para usar menos memoria

El punto más interesante de las declaraciones de Chey Tae-won es la reacción de los clientes. Si la memoria sigue siendo cara y escasa, hiperescaladores y desarrolladores de IA buscarán formas de reducir su uso mediante formatos de menor precisión, compresión, optimización de modelos, mejor planificación de inferencia y software más eficiente.

Esto ya ocurre en parte con formatos como FP8, INT8, cuantización más agresiva y técnicas de inferencia optimizada. El objetivo es servir más tokens con menos memoria, reducir costes operativos y aumentar la densidad de usuarios por servidor. Para los fabricantes de DRAM, esa optimización puede convertirse en un arma de doble filo.

Si los clientes aprenden a entrenar y ejecutar modelos con menos memoria, parte de la demanda futura podría moderarse. Pero también existe el efecto contrario: cuando una tecnología se vuelve más eficiente, el software suele aprovechar esa mejora para consumir más. En IA, servir tokens más baratos puede multiplicar el uso total del sistema.

Más eficiencia no siempre significa menos demanda

La historia de la computación muestra un patrón recurrente. Cuando el hardware mejora o el software se optimiza, el ahorro inicial suele transformarse en nuevas cargas, modelos más grandes o mayor volumen de uso. En IA, reducir memoria por consulta puede terminar habilitando más usuarios, más agentes, más contexto y más inferencia continua.

Por eso, el equilibrio es tan difícil. Los fabricantes de memoria pueden temer que la optimización reduzca la demanda, pero también podrían encontrarse con un escenario donde la eficiencia dispare todavía más el consumo total. Si las empresas pueden servir IA más barata, probablemente desplegarán más servicios, más automatización y más modelos especializados.

La decisión de invertir en nuevas fabs depende de cómo se resuelva esta tensión. Si la IA mantiene una curva de adopción agresiva, hará falta más DRAM, más HBM y más capacidad de fabricación. Si el mercado se estabiliza antes de lo esperado, las inversiones actuales podrían llegar tarde y presionar márgenes cuando la nueva capacidad entre en producción.

El riesgo ya no es solo técnico, también estratégico

Para Samsung, SK hynix y Micron, el problema no se limita a comprar más maquinaria. También deben decidir qué tipo de memoria priorizar, cuánto dedicar a HBM, cuánta capacidad reservar para DRAM convencional y cómo equilibrar servidores, PC, móviles y almacenamiento. Cada elección puede afectar ingresos durante varios ejercicios.

La presión de clientes grandes añade otra capa. Si hiperescaladores y fabricantes de aceleradores firman contratos de largo plazo, los proveedores ganan visibilidad, pero también pueden comprometer capacidad futura a precios menos flexibles. Si no aceptan esos compromisos, corren el riesgo de que los clientes inviertan más en optimización o busquen proveedores alternativos.

El resultado es un mercado atrapado entre escasez inmediata y miedo a sobrecapacidad futura. La IA está empujando a la memoria a un papel estratégico, pero los fabricantes saben que reaccionar demasiado tarde puede perder clientes, mientras reaccionar demasiado fuerte puede hundir precios cuando llegue la nueva capacidad.

La DRAM seguirá tensionada hasta que lleguen nuevas fabs

A corto plazo, la situación seguirá ajustada. Los pedidos de herramientas EUV, la construcción de nuevas fabs y la expansión de líneas existentes no aliviarán el mercado de forma inmediata. Incluso con inversiones fuertes, la capacidad adicional de DRAM avanzada llegará con retraso frente a la demanda de IA.

La clave estará en los próximos años. Si las optimizaciones reducen presión por servidor, los fabricantes podrían mantener precios más estables sin ampliar de forma agresiva. Si el consumo de tokens, modelos y agentes sigue creciendo, la industria necesitará más capacidad, más obleas y más maquinaria de litografía para sostener el ritmo.

Por ahora, el mensaje es claro: la memoria se ha convertido en uno de los grandes puntos de tensión de la IA. Ya no basta con fabricar más GPU o CPU; sin DRAM suficiente, HBM disponible y una cadena de suministro preparada, la expansión de centros de datos seguirá chocando contra límites físicos, económicos y estratégicos.

Vía: TechPowerUp

Sobre el autor