Micron, uno de los mayores fabricantes de memoria del mundo, acaba de dejar claro que la crisis de RAM no solo continuará durante 2026, sino que se prolongará más allá del próximo año. Lejos de hablar de “normalización”, la compañía reconoce que la oferta de memoria será incapaz de seguir el ritmo de la demanda durante un buen tiempo, especialmente por culpa del boom de la inteligencia artificial y los centros de datos. Traducido a lenguaje de usuario: Más escasez, precios altos y mucha competencia por cada chip de RAM.
En su última llamada de resultados, el CEO de Micron, Sanjay Mehrotra, advirtió que la industria de memoria va a permanecer “sustancialmente por debajo de la demanda” durante el futuro previsible. La compañía ya habla abiertamente de un escenario en el que los fabricantes no podrán cubrir todos los pedidos de RAM, incluso con nuevas fábricas entrando en operación.
Micron detalló que las restricciones de suministro no se quedarán solo en 2025 y 2026, sino que espera que las limitaciones de capacidad persistan más allá de 2026, reforzando la idea de que esto no es una tormenta pasajera, sino un ciclo largo. Según la propia empresa, incluso con expansión de producción, solo podrá atender aproximadamente entre la mitad y dos tercios de la demanda de sus clientes clave, lo que deja muy claro que alguien se quedará sin memoria en el reparto.
El mensaje encaja con lo que otros actores del sector llevan meses repitiendo: no hay suficiente DRAM para todos, y el hueco entre lo que se fabrica y lo que se necesita no se cerrará pronto. Ese desequilibrio ya está impactando precios y márgenes, con fabricantes reportando ingresos récord precisamente gracias a la escasez y la subida constante de tarifas en DRAM y NAND.
IA, HBM y servidores: por qué falta memoria para tu PC
El gran culpable de todo esto es la inteligencia artificial. Cada servidor de IA puede consumir entre cinco y seis veces más memoria que uno tradicional, lo que convierte a la DRAM en un cuello de botella estructural. A eso se suma que la memoria HBM (la que va apilada junto a las GPU para IA) requiere alrededor de tres veces más área de oblea que la DDR5 normal, por lo que cada chip de HBM “se viene” una porción mucho mayor de la capacidad de fabricación.
Los grandes fabricantes, incluido Micron, están redirigiendo cada vez más producción hacia HBM y memoria de alto rendimiento para centros de datos, porque pueden venderla mucho más cara que la RAM de consumo. Esto deja menos líneas dedicadas a módulos DDR5 para PC, portátiles y hasta smartphones, justo en un momento en el que también crece la demanda de estos equipos impulsados por la transición a Windows 11 y el auge de los “AI PC”.
El movimiento estratégico de Micron de abandonar su histórica marca de consumo Crucial para centrarse en chips para centros de datos de IA es otra señal clara: el negocio está en los servidores, no en el usuario entusiasta que quiere ampliar la RAM de su PC gaming. Entre la presión de la IA, las nuevas consolas, los móviles con 12 GB o más de RAM y la demanda empresarial, el mercado de memoria está tensionado por todos los lados a la vez.
ComputerHoy








