Qué es la RAM y por qué es crítica
La RAM (Random Access Memory) es la memoria temporal que utilizan los sistemas electrónicos para procesar información en tiempo real. Actúa como un espacio de trabajo donde los programas y componentes colocan los datos que necesitan de forma inmediata.
La RAM es volátil: cuando el dispositivo se apaga, la información almacenada se pierde. No se utiliza para guardar archivos, sino para garantizar fluidez, velocidad y estabilidad del sistema.
El problema: una subida de precios sin precedentes
Desde hace aproximadamente cinco meses, el mercado de la memoria ha experimentado un incremento de precios extremo, alcanzando subidas de hasta un 400 %, cifras nunca vistas en la industria.
Un ejemplo concreto: el módulo DDR5 Corsair Dominator de 64 GB pasó de costar 329,90 € en el último trimestre de 2025 a alcanzar los 2.246,70 €. Y el problema no se limita al precio: muchos modelos directamente han desaparecido del mercado.
La RAM es un componente esencial para fabricar prácticamente cualquier dispositivo moderno. Sin memoria, no se pueden producir servidores, móviles, ordenadores ni consolas. Esto convierte el problema en algo mucho más grave que una subida coyuntural.

No es una crisis convencional: el cuello de botella global
Lo que está ocurriendo no es una crisis normal. El núcleo del problema es estructural y de alcance mundial.
Actualmente existen solo tres empresas en todo el planeta capaces de fabricar la memoria necesaria a este nivel tecnológico, y hay ocho gigantes tecnológicos compitiendo por absorber prácticamente toda la producción, sin límite presupuestario.
Y atención! Esta situación podría prolongarse hasta 2030.
El detonante: la Inteligencia Artificial
El principal responsable de este colapso es la Artificial Intelligence, una tecnología extraordinariamente cara de ejecutar.
La IA necesita procesadores específicos, como GPU o aceleradores personalizados, que requieren:
- Muchísima capacidad de cálculo
- Más memoria
- Mayores consumos energéticos
Cuando utilizamos servicios en la nube como Uber, Netflix o Pinterest, en realidad nos conectamos a centros de datos físicos. En un servidor tradicional, unos 16 GB de RAM pueden atender sin problema a miles de usuarios simultáneos, ya que cada uno consume pocos kilobytes o megabytes.
Con la IA, este paradigma se rompe por completo.
El impacto de los LLM en la memoria
Ejecutar un modelo de lenguaje grande (LLM) como GPT‑5.1 requiere entre 100 y 200 GB de memoria solo para cargar el modelo. Además, cada conversación activa de un usuario con la IA puede necesitar entre 1 y 10 GB adicionales para mantenerse viva.
Esto implica:
- Inversiones multimillonarias
- Enormes cantidades de servidores nuevos
- Expansión continua de centros de datos
HBM: la memoria que lo cambió todo
La IA no utiliza memoria convencional. Necesita una tecnología avanzada llamada HBM (High Bandwidth Memory).
La HBM es una RAM tridimensional ultrarrápida, donde los chips de memoria se apilan verticalmente, mejorando de forma brutal la velocidad de lectura y escritura.
En términos sencillos:
- La DRAM tradicional de servidores es como un Toyota Corolla.
- La HBM es un Ferrari: carísima, extremadamente compleja y muy difícil de fabricar.
Mientras que una DRAM puede mover 80–100 GB por segundo, la HBM alcanza hasta 8 terabytes por segundo, es decir, unas 80 veces más velocidad.
Entonces aquí la pregunta es: ¿Quién está comprando toda esta memoria?
El 30 de octubre de 2025, vieron a Jensen Huang (CEO de NVIDIA) comiendo pollo frito y cerveza mezclada con soju junto a Lee Jae-yong (presidente de Samsung) y Chung Euisun (presidente de Hyundai Motor Group), las dos empresas más importantes de Corea del Sur. Después de cenar pagaron la cuenta a todas las personas del local e incluso se llevaron comida para regalar a la gente que estaba fuera. Parecía que estaban celebrando algo. Al día siguiente se anunció que Nvidia suministraría 260.000 GPU´s de las más avanzadas para Corea del Sur. Para Samsung, SK Group, Hyundai y Naver 210.000 y el resto para el gobierno coreano, con el objetivo de crear una IA soberana, para seguir teniendo esa ventaja en automóviles, computación y nube.

El ecosistema Nvidia: el verdadero cuello de botella
Samsung ha sido aprobada para suministrar HBM3E para la arquitectura Blackwell, utilizada en los LLM más avanzados como ChatGPT de OpenAI.
En la práctica:
- NVIDIA está absorbiendo casi toda la memoria disponible
- No para sí misma, sino para fabricar las GPU que usan sus clientes
- Quien quiera competir en IA, tiene que pasar por caja de NVIDIA
Aunque Google (con sus chips Ironwood) y AMD (con Instinct) tienen una pequeña parte del mercado, NVIDIA se lleva la mayor porción del pastel.
Los Hyperscalers
Los hyperscalers son grandes empresas tecnológicas que dan soporte de infraestructuras cloud masivas y preparadas para escalar aún más.
Son Meta, Microsoft, X, Oracle e incluso Adobe. También hay empresas chinas dentro de este grupo como ByteDance, Tencent y Alibaba, pero también hay startups que están comprando como si no hubiese un mañana, por ejemplo, Open AI, Anthropic, Perplexity, Databricks y algunas que probablemente no nos suenen a ninguno. Hasta el Gobierno de EE. UU. quiere montar su propia IA.
En fin, la lista de clientes de Nvidia no es pública, pero podemos hacernos una buena idea. Gran parte de las empresas del mundo se quieren subir al tren de la IA, añadiendo funciones en sus productos o creando nuevos basados en ella. Si hace unos años, Nvidia tardaba en entregar los servidores por demanda, ahora la cuestión es si puedes llegar a comprarle algo a Nvidia. El mundo no está preparado para fabricar tanta memoria y la empresa que no sea capaz de montar esos centros de datos se va a quedar atrás en esta carrera.
Pero hay más problemas…
Las marcas más famosas de RAM como son Corsair, HyperX, Vengeance, Kingston, Trident y Crucial tienen algo en común. El chip interno tiene la firma de SK Hynix o SEC (Samsung Electronics Corporation) o Micron. Siempre uno de esos tres. Los únicos fabricantes de memoria del mundo al nivel que necesita la IA. (SK y SEC en Corea del Sur, y Micron de EE. UU.).
China también es fabricante, pero cuenta con chips menos potentes ya que por acuerdos internacionales entre países, no puede acceder a las máquinas que tallan estos chips mediante fotolitografía fabricadas por ASML. Lo que hacen es tallar con láseres ultravioletas distintos circuitos con pocas moléculas de ancho. Literalmente solo se puede ven con un microscopio de electrones. Lo que imprimen son condensadores y transistores que se tienen que refrescar cada pocos segundos porque si no la información se pierde. Lo que se guarda dentro representa el sistema binario (0 y 1) que contiene toda la información con la que trabajamos.
HBM y el proceso CoWoS
Hemos llegado los límites físicos de lo que podemos hacer. Por eso es más difícil que nunca hacer memoria más rápida y pequeña. El espacio ocupado también es un problema. La diferencia entre la HBM y la DRAM es que permite cortar los pequeños chips y apilarlos encima de otros conectados por un agujero pequeñísimo hecho con un taladro de precisión nanométrica por el que pasan cables de oro de forma vertical.

De esa manera, podemos leer y escribir con/de esos chips todos al mismo tiempo. Un proceso complejo que hace que la transferencia de datos sea lo más rápida y limpia posible. Después se une a un Interposer. Un interposer es un chip que conecta la RAM con la GPU, para que la gráfica acceda a la memoria lo más rápido posible.

Con esto si la DRAM mueve 80/100 GB por segundo, la HBM mueve 8 TB por segundo, 80 veces más rápida. Este proceso de unión se llama CoWoS (Chip-on-Wafer-on-Substrate) y adivinad quien lo hace: TSMC. La fábrica de Taiwan donde hacen los chips más avanzados del mundo y las propias gráficas de Nvidia.
Ósea lo que ocurre es que en Corea del Sur se fabrican estas obleas de memoria, se envían a TSMC y ellos las montan dentro de las gráficas de Nvidia. Por lo que a TSMC le interesa más hacer las memorias de Nvidia que las tradicionales DRAM, porque se venden mucho más caras (hasta 4 veces más) y como churros.
Lo que hay que entender aquí si te suena a chino es que los tres fabricantes que hacen la memoria de tu PC, de tu IPhone y de tu PlayStation, están desviando cada vez más capacidad hacia la memoria HBM para IA. Samsung va a mantener una producción mínima de RAM, pero Micron (EE.UU.) hizo un comunicado diciendo que abandonan el mercado de los productos de consumo bajo la marca Crucial, centrándose en las HBM.
Por ello habrá cada vez menos memoria. Meta y Google están comprando directamente a los fabricantes para poder producir sus gráficas pidiéndoles que les asignen toda la RAM que puedan hacer.
¿Y si todo esto es una burbuja?
¿Pero si hay tanto problema de producción porque no abren más fabricas? Las empresas que están en la carrera de la IA no están teniendo beneficios según lo invertido por lo menos hasta ahora. Si explotase la burbuja, la demanda caería muchísimo y los fabricantes se comerían todas esas memorias.
Micron está fabricando una fábrica de memoria nueva en Japón que la previsión es abrirla este año, lleva 2 años de trabajo construirla y unos 9.600 millones de dólares.

Micron invertirá US$9.600 millones en una planta en el oeste de Japón, según Nikkei.
En 2018 y 2019 la RAM se vendía baratísima por la inflación y lo ocurrido en esos años, había almacenes llenos y de hecho se pararon las inversiones para 2022 y 2023, parando algunas líneas de fábricas de producción y esto son millones en pérdidas. Por ello es más rentable vender toda la producción a la IA (además son los que más pagan) y si finalmente es una burbuja, se retoman las producciones de RAM, en vez de tener que quedarse con fábricas de una tecnología que no funcionaría.
Por lo que todas las empresas que quieren el pastel de la IA, están invirtiendo miles de millones en ordenadores nuevos, para subirse a esta ola y ejecutar modelos mas complejos y costosos. Así que para ganar, se necesitan memoria y chips.
La IA no va más rápido porque no puede. Al principio los modelos eran una castaña, luego mejoraron, no había suficientes chips, ahora son las memorias, ¿y lo siguiente? Seguramente la electricidad para alimentar todos esos chips. Pero eso si no explota antes la burbuja.