{"id":4167,"date":"2026-04-27T06:52:35","date_gmt":"2026-04-27T06:52:35","guid":{"rendered":"https:\/\/enecworld.com\/?p=4167"},"modified":"2026-04-27T06:52:35","modified_gmt":"2026-04-27T06:52:35","slug":"por-que-se-ha-disparado-el-precio-de-la-ram-la-crisis-mundial-de-la-memoria-explicada","status":"publish","type":"post","link":"https:\/\/enecworld.com\/en\/por-que-se-ha-disparado-el-precio-de-la-ram-la-crisis-mundial-de-la-memoria-explicada\/","title":{"rendered":"Por qu\u00e9 se ha disparado el precio de la RAM: La crisis mundial de la memoria explicada"},"content":{"rendered":"<p><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Qu\u00e9 es la RAM y por qu\u00e9 es cr\u00edtica<\/h2>\n\n\n\n<p>La <strong>RAM (Random Access Memory)<\/strong> es la memoria temporal que utilizan los sistemas electr\u00f3nicos para procesar informaci\u00f3n en tiempo real. Act\u00faa como un espacio de trabajo donde los programas y componentes colocan los datos que necesitan de forma inmediata.<\/p>\n\n\n\n<p>La RAM es <strong>vol\u00e1til<\/strong>: cuando el dispositivo se apaga, la informaci\u00f3n almacenada se pierde. No se utiliza para guardar archivos, sino para <strong>garantizar fluidez, velocidad y estabilidad del sistema<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">El problema: una subida de precios sin precedentes<\/h2>\n\n\n\n<p>Desde hace aproximadamente <strong>cinco meses<\/strong>, el mercado de la memoria ha experimentado un incremento de precios extremo, alcanzando subidas de hasta un <strong>400 %<\/strong>, cifras nunca vistas en la industria.<\/p>\n\n\n\n<p>Un ejemplo concreto: el m\u00f3dulo <strong>DDR5 Corsair Dominator de 64 GB<\/strong> pas\u00f3 de costar <strong>329,90 \u20ac<\/strong> en el \u00faltimo trimestre de 2025 a alcanzar los <strong>2.246,70 \u20ac<\/strong>. Y el problema no se limita al precio: muchos modelos directamente <strong>han desaparecido del mercado<\/strong>.<\/p>\n\n\n\n<p>La RAM es un componente esencial para fabricar pr\u00e1cticamente cualquier dispositivo moderno. Sin memoria, no se pueden producir servidores, m\u00f3viles, ordenadores ni consolas. Esto convierte el problema en algo mucho m\u00e1s grave que una subida coyuntural.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img fetchpriority=\"high\" decoding=\"async\" width=\"886\" height=\"433\" src=\"https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-4.png\" alt=\"\" class=\"wp-image-4172\" srcset=\"https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-4.png 886w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-4-300x147.png 300w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-4-768x375.png 768w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-4-18x9.png 18w\" sizes=\"(max-width: 886px) 100vw, 886px\" \/><figcaption class=\"wp-element-caption\">Precio del m\u00f3dulo de memoria RAM DDR5 Corsair Dominator Titanuim 64GB<\/figcaption><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">No es una crisis convencional: el cuello de botella global<\/h2>\n\n\n\n<p>Lo que est\u00e1 ocurriendo <strong>no es una crisis normal<\/strong>. El n\u00facleo del problema es estructural y de alcance mundial.<br>Actualmente existen <strong>solo tres empresas <\/strong>en todo el planeta capaces de fabricar la memoria necesaria a este nivel tecnol\u00f3gico, y hay <strong>ocho gigantes tecnol\u00f3gicos <\/strong>compitiendo por absorber pr\u00e1cticamente toda la producci\u00f3n, sin l\u00edmite presupuestario.<\/p>\n\n\n\n<p>Y atenci\u00f3n! Esta situaci\u00f3n podr\u00eda prolongarse hasta <strong>2030<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">El detonante: la Inteligencia Artificial<\/h2>\n\n\n\n<p>El principal responsable de este colapso es la <strong>Artificial Intelligence<\/strong>, una tecnolog\u00eda extraordinariamente cara de ejecutar.<\/p>\n\n\n\n<p>La IA necesita <strong>procesadores espec\u00edficos<\/strong>, como GPU o aceleradores personalizados, que requieren:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Much\u00edsima capacidad de c\u00e1lculo<\/li>\n\n\n\n<li>M\u00e1s memoria<\/li>\n\n\n\n<li>Mayores consumos energ\u00e9ticos<\/li>\n<\/ul>\n\n\n\n<p>Cuando utilizamos servicios en la nube como Uber, Netflix o Pinterest, en realidad nos conectamos a <strong>centros de datos f\u00edsicos<\/strong>. En un servidor tradicional, unos <strong>16 GB de RAM<\/strong> pueden atender sin problema a <strong>miles de usuarios simult\u00e1neos<\/strong>, ya que cada uno consume pocos kilobytes o megabytes.<\/p>\n\n\n\n<p>Con la IA, este paradigma se rompe por completo.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">El impacto de los LLM en la memoria<\/h2>\n\n\n\n<p>Ejecutar un <strong>modelo de lenguaje grande (LLM)<\/strong> como <strong>GPT\u20115.1<\/strong> requiere entre <strong>100 y 200 GB de memoria<\/strong> solo para cargar el modelo. Adem\u00e1s, <strong>cada conversaci\u00f3n activa<\/strong> de un usuario con la IA puede necesitar <strong>entre 1 y 10 GB adicionales<\/strong> para mantenerse viva.<\/p>\n\n\n\n<p>Esto implica:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Inversiones multimillonarias<\/li>\n\n\n\n<li>Enormes cantidades de servidores nuevos<\/li>\n\n\n\n<li>Expansi\u00f3n continua de centros de datos<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">HBM: la memoria que lo cambi\u00f3 todo<\/h2>\n\n\n\n<p>La IA no utiliza memoria convencional. Necesita una tecnolog\u00eda avanzada llamada <strong>HBM (High Bandwidth Memory)<\/strong>.<br>La <strong>HBM es una RAM tridimensional ultrarr\u00e1pida<\/strong>, donde los chips de memoria se <strong>apilan verticalmente<\/strong>, mejorando de forma brutal la velocidad de lectura y escritura.<\/p>\n\n\n\n<p>En t\u00e9rminos sencillos:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>La DRAM tradicional de servidores es como un <strong>Toyota Corolla<\/strong>.<\/li>\n\n\n\n<li>La HBM es un <strong>Ferrari<\/strong>: car\u00edsima, extremadamente compleja y muy dif\u00edcil de fabricar.<\/li>\n<\/ul>\n\n\n\n<p>Mientras que una DRAM puede mover <strong>80\u2013100 GB por segundo<\/strong>, la HBM alcanza <strong>hasta 8 terabytes por segundo<\/strong>, es decir, <strong>unas 80 veces m\u00e1s velocidad<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Entonces aqu\u00ed la pregunta es: \u00bfQui\u00e9n est\u00e1 comprando toda esta memoria?<\/h2>\n\n\n\n<p>El 30 de octubre de 2025, vieron a <strong>Jensen Huang<\/strong> (CEO de NVIDIA) comiendo pollo frito y cerveza mezclada con soju junto a <strong>Lee Jae-yong<\/strong> (presidente de Samsung) y <strong>Chung Euisun<\/strong> (presidente de Hyundai Motor Group), las dos empresas m\u00e1s importantes de Corea del Sur. Despu\u00e9s de cenar pagaron la cuenta a todas las personas del local e incluso se llevaron comida para regalar a la gente que estaba fuera. Parec\u00eda que estaban celebrando algo. Al d\u00eda siguiente se anunci\u00f3 que Nvidia suministrar\u00eda <strong>260.000 GPU\u00b4s de las m\u00e1s avanzadas para Corea del Sur<\/strong>.&nbsp; Para Samsung, SK Group, Hyundai y Naver 210.000 y el resto para el gobierno coreano, con el objetivo de crear una IA soberana, para seguir teniendo esa ventaja en autom\u00f3viles, computaci\u00f3n y nube.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><img decoding=\"async\" width=\"364\" height=\"204\" src=\"https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-3.png\" alt=\"\" class=\"wp-image-4171\" style=\"aspect-ratio:1.7843738031405592;width:445px;height:auto\" srcset=\"https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-3.png 364w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-3-300x168.png 300w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-3-18x10.png 18w\" sizes=\"(max-width: 364px) 100vw, 364px\" \/><figcaption class=\"wp-element-caption\">Jensen Huang, Lee Jae-yong, Chung Euisun comiendo pollo frito.<\/figcaption><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">El ecosistema Nvidia: el verdadero cuello de botella<\/h2>\n\n\n\n<p>Samsung ha sido aprobada para suministrar <strong>HBM3E<\/strong> para la arquitectura <strong>Blackwell<\/strong>, utilizada en los LLM m\u00e1s avanzados como <strong>ChatGPT de OpenAI<\/strong>.<\/p>\n\n\n\n<p>En la pr\u00e1ctica:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>NVIDIA est\u00e1 absorbiendo casi toda la memoria disponible<\/strong><\/li>\n\n\n\n<li>No para s\u00ed misma, sino para fabricar las GPU que usan sus clientes<\/li>\n\n\n\n<li>Quien quiera competir en IA, <strong>tiene que pasar por caja de NVIDIA<\/strong><\/li>\n<\/ul>\n\n\n\n<p>Aunque Google (con sus chips <strong>Ironwood<\/strong>) y AMD (con <strong>Instinct<\/strong>) tienen una peque\u00f1a parte del mercado, <strong>NVIDIA se lleva la mayor porci\u00f3n del pastel<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Los Hyperscalers<\/h2>\n\n\n\n<p>Los hyperscalers son grandes empresas tecnol\u00f3gicas que dan soporte de infraestructuras cloud masivas y preparadas para escalar a\u00fan m\u00e1s.<\/p>\n\n\n\n<p>Son <strong>Meta, Microsoft, X, Oracle e incluso Adobe.<\/strong> Tambi\u00e9n hay empresas chinas dentro de este grupo como ByteDance, Tencent y Alibaba, pero tambi\u00e9n hay startups que est\u00e1n comprando como si no hubiese un ma\u00f1ana, por ejemplo, Open AI, <strong>Anthropic, Perplexity, Databricks<\/strong> y algunas que probablemente no nos suenen a ninguno. Hasta el Gobierno de EE. UU. quiere montar su propia IA. <\/p>\n\n\n\n<p>En fin, la lista de clientes de Nvidia no es p\u00fablica, pero podemos hacernos una buena idea. Gran parte de las empresas del mundo se quieren subir al tren de la IA, a\u00f1adiendo funciones en sus productos o creando nuevos basados en ella. Si hace unos a\u00f1os, Nvidia tardaba en entregar los servidores por demanda, <strong>ahora la cuesti\u00f3n es si puedes llegar a comprarle algo a Nvidia.<\/strong> El mundo no est\u00e1 preparado para fabricar tanta memoria y la empresa que no sea capaz de montar esos centros de datos se va a quedar atr\u00e1s en esta carrera.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Pero hay m\u00e1s problemas\u2026<\/h2>\n\n\n\n<p>Las marcas m\u00e1s famosas de RAM como son <strong>Corsair<\/strong>, <strong>HyperX<\/strong>, <strong>Vengeance<\/strong>, <strong>Kingston<\/strong>, <strong>Trident <\/strong>y <strong>Crucial <\/strong>tienen algo en com\u00fan. El chip interno tiene la firma de <strong>SK Hynix<\/strong> o <strong>SEC<\/strong> (Samsung Electronics Corporation) o <strong>Micron<\/strong>. Siempre uno de esos tres. Los \u00fanicos fabricantes de memoria del mundo al nivel que necesita la IA. (SK y SEC en Corea del Sur, y Micron de EE. UU.). <\/p>\n\n\n\n<p>China tambi\u00e9n es fabricante, pero cuenta con chips menos potentes ya que por acuerdos internacionales entre pa\u00edses, no puede acceder a las m\u00e1quinas que tallan estos chips mediante fotolitograf\u00eda fabricadas por <strong>ASML<\/strong>. Lo que hacen es tallar con l\u00e1seres ultravioletas distintos circuitos con pocas mol\u00e9culas de ancho. Literalmente solo se puede ven con un microscopio de electrones. Lo que imprimen son condensadores y transistores que se tienen que refrescar cada pocos segundos porque si no la informaci\u00f3n se pierde. Lo que se guarda dentro representa el sistema binario (0 y 1) que contiene toda la informaci\u00f3n con la que trabajamos.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">HBM y el proceso CoWoS<\/h2>\n\n\n\n<p>Hemos llegado los l\u00edmites f\u00edsicos de lo que podemos hacer. Por eso es m\u00e1s dif\u00edcil que nunca hacer memoria m\u00e1s r\u00e1pida y peque\u00f1a. El espacio ocupado tambi\u00e9n es un problema. La diferencia entre la <strong>HBM<\/strong> y la <strong>DRAM <\/strong>es que permite cortar los peque\u00f1os chips y apilarlos encima de otros conectados por un agujero peque\u00f1\u00edsimo hecho con un taladro de precisi\u00f3n nanom\u00e9trica por el que pasan cables de oro de forma vertical.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" width=\"741\" height=\"405\" src=\"https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-5.png\" alt=\"\" class=\"wp-image-4175\" srcset=\"https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-5.png 741w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-5-300x164.png 300w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-5-18x10.png 18w\" sizes=\"(max-width: 741px) 100vw, 741px\" \/><figcaption class=\"wp-element-caption\">Estructura de la memoria HBM <\/figcaption><\/figure>\n\n\n\n<p>De esa manera, podemos leer y escribir con\/de esos chips todos al mismo tiempo. Un proceso complejo que hace que la transferencia de datos sea lo m\u00e1s r\u00e1pida y limpia posible. Despu\u00e9s se une a un <strong>Interposer<\/strong>. Un <strong>interposer <\/strong>es un chip que conecta la <strong>RAM <\/strong>con la <strong>GPU<\/strong>, para que la gr\u00e1fica acceda a la memoria lo m\u00e1s r\u00e1pido posible.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"886\" height=\"312\" src=\"https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-6.png\" alt=\"\" class=\"wp-image-4176\" srcset=\"https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-6.png 886w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-6-300x106.png 300w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-6-768x270.png 768w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-6-18x6.png 18w\" sizes=\"(max-width: 886px) 100vw, 886px\" \/><figcaption class=\"wp-element-caption\">Uni\u00f3n del interposer con la GPU y la memoria HBM<\/figcaption><\/figure>\n\n\n\n<p>Con esto si la DRAM mueve 80\/100 GB por segundo, la HBM mueve <strong>8 TB por segundo<\/strong>, 80 veces m\u00e1s r\u00e1pida. Este proceso de uni\u00f3n se llama <strong>CoWoS<\/strong> (<strong>Chip-on-Wafer-on-Substrate<\/strong>) y adivinad quien lo hace: <strong>TSMC<\/strong>. La f\u00e1brica de <strong>Taiwan <\/strong>donde hacen los chips m\u00e1s avanzados del mundo y las propias gr\u00e1ficas de Nvidia.<\/p>\n\n\n\n<p>\u00d3sea lo que ocurre es que en Corea del Sur se fabrican estas obleas de memoria, se env\u00edan a <strong>TSMC <\/strong>y ellos las montan dentro de las gr\u00e1ficas de <strong>Nvidia<\/strong>. Por lo que a TSMC le interesa m\u00e1s hacer las memorias de Nvidia que las tradicionales DRAM, porque se venden mucho m\u00e1s caras (hasta 4 veces m\u00e1s) y como churros.<\/p>\n\n\n\n<p>Lo que hay que entender aqu\u00ed si te suena a chino es que los tres fabricantes que hacen la memoria de tu PC, de tu <strong>IPhone <\/strong>y de tu <strong>PlayStation<\/strong>, est\u00e1n desviando cada vez m\u00e1s capacidad hacia la memoria HBM para IA. Samsung va a mantener una producci\u00f3n m\u00ednima de RAM, pero <strong>Micron <\/strong>(EE.UU.) hizo un comunicado diciendo que abandonan el mercado de los productos de consumo bajo la marca <strong>Crucial<\/strong>, centr\u00e1ndose en las <strong>HBM<\/strong>.<\/p>\n\n\n\n<p>Por ello habr\u00e1 cada vez menos memoria. <strong>Meta <\/strong>y <strong>Google <\/strong>est\u00e1n comprando directamente a los fabricantes para poder producir sus gr\u00e1ficas pidi\u00e9ndoles que les asignen toda la RAM que puedan hacer.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">\u00bfY si todo esto es una burbuja?<\/h2>\n\n\n\n<p>\u00bfPero si hay tanto problema de producci\u00f3n porque no abren m\u00e1s fabricas? Las empresas que est\u00e1n en la carrera de la IA no est\u00e1n teniendo beneficios seg\u00fan lo invertido por lo menos hasta ahora. Si explotase la burbuja, la demanda caer\u00eda much\u00edsimo y los fabricantes se comer\u00edan todas esas memorias.<\/p>\n\n\n\n<p><strong>Micron <\/strong>est\u00e1 fabricando una f\u00e1brica de memoria nueva en Jap\u00f3n que la previsi\u00f3n es abrirla este a\u00f1o, lleva 2 a\u00f1os de trabajo construirla y unos<strong> 9.600 millones de d\u00f3lares.<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"361\" height=\"241\" src=\"https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-7.png\" alt=\"\" class=\"wp-image-4177\" style=\"aspect-ratio:1.4979575957984828;width:361px;height:auto\" srcset=\"https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-7.png 361w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-7-300x200.png 300w, https:\/\/enecworld.com\/wp-content\/uploads\/2026\/04\/image-7-18x12.png 18w\" sizes=\"(max-width: 361px) 100vw, 361px\" \/><figcaption class=\"wp-element-caption\">Las oficinas de Micron se encuentran en Boise, Idaho, Estados Unidos.<\/figcaption><\/figure>\n\n\n\n<p>Micron invertir\u00e1 US$9.600 millones en una planta en el oeste de Jap\u00f3n, seg\u00fan Nikkei.<\/p>\n\n\n\n<p>En 2018 y 2019 la RAM se vend\u00eda barat\u00edsima por la inflaci\u00f3n y lo ocurrido en esos a\u00f1os, hab\u00eda almacenes llenos y de hecho <strong>se pararon las inversiones para 2022 y 2023<\/strong>, parando algunas l\u00edneas de f\u00e1bricas de producci\u00f3n y esto son millones en p\u00e9rdidas. Por ello es m\u00e1s rentable vender toda la producci\u00f3n a la IA (adem\u00e1s son los que m\u00e1s pagan) y si finalmente es una burbuja, se retoman las producciones de <strong>RAM<\/strong>, en vez de tener que quedarse con f\u00e1bricas de una tecnolog\u00eda que no funcionar\u00eda.<\/p>\n\n\n\n<p>Por lo que todas las empresas que quieren el pastel de la IA, est\u00e1n invirtiendo miles de millones en ordenadores nuevos, para subirse a esta ola y ejecutar modelos mas complejos y costosos. As\u00ed que para ganar, se necesitan memoria y chips.<\/p>\n\n\n\n<p>La IA no va m\u00e1s r\u00e1pido porque no puede. Al principio los modelos eran una casta\u00f1a, luego mejoraron, no hab\u00eda suficientes chips, ahora son las memorias, \u00bfy lo siguiente? Seguramente la electricidad para alimentar todos esos chips. Pero eso si no explota antes la burbuja.<\/p>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>Qu\u00e9 es la RAM y por qu\u00e9 es cr\u00edtica La RAM (Random Access Memory) es la memoria temporal que utilizan los sistemas electr\u00f3nicos para procesar informaci\u00f3n en tiempo real. Act\u00faa como un espacio de trabajo donde los programas y componentes colocan los datos que necesitan de forma inmediata. La RAM es vol\u00e1til: cuando el dispositivo [&hellip;]<\/p>\n","protected":false},"author":3,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-4167","post","type-post","status-publish","format-standard","hentry","category-uncategorized"],"acf":[],"_links":{"self":[{"href":"https:\/\/enecworld.com\/en\/wp-json\/wp\/v2\/posts\/4167","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/enecworld.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/enecworld.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/enecworld.com\/en\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/enecworld.com\/en\/wp-json\/wp\/v2\/comments?post=4167"}],"version-history":[{"count":2,"href":"https:\/\/enecworld.com\/en\/wp-json\/wp\/v2\/posts\/4167\/revisions"}],"predecessor-version":[{"id":4178,"href":"https:\/\/enecworld.com\/en\/wp-json\/wp\/v2\/posts\/4167\/revisions\/4178"}],"wp:attachment":[{"href":"https:\/\/enecworld.com\/en\/wp-json\/wp\/v2\/media?parent=4167"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/enecworld.com\/en\/wp-json\/wp\/v2\/categories?post=4167"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/enecworld.com\/en\/wp-json\/wp\/v2\/tags?post=4167"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}