La alta velocidad de la memoria HBM la hace muy popular en sistemas diseñados para inteligencia artificial, debido a su gran ancho de banda. NVIDIA emplea ampliamente en sus GPU Blackwell y Hopper.
SK Hynix ya había anunciado hace unas semanas que había vendido todos los chips previstos para 2024: Hemos agotado nuestro volumen de producción previsto de HBM para este año. Aunque 2024 acaba de comenzar, ya hemos empezado a prepararnos para 2025 con el fin de seguir estando al día en el mercado.
Según Reuters, en una conferencia, el director ejecutivo de la compañía Kwak Noh-Jung mencionó que la producción para 2025 “está prácticamente reservada hasta 2025”. Recientemente, Sanjay Mehrotra, CEO de Micron, hizo una declaración similar: AnandTech informó que nuestro HBM está agotado para el año calendario 2024 y la mayoría de nuestro suministro para 2025 ya ha sido asignado.
Samsung aún no ha compartido sus predicciones para este año y el próximo, al parecer. El fabricante afirma que los envíos de chips HBM se espera que se tripliquen con creces este año, y ha finalizado las conversaciones de suministro con los clientes, pero no ofrece más detalles.
Con SK Hynix y Micron, son los tres fabricantes más grandes de memorias HBM, utilizadas en las GPU para inteligencia artificial.