Cererea globală pentru memorie de tip High Bandwidth Memory (HBM) utilizată în acceleratoarele dedicate serverelor de inteligență artificială ar putea crește de aproximativ 35 de ori în perioada 2024-2028.
Estimarea provine dintr-un nou raport publicat de Counterpoint Research, care analizează evoluția infrastructurii hardware necesare pentru dezvoltarea și rularea modelelor AI.
Creșterea este alimentată în principal de extinderea acceleratoarelor personalizate dezvoltate de marii operatori de cloud și de adoptarea unor arhitecturi de memorie cu densitate tot mai mare.
:format(webp):quality(100)/https://www.go4it.ro/wp-content/uploads/2026/03/HBM-Demand-scaled.jpg)
Un factor esențial pentru această evoluție este extinderea infrastructurii bazate pe cipuri dezvoltate intern de companiile de tehnologie. Printre acestea se numără acceleratoarele utilizate de Google pentru ecosistemul Gemini, dar și platformele dezvoltate de Amazon, Meta și Microsoft.
Pe măsură ce aceste companii își extind portofoliul de acceleratoare AI, memoria HBM devine o componentă esențială pentru performanța sistemelor, oferind lățime de bandă ridicată și latență redusă pentru procesarea datelor.
Modelele de inteligență artificială devin tot mai complexe, iar unele dintre ele ajung la sute de miliarde sau chiar trilioane de parametri. Pentru a susține astfel de sarcini, producătorii de cipuri integrează cantități tot mai mari de memorie direct în jurul nucleelor de calcul.
Această evoluție permite păstrarea unor volume mari de date cât mai aproape de procesor, reducând întârzierile și maximizând viteza de procesare în timpul operațiunilor de inferență sau antrenare a modelelor.
Potrivit estimărilor, standardul HBM3E va deveni dominant în ecosistemul acceleratoarelor AI. Până în 2028, acesta ar putea reprezenta aproximativ 56% din cererea totală de HBM pentru cipurile ASIC utilizate în centrele de date.
Succesul HBM3E este atribuit echilibrului dintre capacitatea mare de memorie și lățimea de bandă necesară pentru modelele AI moderne. Stabilizarea proceselor de producție și îmbunătățirea randamentului au contribuit la accelerarea adoptării acestei tehnologii de către furnizorii de cloud.
Pe termen mai lung, industria ar putea trece către soluții de memorie personalizate, odată cu apariția generațiilor HBM4 și HBM4E. Acestea vor integra componente logice direct în structura memoriei, permițând optimizarea performanței pentru anumite tipuri de acceleratoare.
Această schimbare ar putea crea noi oportunități pentru producătorii de memorie, care vor putea dezvolta produse adaptate cerințelor specifice ale clienților și ale arhitecturilor hardware.
Piața HBM rămâne puternic concentrată, fiind dominată în principal de SK Hynix și Samsung Electronics. În același timp, Micron Technology încearcă să câștige teren prin noi contracte și extinderea capacităților de producție.
O altă componentă esențială a acestei evoluții este tehnologia de ambalare avansată a semiconductorilor, domeniu în care TSMC joacă un rol central prin soluțiile sale CoWoS.
Totuși, pe fondul limitărilor de capacitate ale TSMC, unele companii explorează alternative. Printre acestea se numără tehnologia EMIB-T dezvoltată de Intel, care ar putea deveni o opțiune viabilă pentru integrarea acceleratoarelor AI de generație viitoare.
În prezent, una dintre companiile care stimulează cel mai puternic cererea pentru memorie HBM este Google, datorită extinderii infrastructurii bazate pe procesoare Tensor Processing Unit. Potrivit estimărilor analiștilor, dezvoltarea acceleratoarelor TPU din următorii ani va continua să crească semnificativ necesarul de memorie avansată.
În ansamblu, evoluția pieței indică faptul că memoria HBM va deveni una dintre cele mai importante componente ale infrastructurii hardware pentru inteligență artificială, pe măsură ce companiile tehnologice își extind investițiile în centre de date și acceleratoare specializate.
:format(webp):quality(100)/https://www.go4it.ro/wp-content/uploads/2026/03/Principali-cumparatori-HBM.jpg)