SK hynix a început producția în masă pentru modulele 192GB SOCAMM2, un pas important într-o cursă care se intensifică între marii producători de memorie pentru a satisface cerințele centrelor de date AI.
Compania mizează pe memoria LPDDR5X pe proces de 10nm clasa a șasea (1c) și pe optimizări pentru platforma NVIDIA Vera Rubin.
Potrivit producătorului, modulul construit pe 1c DRAM oferă mai mult de dublul lățimii de bandă și o eficiență energetică îmbunătățită cu peste 75% față de modulele RDIMM convenționale.
SK hynix prezintă SOCAMM2 ca pe o soluție server‑friendly derivată din memoria low‑power folosită în mod normal în dispozitive mobile, dar adaptată pentru infrastructura AI printr‑un conector de tip compresie care îmbunătățește integritatea semnalului și facilitează înlocuirea modulelor.
Compania a precizat că a stabilizat rapid producția în masă pentru a răspunde cererii venite de la furnizorii globali de servicii cloud.
Lupta pentru supremație pe piața SOCAMM2 se încinge. Micron a livrat la începutul lunii martie mostre de 256GB SOCAMM2, depășind capacitatea de 192GB oferită de alți jucători.
Samsung, la rândul său, a raportat progrese tehnice importante: a rezolvat problema de warpage printr‑o tehnologie internă de lipire la temperaturi scăzute (LTS), reducând riscul de defecte la conexiuni în structura compresivă a modulului.
Analiști citați în presă estimează că Samsung ar putea livra volume semnificative către NVIDIA, iar Micron își marchează avansul prin mostrele de 256GB, care oferă aproximativ 33% capacitate în plus față de 192GB.
SOCAMM2 apare ca un strat intermediar între HBM, cu lățime de bandă extremă, și DDR5 RDIMM, cu capacitate mare. Avantajul este combinarea eficienței energetice a LPDDR cu un design modular și ușor de înlocuit, ceea ce poate atenua blocajele de memorie în antrenarea și inferența modelelor uriașe.
Pe termen scurt, competiția între SK hynix, Samsung și Micron ar putea accelera inovația și diversificarea ofertelor pentru furnizorii de cloud și integratorii de sisteme AI.
Pe termen lung, rămâne de văzut cum se vor echilibra cererea pentru performanță și presiunile pe lanțurile de producție, în special pe măsură ce producătorii trec la noi generații de memorie și ajustează liniile de fabricație.
Se poate spune că piața memoriei pentru AI intră într‑o fază dinamică: SK hynix livrează 192GB SOCAMM2 la scară, Micron împinge limitele cu 256GB, iar Samsung lucrează la robustețe și producție stabilă.
Pentru operatorii de centre de date, asta înseamnă mai multe opțiuni și, posibil, o schimbare rapidă a arhitecturilor de memorie folosite în proiectele mari de inteligență artificială.
VIDEO