A Micron elindította a 12 rétegű HBM3E chip gyártási verzióját, amely alkalmas a mesterséges intelligencia (AI) GPU -k következő generációjára, 36 GB -os memóriakapacitással és 9,2 GB/s sebességgel meghaladó sebességgel.A Micron kijelentette, hogy jelenleg a gyártási hordozható 12 rétegű ötödik generációs HBM -et (HBM3E) szállítja az AI iparági lánc fontos partnerei számára az ellenőrzési eljárásokhoz.
A Micron hivatalosan bejelentette a HBM3E memória elindítását egy 12 rétegű veremmel szeptember 9 -én.Az új termék kapacitása 36 GB, és az AI és HPC (nagy teljesítményű számítástechnika) munkaterhelések, például az NVIDIA H200 és B100/B200 GPU-jának, az élvonalbeli processzorokhoz tervezték.
A Micron 12 rétegű HBM3E memóriakötegének kapacitása 36 GB, ami 50% -kal magasabb, mint az előző 8-rétegű verzió (24 GB).A kapacitás növekedése lehetővé teszi az adatközpontok számára, hogy nagyobb AI modelleket futtassanak egyetlen processzoron.Ez a szolgáltatás kiküszöböli a gyakori CPU kirakodás szükségességét, csökkenti a GPU -k közötti kommunikációs késleltetést és felgyorsítja az adatfeldolgozást.
A teljesítmény szempontjából a Micron 12 rétegű HBM3E -verziója az 1,2 TB/s -ot meghaladó memória sávszélességet és a 9,2 GB/s -ot meghaladó adatátviteli sebességeket képes biztosítani.A Micron szerint a vállalat HBM3E nemcsak 50% -kal több memóriakapacitást biztosít, mint a versenytársai, hanem kevesebb energiát is igényel, mint a 8 rétegű HBM3E verem.
A Micron 12 rétegű HBM3E egy teljesen programozható memória beépített önteszt (MBIST) rendszert tartalmaz, amely biztosítja az ügyfelek számára a piac gyorsabb piaci idejét és a megbízhatóságot.Ez a technológia teljes sebességgel szimulálja a rendszerszintű forgalmat, lehetővé téve az új rendszerek átfogó tesztelését és gyorsabb validálását.
A Micron HBM3E memóriakészülékei kompatibilisek a TSMC Cowos csomagolási technológiájával, amelyet széles körben használnak az AI processzor csomagokban, mint például az NVIDIA H100 és H200.
Úgy tűnik, hogy a Micron megkezdte a következő generációs memória megoldásainak fejlesztését, beleértve a HBM4-et és a HBM4E-t.Ezek a közelgő memóriatípusok továbbra is kielégítik az AI processzorok fejlett memóriájának növekvő igényét, ideértve az NVIDIA GPU -kat, a Blackwell és a Rubin architektúrák alapján.