Zahtevaj ponudbo

Novice

MICRON MASS proizvede 12 plastni čip HBM3E 36 GB, izdelek pa je podvržen preverjanju kupcev


Micron je predstavil proizvodno različico 12 -slojnega čipa HBM3E, primernega za naslednjo generacijo GPU -jev umetne inteligence (AI), z zmogljivostjo pomnilnika do 36 GB in hitrosti, ki presegajo 9,2 GB/s.Micron je izjavil, da trenutno dobavlja proizvodno prenosno 12 -slojno peto generacijo HBM (HBM3E) pomembnim partnerjem v industrijski verigi AI za postopke preverjanja.

Micron je 9. septembra uradno napovedal izstrelitev pomnilnika HBM3E z 12 plastom.Novi izdelek ima zmogljivost 36 GB in je zasnovan za vrhunske procesorje za delovne obremenitve AI in HPC (visokozmogljivo računalništvo), kot sta Nvidia's H200 in B100/B200 GPU.

Micronov 12 sloj HBM3E pomnilniški sklad ima zmogljivost 36 GB, kar je 50% večje od prejšnje 8-slojne različice (24 GB).Povečanje zmogljivosti omogoča podatkovni centri za zagon večjih modelov AI na enem procesorju.Ta funkcija odpravlja potrebo po pogostem pretoku CPU -ja, zmanjša zamudo komunikacije med GPU in pospeši obdelavo podatkov.

Glede na zmogljivost lahko Micron -ov 12 sloj HBM3E Stack zagotavlja pasovno širino pomnilnika, ki presega 1,2TB/S in hitrosti prenosa podatkov, ki presega 9,2 GB/s.Po besedah ​​Microna podjetja HBM3E ne zagotavlja le 50% več pomnilniške zmogljivosti kot njegovi konkurenti, ampak tudi porabi manj moči kot 8-slojni sklad HBM3E.

MICRON-ov 12 sloj HBM3E vključuje popolnoma programabilen pomnilnik vgrajen sistem za samotest (MBIST), ki zagotavlja hitrejši čas izdelka za trženje in zanesljivost za stranke.Ta tehnologija lahko simulira sistemski promet s polno hitrostjo, kar omogoča celovito testiranje in hitrejšo potrjevanje novih sistemov.

Mikronske pomnilniške naprave HBM3E so združljive s TSMC -jevo tehnologijo embalaže Cowos, ki se pogosto uporablja v procesorskih paketih AI, kot sta Nvidia's H100 in H200.

Poroča se, da je Micron začel razvijati svoje pomnilniške rešitve naslednje generacije, vključno s HBM4 in HBM4E.Te prihajajoče vrste pomnilnika bodo še naprej ustrezale naraščajočemu povpraševanju po naprednem pomnilniku v procesorjih AI, vključno z Nvidia GPU -ji, ki temeljijo na Blackwell in Rubin arhitekturi.