Amerykańska firma Micron Technology, Inc. ogłosiła dziś rozpoczęcie samplingu pierwszej w branży pamięci HBM3 drugiej generacji, która oferuje nawet 50% poprawę w stosunku do obecnie dostarczanych rozwiązań HBM3.
W przypadku nowych pamięci HBM3 Gen2 mowa o pojemności 24 GB, przepustowości przekraczającej 1,2 TB/s i prędkości per pin ponad 9,2 Gb/s. Dzięki 2,5-krotnej poprawie wydajności na wat w porównaniu z poprzednimi generacjami, oferta HBM3 Gen2 firmy Micron ustanawia nowe rekordy w zakresie krytycznych wskaźników centrów danych sztucznej inteligencji (AI), takich jak wydajność, pojemność i efektywność energetyczna. Te ulepszenia skracają czas szkolenia dużych modeli językowych, takich jak GPT-4, zapewniają wydajne wykorzystanie infrastruktury i zapewniają najwyższy całkowity koszt posiadania (TCO).
Micron dostarcza najszybsze w branży pamięci HBM o najwyższej pojemności, aby rozwijać innowacje w zakresie AI
Podstawą rozwiązania pamięci o wysokiej przepustowości (HBM) firmy Micron jest wiodąca w branży litografia 1β (1-beta), który umożliwia montaż matrycy DRAM o pojemności 24 GB w kostce o wysokości 8 warstw w standardowym wymiarze opakowania. Zwiększona wydajność energetyczna jest możliwa dzięki postępom firmy, takim jak podwojenie przelotek krzemowych (TSV) w porównaniu z konkurencyjnymi ofertami HBM3, redukcji impedancji termicznej dzięki pięciokrotnemu wzrostowi gęstości metalu oraz energooszczędnej konstrukcji ścieżek danych.
Rozwiązanie Microna odpowiada na rosnące wymagania w świecie generatywnej sztucznej inteligencji dla multimodalnych, wieloparametrowych modeli. Dzięki 24 GB pojemności na kostkę i ponad 9,2 Gb/s prędkości pinów, czas szkolenia dużych modeli językowych jest skrócony o ponad 30%. Dodatkowo, oferta firmy odblokowuje znaczny wzrost liczby zapytań dziennie, umożliwiając bardziej efektywne wykorzystanie wytrenowanych modeli.
Opisywane pamięci są projektowane i opracowywane w Stanach Zjednoczonych, produkcja odbywa się w Japonii, a zaawansowane pakowanie na Tajwanie. Micron planuje również w pierwszej połowie 2024 roku udostępnić moduły RAM DDR5 o pojemności 128 GB, które oparte zostaną na kościach DRAM 1β 32 Gb. Oferty te demonstrują wiodące innowacje technologiczne firmy dla serwerów AI.
Najnowsze Komentarze