NVIDIA jest obecnie liderem w dostarczaniu układów, które są wykorzystywane w ogromnych serwerach generatywnej sztucznej inteligencji. Zieloni nie zamierzają tego zmieniać, prezentując nowy model NVIDIA GH200 Grace Hopper.
Amerykańska firma zaprezentowała wczoraj następną generację platformy generatywnej sztucznej inteligencji NVIDIA GH200 Grace Hopper, wykorzystującą nowe pamięci HBM3e (High Bandwidth Memory 3E). Oferują one znacznie wyższą pojemność i przepustowość. Zieloni zaprezentowali swój nowy układ w ramach konferencji SIGGRAPH.
NVIDIA obiecuje trzykrotnie wyższą przepustowość
Nowa platforma wykorzystuje superukład Grace Hopper, który można połączyć z dodatkowymi superukładami za pomocą NVIDIA NVLink, umożliwiając im współpracę w celu wdrożenia gigantycznych modeli wykorzystywanych do generatywnej sztucznej inteligencji. Ta szybka, spójna technologia daje GPU pełny dostęp do pamięci CPU, zapewniając łącznie 1,2 TB szybkiej pamięci w podwójnej konfiguracji.
NVIDIA
Nowa pamięć HBM3e ma być o 50 procent szybsza niż obecna pamięć HBM3. NVIDIA twierdzi, że powinna ona oferować do 10 TB/s łącznej przepustowości.
Nowa platforma GH200 Grace Hopper Superchip zapewnia to dzięki wyjątkowej technologii pamięci o większej przepustowości i możliwości łączenia procesorów graficznych w celu agregacji wydajności bez kompromisów w konstrukcji serwera, którą można łatwo wdrożyć w całym centrum danych
Jensen Huang, CEO NVIDII
W maju podczas tajwańskich targów Computex NVIDIA zapowiedziała, że obecna generacja chipów GH200 Grace Hopper wejdzie do pełnej produkcji jeszcze w 2023 roku. Nowo ogłoszone chipy i serwery Grace Hopper są jeszcze daleko, a Zieloni przewidują, że producenci systemów zaczną dostarczać serwery z tą nową platformą w drugim kwartale 2024 roku. Nie wiadomo nic na temat cen, ale NVIDIA stwierdziła, że nowe układy „będą dostępne w szerokiej gamie konfiguracji„.
Najnowsze Komentarze