Nvidia zamierza umocnić pozycję lidera dostawców rozwiązań dla AI. W tym celu, podczas poniedziałkowej konferencji w San Jose, przedstawiono nową generację chipów. Będą one następcą generacji H100. To świadome działanie, mając na uwadze fakt, że od wprowadzenia przez OpenAI narzędzia ChatGPT, akcje firmy Nvidia wzrosły kilkukrotnie.
Warto przeczytać: Sztuczna inteligencja od Google w produktach Apple? Rozmowy pomiędzy gigantami trwają
Blackwell od Nvidii
Wysokiej klasy procesory to elementy niezbędne do tworzenia i wprowadzania dużych modeli opartych na sztucznej inteligencji. Potentaci w branży tacy jak Microsoft czy Meta na zakup półprzewodników wydają miliardy dolarów. By sprostać ich wymaganiom, Nvidia tworzy właśnie nową generację chipów Blackwell.
Pierwszym z nich jest procesor o nazwie GB200. Ma on być dostępny jeszcze w tym roku. Nvidia stara się w ten sposób pobudzić nowe zamówienia i to pomimo faktu, że obecne półprzewodniki generacji Hooper wciąż cieszą się dużym zainteresowaniem twórców narzędzi AI. W firmie mają jednak świadomość, że by wciąż być liderem, należy nieustannie podnosić poprzeczkę konkurencji.
Nie tylko procesor
Z tego powodu kierownictwo zamierza dostarczać bardziej kompleksowe rozwiązania. Oprócz procesorów wprowadza także oprogramowanie NIM, które ułatwi wdrażanie rozwiązań sztucznej inteligencji. Nvidia ma stać się w ten sposób nie tylko dostawcą podzespołów, ale także rozwiązań, z których inni mogą korzystać, by tworzyć gotowe oprogramowanie. Ma ono umożliwić wprowadzanie stworzonych rozwiązań AI do dowolnych procesorów graficznych stworzonych przez Nvidia.
Pierwszy z nowej generacji procesorów ma cechować ogromny wzrost wydajności w stosunku do H100 – 20 petaflopów AI w porównaniu z 4 dostępnymi obecnie. Ma to umożliwić testowanie większych i bardziej skomplikowanych modeli AI. Nowe rozwiązanie będzie także dostępne jako serwer GB200 NVLink 2. Zawierać będzie 72 procesory Blackwell i inne narzędzia do trenowania modeli AI. Dostęp do niego ma być oferowany za pośrednictwem usług w chmurze. Nvidia podaje, że ma być w nim możliwe wdrażanie modeli o 27 bilionach parametrów.
Obecnie brak informacji związanych z kosztem nowych rozwiązań. H100 oparty na Hooperze to koszt od 25 do 40 tys. dolarów za chip. Natomiast koszt całego systemu to około 200 tys. dolarów.
Komentarze
Nie ma jeszcze żadnych komentarzy :)