Ranking kont firmowych Ranking kont osobistych

Nowa generacja chipów od Nvidia. Firma umacnia pozycję lidera sztucznej inteligencji

Blackwell to najnowsza generacja chipów od firmy Nvidia. Półprzewodniki mają trafić do dystrybucji jeszcze w tym roku.

Nvidia zamierza umocnić pozycję lidera dostawców rozwiązań dla AI. W tym celu, podczas poniedziałkowej konferencji w San Jose, przedstawiono nową generację chipów. Będą one następcą generacji H100. To świadome działanie, mając na uwadze fakt, że od wprowadzenia przez OpenAI narzędzia ChatGPT, akcje firmy Nvidia wzrosły kilkukrotnie. 

Warto przeczytać: Sztuczna inteligencja od Google w produktach Apple? Rozmowy pomiędzy gigantami trwają

Blackwell od Nvidii

Wysokiej klasy procesory to elementy niezbędne do tworzenia i wprowadzania dużych modeli opartych na sztucznej inteligencji. Potentaci w branży tacy jak Microsoft czy Meta na zakup półprzewodników wydają miliardy dolarów. By sprostać ich wymaganiom, Nvidia tworzy właśnie nową generację chipów Blackwell. 

Pierwszym z nich jest procesor o nazwie GB200. Ma on być dostępny jeszcze w tym roku. Nvidia stara się w ten sposób pobudzić nowe zamówienia i to pomimo faktu, że obecne półprzewodniki generacji Hooper wciąż cieszą się dużym zainteresowaniem twórców narzędzi AI. W firmie mają jednak świadomość, że by wciąż być liderem, należy nieustannie podnosić poprzeczkę konkurencji.

Nie tylko procesor

Z tego powodu kierownictwo zamierza dostarczać bardziej kompleksowe rozwiązania. Oprócz procesorów wprowadza także oprogramowanie NIM, które ułatwi wdrażanie rozwiązań sztucznej inteligencji. Nvidia ma stać się w ten sposób nie tylko dostawcą podzespołów, ale także rozwiązań, z których inni mogą korzystać, by tworzyć gotowe oprogramowanie. Ma ono umożliwić wprowadzanie stworzonych rozwiązań AI do dowolnych procesorów graficznych stworzonych przez Nvidia.

Pierwszy z nowej generacji procesorów ma cechować ogromny wzrost wydajności w stosunku do H100 – 20 petaflopów AI w porównaniu z 4 dostępnymi obecnie. Ma to umożliwić testowanie większych i bardziej skomplikowanych modeli AI. Nowe rozwiązanie będzie także dostępne jako serwer GB200 NVLink 2. Zawierać będzie 72 procesory Blackwell i inne narzędzia do trenowania modeli AI. Dostęp do niego ma być oferowany za pośrednictwem usług w chmurze. Nvidia podaje, że ma być w nim możliwe wdrażanie modeli o 27 bilionach parametrów.

Obecnie brak informacji związanych z kosztem nowych rozwiązań. H100 oparty na Hooperze to koszt od 25 do 40 tys. dolarów za chip. Natomiast koszt całego systemu to około 200 tys. dolarów.

Warto przeczytać: Startup z Korei pozyska 90 mln dolarów finansowania. DeepX rozwija chipy oparte na AI

Administratorem Twoich danych jest Bonnier Business (Polska) sp. z o.o. z siedzibą w Warszawie. Twoje dane będą przetwarzane w celu zamieszczenia komentarza oraz wymiany zdań, co stanowi prawnie uzasadniony interes Administratora polegający na umożliwieniu użytkownikom wymiany opinii naszym użytkownikom (podstawa prawna: art. 6 ust. 1 lit. f RODO). Podanie danych jest dobrowolne, ale niezbędne w celu zamieszczenia komentarza. Dalsze informacje nt. przetwarzania danych oraz przysługujących Ci praw znajdziesz w Polityce Prywatności.