Współzałożyciel OpenAI tworzy nowy startup. Safe Superintelligence zadba o bezpieczeństwo sztucznej inteligencji

Informacje o autorze

20 czerwca 2024
Udostępnij:

Ilya Sutskever, jeden z założycieli OpenAI i były główny naukowiec firmy, rozpoczyna działalność nowego startupu. Zadba o kwestie bezpieczeństwa i kontroli systemów sztucznej inteligencji.

Safe Superintelligence

Po burzliwym odejściu z OpenAI w maju bieżącego roku jasnym było, że Ilya Sutskever poświęci się autorskiemu projektowi. Mówił o tym nawet Sam Altman, komentując to wydarzenie na portalu X. Przypomnijmy, że to właśnie Sutskever był odpowiedzialny za wcześniejsze, nieudane wyrzucenie Altmana z projektu, z którego w konsekwencji sam musiał odejść. Jego miejsce w OpenAI na stanowisku głównego naukowca zajął Polak, Jakub Pachocki.

Warto przeczytać: Rewolucja w OpenAI. Polak zastąpi głównego naukowca firmy

Safe Superintelligence

W środę, 19 czerwca 2024 roku, jasnym stało się, nad czym obecnie pracuje Ilya Sutskever. Na swoim profilu na portalu X ogłosił założenie nowego startupu. Safe Superintelligence (w skrócie SSI) podejmie tematykę bezpieczeństwa i kontroli sztucznej inteligencji. Nie jest to specjalnym zaskoczeniem, zważywszy na fakt, że założyciel startupu był wcześniej członkiem zespołu OpenAI Superalignment, który realizował podobne zadania w ramach OpenAI. Po jego odejściu z firmy zespół został rozwiązany.

Sukces działań nowego projektu ma przynieść wąska specjalizacja i skupienie się wyłącznie na tym zagadnieniu. Kwestie bezpieczeństwa mają być również odizolowane od nacisków komercyjnych. Oprócz Sutskevera założycielami startupu SSI są również były nadzorca AI w firmie Apple, Daniel Gross oraz Daniel Levy, pracujący wcześniej w OpenAI. Startup będzie posiadał biura w Palo Alto w Kalifornii, a także w Tel Awiwie.

Warto przeczytać: Zeta Labs zyskuje 2,9 mln dolarów. Rozwinie autonomicznego agenta AI

Polecamy

Więcej w tym dziale: