Po burzliwym odejściu z OpenAI w maju bieżącego roku jasnym było, że Ilya Sutskever poświęci się autorskiemu projektowi. Mówił o tym nawet Sam Altman, komentując to wydarzenie na portalu X. Przypomnijmy, że to właśnie Sutskever był odpowiedzialny za wcześniejsze, nieudane wyrzucenie Altmana z projektu, z którego w konsekwencji sam musiał odejść. Jego miejsce w OpenAI na stanowisku głównego naukowca zajął Polak, Jakub Pachocki.
Warto przeczytać: Rewolucja w OpenAI. Polak zastąpi głównego naukowca firmy
Safe Superintelligence
W środę, 19 czerwca 2024 roku, jasnym stało się, nad czym obecnie pracuje Ilya Sutskever. Na swoim profilu na portalu X ogłosił założenie nowego startupu. Safe Superintelligence (w skrócie SSI) podejmie tematykę bezpieczeństwa i kontroli sztucznej inteligencji. Nie jest to specjalnym zaskoczeniem, zważywszy na fakt, że założyciel startupu był wcześniej członkiem zespołu OpenAI Superalignment, który realizował podobne zadania w ramach OpenAI. Po jego odejściu z firmy zespół został rozwiązany.
Sukces działań nowego projektu ma przynieść wąska specjalizacja i skupienie się wyłącznie na tym zagadnieniu. Kwestie bezpieczeństwa mają być również odizolowane od nacisków komercyjnych. Oprócz Sutskevera założycielami startupu SSI są również były nadzorca AI w firmie Apple, Daniel Gross oraz Daniel Levy, pracujący wcześniej w OpenAI. Startup będzie posiadał biura w Palo Alto w Kalifornii, a także w Tel Awiwie.
Komentarze
Nie ma jeszcze żadnych komentarzy :)