Twórca OpenAI startuje z rewolucyjną firmą – Safe Superintelligence Inc.

Świat sztucznej inteligencji (AI) jest obecnie w fazie dynamicznego rozwoju, a na czoło tego wyścigu wychodzą coraz to nowsze inicjatywy. Jednym z najnowszych projektów, który znacząco przyciąga uwagę ekspertów i mediów, jest Safe Superintelligence Inc. (SSI) – nowa firma założona przez Ilję Sutskevera, współzałożyciela i byłego głównego naukowca OpenAI. Wraz z Danielem Grossem z Y Combinator oraz byłym inżynierem OpenAI Danielem Levy, Sutskever stawia sobie za cel rozwiązanie kluczowego problemu w dziedzinie AI: stworzenia bezpiecznej i potężnej superinteligentnej sztucznej inteligencji.

Ilja Sutskever jest przekonany, że osiągnięcie superinteligencji – AI, która dorównuje lub przewyższa ludzką inteligencję – jest możliwe w ciągu najbliższych dziesięciu lat. Na platformie X (dawniej Twitter) Sutskever ogłosił, że „superinteligencja jest na wyciągnięcie ręki” i że budowanie bezpiecznej superinteligencji to najważniejszy problem techniczny naszych czasów. W swoim oświadczeniu podkreślił, że SSI jest pierwszym laboratorium, które skoncentruje się wyłącznie na tym celu, a jego zespół, inwestorzy i model biznesowy są w pełni dostosowani do realizacji tego zadania.

Założyciele SSI opisują swoją firmę nie tylko jako misję, ale także jako nazwę i cały plan produktowy. „SSI to nasza misja, nasze imię i cały nasz plan produktowy, ponieważ jest to nasza jedyna koncentracja” – czytamy w oświadczeniu. Taka jednoznaczność celu i koncentracja na jednym zadaniu ma pozwolić SSI na osiągnięcie przełomów w dziedzinie AI.

Decyzja Sutskevera o założeniu nowej firmy nastąpiła po burzliwych wydarzeniach związanych z jego odejściem z OpenAI. Chociaż publicznie wyrażał wzajemny szacunek wobec CEO OpenAI Sama Altmana, to kulisy wskazują na podskórne napięcia. Sutskever odegrał kluczową rolę w próbie odsunięcia Altmana, czego później żałował. Jego formalna rezygnacja z OpenAI w maju oraz odejście innych kluczowych badaczy z powodu obaw o bezpieczeństwo sygnałują, że OpenAI może tracić ze swojego pierwotnego kierunku.

Kluczowym elementem filozofii SSI jest podejście do bezpieczeństwa AI. Obawy dotyczące ryzyka związanego z AI są gorąco dyskutowane. Chociaż wiele osób odczuwa pierwotny lęk przed systemami sztucznej inteligencji, które mogą przewyższyć ludzką inteligencję, to nie wszyscy badacze uważają, że jest to możliwe w najbliższej przyszłości. Jednakże, jak podkreślają założyciele SSI, zaniedbanie tych obaw może w przyszłości przynieść katastrofalne skutki. Dlatego SSI planuje jednoczesne rozwiązywanie problemów związanych z bezpieczeństwem i zdolnościami AI, traktując je jako problemy techniczne do rozwiązania poprzez przełomowe inżynierstwo i odkrycia naukowe.

SSI zamierza skalować się w spokoju, wolne od rozproszeń zarządzania, cykli produktowych i krótkoterminowych nacisków komercyjnych. Firma zamierza zbudować „szczupły, doświadczony zespół najlepszych inżynierów i badaczy na świecie”, który będzie skoncentrowany wyłącznie na jednym celu. Z biurami w Palo Alto i Tel Awiwie, SSI zamierza rekrutować najlepsze talenty techniczne, oferując im możliwość realizacji życiowych projektów i rozwiązania najważniejszego wyzwania technicznego naszych czasów.

Nowa inicjatywa SSI to kolejny gracz na dynamicznie rozwijającym się polu sztucznej inteligencji. Będzie niezwykle interesujące obserwować, kto dołączy do zespołu SSI, zwłaszcza czy dojdzie do znaczącego przepływu talentów z OpenAI.

Podobne artykuły

Meta rewolucjonizuje sztuczną mowę!

W dobie dynamicznie rozwijającej się technologii sztucznej inteligencji, coraz trudniej jest odróżnić materiały stworzone przez człowieka od tych generowanych automatycznie. Jednym z kluczowych wyzwań, przed

Czytaj wiecej >

© 2025 AIEDU.PL.