Ilya Sutskever elindítja a Safe Superintelligence Inc. vállalatot

Gábor Bíró 2024. június 28.
2 perc olvasási idő

Ilya Sutskever, az OpenAI társalapítója és korábbi vezető tudósa, elindított egy új mesterséges intelligencia vállalatot Safe Superintelligence Inc. (SSI) néven. A vállalat deklarált célja egy szuperintelligens MI rendszer kifejlesztése, ahol a biztonság abszolút elsőbbséget élvez.

Ilya Sutskever elindítja a Safe Superintelligence Inc. vállalatot
Forrás: Saját szerkesztés

A Safe Superintelligence Inc. megalakulását hivatalosan 2024. június 19-én jelentették be Ilya Sutskever X-en (korábban Twitter) közzétett bejegyzésén keresztül, amint arról többek között a The New York Times, a Time és a CNBC is beszámolt. Az SSI egyedüli küldetése, hogy olyan MI-t fejlesszen ki, amely jelentősen meghaladja az emberi intelligenciát, miközben biztosítja, hogy az biztonságos és hasznos maradjon. Az SSI egyedülálló módon kizárólag erre az egyetlen célra kíván összpontosítani – a biztonságos szuperintelligencia létrehozására –, megvédve munkáját a rövid távú kereskedelmi nyomástól, a vezetési terhektől vagy a termékciklusoktól, amelyek számos jelenlegi MI laboratóriumot érintenek. A vállalat célja a biztonságos szuperintelligencia építésének alapvető technikai kihívásainak kezelése, megkülönböztetve biztonsági fókuszát talán a kapcsolódó fogalmaktól, mint például az operatív bizalom és biztonság, vagy akár a nukleáris biztonsági paradigmák.

Ilya Sutskeverhez a Safe Superintelligence Inc. társalapítóiként csatlakoznak:

  1. Daniel Gross: Az Apple korábbi MI vezetője, ahol a vállalat MI és keresési kezdeményezésein dolgozott 2017-ig, valamint ismert befektető/vállalkozó.
  2. Daniel Levy: Az OpenAI korábbi műszaki munkatársa és kutatója, aki korábban Sutskeverrel is együttműködött.

Sutskever az SSI vezető tudósa lesz, akinek feladata a forradalmi fejlesztések felügyelete. A vállalat irodákat hozott létre Palo Altóban, Kaliforniában és Tel Avivban, Izraelben.

Sutskever 2024 májusában távozott az OpenAI-tól, miután 2023 novemberében részt vett Sam Altman vezérigazgató eltávolítására tett kísérletben. Altman visszahelyezése után Sutskever megbánást tanúsított tettei miatt, és támogatta az igazgatótanács döntését, bár ezt követően elvesztette igazgatótanácsi tagságát, és szerepe csökkent. Távozása előtt Sutskever Jan Leike mellett vezette az OpenAI "Superalignment" csapatát, amely kifejezetten a nagy képességű MI hosszú távú biztonsági kihívásaira összpontosított. Leike röviddel Sutskever előtt mondott fel, nyilvánosan aggodalmát fejezve ki amiatt, hogy az OpenAI-nál a biztonsági kultúra és folyamatok "háttérbe szorultak a csillogó termékekkel szemben".

Az SSI elindítása az MI közösségen belül egyre növekvő aggodalmak közepette történik a fejlett MI rendszerek biztonsági és etikai vonatkozásai miatt. Sutskever új vállalkozása hangsúlyozza a biztonság kritikus fontosságát az MI fejlesztésében, és közvetlenül a verifikálhatóan biztonságos szuperintelligencia létrehozásának technikai akadályait célozza meg. Ez az éles fókusz a biztonságra különösen releváns az OpenAI-tól való közelmúltbeli, nagy horderejű távozások fényében, mint például Jan Leike távozása, amely rávilágított a gyors képességfejlesztés és a hosszú távú kockázatcsökkentés közötti feszültségekre.

Gábor Bíró 2024. június 28.