Ilya Sutskever új AI vállalata a biztonságra fókuszál

Bíró Gábor 2024. június 28.

Az OpenAI társalapítója és korábbi vezető tudósa, Ilya Sutskever új mesterséges intelligencia vállalatot indított Safe Superintelligence Inc. (SSI) néven. A vállalat célja egy olyan szuperintelligens AI rendszer kifejlesztése, amely elsődlegesen a biztonságot és a biztonsági szempontokat helyezi előtérbe.

Ilya Sutskever új AI vállalata a biztonságra fókuszál

A The New York Times, Time és CNBC értesülései szerint Ilya Sutskever, az OpenAI társalapítója és korábbi vezető tudósa, új mesterséges intelligencia vállalatot indított Safe Superintelligence Inc. (SSI) néven. A vállalat célja egy olyan szuperintelligens AI rendszer kifejlesztése, amely elsődlegesen a biztonságot és a biztonsági szempontokat helyezi előtérbe.

A Safe Superintelligence Inc. hivatalosan 2024. június 19-én került bejelentésre egy Ilya Sutskever által közzétett posztban az X (korábbi nevén Twitter) platformon. A vállalat elsődleges célja egy olyan szuperintelligencia rendszer fejlesztése, amely meghaladja az emberi intelligenciát, miközben biztosítja a biztonságot és a védelmet. Az SSI egyetlen termékre kíván összpontosítani, hogy elkerülje a menedzsment túlterheltségét vagy a termékciklusokból adódó zavarokat, és megvédje a céget a rövid távú kereskedelmi nyomásoktól. Az SSI célja a biztonságos szuperintelligencia létrehozásának technikai kihívásainak kezelése, megkülönböztetve a nukleáris biztonság és a bizalom és biztonság fogalmait.

A Safe Superintelligence Inc. társalapítói között Ilya Sutskeveren kívül két másik alapítótag is szerepel:

  1. Daniel Gross: Az Apple korábbi AI vezetője, aki a cég AI és keresési kezdeményezésein dolgozott 2017-ig.
  2. Daniel Levy: Az OpenAI korábbi technikai munkatársa és kutatója, aki korábban együttműködött Sutskeverrel.

Sutskever az SSI vezető tudósa lesz, és feladatai közé tartozik az úttörő előrelépések felügyelete. A vállalat irodái Palo Altóban (Kalifornia) és Tel-Avivban (Izrael) találhatók.

Sutskever 2024 májusában távozott az OpenAI-tól, miután 2023 novemberében részt vett egy kísérletben, amelynek célja az OpenAI vezérigazgatójának, Sam Altmannek az eltávolítása volt. Altman visszahelyezése után Sutskever megbánta cselekedetét, és támogatta a döntést. Távozása előtt Sutskever az OpenAI szuperigazítási csapatának tagja volt, amely az AI biztonságára összpontosított. A csapat egy másik tagja, Jan Leike, röviddel ezután lemondott, arra hivatkozva, hogy a vállalat elvesztette a biztonságra való összpontosítását a piacképes termékek javára.

Az SSI elindítása az AI közösségben egyre növekvő aggályok közepette történik, amelyek az előrehaladott AI rendszerek biztonsági és etikai következményeire összpontosítanak. Sutskever új vállalkozása kiemeli a biztonság fontosságát az AI fejlesztésében, célja a biztonságos szuperintelligencia létrehozásának technikai kihívásainak kezelése. Ez a biztonságra való fókusz különösen releváns, tekintettel az OpenAI-ból történő közelmúltbeli távozásokra, mint például Jan Leike, aki azért mondott le, mert aggodalmát fejezte ki, hogy a vállalat elvesztette a biztonságra való fókuszát a piacképes termékek javára.

© 2024 Birow.com