Илья Суцкевер запускает Safe Superintelligence Inc.

Gábor Bíró 28 июня 2024 г.
2 мин. чтения

Илья Суцкевер, сооснователь и бывший главный научный сотрудник OpenAI, запустил новую компанию в сфере искусственного интеллекта под названием Safe Superintelligence Inc. (SSI). Заявленная цель компании – разработка сверхразумной системы ИИ, где безопасность является абсолютным приоритетом.

Илья Суцкевер запускает Safe Superintelligence Inc.
Источник: Авторская работа

О создании Safe Superintelligence Inc. было официально объявлено 19 июня 2024 года в посте Ильи Суцкевера в X (ранее Twitter), о чем сообщили такие издания, как The New York Times, Time и CNBC. Единственная миссия SSI – разработка ИИ, который значительно превосходит человеческий интеллект, обеспечивая при этом его безопасность и пользу. Уникальность SSI заключается в намерении сосредоточиться исключительно на этой цели – создании безопасного сверхинтеллекта – оградив свою работу от краткосрочного коммерческого давления, управленческих издержек или продуктовых циклов, которые влияют на многие современные лаборатории ИИ. Компания стремится решить ключевые технические задачи построения безопасного сверхинтеллекта, отличая свой фокус на безопасности, возможно, от смежных концепций, таких как операционное доверие и безопасность или даже парадигмы ядерной безопасности.

Соучредителями Safe Superintelligence Inc. вместе с Ильей Суцкевером стали:

  1. Дэниел Гросс: бывший руководитель отдела искусственного интеллекта в Apple, где он работал над инициативами компании в области ИИ и поиска до 2017 года, известный инвестор/предприниматель.
  2. Дэниел Леви: бывший сотрудник технического персонала и исследователь OpenAI, ранее сотрудничавший с Суцкевером.

Суцкевер будет выполнять функции главного научного сотрудника SSI, в задачи которого входит контроль за новаторскими разработками. Компания открыла офисы в Пало-Альто, Калифорния, и Тель-Авиве, Израиль.

Уход Суцкевера из OpenAI в мае 2024 года последовал за его участием в попытке сместить генерального директора Сэма Альтмана в ноябре 2023 года. После восстановления Альтмана в должности Суцкевер выразил сожаление о своих действиях и поддержал решение совета директоров, хотя впоследствии потерял место в совете и его роль уменьшилась. До ухода Суцкевер совместно возглавлял команду OpenAI «Superalignment» вместе с Яном Лейке, группу, занимавшуюся конкретно долгосрочными проблемами безопасности высокопроизводительного ИИ. Лейке уволился незадолго до Суцкевера, публично заявив об опасениях, что культура и процессы безопасности «отошли на второй план по сравнению с блестящими продуктами» в OpenAI.

Запуск SSI происходит на фоне растущей обеспокоенности в сообществе ИИ относительно безопасности и этических последствий передовых систем ИИ. Новое предприятие Суцкевера подчеркивает критическую важность безопасности в разработке ИИ, стремясь непосредственно решить технические препятствия на пути к созданию поддающегося проверке безопасного сверхинтеллекта. Этот острый акцент на безопасности особенно актуален в свете недавних громких уходов из OpenAI, таких как уход Яна Лейке, которые высветили напряженность между быстрым продвижением возможностей и долгосрочным снижением рисков.

Gábor Bíró 28 июня 2024 г.