伊利亚·苏茨克维宣布成立安全超智能公司

Gábor Bíró 2024年6月28日
2 阅读时间

OpenAI联合创始人兼前首席科学家伊利亚·苏茨克维创立了一家名为安全超智能公司 (SSI) 的新人工智能公司。该公司声明的目标是开发一个以安全为绝对优先事项的超智能人工智能系统。

伊利亚·苏茨克维宣布成立安全超智能公司
来源: 作者原创

安全超智能公司于 2024 年 6 月 19 日正式宣布成立。据包括《纽约时报》、《时代》周刊和 CNBC 在内的媒体报道,这一消息是通过伊利亚·苏茨克维在 X (前 Twitter) 上的帖子发布的。SSI 的首要任务是开发显著超越人类智能的人工智能,同时确保其安全且有益。独特之处在于,SSI 打算完全专注于这一个目标——创建安全超智能——使其工作不受影响当前许多人工智能实验室的短期商业压力、管理开销或产品周期的干扰。该公司致力于解决构建安全超智能的核心技术挑战,这使其安全重点区别于诸如运营信任和安全甚至核安全范式等相邻概念。

与伊利亚·苏茨克维共同创立安全超智能公司的联合创始人包括:

  1. 丹尼尔·格罗斯:苹果公司前人工智能主管,曾在该公司负责人工智能和搜索计划直至 2017 年,并且是一位知名的投资者/企业家。
  2. 丹尼尔·列维:OpenAI 的前技术人员和研究员,曾与苏茨克维合作。

苏茨克维将担任 SSI 的首席科学家,负责监督突破性进展。该公司已在加利福尼亚州帕洛阿尔托和以色列特拉维夫设立办事处。

苏茨克维于 2024 年 5 月离开 OpenAI,此前他曾参与 2023 年 11 月试图罢免 CEO Sam Altman 的事件。在 Altman 复职后,苏茨克维对自己的行为表示遗憾,并支持董事会的决定,尽管他随后失去了董事会席位,职位也被削弱。在离开之前,苏茨克维与扬·莱克共同领导 OpenAI 的“超级对齐”团队,该团队专门关注高能力人工智能的长期安全挑战。莱克在苏茨克维之前不久辞职,公开表示担忧 OpenAI 的安全文化和流程“已让位于光鲜的产品”。

SSI 的成立正值人工智能社区对先进人工智能系统的安全和伦理影响日益增长的担忧之际。苏茨克维的新事业突显了人工智能开发中安全性的至关重要性,旨在直接解决创建可验证的安全超智能的技术障碍。鉴于最近 OpenAI 备受瞩目的离职事件(如扬·莱克的离职),这种对安全的明确侧重尤为重要,这些事件突显了快速能力提升与长期风险缓解之间的紧张关系。

Gábor Bíró 2024年6月28日