Ilya Sutskever lanza Safe Superintelligence Inc.
Ilya Sutskever, cofundador y ex jefe científico de OpenAI, ha lanzado una nueva empresa de inteligencia artificial llamada Safe Superintelligence Inc. (SSI). El objetivo principal de la compañía es desarrollar una IA superinteligente, priorizando al máximo la seguridad.

La creación de Safe Superintelligence Inc. se anunció oficialmente el 19 de junio de 2024, mediante una publicación de Ilya Sutskever en X (antes Twitter), según informaron medios como The New York Times, Time y CNBC. La misión principal de SSI es desarrollar una IA que supere significativamente la inteligencia humana, garantizando al mismo tiempo que siga siendo segura y beneficiosa. De manera singular, SSI se centrará exclusivamente en este objetivo: crear una superinteligencia segura, protegiendo su trabajo de las presiones comerciales a corto plazo, la burocracia administrativa o los ciclos de productos que afectan a muchos laboratorios de IA actuales. La empresa busca abordar los desafíos técnicos fundamentales para construir una superinteligencia segura, diferenciando su enfoque en la seguridad de conceptos relacionados como la confianza y seguridad operativas o incluso los paradigmas de seguridad nuclear.
Junto a Ilya Sutskever como cofundadores de Safe Superintelligence Inc. se encuentran:
- Daniel Gross: Exlíder de IA en Apple, donde trabajó en las iniciativas de IA y búsqueda de la compañía hasta 2017, y un reconocido inversor/emprendedor.
- Daniel Levy: Ex miembro del equipo técnico e investigador en OpenAI, quien colaboró previamente con Sutskever.
Sutskever será el jefe científico de SSI, responsable de supervisar los avances innovadores. La compañía ha establecido oficinas en Palo Alto, California, y Tel Aviv, Israel.
La salida de Sutskever de OpenAI en mayo de 2024 se produjo tras su participación en un intento de destituir al CEO Sam Altman en noviembre de 2023. Después de que Altman fuera reincorporado, Sutskever lamentó sus acciones y apoyó la decisión de la junta directiva, aunque posteriormente perdió su puesto en la junta y su rol se vio reducido. Antes de irse, Sutskever codirigió el equipo "Superalignment" de OpenAI junto a Jan Leike, un grupo enfocado específicamente en los desafíos de seguridad a largo plazo de la IA de alta capacidad. Leike renunció poco antes que Sutskever, expresando públicamente su preocupación de que la cultura y los procesos de seguridad habían "quedado relegados a un segundo plano frente a productos llamativos" en OpenAI.
El lanzamiento de SSI se produce en un contexto de crecientes preocupaciones en la comunidad de la IA sobre la seguridad y las implicaciones éticas de los sistemas de IA avanzados. La nueva iniciativa de Sutskever subraya la importancia crítica de la seguridad en el desarrollo de la IA, con el objetivo de abordar directamente los obstáculos técnicos para crear una superinteligencia verificablemente segura. Este marcado enfoque en la seguridad es especialmente relevante dadas las recientes salidas de alto perfil de OpenAI, como la de Jan Leike, que resaltaron las tensiones entre el rápido avance de las capacidades y la mitigación de riesgos a largo plazo.