일리야 수츠케버(Ilya Sutskever)는 전 OpenAI의 수석 과학자이자 공동 창립자로, 그의 '슈퍼인텔리전스' 스타트업에 대해 상당한 재정적 성과를 거두었다.
이 신생 기업인 세이프 슈퍼인텔리전스(Safe Superintelligence)는 6월에 발표되었으며, 이미 a16z, NFDG, 세쿼이아, DST 글로벌, SV 앤젤과 같은 주요 투자자들로부터 10억 달러를 유치했다.
스타트업은 X 포스트를 통해 자금을 확보했다고 확인했으며, 채용도 진행 중이라고 밝혔다. 그러나 어떤 역할을 찾고 있는지는 구체적으로 언급하지 않았다. 이 스타트업은 수츠케버가 OpenAI에서 거의 10년을 보낸 후 사임한 지 한 달 만에 설립되었다. 그는 전 Y 컴비네이터 파트너인 다니엘 그로스(Daniel Gross)와 전 OpenAI 엔지니어인 다니엘 레비(Daniel Levy)와 함께 스타트업을 공동 설립했다.
수츠케버는 OpenAI의 슈퍼얼라인먼트 팀의 리더 중 한 명으로, 미래 AI 시스템의 안전성에 집중하고 있었다. 그의 퇴사 당시, 이 팀의 다른 책임자인 얀 라이케(Jan Leike)도 사임했으며, OpenAI에서 AI 안전성에 대한 초점이 '화려한 제품'에 밀려났다고 주장했다.
이름에서 알 수 있듯이, 수츠케버의 스타트업은 '안전한 슈퍼인텔리전스'의 창출에 중점을 두고 있다. 회사는 이것이 이름, 사명, 제품 로드맵 및 '유일한 초점'이라고 주장한다.
'우리는 안전성과 능력을 함께 접근하며, 혁신적인 엔지니어링과 과학적 돌파구를 통해 해결해야 할 기술적 문제로 보고 있다'고 회사의 창립자들은 블로그 포스트에서 말했다. '우리는 안전이 항상 앞서도록 하면서 가능한 한 빠르게 능력을 발전시킬 계획이다. 이렇게 하면 평화롭게 확장할 수 있다.
'우리의 단일 초점은 관리 오버헤드나 제품 주기에 의해 방해받지 않으며, 우리의 비즈니스 모델은 안전, 보안 및 진보가 단기 상업적 압력으로부터 보호받도록 한다.'
회사는 10명의 직원을 두고 있으며, 최신 자금을 사용하여 컴퓨팅 파워를 증대시키고 신뢰할 수 있는 전문가 팀을 구축할 계획이라고 로이터가 보도했다.
라이케는 OpenAI에서 사임한 직후 앤트로픽(Anthropic)에 합류했으며, 유사한 안전 역할을 맡고 있다. 라이케는 '슈퍼얼라인먼트 미션을 계속하기 위해 앤트로픽에 합류했다'고 말했다.