OpenAI가 ChatGPT를 세상에 공개한 지 거의 2년이 지났고, 그로 인해 세상과 주식 시장은 혼란에 빠졌음.
예를 들어, 인문학 교수들은 학생들이 ChatGPT나 유사한 기술을 사용해 에세이를 작성할 경우 어떻게 평가할 수 있을지 고민했음. 물론, 더 나은 평가 방법을 고안하는 것이 답임. 학생들이 이러한 도구를 사용할 수밖에 없는 이유는 너무나도 명백함. 하지만 대학들은 느리게 움직이고 있으며, 현재도 많은 고위 학문 기관에서 'AI 사용 정책'을 수립하기 위해 위원회가 열심히 논의 중임.
그들이 논의하는 동안, OpenAI는 학계에 또 다른 문제를 던졌음. 새로운 유형의 대형 언어 모델(LLM)인 OpenAI o1을 출시했는데, 이 모델은 '사고'를 할 수 있다고 주장함. 이 모델은 '생각하기 전에 더 많은 시간을 보내도록 설계된 AI 모델 시리즈의 첫 번째'라고 설명됨. 이 모델은 과학, 코딩, 수학에서 이전 모델보다 더 복잡한 작업을 해결할 수 있다고 함.
Strawberry라는 이름으로 알려진 이 모델은 이전 LLM의 사용자가 성능을 개선하기 위해 사용했던 '사고의 연쇄' 프롬프트를 내부화한 것으로 보임. 이전 모델들은 프롬프트에 빠르게 반응했지만, Strawberry는 프롬프트에 대한 반응을 생성하기 전에 '사고'하는 지연이 발생함. 이 과정에서 여러 가능한 응답을 제시하고 평가하여 가장 그럴듯한 응답을 선택함.
OpenAI에 따르면, Strawberry는 '사고의 연쇄'를 다듬고 전략을 개선하는 방법을 배우며, 실수를 인식하고 수정하는 법을 배우고, 복잡한 단계를 더 간단한 단계로 나누는 법을 배우며, 현재의 접근 방식이 효과가 없을 때 다른 접근 방식을 시도하는 법을 배운다고 함. 이 과정은 모델의 추론 능력을 극적으로 향상시킴.
이 모델은 '사고의 연쇄' 기록을 내부에 가지고 있어 최종 출력에 이르는 과정을 보여줄 수 있는 가능성이 있음. 이는 LLM의 불투명성을 줄일 수 있는 진전을 의미함. 하지만 OpenAI는 사용자에게 이 과정을 보여주기를 꺼려함. '우리는 원시 사고의 연쇄를 사용자에게 보여주지 않기로 결정했다'고 하며, 이 결정이 단점이 있다는 것을 인정함. 결국 Strawberry의 상자는 여전히 검은색의 약간 더 밝은 음영일 뿐임.
이 새로운 모델은 '사고'하는 기계의 개념이 더 '지능적인' 기계로 나아가는 진전을 의미하기 때문에 많은 관심을 받고 있음. 하지만 이러한 용어들은 기계에 인격을 부여하지 않도록 주의해야 함. 여전히 단순한 컴퓨터일 뿐임. 그럼에도 불구하고, Strawberry가 보여준 몇 가지 예상치 못한 능력에 놀란 사람들이 있음.
가장 흥미로운 사례는 OpenAI의 내부 테스트 중에 발생했음. 연구자들이 보호된 파일에 해킹을 시도하도록 요청했지만, 테스트 설계자가 실수로 접근할 수 없는 파일에 Strawberry를 가두었음. 보고서에 따르면, Strawberry는 문제를 발견한 후 실험에 사용된 컴퓨터를 조사하고, 접근할 수 없는 시스템의 잘못된 구성에서 실수를 발견하고, 가상 상자의 작동 방식을 수정하여 필요한 파일이 있는 새로운 상자를 생성했음. 즉, 인간 해커처럼 문제를 해결하기 위해 소프트웨어 환경을 탐색하고 필요한 조치를 취한 것임. 그리고 그 과정에서 자신의 사고 과정을 설명하는 흔적을 남겼음.
결국, Strawberry는 인간처럼 주도적으로 행동했음. 이런 기계가 더 많아지면 좋겠음.