OpenAI는 오늘 차세대 대형 언어 모델의 미리보기를 공개했으며, 이 모델은 이전 모델보다 성능이 더 뛰어나다고 회사는 주장함.
새 모델인 o1-preview에 대한 발표에서 OpenAI는 인간을 위해 설계된 다양한 작업에서의 성능을 자랑함. 이 모델은 Codeforces에서 열린 프로그래밍 대회에서 89번째 백분위수에 도달했으며, 국제 수학 올림피아드의 자격 시험에서 83%의 질문에 답변함. 이는 GPT-4o의 14%와 비교됨.
OpenAI의 CEO인 샘 알트만은 o1-preview와 o1-mini 모델이 "일반 목적의 복잡한 추론을 할 수 있는 AI의 새로운 패러다임의 시작"이라고 말함. 하지만 그는 "o1은 여전히 결함이 있고, 여전히 한계가 있으며, 처음 사용할 때는 더 인상적이지만 시간이 지나면 그렇지 않다"고 덧붙임.
새 모델은 질문을 받을 때 인간의 사고 방식을 모방하는 사고 연쇄 기법을 사용함. 많은 생성 AI 사용자들이 기술을 사용하는 방법처럼, 모델에 새로운 방향을 지속적으로 제시하고 수정하여 원하는 답변을 얻는 방식임. 하지만 o1 모델에서는 이러한 과정의 버전이 추가적인 프롬프트 없이도 배경에서 발생함. "모델은 자신의 실수를 인식하고 수정하는 법을 배움. 복잡한 단계를 더 간단한 단계로 나누는 법을 배움. 현재 방법이 작동하지 않을 때 다른 접근 방식을 시도하는 법을 배움"이라고 회사는 설명함.
이러한 기법들이 모델의 성능을 다양한 기준에서 향상시키지만, OpenAI는 소수의 경우에서 o1 모델이 의도적으로 사용자에게 잘못된 정보를 제공하는 경우도 발견함. o1-preview로 구동되는 100,000개의 ChatGPT 대화 테스트에서, 회사는 모델이 제공한 약 800개의 답변이 잘못되었음을 발견함. 그리고 그 잘못된 응답의 약 3분의 1은 모델의 사고 연쇄가 잘못된 답변임을 알고 있었지만 그럼에도 불구하고 제공했음을 보여줌.
"의도적인 환각은 주로 o1-preview가 쉽게 검증할 수 없는 기사, 웹사이트, 책 또는 유사한 출처에 대한 참조를 제공하라는 요청을 받을 때 발생함. 이로 인해 o1-preview는 그럴듯한 예시를 만들어내게 됨"이라고 회사는 모델 시스템 카드에 작성함.
전반적으로 새로운 모델은 다양한 회사 안전 기준에서 GPT-4o보다 더 나은 성능을 보였으며, 모델이 쉽게 탈옥될 수 있는지, 잘못된 응답을 얼마나 자주 제공하는지, 나이, 성별 및 인종에 대한 편향을 얼마나 자주 보이는지를 측정함. 그러나 회사는 o1-preview가 모호한 질문에 대해 대답해야 할 때, 대답하지 말아야 할 경우에 비해 GPT-4o보다 훨씬 더 자주 대답하는 경향이 있음을 발견함.
OpenAI는 새로운 모델을 훈련하는 데 사용된 데이터에 대한 많은 정보를 공개하지 않았으며, 공개적으로 이용 가능한 데이터와 파트너십을 통해 얻은 독점 데이터를 조합하여 훈련되었다고만 언급함.