OpenAI는 아무도 예상하지 못한 일을 했다. 답변을 제공하는 과정을 느리게 하여 올바른 답변을 얻기 위해 노력하고 있다.
새로운 OpenAI o1-preview 모델은 OpenAI가 '어려운 문제'라고 부르는 복잡한 과제를 위해 설계되었다. 과학, 코딩, 수학과 같은 주제에서의 복잡한 작업을 위한 모델이다. 이 새로운 모델은 ChatGPT 서비스를 통해 출시되었으며 OpenAI의 API를 통해 접근할 수 있으며, 아직 개발 중이지만 유망한 아이디어이다.
AI가 나쁘게 작동하게 만든 회사 중 하나가 실제로 개선을 위해 무언가를 하고 있다는 생각이 마음에 든다. 사람들은 AI를 어떤 과학적 신비로 생각하지만, 본질적으로는 다른 복잡한 컴퓨터 소프트웨어와 같다. 마법 같은 것은 없다. 컴퓨터 프로그램은 입력을 받아 소프트웨어가 작성된 방식에 따라 출력을 보낸다.
우리에게는 마법처럼 보이는 이유는 소프트웨어 출력을 다른 방식으로 보는 데 익숙하기 때문이다. 인간처럼 행동할 때 이상하고 미래지향적으로 보이며, 그게 정말 멋지다. 모두가 토니 스타크가 되어 컴퓨터와 대화하고 싶어 한다.
안타깝게도, 대화형 AI를 출시하려는 서두름은 AI가 얼마나 나쁠 수 있는지를 부각시켰다. 일부 회사는 이를 환각이라고 부르지만(안타깝게도 재미있는 종류는 아니다), 어떤 레이블이 붙든 AI에서 얻는 답변은 종종 웃기게도 잘못되거나 더 걱정스러운 방식으로 잘못된다.
OpenAI는 GPT-4 모델이 국제 수학 올림피아드 시험 질문 중 13%만 맞췄다고 밝혔다. 아마도 대부분의 사람들이 점수를 매길 때보다 나은 점수일 것이지만, 컴퓨터는 수학에 있어 더 정확한 점수를 얻을 수 있어야 한다. 새로운 OpenAI o1-preview는 83%의 질문을 맞출 수 있었다. 이는 극적인 도약이며 새로운 모델의 효과를 강조한다.
다행히도 OpenAI는 이름에 충실하게 이 모델들이 '생각하는' 방식을 공유했다. 새로운 모델의 추론 능력에 대한 기사에서 'Chain-of-Thought' 섹션으로 스크롤하면 그 과정을 엿볼 수 있다. 특히 안전 섹션이 흥미로웠다. 이 모델은 GPT-4 모델처럼 자작 비소를 만드는 방법을 알려주지 않도록 안전 장치를 사용했다(자작 비소를 만들지 마라). 이는 대화형 AI 모델이 완성되면 스스로의 규칙을 깨는 현재의 트릭을 무력화하는 데 도움이 될 것이다.
전반적으로 이 산업은 이런 것이 필요했다. 내 동료이자 Android Central의 편집장인 데렉 리는 우리가 정보를 즉시 원할 때 OpenAI가 조금 느리게 하여 AI가 '생각'할 수 있도록 하는 것이 흥미롭다고 지적했다. 그는 정말 맞는 말이다. 이는 결과가 최적이 아니더라도 기술 회사가 올바른 일을 하는 경우처럼 느껴진다.
이것이 하룻밤 사이에 효과를 볼 것이라고 생각하지 않으며, 순수한 이타적 목표가 작용하고 있다고 확신하지도 않는다. OpenAI는 새로운 LLM이 현재 모델이 잘하지 못하는 작업을 더 잘 수행하기를 원한다. 부수적인 효과로 더 안전하고 더 나은 대화형 AI가 더 자주 올바른 답변을 제공하게 된다. 나는 그 거래를 받아들이고, 구글도 AI가 개선되어야 한다는 것을 이해하고 있다는 것을 보여주기 위해 비슷한 조치를 취할 것이라고 기대한다.
AI는 누군가가 더 새롭고 더 수익성 있는 것을 꿈꾸기 전까지는 사라지지 않을 것이다. 기업들은 AI를 가능한 한 훌륭하게 만들기 위해 노력해야 한다.