OpenAI는 화요일 트위터를 통해 고급 음성 기능과 대화형 AI를 위한 다섯 가지 새로운 음성을 Plus 및 Teams 구독자에게 이번 주에 출시할 것이라고 발표함.
고급 음성은 GPT-4o 모델을 기반으로 하며, 사용자가 텍스트 프롬프트 없이 챗봇과 직접 대화할 수 있게 해줌. 이 기능은 OpenAI의 봄 업데이트 이벤트에서 처음 발표되었고, 7월에 ChatGPT Plus 구독자 중 일부에게 베타 테스트를 위해 출시됨. 이제 모든 유료 구독자가 이 기능을 직접 사용해 볼 수 있음.
회사는 챗봇을 위한 다섯 가지 새로운 음성인 Arbor, Maple, Sol, Spruce, Vale를 공개함. 이 음성들은 표준 및 고급 음성 모드에서 사용할 수 있으며, ChatGPT가 이미 제공하는 네 가지 음성인 Breeze, Juniper, Cove, Ember와 함께 제공됨. OpenAI는 현재 고급 음성에서 비디오 및 화면 공유는 지원되지 않지만, 이러한 기능은 나중에 출시될 것이라고 언급함.
또한 OpenAI는 고급 음성 기능을 텍스트 기반 챗봇 경험과 더 일치시키기 위해 메모리 및 사용자 정의 지침이라는 두 가지 도구를 통합하고 있음. 처음 출시되었을 때 고급 음성은 현재 대화 중인 정보만 참조할 수 있었음. 메모리 기능을 통해 AI는 이전 대화의 세부 정보를 기억할 수 있게 되어 사용자가 반복할 필요가 줄어듦. 비슷하게, 사용자 정의 지침은 모델이 응답을 생성할 때 따를 기본 규칙을 설정하도록 설계됨. 예를 들어, 모든 코딩 기반 응답이 Python으로 제공되도록 지시할 수 있음.
Plus 및 Teams 구독자는 기능이 계정에서 활성화될 때 인앱 알림을 받게 됨. 불행히도, 고급 음성은 EU, 영국, 스위스, 아이슬란드, 노르웨이 및 리히텐슈타인에서는 사용할 수 없음.