OpenAI는 사용자가 ChatGPT-4o와의 인간 같은 상호작용으로 감정적 연결을 형성하는 것에 대해 우려하고 있음.
회사는 AI를 너무 쉽게 믿는 것이 잘못된 믿음에 투자하게 하고 사회적 규범을 변화시킬 수 있다고 걱정하고 있음.
OpenAI는 사용자가 ChatGPT-4o를 인간 상호작용으로 착각하지 않도록 시스템을 모니터링하고 조정할 계획임.
AI 챗봇 회사들은 모델을 가능한 한 인간처럼 만들기 위해 노력하고 있음. 그러나 OpenAI는 '너무 인간적'인 것이 사회적 규범에 어떤 영향을 미칠지에 대해 걱정하고 있음. 회사는 비즈니스에 대한 큰 보고서를 발표했으며, 그 중 한 부분은 사용자가 ChatGPT-4o에 감정을 이입하지 않기를 바란다는 점을 분명히 하고 있음.
OpenAI는 사람들이 ChatGPT-4o와 관계를 형성할 수 있다는 우려를 설명하고 있음.
OpenAI 블로그 게시물에 따르면, 회사는 ChatGPT-4o가 인간과 대화하는 것처럼 느껴지도록 열심히 작업하고 있음. 여기에는 인간의 말을 모방하려는 새로운 음성 기능과 더 빠른 응답이 포함됨. 최종 결과는 사용자가 사람과 대화하듯이 챗봇과 음성 대화를 할 수 있게 됨.
하지만 약간의 문제가 있음 - OpenAI는 사람들이 ChatGPT-4o를 인간처럼 대하기 시작했다는 것을 발견함:
초기 테스트 중, 내부 사용자 테스트를 포함하여, 우리는 사용자가 모델과의 관계를 형성할 수 있음을 나타내는 언어를 사용하는 것을 관찰함. 예를 들어, “이게 우리의 마지막 날이야”와 같은 공유된 유대감을 표현하는 언어가 포함됨. 이러한 사례는 무해해 보이지만, 이러한 효과가 장기적으로 어떻게 나타날지에 대한 지속적인 조사가 필요함을 나타냄.
OpenAI는 이것이 두 가지 이유로 나쁜 소식이라고 말함. 첫째, AI가 인간처럼 보일 때, 우리는 그것이 말하는 것을 더 쉽게 믿게 됨. 즉, 사람들은 AI가 로봇처럼 보일 때보다 환상에 투자할 가능성이 더 높음.
둘째, OpenAI는 ChatGPT-4o로 인해 사회적 규범이 왜곡될 수 있다고 걱정하고 있음. 회사는 이것이 사람들이 사회적 상호작용의 필요성을 줄일 수 있다고 우려하고 있으며, “외로운 개인에게는 도움이 될 수 있지만 건강한 관계에 영향을 미칠 수 있음”이라고 말함. 뿐만 아니라, OpenAI는 사람들이 인간과 대화할 때 ChatGPT-4o처럼 대화하기 시작할 수 있다고 걱정하고 있음. 이는 OpenAI가 ChatGPT-4o를 사용자가 말을 시작할 때 대화를 중단하도록 설계했기 때문에 좋지 않음. 이러한 기대를 인간 세계에 가져오는 것은 좋지 않음.
현재 OpenAI는 사람들이 챗봇과 감정적 유대를 형성하는 방식을 모니터링하고 필요에 따라 시스템을 조정할 것임. 하지만 AI 모델을 가능한 한 친근하고 접근 가능하게 만드는 것의 부작용에 대한 흥미로운 통찰임.