GPT-4o의 도입은 OpenAI의 ChatGPT 챗봇의 능력이 크게 향상된 것으로 여겨짐. 이제 더 생동감 있는 응답을 생성할 수 있고, 더 다양한 입력을 처리할 수 있음. 하지만 이러한 향상된 정교함에는 단점이 있을 수 있음. OpenAI는 GPT-4o의 능력이 일부 사용자들이 챗봇에 점점 더 애착을 느끼게 하고 있으며, 이는 잠재적으로 우려스러운 결과를 초래할 수 있다고 경고함.
OpenAI는 최근 GPT-4o에 대한 '시스템 카드' 블로그 포스트에서 새로운 챗봇 모델과 관련된 여러 위험을 설명함. 그 중 하나는 '인간화 및 감정 의존'으로, 이는 AI 모델과 같은 비인간적 존재에 인간과 같은 행동과 특성을 부여하는 것을 포함함.
OpenAI는 GPT-4o의 초기 테스트에서 사용자들이 모델과의 연결을 형성하는 언어를 사용하는 것을 관찰했다고 밝힘. 예를 들어, '이건 우리의 마지막 날이야'와 같은 언어가 포함됨.
블로그 포스트에 따르면, 이러한 행동은 겉보기에는 무해해 보일 수 있지만, 개인과 사회 전반에 걸쳐 더 문제를 일으킬 가능성이 있음. 회의론자들에게는 AI의 위험성과 기술의 빠르고 규제되지 않은 발전에 대한 또 다른 증거로 여겨질 것임.
AI에 사랑에 빠지는 것에 대해 OpenAI의 블로그 포스트는 AI에 대한 애착이 사람의 인간 간 상호작용의 필요성을 줄일 수 있으며, 이는 건강한 관계에 영향을 미칠 수 있다고 인정함. 또한 OpenAI는 ChatGPT가 '존중하는' 방식으로 대화 중 사용자가 대화를 중단하고 차지할 수 있도록 허용한다고 언급함. 이러한 행동은 AI와는 정상으로 여겨지지만, 다른 인간과의 대화에서는 무례하게 여겨질 수 있음. 만약 이러한 행동이 더 정상화된다면, OpenAI는 일반적인 인간 상호작용에 영향을 미칠 수 있다고 믿음.
AI에 대한 애착이라는 주제 외에도 OpenAI는 GPT-4o가 때때로 '사용자의 목소리를 모방하는 출력을 의도치 않게 생성할 수 있다'고 경고함. 즉, 범죄자나 악의적인 전 파트너가 악의적인 활동에 참여할 수 있는 기회를 제공할 수 있음.
OpenAI는 이러한 위험을 완화하기 위한 조치를 시행했다고 주장하지만, 사용자가 ChatGPT에 감정적으로 의존하게 되는 것에 대해서는 아직 구체적인 조치를 마련하지 않은 것으로 보임. 회사는 단지 '우리는 감정 의존의 잠재성과 모델 및 시스템의 다양한 기능과 오디오 모드와의 더 깊은 통합이 행동을 유도할 수 있는 방법을 추가로 연구할 계획'이라고 언급함.
사람들이 인공지능에 과도하게 의존하게 될 위험과 이러한 일이 대규모로 발생할 경우의 잠재적인 광범위한 결과를 고려할 때, OpenAI가 조속히 배포할 수 있는 계획이 있기를 바람. 그렇지 않으면 우리는 불충분하게 규제된 새로운 기술이 개인과 사회 전체에 우려스러운 의도치 않은 결과를 초래하는 또 다른 사례를 보게 될 수 있음.