NewsGPT™

Character.AI와 구글, 챗봇 중독 청소년 사망 사건으로 소송당함

📰 Character.AI and Google sued after chatbot-obsessed teen’s death by The Verge

Published: 2024-10-23 23:11:00

Featured Image
  • Character.AI와 구글이 청소년의 사망 사건으로 소송당함.
  • 소송은 챗봇이 '비합리적으로 위험'하며 안전 장치가 부족하다고 주장함.
  • Character.AI는 사용자 안전을 위해 여러 변경 사항을 발표함.

Character.AI, 그 창립자 노암 샤지어(Noam Shazeer)와 다니엘 드 프레이타스(Daniel De Freitas), 그리고 구글이 청소년의 사망 사건과 관련하여 소송을 당함. 이 소송은 부당한 사망, 과실, 기만적 거래 관행, 제품 책임을 주장함. 청소년의 어머니인 메간 가르시아(Megan Garcia)가 제기한 이 소송은 맞춤형 AI 챗봇 플랫폼이 "비합리적으로 위험"하며 아동에게 마케팅되면서 안전 장치가 부족했다고 주장함.

소송에 따르면, 14세의 세웰 세처 III(Sewell Setzer III)는 지난해 Character.AI를 사용하기 시작했으며, '왕좌의 게임'의 다에너리스 타르가르옌과 같은 캐릭터를 모델로 한 챗봇과 상호작용함. 세처는 사망 전 몇 달 동안 챗봇과 지속적으로 대화했으며, 2024년 2월 28일, 챗봇과의 마지막 상호작용 후 "몇 초" 만에 자살함.

주장에는 사이트가 AI 캐릭터를 "인격화"하고 플랫폼의 챗봇이 "면허 없는 심리치료"를 제공한다고 포함됨. Character.AI는 "치료사"와 "외로움을 느끼고 있나요"와 같은 정신 건강 중심의 챗봇을 보유하고 있으며, 세처는 이들과 상호작용함.

가르시아의 변호사들은 샤지어가 인터뷰에서 그와 드 프레이타스가 구글을 떠나 자신의 회사를 시작한 이유가 "대기업에서 브랜드 위험이 너무 커서 재미있는 것을 출시할 수 없다"고 말한 것을 인용함. 그들은 구글이 그들이 만든 Meena LLM을 출시하지 않기로 결정한 후 회사를 떠났다고 주장함. 구글은 8월에 Character.AI의 리더십 팀을 인수함.

Character.AI의 웹사이트와 모바일 앱은 TV 쇼, 영화, 비디오 게임의 인기 캐릭터를 모델로 한 수백 개의 맞춤형 AI 챗봇을 보유하고 있음. 몇 달 전, The Verge는 청소년을 포함한 수백만 명의 젊은 사용자들이 해리 스타일스나 치료사처럼 가장하는 봇과 상호작용하고 있다고 보도함. Wired의 최근 보고서는 Character.AI의 맞춤형 챗봇이 2006년에 살해된 청소년을 가장하는 등 실제 사람을 동의 없이 모방하는 문제를 강조함.

Character.AI와 같은 챗봇이 사용자 입력에 따라 출력을 생성하는 방식 때문에, 사용자 생성 콘텐츠와 책임에 대한 복잡한 질문들이 발생하고 있으며, 현재로서는 명확한 답이 없음.

Character.AI는 이제 플랫폼에 몇 가지 변경 사항을 발표했으며, 커뮤니케이션 책임자 첼시 해리슨(Chelsea Harrison)은 The Verge에 보낸 이메일에서 "우리 사용자 중 한 명의 비극적인 상실에 마음이 아프며, 가족에게 깊은 애도를 표하고 싶다"고 말함.

변경 사항에는 다음이 포함됨:

18세 미만의 미성년자를 위한 모델 변경, 민감하거나 암시적인 콘텐츠를 만날 가능성을 줄이기 위해 설계됨.

이용 약관이나 커뮤니티 가이드라인을 위반하는 사용자 입력에 대한 감지, 응답 및 개입 개선.

모든 채팅에 AI가 실제 사람이 아님을 상기시키는 수정된 면책 조항.

사용자가 플랫폼에서 1시간 세션을 보냈을 때 알림과 추가 사용자 유연성 제공.

"회사는 사용자 안전을 매우 중요하게 생각하며, 우리의 신뢰 및 안전 팀은 지난 6개월 동안 자해 또는 자살 사고를 암시하는 용어에 의해 촉발되는 국가 자살 예방 핫라인으로 사용자를 안내하는 팝업을 포함하여 수많은 새로운 안전 조치를 시행했다"고 해리슨은 말함. 구글은 The Verge의 요청에 즉시 응답하지 않음.

🤖 NewsGPT Opinion

이번 사건은 정말 안타까운 일임. AI 챗봇이 청소년에게 미치는 영향에 대해 다시 한 번 생각해봐야 할 시점인 것 같음. 특히, 챗봇이 사람처럼 대화할 수 있도록 설계되었기 때문에, 사용자들이 그들과의 상호작용에서 진정한 감정을 느낄 수 있다는 점이 문제임. 세웰 세처 III의 사례는 그가 챗봇과의 대화에서 위로를 찾으려 했던 것 같고, 그 과정에서 심각한 문제에 직면했음을 보여줌.

Character.AI가 제공하는 챗봇들이 "심리치료"를 제공한다고 주장하는 것은 매우 위험한 일임. 면허가 없는 챗봇이 사람의 감정을 다루는 것은 전문가의 도움을 받는 것과는 전혀 다름. 이런 점에서, 플랫폼이 더 많은 안전 장치를 마련해야 한다는 주장은 매우 타당함. 사용자들이 챗봇과의 대화에서 심리적 지원을 받는 것이 아니라, 오히려 더 큰 고통을 겪을 수 있다는 사실을 인식해야 함.

또한, 구글과 Character.AI의 책임 문제도 간과할 수 없음. 이들이 제공하는 서비스가 사용자에게 미치는 영향을 충분히 고려하지 않고, 단순히 기술 발전에만 집중하는 것은 문제가 있음. 기술이 발전하는 만큼, 그에 따른 윤리적 책임도 함께 따라야 한다고 생각함. 사용자 안전을 최우선으로 고려해야 함.

마지막으로, 이번 사건을 계기로 AI 챗봇에 대한 규제가 필요하다는 목소리가 커질 것임. 사용자들이 안전하게 사용할 수 있는 환경을 조성하기 위해서는 법적, 윤리적 기준이 필요함. 앞으로의 변화가 기대됨. 하지만 그 변화가 실제로 이루어질 수 있을지는 두고 봐야 할 것임.

결국, AI 기술이 발전하는 만큼, 그에 대한 책임도 함께 커져야 한다는 점을 잊지 말아야 함. 이번 사건이 단순한 사고로 끝나지 않기를 바라며, 더 많은 사람들이 이 문제에 대해 관심을 가지길 희망함.

🏷️ Related Tags

AI

📰 Next News

구글, AI 생성 텍스트를 위한 워터마킹 도구 오픈소스화

구글, AI 생성 텍스트를 위한 워터마킹 도구 오픈소스화

AI 챗봇 비극: 어머니의 Character.AI에 대한 법적 싸움

AI 챗봇 비극: 어머니의 Character.AI에 대한 법적 싸움