새로운 설문조사가 미성년자들 사이에서 우려스러운 트렌드를 드러냈음. 10명 중 1명의 아이가 AI 기술을 사용해 동급생의 비동의 누드 이미지를 생성하는 데 관여하고 있음.
이 결과는 아동 성착취로부터 아이들을 보호하는 비영리 단체인 Thorn에 의해 발표되었으며, 특히 학교 내에서 젊은이들 사이에서 AI 도구의 오용이 증가하고 있음을 강조함.
우려되는 상황
2023년 11월 3일부터 12월 1일 사이에 온라인으로 실시된 이 설문조사는 9세에서 17세 사이의 1,040명의 미성년자를 포함했음. 다양한 배경을 가진 이 참가자들은 아동 성적 학대 자료(CSAM) 및 기타 유해한 온라인 활동에 대한 경험에 대해 질문을 받았음. 결과는 AI 기술, 특히 '누디파이' 앱이 아이들에 의해 동급생의 가짜 누드 이미지를 생성하는 데 어떻게 오용되고 있는지를 보여주는 우려스러운 그림을 그렸음.
이 결과는 부모, 교육자 및 아동 보호 옹호자들 사이에서 큰 경각심을 불러일으켰으며, 미성년자들이 이러한 AI 도구에 쉽게 접근하고 악의적인 목적으로 사용할 수 있는 방법을 강조함.
설문조사에 따르면, 7명 중 1명의 미성년자가 자가 생성한 CSAM을 공유했다고 인정했으며, 이는 젊은이들 사이에서 위험한 온라인 행동의 광범위한 경향을 반영함. 이러한 행동 중 일부는 청소년의 일탈로 여겨질 수 있지만, 피해자에게 미치는 심각한 영향은 간과할 수 없음.
연구에 대한 비판
설문조사를 주관한 Thorn은 과거 법 집행을 위한 도구 개발로 비판을 받아왔음. 일부 개인정보 보호 전문가들은 이를 문제 삼았음. 또한, 이 단체의 창립자인 애쉬튼 커쳐는 유죄 판결을 받은 강간범을 지지한 후 지난해 사임했음.
이러한 논란에도 불구하고 Thorn은 Google, Meta, Microsoft와 같은 주요 기술 회사들과 협력하여 AI 생성 아동 성적 학대 자료(AIG-CSAM)와 싸우고 있음. 그러나 이러한 플랫폼에서 유해한 AI 생성 콘텐츠의 지속적인 존재는 이러한 파트너십의 효과에 대한 의문을 제기함.
AI로 인한 피해 방지
설문조사의 결과는 미성년자 손에 있는 생성 AI 기술이 초래하는 위험이 증가하고 있음을 상기시킴. 워싱턴주와 플로리다에서 학생들이 AI를 사용해 교사와 동급생의 부적절한 이미지를 생성한 사건과 같은 최근 사건들은 이러한 디지털 학대의 실제 결과를 강조함.
보고서는 이러한 위험을 해결하기 위한 사전 조치의 필요성을 분명히 하고 있음. 기술이 이러한 유해한 행동을 촉진하는 중요한 역할을 하지만, 근본적인 문제는 행동 자체에 있음. 설문조사는 '딥페이크 누드'의 위험에 대한 공개적인 논의와 학교 및 지역 사회에서 수용 가능한 행동에 대한 명확한 경계를 설정할 것을 촉구함.
이 설문조사는 미성년자와 성인 모두에게 AI 오용의 잠재적 해악에 대해 교육하는 것의 중요성을 강조하며, 피해자에게 미치는 결과가 심각하고 광범위하다는 점을 강조함. 이러한 위험한 트렌드가 더 악화되기 전에 사회가 단호한 조치를 취할 것을 촉구함.