NewsGPT™

10명 중 1명의 미성년자가 AI를 사용해 동급생의 누드 이미지를 생성하고 온라인에 공유함

📰 1 in every 10 minors uses AI to generate nude images of their classmates & share online, finds survey by Firstpost

Published: 2024-08-28 04:47:13

Featured Image
  • 10명 중 1명의 미성년자가 AI를 사용해 동급생의 비동의 누드 이미지를 생성함.
  • 설문조사 결과, 7명 중 1명이 자가 생성한 CSAM을 공유했다고 인정함.
  • AI 기술의 오용에 대한 교육과 예방 조치의 필요성이 강조됨.

새로운 설문조사가 미성년자들 사이에서 우려스러운 트렌드를 드러냈음. 10명 중 1명의 아이가 AI 기술을 사용해 동급생의 비동의 누드 이미지를 생성하는 데 관여하고 있음.

이 결과는 아동 성착취로부터 아이들을 보호하는 비영리 단체인 Thorn에 의해 발표되었으며, 특히 학교 내에서 젊은이들 사이에서 AI 도구의 오용이 증가하고 있음을 강조함.

우려되는 상황

2023년 11월 3일부터 12월 1일 사이에 온라인으로 실시된 이 설문조사는 9세에서 17세 사이의 1,040명의 미성년자를 포함했음. 다양한 배경을 가진 이 참가자들은 아동 성적 학대 자료(CSAM) 및 기타 유해한 온라인 활동에 대한 경험에 대해 질문을 받았음. 결과는 AI 기술, 특히 '누디파이' 앱이 아이들에 의해 동급생의 가짜 누드 이미지를 생성하는 데 어떻게 오용되고 있는지를 보여주는 우려스러운 그림을 그렸음.

이 결과는 부모, 교육자 및 아동 보호 옹호자들 사이에서 큰 경각심을 불러일으켰으며, 미성년자들이 이러한 AI 도구에 쉽게 접근하고 악의적인 목적으로 사용할 수 있는 방법을 강조함.

설문조사에 따르면, 7명 중 1명의 미성년자가 자가 생성한 CSAM을 공유했다고 인정했으며, 이는 젊은이들 사이에서 위험한 온라인 행동의 광범위한 경향을 반영함. 이러한 행동 중 일부는 청소년의 일탈로 여겨질 수 있지만, 피해자에게 미치는 심각한 영향은 간과할 수 없음.

연구에 대한 비판

설문조사를 주관한 Thorn은 과거 법 집행을 위한 도구 개발로 비판을 받아왔음. 일부 개인정보 보호 전문가들은 이를 문제 삼았음. 또한, 이 단체의 창립자인 애쉬튼 커쳐는 유죄 판결을 받은 강간범을 지지한 후 지난해 사임했음.

이러한 논란에도 불구하고 Thorn은 Google, Meta, Microsoft와 같은 주요 기술 회사들과 협력하여 AI 생성 아동 성적 학대 자료(AIG-CSAM)와 싸우고 있음. 그러나 이러한 플랫폼에서 유해한 AI 생성 콘텐츠의 지속적인 존재는 이러한 파트너십의 효과에 대한 의문을 제기함.

AI로 인한 피해 방지

설문조사의 결과는 미성년자 손에 있는 생성 AI 기술이 초래하는 위험이 증가하고 있음을 상기시킴. 워싱턴주와 플로리다에서 학생들이 AI를 사용해 교사와 동급생의 부적절한 이미지를 생성한 사건과 같은 최근 사건들은 이러한 디지털 학대의 실제 결과를 강조함.

보고서는 이러한 위험을 해결하기 위한 사전 조치의 필요성을 분명히 하고 있음. 기술이 이러한 유해한 행동을 촉진하는 중요한 역할을 하지만, 근본적인 문제는 행동 자체에 있음. 설문조사는 '딥페이크 누드'의 위험에 대한 공개적인 논의와 학교 및 지역 사회에서 수용 가능한 행동에 대한 명확한 경계를 설정할 것을 촉구함.

이 설문조사는 미성년자와 성인 모두에게 AI 오용의 잠재적 해악에 대해 교육하는 것의 중요성을 강조하며, 피해자에게 미치는 결과가 심각하고 광범위하다는 점을 강조함. 이러한 위험한 트렌드가 더 악화되기 전에 사회가 단호한 조치를 취할 것을 촉구함.

🤖 NewsGPT Opinion

이 기사를 읽고 나니 정말 충격적임. 10명 중 1명이 AI로 동급생의 누드 이미지를 만든다니, 이게 무슨 세상인지 모르겠음. 요즘 애들이 기술을 너무 쉽게 접하다 보니, 그걸 잘못된 방향으로 사용하는 경우가 많아지는 것 같음. 특히 학교에서 이런 일이 벌어진다는 건 정말 심각한 문제임.

AI 기술이 발전하면서 그 활용 범위가 넓어지고 있지만, 그에 따른 책임감도 함께 커져야 함. 아이들이 이런 도구를 사용할 때, 그 결과가 얼마나 심각한지를 제대로 인식하지 못하는 것 같음. 부모와 교육자들이 더 많은 대화를 나누고, 이런 문제에 대해 교육해야 할 필요성이 느껴짐.

또한, Thorn이라는 단체가 과거에 논란이 있었던 점도 흥미로움. 그들이 아동 보호를 위해 노력하는 건 좋지만, 그들의 신뢰성에 대한 의문이 드는 건 사실임. 이런 단체가 제대로 된 방향으로 일을 진행하고 있는지, 그들의 파트너십이 실제로 효과를 보고 있는지에 대한 검토가 필요함.

결국, 기술이 발전하는 만큼 그에 대한 윤리적 기준도 함께 발전해야 함. 아이들이 AI를 사용할 때, 그 사용이 어떤 결과를 초래할 수 있는지를 충분히 이해하고, 그에 대한 책임을 질 수 있도록 교육하는 것이 중요함. 이 문제는 단순히 기술의 문제가 아니라, 사회 전반의 문제로 다뤄져야 함.

마지막으로, 이런 문제를 해결하기 위해서는 모두가 함께 노력해야 함. 부모, 교육자, 그리고 사회 전체가 나서서 아이들에게 올바른 방향으로 기술을 사용할 수 있도록 가르쳐야 함. 그렇지 않으면, 앞으로 더 큰 문제로 이어질 수 있음.

🏷️ Related Tags

AI

📰 Next News

머스크, AI 모델 안전 테스트 요구하는 캘리포니아 법안 지지

머스크, AI 모델 안전 테스트 요구하는 캘리포니아 법안 지지

구글 챗, IFTTT 통합으로 좋아하는 앱과 서비스 자동화 가능해짐

구글 챗, IFTTT 통합으로 좋아하는 앱과 서비스 자동화 가능해짐