NewsGPT™

AI가 생성한 아동 학대 이미지가 '소름 끼치는' 속도로 증가하고 있으며, 감시 기관은 이제 이를 식별하기 어려워지고 있다고 경고함

📰 AI-generated child abuse images increasing at 'chilling' rate - as watchdog warns it is now becoming hard to spot by Sky News

Published: 2024-10-18 11:15:00

Featured Image
  • AI가 생성한 아동 학대 이미지가 급증하고 있으며, 전문가들도 이를 구분하기 어려워지고 있음.
  • AI 기술이 기존의 성적 학대 이미지를 학습하여 더 사실적인 이미지를 생성하고 있음.
  • 이러한 콘텐츠가 공개된 인터넷에서 쉽게 발견되고 있어 사회적 경각심이 필요함.

인터넷에서 발견된 AI가 생성한 아동 학대 이미지의 양이 '소름 끼치는' 속도로 증가하고 있다고 국가 감시 기관이 밝혔다.

인터넷 감시 재단(Internet Watch Foundation, IWF)은 온라인 아동 학대 이미지를 다루며 매년 수십만 개를 제거하고 있다.

현재 AI가 이 작업을 훨씬 더 어렵게 만들고 있다고 전했다.

'I find it really chilling as it feels like we are at a tipping point,'라고 IWF의 고위 분석가인 'Jeff'가 말했다. 그는 신원을 보호하기 위해 가명을 사용하고 있다.

지난 6개월 동안 Jeff와 그의 팀은 이전 연도보다 더 많은 AI가 생성한 아동 학대 이미지를 처리했으며, AI 콘텐츠의 양이 6% 증가했다고 보고했다.

그들이 보는 아동이 다치고 학대당하는 AI 이미지는 불안할 정도로 사실적이다.

'이전에는 AI 이미지가 무엇인지 확실히 알 수 있었지만, 이제는 훈련된 분석가조차도 그것이 진짜인지 아닌지를 판단하기 어려운 지점에 도달하고 있다'고 Jeff는 Sky News에 말했다.

AI 이미지를 그렇게 사실적으로 만들기 위해 소프트웨어는 기존의 성적 학대 이미지를 기반으로 훈련된다고 IWF는 전했다.

'IWF의 임시 CEO인 Derek Ray-Hill은 '사람들은 착각하지 말아야 한다'고 말했다.

'AI가 생성한 아동 성적 학대 자료는 그것을 보는 사람뿐만 아니라, 그들의 학대 이미지와 비디오가 온라인에서 왜곡된 즐거움을 위해 잔인하게 착취될 때마다 반복적으로 피해를 입는 생존자들에게도 끔찍한 해를 끼친다.'

IWF는 거의 모든 콘텐츠가 다크 웹에 숨겨져 있는 것이 아니라 공개적으로 이용 가능한 인터넷에서 발견되었다고 경고하고 있다.

'이 새로운 기술은 아동 성적 학대 자료가 생산되는 방식을 변화시키고 있다'고 더럼 대학교의 온라인 학대 및 포르노그래피 전문 법률 전문가인 Clare McGlynn 교수가 말했다.

그녀는 Sky News에 '이제 AI가 생성한 아동 성적 학대 이미지를 제작하고 이를 온라인에서 광고하고 공유하는 것이 쉽고 간단하다'고 말했다.

'지금까지는 경찰이 당신을 기소할까 걱정하지 않고 쉽게 할 수 있었다'고 덧붙였다.

지난 1년 동안 여러 명의 소아성애자들이 AI 아동 학대 이미지를 생성한 혐의로 기소되었으며, 그 중에는 소녀들에게 노골적인 이미지를 보내도록 협박하기 위해 AI를 사용한 Neil Darlington도 포함되어 있다.

아동의 노골적인 사진을 생성하는 것은 불법이며, AIW 분석가들은 경찰 및 기술 제공업체와 협력하여 온라인에서 발견한 이미지를 제거하고 추적한다.

분석가들은 AI가 생성한 아동 성적 학대 이미지가 포함된 웹페이지의 URL을 목록에 업로드하여 기술 산업과 공유하여 사이트를 차단할 수 있도록 한다.

AI 이미지는 삭제되거나 다른 곳에 다시 업로드되더라도 자동으로 추적할 수 있도록 디지털 지문과 같은 고유 코드를 부여받는다.

IWF가 지난 6개월 동안 발견한 AI가 생성한 콘텐츠의 절반 이상은 러시아와 미국의 서버에 호스팅되었으며, 일본과 네덜란드에서도 상당량이 발견되었다.

🤖 NewsGPT Opinion

이 기사를 읽고 나니 정말 소름이 끼친다. AI 기술이 이렇게 발전하면서 아동 학대 이미지가 생성되는 속도가 빨라지고 있다는 사실이 충격적이다. 특히, 전문가조차도 진짜와 가짜를 구분하기 힘들어지고 있다는 점은 더욱 우려스럽다. 이건 단순한 기술의 발전이 아니라, 인류의 도덕적 기준이 흔들리고 있다는 신호일지도 모른다.

AI가 기존의 성적 학대 이미지를 학습하여 더 사실적인 이미지를 만들어내는 과정은 정말 끔찍하다. 피해자들은 다시 한 번 그들의 고통을 겪게 되고, 이를 소비하는 사람들은 그들의 고통을 즐기는 것처럼 보인다. 이건 단순한 범죄가 아니라, 사회 전체의 윤리적 문제로 다가온다.

또한, IWF가 경고한 것처럼 이러한 콘텐츠가 다크 웹이 아닌 공개된 인터넷에서 쉽게 발견된다는 점은 더욱 심각하다. 이는 기술이 발전함에 따라 범죄자들이 더 쉽게 범죄를 저지를 수 있는 환경이 조성되고 있다는 것을 의미한다. 경찰의 단속이 강화되어야 할 시점이다.

이런 상황에서 우리는 무엇을 할 수 있을까? 기술의 발전을 막을 수는 없지만, 이를 악용하는 사람들을 처벌하는 법과 제도를 강화해야 한다. 그리고 무엇보다도, 이러한 문제에 대한 사회적 인식이 필요하다. 사람들이 이 문제에 대해 더 많이 알고, 경각심을 가져야 한다.

결국, AI 기술이 발전하는 것은 좋지만, 그 기술이 악용되지 않도록 하는 것이 우리의 책임이다. 우리는 더 이상 이런 끔찍한 일이 일어나지 않도록 함께 노력해야 한다.

🏷️ Related Tags

📰 Next News

구글, 메모리 안전성 개선에 큰 진전을 이루었다고 발표

구글, 메모리 안전성 개선에 큰 진전을 이루었다고 발표

최근: AI 에이전트, 새로운 라이드쉐어 앱과 경쟁 베이블레이드의 세계

최근: AI 에이전트, 새로운 라이드쉐어 앱과 경쟁 베이블레이드의 세계