인터넷에서 발견된 AI가 생성한 아동 학대 이미지의 양이 '소름 끼치는' 속도로 증가하고 있다고 국가 감시 기관이 밝혔다.
인터넷 감시 재단(Internet Watch Foundation, IWF)은 온라인 아동 학대 이미지를 다루며 매년 수십만 개를 제거하고 있다.
현재 AI가 이 작업을 훨씬 더 어렵게 만들고 있다고 전했다.
'I find it really chilling as it feels like we are at a tipping point,'라고 IWF의 고위 분석가인 'Jeff'가 말했다. 그는 신원을 보호하기 위해 가명을 사용하고 있다.
지난 6개월 동안 Jeff와 그의 팀은 이전 연도보다 더 많은 AI가 생성한 아동 학대 이미지를 처리했으며, AI 콘텐츠의 양이 6% 증가했다고 보고했다.
그들이 보는 아동이 다치고 학대당하는 AI 이미지는 불안할 정도로 사실적이다.
'이전에는 AI 이미지가 무엇인지 확실히 알 수 있었지만, 이제는 훈련된 분석가조차도 그것이 진짜인지 아닌지를 판단하기 어려운 지점에 도달하고 있다'고 Jeff는 Sky News에 말했다.
AI 이미지를 그렇게 사실적으로 만들기 위해 소프트웨어는 기존의 성적 학대 이미지를 기반으로 훈련된다고 IWF는 전했다.
'IWF의 임시 CEO인 Derek Ray-Hill은 '사람들은 착각하지 말아야 한다'고 말했다.
'AI가 생성한 아동 성적 학대 자료는 그것을 보는 사람뿐만 아니라, 그들의 학대 이미지와 비디오가 온라인에서 왜곡된 즐거움을 위해 잔인하게 착취될 때마다 반복적으로 피해를 입는 생존자들에게도 끔찍한 해를 끼친다.'
IWF는 거의 모든 콘텐츠가 다크 웹에 숨겨져 있는 것이 아니라 공개적으로 이용 가능한 인터넷에서 발견되었다고 경고하고 있다.
'이 새로운 기술은 아동 성적 학대 자료가 생산되는 방식을 변화시키고 있다'고 더럼 대학교의 온라인 학대 및 포르노그래피 전문 법률 전문가인 Clare McGlynn 교수가 말했다.
그녀는 Sky News에 '이제 AI가 생성한 아동 성적 학대 이미지를 제작하고 이를 온라인에서 광고하고 공유하는 것이 쉽고 간단하다'고 말했다.
'지금까지는 경찰이 당신을 기소할까 걱정하지 않고 쉽게 할 수 있었다'고 덧붙였다.
지난 1년 동안 여러 명의 소아성애자들이 AI 아동 학대 이미지를 생성한 혐의로 기소되었으며, 그 중에는 소녀들에게 노골적인 이미지를 보내도록 협박하기 위해 AI를 사용한 Neil Darlington도 포함되어 있다.
아동의 노골적인 사진을 생성하는 것은 불법이며, AIW 분석가들은 경찰 및 기술 제공업체와 협력하여 온라인에서 발견한 이미지를 제거하고 추적한다.
분석가들은 AI가 생성한 아동 성적 학대 이미지가 포함된 웹페이지의 URL을 목록에 업로드하여 기술 산업과 공유하여 사이트를 차단할 수 있도록 한다.
AI 이미지는 삭제되거나 다른 곳에 다시 업로드되더라도 자동으로 추적할 수 있도록 디지털 지문과 같은 고유 코드를 부여받는다.
IWF가 지난 6개월 동안 발견한 AI가 생성한 콘텐츠의 절반 이상은 러시아와 미국의 서버에 호스팅되었으며, 일본과 네덜란드에서도 상당량이 발견되었다.