인공지능 연구자들이 금요일에 2,000개 이상의 아동 성학대 이미지가 포함된 웹 링크를 인기 있는 AI 이미지 생성 도구 훈련에 사용되는 데이터베이스에서 삭제했다고 밝혔다.
LAION 연구 데이터베이스는 Stable Diffusion과 Midjourney와 같은 주요 AI 이미지 제작 도구의 출처가 된 방대한 온라인 이미지 및 캡션 색인이다.
하지만 스탠포드 인터넷 관측소의 지난해 보고서에 따르면 이 데이터베이스에는 아동의 성적으로 노골적인 이미지 링크가 포함되어 있어 일부 AI 도구가 아동을 묘사한 포토리얼리스틱 딥페이크를 쉽게 생성할 수 있도록 했다.
그 12월 보고서는 LAION, 즉 비영리 대규모 인공지능 오픈 네트워크가 즉시 데이터 세트를 삭제하도록 이끌었다. 8개월 후, LAION은 블로그 게시물에서 스탠포드 대학교 감시 그룹 및 캐나다와 영국의 반학대 단체와 협력하여 문제를 해결하고 향후 AI 연구를 위한 정리된 데이터베이스를 출시했다고 밝혔다.
스탠포드 연구원 데이비드 티엘은 12월 보고서의 저자로서 LAION의 상당한 개선을 칭찬했지만, 여전히 아동 학대 이미지를 생성할 수 있는 '오염된 모델'의 배포를 중단하는 것이 다음 단계라고 말했다.
스탠포드가 '노골적인 이미지를 생성하는 가장 인기 있는 모델'로 식별한 LAION 기반 도구 중 하나인 구버전의 Stable Diffusion은 목요일까지 쉽게 접근할 수 있었고, 뉴욕에 본사를 둔 회사 Runway ML이 AI 모델 저장소인 Hugging Face에서 이를 제거했다. Runway는 금요일 성명에서 '활발히 유지되지 않는 연구 모델과 코드의 계획된 중단'이라고 밝혔다.
LAION 데이터베이스의 정리된 버전은 전 세계 정부가 일부 기술 도구가 아동의 불법 이미지를 생성하거나 배포하는 방식에 대해 더 면밀히 살펴보는 가운데 출시되었다.
샌프란시스코 시의 변호사는 이달 초 여성과 소녀의 AI 생성 누드를 생성하는 웹사이트 그룹을 폐쇄하려는 소송을 제기했다. 아동 성학대 이미지의 배포가 텔레그램 메신저 앱에서 발생한 사건은 수요일 프랑스 당국이 플랫폼의 창립자이자 CEO인 파벨 두로프에 대한 기소로 이어졌다.