여러 주요 인공지능 회사들이 AI 제품 훈련에 사용되는 데이터 소스에서 누드 이미지를 제거하겠다고 약속하며, 유해한 성적 딥페이크 이미지의 확산을 방지하기 위한 안전 장치를 구현하겠다고 밝혔다.
바이든 행정부의 중재로 이루어진 이번 협약에 따라 Adobe, Anthropic, Cohere, Microsoft, OpenAI와 같은 기업들은 모델의 목적에 따라 적절한 경우 AI 훈련 데이터셋에서 누드 이미지를 자발적으로 제거할 예정이다. 이번 백악관 이니셔티브는 아동의 이미지 기반 성적 학대와 동의 없이 성인에 대한 친밀한 AI 딥페이크 이미지 생성에 맞서 싸우기 위한 더 넓은 캠페인의 일환이다. 과학기술정책국에 따르면, 이러한 이미지는 특히 여성, 아동, LGBTQI+ 개인에게 큰 영향을 미치고 있다.
AI 훈련을 위해 공개 인터넷에서 자주 소스되는 데이터 저장소인 Common Crawl도 이미지 기반 성적 학대에 대한 데이터셋을 책임감 있게 사용하고 보호하겠다는 약속에 동참했다.
별도로, Bumble, Discord, Match Group, Meta, Microsoft, TikTok을 포함한 또 다른 기업 그룹은 이미지 기반 성적 학대를 방지하기 위한 자발적인 원칙을 발표했으며, 이는 여성에 대한 폭력 방지 법안의 30주년과 맞물려 진행되었다.