구글은 사용자가 특정 콘텐츠가 어떻게 생성되고 수정되었는지를 더 잘 이해할 수 있도록 돕는 새로운 기능을 도입할 것이라고 발표함.
이는 구글이 온라인에서 잘못된 정보의 확산을 방지하기 위해 노력하는 주요 브랜드들이 모인 '콘텐츠 출처 및 진위 연합(C2PA)'에 가입한 이후 이루어진 것임. 아마존, 어도비, 마이크로소프트도 이 위원회의 회원임.
구글은 향후 몇 달 내에 현재의 콘텐츠 자격 증명 가이드라인을 사용하여 AI로 생성되거나 편집된 이미지에 라벨을 추가할 것이라고 밝힘. 이 메타데이터는 이미지의 출처, 생성된 시간, 장소 및 방법과 같은 정보를 포함함.
하지만 C2PA 표준은 이미지 생성 모델인 플럭스의 개발사인 블랙 포레스트 랩스와 같은 많은 AI 개발자들에 의해 거부됨.
이 AI 라벨링은 구글의 '이 이미지에 대한 정보' 창을 통해 구현될 예정이며, 이는 구글 렌즈와 안드로이드의 '서치 서클' 기능을 통해 사용자에게도 제공됨. 사용자는 이미지 위의 세 점을 클릭하고 '이 이미지에 대한 정보'를 선택하여 AI로 생성된 이미지인지 확인할 수 있음. 따라서 우리가 기대했던 것만큼 명확하지는 않음.
이것으로 충분한가?
구글은 검색 결과에서 AI 이미지를 처리하기 위해 무언가를 해야 했지만, 숨겨진 라벨이 충분한지에 대한 의문이 남음. 만약 이 기능이 제대로 작동한다면, 사용자는 구글이 확인하기 전에 AI로 생성된 이미지인지 확인하기 위해 추가 단계를 수행해야 함. '이 이미지에 대한 정보' 기능의 존재를 모르는 사람들은 새로운 도구가 제공되고 있다는 사실조차 알지 못할 수 있음.
비디오 딥페이크는 올해 초 한 재무 직원이 CFO를 사칭한 그룹에게 2,500만 달러를 사기당한 사례와 같은 문제가 있었고, AI로 생성된 이미지도 거의 비슷한 문제를 안고 있음. 도널드 트럼프는 최근 테일러 스위프트와 그녀의 팬들이 자신의 대통령 캠페인을 지지하는 디지털 렌더링 이미지를 게시했으며, 스위프트는 AI로 생성된 누드 이미지가 바이럴되면서 이미지 기반 성적 학대의 피해자가 되었음.
구글이 충분히 하지 않는다고 불평하기는 쉽지만, 메타도 이 문제에 대해 적극적이지 않음. 소셜 미디어 거인은 최근 라벨을 덜 눈에 띄게 만들기 위해 정책을 업데이트하고 관련 정보를 게시 메뉴로 이동시킴.
'이 이미지에 대한 정보' 도구의 업그레이드는 긍정적인 첫 걸음이지만, 사용자를 더 잘 알리고 보호하기 위해서는 추가적인 강력한 조치가 필요함. 카메라 제조업체와 AI 도구 개발자들도 C2PA의 워터마크를 수용하고 사용해야 이 시스템이 최대한 효과적일 수 있음. 라이카 M-11P와 니콘 Z9과 같은 몇몇 카메라 모델만이 콘텐츠 자격 증명 기능을 내장하고 있으며, 어도비는 포토샵과 라이트룸에 베타 버전을 구현함. 하지만 다시 말하지만, 이는 사용자에게 달려 있으며 정확한 정보를 제공해야 함.
워털루 대학교의 연구에 따르면, 사람들의 61%만이 AI로 생성된 이미지와 실제 이미지를 구별할 수 있다고 함. 만약 이 수치가 정확하다면, 구글의 라벨링 시스템은 3분의 1 이상의 사람들에게 추가적인 투명성을 제공하지 못할 것임. 그럼에도 불구하고 이는 온라인에서 잘못된 정보를 줄이기 위한 구글의 긍정적인 조치이지만, 기술 대기업들이 이러한 라벨을 훨씬 더 접근 가능하게 만들면 좋겠음.