“수백만 명”이 인공지능을 이용해 자신의 목소리를 복제하는 사기의 피해자가 될 수 있다고 영국의 한 은행이 경고함.
온라인 전용 대출 기관인 스타링 은행은 사기꾼들이 단 3초의 오디오만으로 사람의 목소리를 복제할 수 있다고 밝혔음. 예를 들어, 해당 사람이 온라인에 게시한 비디오에서 오디오를 찾을 수 있음.
사기꾼들은 이후 피해자의 친구와 가족을 식별하고 AI로 복제한 목소리를 사용해 전화를 걸어 돈을 요청할 수 있음.
스타링 은행은 이러한 유형의 사기가 “수백만 명을 속일 가능성이 있다”고 수요일에 언급함. 이미 수백 명이 피해를 입었음.
스타링 은행이 모타르 리서치와 함께 실시한 3,000명 이상의 성인을 대상으로 한 설문조사에 따르면, 응답자의 4분의 1 이상이 지난 12개월 동안 AI 음성 복제 사기의 표적이 되었다고 응답함.
설문조사 결과, 응답자의 46%는 이러한 사기가 존재한다는 사실을 알지 못했으며, 8%는 전화가 이상하게 들리더라도 친구나 가족이 요청한 만큼의 돈을 보낼 것이라고 응답함.
스타링 은행의 정보 보안 책임자인 리사 그래임은 “사람들이 온라인에 자신의 목소리가 녹음된 콘텐츠를 정기적으로 게시하지만, 이는 그들을 사기꾼에게 더 취약하게 만든다는 것을 상상하지 못한다”고 말함.
은행은 사람들에게 사랑하는 이들과 함께 “안전 문구”를 설정할 것을 권장함. 이는 기억하기 쉽고 다른 비밀번호와는 다른 간단한 무작위 문구로, 전화로 신원을 확인하는 데 사용할 수 있음.
대출 기관은 안전 문구를 문자로 공유하는 것을 피하라고 조언함. 이는 사기꾼이 이를 찾기 쉽게 만들 수 있기 때문임. 만약 이렇게 공유된다면, 상대방이 메시지를 본 후에는 삭제해야 함.
AI가 인간의 목소리를 모방하는 능력이 점점 더 뛰어나짐에 따라, 범죄자들이 은행 계좌에 접근하거나 잘못된 정보를 퍼뜨리는 데 도움을 줄 수 있는 가능성에 대한 우려가 커지고 있음.
올해 초, 생성 AI 챗봇인 ChatGPT의 제작사인 OpenAI는 음성 복제 도구인 Voice Engine을 공개했지만, “합성 음성의 오용 가능성”을 이유로 대중에게 제공하지 않았음.