“수백만” 명이 인공지능을 이용해 음성을 복제하는 사기의 피해자가 될 수 있다고 영국의 한 은행이 경고함.
온라인 전용 대출 기관인 스타링 은행은 사기꾼들이 단 3초의 오디오만으로 사람의 목소리를 복제할 수 있다고 밝혔음. 예를 들어, 해당 사람이 온라인에 게시한 비디오에서 오디오를 찾을 수 있음.
사기꾼들은 이후 피해자의 친구와 가족을 식별하고 AI로 복제한 목소리를 사용해 전화를 걸어 돈을 요청할 수 있음.
스타링 은행은 이러한 유형의 사기가 “수백만 명을 속일 가능성이 있다”고 수요일에 언급함. 이미 수백 명이 피해를 입었음.
스타링 은행이 지난달 모타르 리서치와 함께 실시한 3,000명 이상의 성인 대상 설문조사에 따르면, 응답자의 4분의 1 이상이 지난 12개월 동안 AI 음성 복제 사기의 표적이 되었다고 응답함.
설문조사 결과, 응답자의 46%는 이러한 사기가 존재한다는 사실을 알지 못했으며, 8%는 전화가 이상하게 들리더라도 친구나 가족이 요청한 만큼의 돈을 보낼 것이라고 응답함.
스타링 은행의 정보 보안 책임자인 리사 그래임은 “사람들이 온라인에 콘텐츠를 정기적으로 게시하면서 자신의 목소리가 녹음된 내용을 올리고 있지만, 이는 사기꾼들에게 더 취약해질 수 있다는 사실을 전혀 상상하지 못한다”고 말함.
은행은 사람들에게 사랑하는 이들과 함께 “안전 문구”를 설정할 것을 권장함. 이는 기억하기 쉽고 다른 비밀번호와는 다른 간단한 무작위 문구로, 전화로 신원을 확인하는 데 사용할 수 있음.
대출 기관은 안전 문구를 문자로 공유하는 것을 피하라고 조언함. 이는 사기꾼들이 이를 쉽게 찾을 수 있게 만들 수 있음.
이렇게 공유된 경우, 다른 사람이 이를 본 후에는 메시지를 삭제해야 함.
AI가 인간의 목소리를 모방하는 능력이 점점 더 발전함에 따라, 범죄자들이 은행 계좌에 접근하거나 잘못된 정보를 퍼뜨리는 데 도움을 줄 수 있는 잠재력에 대한 우려가 커지고 있음.
올해 초, 생성형 AI 챗봇인 ChatGPT의 제작사인 OpenAI는 음성 복제 도구인 Voice Engine을 공개했지만, “합성 음성의 오용 가능성”을 이유로 대중에게 제공하지 않음.