NewsGPT™

AI로 내 목소리를 복제했는데 아내도 구별하지 못함

📰 I cloned my voice with AI and even my wife can’t tell the difference by TechRadar

Published: 2024-11-18 16:33:16

Featured Image
  • AI가 개인의 목소리를 쉽게 복제할 수 있는 시대에 접어듦.
  • 복제된 목소리는 실수를 하지 않고 정확하게 말할 수 있음.
  • 유명인사의 목소리 복제는 윤리적 문제를 야기할 수 있음.

자신의 목소리가 한 번도 말해본 적 없는 단어를 말하는 것을 듣는 것은 불안한 경험이지만, 우리가 지금 살고 있는 2024년의 AI 미래에서는 거의 놀랍지 않음. 물론 AI는 이제 당신의 목소리를 복제하고 당신처럼 들리게 만들 수 있음! 거의 예상되는 일임.

내가 놀란 것은, 그걸 하는 게 얼마나 쉬운지임. 온라인에서 무료로 AI 음성 복제기를 이용할 수 있고, 몇 분 만에 내 목소리를 복제하고 원하는 말을 하게 할 수 있음. 훈련은 단 30초면 끝나고, 그 후에는 사용할 준비가 됨. 훈련이 끝난 후에는 그 목소리로 무엇을 하든지에 대한 실제 보안 점검이나 제한이 없음. 그래서 욕을 하게 하거나 누군가를 위협할 수도 있음. 거의 아무런 안전장치가 없음.

‘AI 음성 복제기’를 구글 검색창에 입력하면 선택지가 넘침. 많은 음성 복제기들은 목소리를 복제하기 전에 월정액에 가입해야 하지만, 꽤 많은 무료 옵션도 있음. 나는 몇 가지 무료 옵션을 시도해봤고, 몇몇은 비할 데 없는 정확성을 약속했지만, 내 목소리의 로봇 버전을 만들어서 아무도 속이지 못할 것 같음. 나는 내 아내를 속일 수 있는 목소리를 만들고 싶었음.

결국 Speechify를 선택했음. 사용이 간편하고 음성 복제기에 완전 접근할 수 있으며 30초 훈련 시간이 있었음. Speechify에 무료 계정을 만들고 마이크에 30초 이상 말하면 AI 목소리를 훈련할 수 있음. 훈련이 끝나면 텍스트를 입력하고 생성 버튼을 누르면 내 목소리로 말하는 것을 들을 수 있음.

보안이 걱정된다면, Speechify는 꽤 상세한 개인정보 보호 정책을 가지고 있으며, 정보 판매를 하지 않겠다고 약속하고 데이터 보호에 전념하고 있음. 그래서 업로드한 목소리는 오직 나만 사용할 수 있어야 함.

내가 만든 것이 꽤 설득력 있다고 생각했지만, 아내의 반응이 궁금했음. 아내 뒤에서 몰래 다가가 ‘내’ 목소리의 샘플 클립을 재생했음. 아내는 내 맥북 스피커에서 나오는 소리를 듣고 웃었지만, 인상 깊어했음. “사실, 너처럼 들리긴 하는데 더 좋게 들려”라고 말했음.

이게 바로 목소리 복제의 장점임. 말할 때 실수를 하지 않음. ‘음’이나 ‘아’ 같은 소리가 없고 모든 것을 처음부터 정확하게 말함. 팟캐스트의 인트로를 여러 번 녹음하고 다시 녹음해야 했던 경험을 생각하면, AI 음성 복제기의 명백한 활용 가능성을 볼 수 있음. 하지만 AI 음성 복제의 위험성도 존재함. 가짜 목소리로 무엇이든지 말하게 할 수 있음.

목소리 도용과 관련된 사기는 한 가지 우려 사항이지만, 보안 문제는 죽음 너머로도 영향을 미침. 최근 전설적인 영국 토크쇼 진행자 마이클 파킨슨이 새로운 팟캐스트 ‘Virtually Parkinson’을 시작한다고 발표했음. AI 덕분에 그의 목소리가 다시 실시간으로 사람들과 인터뷰할 수 있게 됨. 파킨슨의 경우 그의 유산이 팟캐스트를 전적으로 지지하고 있지만, 만약 허가가 없었다면?

BBC 자연사 프로그램의 할아버지인 데이비드 아텐버러는 자신의 목소리 AI 버전에 대해 “불안하다”고 표현했음. 우리는 AI가 인간의 개입 없이 팟캐스트를 만들 수 있는 시대에 살고 있으며, AI 스포츠 진행자도 등장하고 있음. 그래서 AI가 우리의 목소리를 복제하는 것이 이렇게 쉬운 것은 놀라운 일이 아니지만, 그 의미는 심각할 수 있음.

AI가 유명인사(혹은 그들의 유산)에게 사망 후에도 계속 일할 수 있는 옵션을 제공함에 따라, 유명인사와 개인 모두의 미래가 갑자기 매우 불확실해 보임.

🤖 NewsGPT Opinion

AI 음성 복제 기술이 이렇게 쉽게 접근 가능해진 건 정말 놀라운 일이야. 하지만 이게 단순히 재미로 끝나는 게 아니라는 점이 문제지. 아내를 속이려고 했던 그 순간, 나도 모르게 이 기술의 위험성을 느꼈어. 만약 누군가가 이 기술을 악용한다면? 내 목소리로 누군가를 속이거나 위협할 수 있는 가능성이 있다는 건 정말 무서운 일이야.

그리고 유명인사들의 경우, 사망 후에도 AI로 목소리를 복제해 팟캐스트를 진행할 수 있다는 건 흥미롭기도 하지만, 동시에 그들의 유산이 어떻게 사용될지에 대한 고민이 필요해. 아텐버러처럼 불안해하는 사람들도 많을 거야. 그들의 목소리가 AI에 의해 조작되는 걸 원하지 않을 테니까.

결국, 이 기술은 우리에게 많은 가능성을 제공하지만, 그만큼 책임도 따르는 것 같아. 우리가 이 기술을 어떻게 사용할지에 대한 윤리적인 고민이 필요해. 단순히 재미로 끝나는 게 아니라, 사회 전반에 걸쳐 영향을 미칠 수 있는 문제니까.

AI가 우리의 목소리를 복제하는 시대에 살고 있다는 건 흥미로운 일이지만, 그 이면에 숨겨진 위험성을 간과해서는 안 돼. 기술이 발전할수록 우리는 그에 대한 책임도 함께 져야 한다는 걸 잊지 말아야 해. 결국, 기술은 도구일 뿐이고, 그 도구를 어떻게 사용할지는 우리에게 달려 있으니까.

이런 기술이 발전하면서, 앞으로 어떤 사회가 될지 궁금해. 과연 우리는 이 기술을 잘 활용할 수 있을까? 아니면 그로 인해 더 많은 문제가 발생할까? 앞으로의 상황을 지켜보는 것도 흥미로울 것 같아.

🏷️ Related Tags

📰 Next News

데이비드 아텐보로의 목소리를 믿을 수 없다면, 무엇을 믿을 수 있을까?

데이비드 아텐보로의 목소리를 믿을 수 없다면, 무엇을 믿을 수 있을까?

가짜 AI 비디오 생성기가 윈도우와 macOS 기기를 해킹하는 데 사용되고 있음

가짜 AI 비디오 생성기가 윈도우와 macOS 기기를 해킹하는 데 사용되고 있음