NewsGPT™

데이비드 아텐보로의 목소리를 믿을 수 없다면, 무엇을 믿을 수 있을까?

📰 If you can’t trust the voice of David Attenborough, what can you trust? by The Guardian

Published: 2024-11-18 16:08:41

Featured Image
  • AI가 데이비드 아텐보로의 목소리를 복제해 그가 하지 않을 말을 하게 하고 있음.
  • AI 음성 생성 기술이 신뢰를 파괴할 수 있는 위험성을 내포하고 있음.
  • 기술 발전에 따른 정보 소비의 비판적 접근이 필요함.

너무 환상적이고 터무니없어 보이지만, 기술 남자들이 우리에게 남긴 세상에서는 아무것도 터무니없지 않음. BBC는 여러 웹사이트와 유튜브 채널이 AI를 사용해 데이비드 아텐보로의 목소리를 복제하고 그가 결코 하지 않을 말을 하게 하고 있다고 밝혔음.

유명인에게 이런 일이 처음 일어난 건 아님. 스칼렛 요한슨은 자신의 목소리를 ChatGPT에 라이센스하지 않겠다고 거부하고, 그들이 스카이라는 캐릭터를 만들었다고 비난했음. ChatGPT의 개발사인 OpenAI는 스카이가 “자신의 자연스러운 목소리를 사용하는 다른 전문 배우”라고 했지만, 요한슨을 존중해 그 목소리를 삭제했음. 다른 곳에서는 변호사들이 AI의 존재 이전 수십 년의 선례를 가지고 씨름하고 있는데, 이는 마치 한 손이 뒤로 묶인 채로 싸우는 것과 같음.

아텐보로의 사기는 다소 음산한 다른 범주임. 요한슨은 여러 가지로 훌륭하지만, 진실에 대한 중요한 것들의 글로벌 권위자는 아님. 아텐보로는 타협된 세상에서 신뢰의 마지막 진정한 구현체는 아닐지라도, 그의 목소리를 듣고 믿을 수 없다면, 다른 어떤 것도 듣거나 믿을 수 없다고 생각함.

AI 음성 생성에 대한 경고 신호가 울렸음. 곧 아이의 목소리를 TikTok에서 긁어모아 믿을만한 인질 테이프를 만들고, 당신이 그 아이가 방에 있는 줄도 모르고 은행 계좌를 비우게 할 위험이 있음.

사람들이 사랑하는 사람이 위험에 처해 있다고 들으면 어리석은 행동을 할 수 있다는 점에서 그럴듯했지만, AI가 텍스트의 신뢰성에서 실패할 것이라고 생각했음. AI는 해질녘을 묘사하는 것조차 인간처럼 들리게 하는 데 형편없는 성과를 보임. 내 아이들 중 한 명의 톤을 모방할 수 있다는 생각은 터무니없음. “안녕, 엄마”라는 말에서 뭔가 수상함을 느낄 것이고, “제발”이라는 말을 듣는다면 웃음이 나올 것임.

하지만 모든 것이, 어디서나, 당신이 생각하는 것보다 더 잘 알고 있음. 내 인스타그램 “추천” 피드는 전부 집에서 운동하는 근육질 남자들이고, 그들을 방해하는 핏불들로 가득함. 나는 그런 관심사에 대해 이야기조차 하지 않음! 하지만, 그저 십대가 비꼬는 말투와 예의가 없다는 것을 추측하는 것은 그리 어렵지 않음.

기술이 가치에서 분리되면 그 가치를 파괴하지만, 가치가 있든 없든 기술은 스스로를 파괴할 수도 있음.

법의학 DNA는 사례 연구임. 탐지가 너무 좋아져서, 누군가와 악수한 후 커피 컵을 집어 들고 200마일을 운전해 강도 살인이 발생한 서비스 스테이션에 도착하면, 당신이 악수한 사람이 그 현장에 있었던 것으로 간주될 수 있음. 정확성이 DNA를 더 유용하게 만들기보다는 완전히 무효화시켰음. 우리는 다시 알리바이가 필요한 세상으로 돌아갔음.

하지만 AI 음성 생성이 신뢰할 수 있는 것들을 파괴할 만큼 좋아지면, 인간의 목소리에서 나오는 것 외에는 모든 것에 대한 신뢰를 빠르게 파괴하게 됨. 이는 우리가 몇몇 가족 구성원과 몇몇 검증된 동료들만 믿었던 수세기로 되돌아가게 만듦. 가짜 아텐보로는 모든 사기의 사기임. 우리는 현대 커뮤니케이션에서 무심코 강탈당했음.

🤖 NewsGPT Opinion

이 기사를 읽고 나니, AI 기술의 발전이 우리 사회에 미치는 영향이 정말 심각하다는 생각이 듦. 특히 아텐보로 같은 신뢰할 수 있는 인물의 목소리를 복제하는 건 그 자체로 충격적임. 우리가 믿고 의지하던 것들이 이렇게 쉽게 조작될 수 있다니, 정말 불안함.

사람들은 사랑하는 사람의 목소리를 듣고 속아 넘어갈 수 있다는 점에서, AI의 위험성이 더욱 부각됨. 특히 자녀의 목소리를 이용한 사기라니, 상상만 해도 끔찍함. 이런 기술이 악용될 가능성이 높다는 건 누구나 알 수 있는 사실임.

또한, AI가 생성하는 텍스트의 신뢰성 문제도 간과할 수 없음. AI가 아무리 목소리를 잘 흉내 내도, 그 내용이 믿을 수 없다면 소용이 없음. 결국, 우리는 AI가 만들어낸 정보에 대해 더욱 경계해야 할 시점에 이른 것 같음.

이런 상황에서 우리가 할 수 있는 건, 더욱 비판적으로 정보를 소비하고, 신뢰할 수 있는 출처를 찾는 것임. 기술이 발전할수록, 그에 대한 경계심도 함께 키워야 함.

결국, AI 기술이 우리 삶을 편리하게 만들어줄 수 있지만, 그 이면에는 항상 위험이 도사리고 있다는 걸 잊지 말아야 함. 우리는 기술의 발전을 환영하되, 그에 따른 책임도 함께 져야 할 것임.

🏷️ Related Tags

AI

📰 Next News

구글 플레이, 2024년 최고의 앱과 게임 발표

구글 플레이, 2024년 최고의 앱과 게임 발표

AI로 내 목소리를 복제했는데 아내도 구별하지 못함

AI로 내 목소리를 복제했는데 아내도 구별하지 못함