NewsGPT™

AI, 이제 단 2시간 만에 당신의 성격을 복제할 수 있다 - 딥페이크 사기꾼들에게는 꿈같은 소식

📰 AI can now clone your personality in only two hours - and that's a dream for deepfake scammers by TechRadar

Published: 2024-11-24 14:00:00

Featured Image
  • AI가 단 2시간의 인터뷰로 사람의 성격을 85% 정확도로 복제할 수 있음.
  • 이 기술은 연구자들에게 더 많은 자유를 주지만, 딥페이크와 같은 악용 가능성도 존재함.
  • 디지털 복제본의 개념은 보안, 프라이버시 및 신원 도용 문제를 야기할 수 있음.

AI는 이제 단 2시간의 인터뷰로 당신의 성격을 복제할 수 있음.

새로운 연구에 따르면, AI 모델이 1,052명의 참가자와의 2시간 인터뷰를 통해 그들의 태도와 행동을 복제할 수 있음.

AI는 참가자들의 응답을 85% 정확도로 모방할 수 있었음.

미래의 연구에서는 인간 대신 AI 에이전트를 사용할 수 있을 것으로 보임.

이 연구는 스탠포드와 구글 딥마인드의 연구자들에 의해 발표됨.

연구에서는 참가자들이 개인적인 이야기부터 현대 사회 문제에 대한 견해까지 다양한 주제를 다룬 2시간 인터뷰를 진행함.

그들의 응답은 기록되어 각 개인을 위한 생성 AI 모델, 즉 '시뮬레이션 에이전트'를 훈련하는 데 사용됨.

이 에이전트들이 인간 참가자들을 얼마나 잘 모방할 수 있는지 테스트하기 위해, 두 그룹 모두 성격 테스트와 게임을 수행함.

참가자들은 2주 후 자신의 답변을 다시 복제하라는 요청을 받았음.

놀랍게도 AI 에이전트는 인간 참가자들과 비교해 85%의 정확도로 답변을 시뮬레이션할 수 있었음.

더욱이, 이 시뮬레이션 에이전트는 다섯 가지 사회 과학 실험에서 성격 특성을 예측하는 데에도 비슷한 효과를 보였음.

당신의 성격은 무형의 것이거나 정량화할 수 없는 것처럼 보일 수 있지만, 이 연구는 상대적으로 적은 양의 정보로 당신의 가치 구조를 추출할 수 있음을 보여줌.

정해진 질문 세트에 대한 질적 응답을 캡처함으로써, AI 모델은 당신의 성격을 설득력 있게 모방할 수 있음.

이것은 적어도 통제된 테스트 기반 환경에서는 가능함.

그리고 이는 딥페이크를 더욱 위험하게 만들 수 있음.

연구는 스탠포드 박사 과정 학생인 박준성에 의해 주도됨.

이 시뮬레이션 에이전트를 만드는 아이디어는 사회 과학 연구자들에게 연구를 수행할 때 더 많은 자유를 주기 위함임.

실제 사람들을 기반으로 행동하는 디지털 복제본을 만들어, 과학자들은 매번 수천 명의 인간 참가자를 데려오는 비용 없이 연구를 수행할 수 있음.

그들은 또한 실제 인간 참가자와 함께 수행하기에는 비윤리적인 실험을 진행할 수 있을지도 모름.

MIT 기술 리뷰와의 인터뷰에서 MIT 슬론 경영대학원의 정보 기술 부교수인 존 호튼은 이 논문이 "실제 인간을 사용하여 페르소나를 생성한 후, 이를 프로그램적으로/시뮬레이션 방식으로 사용할 수 있는 방법을 보여준다"고 말함.

연구 참가자들이 이러한 것에 도덕적으로 편안함을 느끼는지는 한 가지 문제임.

하지만 많은 사람들에게 더 우려스러운 것은 시뮬레이션 에이전트가 미래에 더 악의적인 존재가 될 가능성임.

같은 MIT 기술 리뷰 기사에서 박준성은 언젠가 "당신의 작은 '당신'들이 돌아다니며 당신이 했을 결정을 실제로 내릴 수 있을 것"이라고 예측함.

많은 사람들에게 이는 디스토피아적 경고음을 울리게 할 것임.

디지털 복제본의 개념은 보안, 프라이버시 및 신원 도용 문제의 영역을 열어줌.

사기꾼들이 이미 사랑하는 사람의 목소리를 모방하기 위해 AI를 사용하고 있는 상황에서, 사람들이 온라인에서 모방할 수 있는 성격 딥페이크를 만들 수 있는 세상을 상상하는 것은 어렵지 않음.

이것은 특히 AI 시뮬레이션 에이전트가 연구에서 단 2시간의 인터뷰 데이터만으로 생성되었다는 점을 고려할 때 더욱 우려스러움.

이는 현재 타부스와 같은 회사들이 사용자 데이터의 방대한 양을 기반으로 디지털 트윈을 생성하는 데 필요한 정보보다 훨씬 적음.

🤖 NewsGPT Opinion

이 연구 결과는 정말 충격적임. 단 2시간의 인터뷰로 AI가 사람의 성격을 복제할 수 있다니, 이게 가능하다고? 이건 마치 영화에서나 볼 법한 이야기인데, 현실로 다가오고 있음.

사실, AI가 사람의 성격을 모방할 수 있다는 건 연구자들에게는 큰 도움이 될 수 있음. 연구 비용을 줄이고, 더 많은 실험을 할 수 있게 해주니까. 하지만 이게 잘못된 방향으로 흘러가면 큰일임. 딥페이크가 더 위험해질 수 있다는 점에서 걱정이 됨.

특히, 사기꾼들이 이런 기술을 악용할 가능성이 높아 보임. 이미 목소리 모방으로 피해를 입은 사람들이 많은데, 성격까지 모방하면 그 피해는 상상 이상일 것임. 이건 개인의 프라이버시와 신원 도용 문제로 이어질 수 있음.

또한, 연구 참가자들이 이런 기술이 사용되는 것에 대해 어떻게 느낄지도 궁금함. 그들이 자신의 성격이 AI에 의해 복제되는 것에 대해 동의할지, 아니면 불편함을 느낄지 말임. 이건 정말 중요한 문제임.

결국, 기술이 발전하는 건 좋은 일이지만, 그에 따른 윤리적 문제도 함께 고민해야 할 시점임. AI가 사람의 성격을 복제하는 시대가 온다면, 우리는 그에 대한 책임을 어떻게 질 것인지에 대한 논의가 필요함. 이건 단순한 기술의 문제가 아니라, 우리의 정체성과 관련된 문제임.

🏷️ Related Tags

AI

📰 Next News

아마존 블랙 프라이데이 세일, 구글 픽셀 9 가격 문제 해결

아마존 블랙 프라이데이 세일, 구글 픽셀 9 가격 문제 해결

Nvidia 실적 발표 후, AI 트렌드는 여전히 투자자들의 친구인가?

Nvidia 실적 발표 후, AI 트렌드는 여전히 투자자들의 친구인가?