AI는 이제 단 2시간의 인터뷰로 당신의 성격을 복제할 수 있음.
새로운 연구에 따르면, AI 모델이 1,052명의 참가자와의 2시간 인터뷰를 통해 그들의 태도와 행동을 복제할 수 있음.
AI는 참가자들의 응답을 85% 정확도로 모방할 수 있었음.
미래의 연구에서는 인간 대신 AI 에이전트를 사용할 수 있을 것으로 보임.
이 연구는 스탠포드와 구글 딥마인드의 연구자들에 의해 발표됨.
연구에서는 참가자들이 개인적인 이야기부터 현대 사회 문제에 대한 견해까지 다양한 주제를 다룬 2시간 인터뷰를 진행함.
그들의 응답은 기록되어 각 개인을 위한 생성 AI 모델, 즉 '시뮬레이션 에이전트'를 훈련하는 데 사용됨.
이 에이전트들이 인간 참가자들을 얼마나 잘 모방할 수 있는지 테스트하기 위해, 두 그룹 모두 성격 테스트와 게임을 수행함.
참가자들은 2주 후 자신의 답변을 다시 복제하라는 요청을 받았음.
놀랍게도 AI 에이전트는 인간 참가자들과 비교해 85%의 정확도로 답변을 시뮬레이션할 수 있었음.
더욱이, 이 시뮬레이션 에이전트는 다섯 가지 사회 과학 실험에서 성격 특성을 예측하는 데에도 비슷한 효과를 보였음.
당신의 성격은 무형의 것이거나 정량화할 수 없는 것처럼 보일 수 있지만, 이 연구는 상대적으로 적은 양의 정보로 당신의 가치 구조를 추출할 수 있음을 보여줌.
정해진 질문 세트에 대한 질적 응답을 캡처함으로써, AI 모델은 당신의 성격을 설득력 있게 모방할 수 있음.
이것은 적어도 통제된 테스트 기반 환경에서는 가능함.
그리고 이는 딥페이크를 더욱 위험하게 만들 수 있음.
연구는 스탠포드 박사 과정 학생인 박준성에 의해 주도됨.
이 시뮬레이션 에이전트를 만드는 아이디어는 사회 과학 연구자들에게 연구를 수행할 때 더 많은 자유를 주기 위함임.
실제 사람들을 기반으로 행동하는 디지털 복제본을 만들어, 과학자들은 매번 수천 명의 인간 참가자를 데려오는 비용 없이 연구를 수행할 수 있음.
그들은 또한 실제 인간 참가자와 함께 수행하기에는 비윤리적인 실험을 진행할 수 있을지도 모름.
MIT 기술 리뷰와의 인터뷰에서 MIT 슬론 경영대학원의 정보 기술 부교수인 존 호튼은 이 논문이 "실제 인간을 사용하여 페르소나를 생성한 후, 이를 프로그램적으로/시뮬레이션 방식으로 사용할 수 있는 방법을 보여준다"고 말함.
연구 참가자들이 이러한 것에 도덕적으로 편안함을 느끼는지는 한 가지 문제임.
하지만 많은 사람들에게 더 우려스러운 것은 시뮬레이션 에이전트가 미래에 더 악의적인 존재가 될 가능성임.
같은 MIT 기술 리뷰 기사에서 박준성은 언젠가 "당신의 작은 '당신'들이 돌아다니며 당신이 했을 결정을 실제로 내릴 수 있을 것"이라고 예측함.
많은 사람들에게 이는 디스토피아적 경고음을 울리게 할 것임.
디지털 복제본의 개념은 보안, 프라이버시 및 신원 도용 문제의 영역을 열어줌.
사기꾼들이 이미 사랑하는 사람의 목소리를 모방하기 위해 AI를 사용하고 있는 상황에서, 사람들이 온라인에서 모방할 수 있는 성격 딥페이크를 만들 수 있는 세상을 상상하는 것은 어렵지 않음.
이것은 특히 AI 시뮬레이션 에이전트가 연구에서 단 2시간의 인터뷰 데이터만으로 생성되었다는 점을 고려할 때 더욱 우려스러움.
이는 현재 타부스와 같은 회사들이 사용자 데이터의 방대한 양을 기반으로 디지털 트윈을 생성하는 데 필요한 정보보다 훨씬 적음.