최근 기억에 남는 가장 분열적이고 치열한 미국 대통령 선거를 일주일도 남기지 않은 시점에서 새로운 위협이 등장함.
인공지능이 후보자와 이슈에 대한 허위 정보의 범람에 기여하고 있음.
이 분야에 대한 연구는 제한적이지만, 스캔들을 "폭로"하기 위해 조작된 이미지나 허구의 영웅적 행동을 칭송하는 이미지는 대중의 정보 조작에 대한 두려움을 불러일으킬 수 있음. 이는 대중이 가장 신뢰할 수 있는 정보가 필요한 시점에서 발생함.
최근 미국에서 발생한 허리케인과 관련된 허위 정보가 얼마나 빠르게 퍼졌는지를 보면, 이러한 허위 정보의 광란이 얼마나 경각심을 불러일으킬 수 있는지 알 수 있음. 도널드 트럼프는 허리케인 구호 기금이 "불법 이민자 주택"에 사용되었다는 허위 주장을 반복함.
온라인에서 생성된 허위 사실을 단순히 반복하는 것만이 아니라, 이러한 도구들이 우리가 모르는 사이에 정보 공간을 어떻게 채우고 있는지에 대한 여러 방법이 존재함.
겉보기에는 진짜처럼 보이는 게시물들이 특정 후보자에 대한 우려나 합의를 표출하며 소셜 미디어를 채우고 있음. 이러한 게시물은 믿을 수 없는 속도로 생성되고 게시될 수 있음. 직접적으로 또는 봇을 통해 이루어짐.
동시에, 많은 사람들이 다른 쪽을 조롱하는 재미있는 밈을 만들거나 설득력 있는 텍스트를 빠르게 작성하는 데 이 도구를 사용하고 있음.
점점 더 많은 사람들이 생성적 AI를 정확성에 관계없이 결과를 제공하는 더 접근 가능한 검색 엔진으로 사용하고 있음.
AI에 대한 위험이 있다면, 그것은 사용자인 인간으로 돌아가는 것처럼 보임.
우리의 손에 있든 다른 사람의 손에 있든, 이 도구들은 우리의 선거 대화와 결정에 영향을 미치고 있으며, 이는 우리 사회의 기능에 위험을 초래할 수 있음.
타인의 신뢰에 대한 위협
AI의 선거 개입은 딥페이크나 봇과 같은 문제를 지적하며, 이들 각각은 분명히 우려스러운 의미를 지님.
슬로바키아에서 최근 선거에서 푸틴 친화적인 정치인이 부상한 것은 투표 과정에 개입한 그의 반대파를 잘못 묘사한 딥페이크로 인해 오염되었다는 우려가 있음.
봇은 수년간 X에서 정치적 콘텐츠를 자동으로 생성하는 것이 감지되었음. 이는 소셜 미디어 플랫폼에서 우리가 얻는 뉴스의 신뢰도가 가장 낮은 이유에 기여할 수 있음.
이는 모순을 나타냄. 신뢰도가 낮음에도 불구하고, 우리는 소셜 미디어 뉴스에 대한 관심이 증가하고 있으며, 이는 이제 전 세계 수백만 명의 가장 일반적인 뉴스 출처가 되었음.
뉴스 미디어의 신뢰성에 투자하는 가치가 무엇이든, 신뢰할 수 없다는 것은 분명히 거래의 파괴자가 아님.
이는 허위 정보와 AI에 대한 우리의 접근 방식에 반영됨.
연구에 따르면 많은 사람들이 자신의 견해와 일치하거나 자신을 특정한 방식으로 묘사하는 허위 정보를 알고도 퍼뜨릴 것이라고 함.
"가짜 뉴스"라는 주장은 깊이 투자된 음모론자들의 이미지를 떠올리게 하지만, 그 확산과 수용은 종종 단순한 무관심이나 선호하는 뉴스 출처에 존재하는 것에 기인함.
AI에 대한 우리의 견해와 허위 정보의 잠재력은 유사한 경로를 따르는 것으로 보임.
유권자가 되고자 하는 사람들은 종종 자신의 정치적 측에 제공하는 기회에 관심을 가지면서도 상대방에게 힘을 실어주는 것에 대한 우려를 표명함. 밈은 이미지 생성기를 사용하여 영웅을 미화하거나 반대편을 폄하함.
AI와 허위 정보에 대한 수용과 비난 사이의 이러한 불일치는 일부 연구자들이 말하는 제3자 효과에서 기인할 수 있음: "나는 절대 속지 않을 것이지만, 다른 사람들이 속을까 걱정됨."
그러나 직접적으로 참여할 때 사람들은 콘텐츠의 진위와 정확성을 식별하는 데 어려움을 겪는다고 자가 보고함. 일부 플랫폼은 다른 플랫폼보다 더 큰 도전을 제시함.
이로 인해 선거에 대한 도전은 우리가 점점 더 '미디어화된' 사회에 살고 있다는 것임. 즉, 우리가 세상을 이해하는 방식은 점점 더 우리가 보는 미디어에 기반하고 있으며, 대인 관계나 경험에 기반하지 않음.
이는 현대의 일종의 초능력임: 우리는 이제 한 번도 보지 못한 국가의 상태를 '알고', 편을 가르고, 심지어 한 번도 만나본 적 없는 사람들 간의 논쟁에 참여할 수 있으며, 심지어 우주에서 세상을 상상할 수 있음.
이로 인해 대중은 점점 더 지역 사회와 가족으로부터 고립되고 있음. 심지어 인터넷도 분열되고 있음.
이러한 힘은 AI와 허위 정보의 잠재력과 위험한 방식으로 충돌함.
미국과 같은 국가에서의 분열적인 대립의 일부 이유는 오해임. 즉, 상대방이 무엇을 하고 지지하는지에 대한 오해가 존재함.
이러한 오해는 싫어함과 심지어 혐오감을 불러일으키며, 궁극적으로는 정책 입장이 실제로 얼마나 유사하든 간에 사회적으로 우려스러운 불신을 초래함.
딥페이크 및 기타 AI 콘텐츠는 우리 사회와 서로에 대한 신뢰를 침식할 수 있음.
AI와 허위 정보에 대한 빛을 비추기
우리가 사회로서 함께 일할 수 있도록 신뢰 시스템을 재구축하는 것이 절대적으로 중요함. 인터넷은 무한한 정보와 허위 정보로 가득 차 있으며, 우리는 이를 탐색할 방법이 필요함.
이 현실이 우리에게 어떻게 도달하는지, 그리고 우리가 차이를 식별할 수 있는지에 대한 도전이 있음.
이를 해결하기 위한 새로운 방법에는 AI 리터러시가 포함됨. 이는 AI가 존재한다는 것을 알고, 그것이 무엇을 하는지, 어떻게 사용하는지, 윤리적 위험이 무엇인지 아는 것을 의미함.
이는 우리의 정보 수집 및 확산 관행을 알리는 데 도움이 될 수 있으며, 누가 우리의 정보 궤도에 들어오도록 선택하는지에 대한 기준이 될 수 있음. 그러나 이는 시간에 쫓기는 대중에게는 부담을 주며, 그들은 처음부터 잘못된 정보를 제공받기를 원하지 않았음.
일부는 소셜 미디어 플랫폼이나 AI 제작자들이 그들의 제품이 해를 줄이지 않도록 책임을 져야 한다고 제안하고 있으며, 이는 실제로 일부 효과를 보고하고 있음.
이미 AI 기업들은 그들의 제품의 중요한 판매 포인트로 정확성에 대한 우려를 제기하고 있으며, 그들의 개발을 규제하기 위한 법안이 제안되고 있음 - 그러나 성공은 엇갈림.
가장 크고 가장 중요한 우려는 우리가 의존하는 공공 기관에 대한 신뢰를 어떻게 강화하고 투자할 수 있는지를 집단적으로 고려해야 한다는 것임. 이는 지속 가능하고 다양한 미디어에 재투자하거나 우리의 민주적 거버넌스 시스템에 대한 신뢰를 높이는 시스템을 구축하는 것을 포함할 수 있음. 또한 그들이 신뢰할 수 있도록 책임을 지도록 해야 함.
AI에 대한 인식이 높아지고 정보의 무결성에 대한 보다 강력한 접근 방식이 있다면, 우리는 AI가 유익한 존재가 될 수 있음을 발견할 수 있지만, 이는 우연히 일어날 가능성은 낮음.