AI는 잘못된 정보를 생성하는 데 책임이 있을 수 있지만, 역설적으로 잘못된 정보를 퇴치하는 데 중요한 역할을 한다.
선거는 잘못된 정보의 확산에 점점 더 취약해지고 있으며, 이는 여론을 왜곡하고 민주적 결과에 대한 신뢰를 약화시킬 수 있다.
자연어 처리와 기계 학습 알고리즘을 통해 AI는 소셜 미디어 플랫폼에서 오해의 소지가 있거나 해로운 콘텐츠를 식별하고 경고할 수 있다.
사기 탐지 및 예방은 AI가 가치를 입증하는 또 다른 분야이다.
기계 학습 알고리즘은 투표 패턴을 분석하고 동일한 개인의 여러 투표 또는 특정 지역에서 의심스럽게 높은 투표율과 같은 선거 사기를 나타낼 수 있는 이상 징후를 감지할 수 있다.
선거 사기가 역사적으로 우려되는 국가에서는 AI가 수동 감독을 넘어 추가적인 검토의 층을 제공하여 안전장치 역할을 할 수 있다.
또한 AI는 상호작용을 개인화하고 접근성을 높여 유권자 참여를 향상시킬 수 있다.
예를 들어, 챗봇은 시민들이 등록 마감일, 투표소 및 투표 절차에 대한 질문에 답하는 데 도움을 줄 수 있다.
효율성을 개선하고 잘못된 정보를 퇴치하며 사기를 방지하고 더 큰 접근성을 촉진함으로써 AI는 민주적 과정을 강화하고 더 많은 정보에 기반한 포괄적인 선거를 촉진할 잠재력을 가지고 있다.
단점도 중요하다.
인공지능은 선거의 무결성, 공정성 및 투명성을 저해할 수 있는 여러 가지 도전과 위험을 도입한다.
신중한 규제와 감독이 없으면 AI의 선거 개입은 부정적인 결과를 초래할 수 있으며, 여기에는 개인 정보 침해, 알고리즘 편향으로 인한 왜곡 및 공공 불신이 포함된다.
주요 우려 사항은 알고리즘 편향의 위험이다.
AI 시스템은 훈련을 위해 역사적 데이터에 의존하며, 이 데이터가 인종, 사회경제적 또는 정치적 선을 따라 편향되어 있다면 AI는 이러한 편향을 복제하고 심지어 악화시킬 수 있다.
예를 들어, 자동화된 유권자 등록 시스템이나 사기 탐지 도구는 편향된 데이터 세트로 인해 특정 그룹을 불균형적으로 플래그할 수 있다.
이러한 결과는 취약한 커뮤니티의 권리를 박탈할 수 있으며, 선거 과정의 공정성에 대한 심각한 질문을 제기한다.
또한 선거에서 AI를 사용하는 것은 개인 정보 보호 문제를 도입한다.
AI 시스템은 효과적으로 작동하기 위해 유권자 등록 세부정보, 소셜 미디어 행동 및 지리적 정보와 같은 대량의 개인 데이터에 접근해야 한다.
강력한 데이터 보호 프레임워크가 없으면 이 데이터가 오용되거나 잘못된 손에 넘어갈 위험이 있다.
유권자 정보의 무단 사용은 정치적 조작, 유권자 프로파일링 또는 심지어 신원 도용을 촉진할 수 있으며, 이는 선거 기관과 AI 기술에 대한 공공 신뢰를 약화시킬 수 있다.
투명성은 또 다른 중요한 도전 과제이다.
AI 모델, 특히 복잡한 기계 학습 알고리즘은 종종 '블랙 박스'처럼 작동하여 그들의 의사 결정 과정이 쉽게 이해되지 않는다.
AI 도구가 유권자 자격을 결정하거나 사기 활동을 식별하는 데 사용되지만 그 작동 방식이 불투명하다면 책임을 보장하기 어려워진다.
이러한 투명성 부족은 선거 결과의 신뢰성에 대한 논란을 초래할 수 있으며, 선거 후 과정이 더욱 복잡해질 수 있다.
AI 기반 잘못된 정보도 우려 사항이다.
AI가 잘못된 정보를 감지하는 데 도움을 줄 수 있지만, 동시에 정교한 가짜 뉴스, 딥페이크 또는 오해의 소지가 있는 정치 광고를 생성하는 데 악용될 수 있다.
이러한 AI 생성 산물은 악의적으로 사용되어 여론을 조작하고 잘못된 정보를 퍼뜨릴 수 있으며, 유권자가 정보에 기반한 선택을 할 수 있는 능력을 저해할 수 있다.
결론적으로, 선거에서 AI의 사용은 장점과 함께 심각한 위험을 동반한다.
이러한 도전 과제가 신중하게 관리되지 않으면 선거에 AI를 도입하는 것은 재앙적인 결과를 초래할 수 있다.
전 세계적으로 유엔은 글로벌 기준, 윤리적 지침, 국가 전략, 위험 완화, 규제 프레임워크, 기술 개발 및 공공 인식을 중심으로 AI 거버넌스에 대한 포괄적인 접근 방식을 촉진하고 있다.
2024년 3월, 유엔 총회는 '안전하고, 보안하며, 신뢰할 수 있는' AI 시스템을 요구하는 결의안을 채택했다.
지역적으로 유럽연합 이사회는 2024년 5월 AI 규제를 조화시키기 위한 인공지능(AI) 법안을 승인했다.
이 법안은 혁신과 투명성, 책임 및 권리 보호의 균형을 맞춘다.
2026년 발효될 예정인 이 법안은 정치 광고 모니터링을 의무화하는 잘못된 정보에 대한 행동 강령 및 디지털 서비스 법과 함께 EU의 광범위한 규제 의제를 보완한다.
이러한 이니셔티브는 AI를 책임감 있게 규제하려는 전 세계적인 노력을 반영한다.
인도에서 AI 규제 노력은 여전히 불충분하며, 기업들은 증오 발언의 확산으로 이익을 얻고 있다는 비난을 받고 있다.
런던 스토리와 인도 시민 감시 국제의 연구에 따르면, 메타는 이슬람 혐오증, 힌두 우월주의 수사 및 폭력 촉구를 홍보하는 정치 광고를 허용했다.
유튜브는 잘못된 정보와 선동적인 콘텐츠를 포함한 광고를 차단하지 못했다.
정보 기술법 2000은 온라인 플랫폼을 규제하지만, 인도 선거 위원회(ECI)는 선거 중 커뮤니케이션을 감독한다.
그러나 ECI는 유권자 교육을 위한 주력 프로그램인 SVEEP에서 소셜 미디어 플랫폼을 동원하고 있지만, 플랫폼의 자발적인 윤리 강령에 대한 불규칙한 준수로 인해 효과적으로 소셜 미디어를 규제하는 데 어려움을 겪고 있다.
인도는 현재 AI 전용 법률이 부족하여 딥페이크의 증가로 규제 요구가 높아지고 있다.
2024년 7월, 전자정보부가 새로운 AI 중심 법률을 초안 중이라는 보고가 있었다.
이 법률은 소셜 미디어 플랫폼이 AI 생성 콘텐츠에 라벨을 붙이도록 요구할 수 있으며, 투명성을 높이고 조작을 억제할 수 있다.
안전 메커니즘이 전시 상태에서 필요하다는 것은 의심의 여지가 없다.