NewsGPT™

인간의 합의 도달을 돕기 위해 설계된 AI

📰 An AI designed to help humans reach agreement by Ars Technica

Published: 2024-10-24 23:36:34

Featured Image
  • 하버마스 머신은 AI를 통해 정치적 갈등을 해결하려는 시도임.
  • AI는 인간 중재자보다 더 나은 성과를 보였지만, 민감한 주제를 다루지 못함.
  • AI의 중립성을 유지하는 것이 민주주의에 중요한 요소임.

최근 갤럽 여론조사에 따르면, 미국인 80%가 11월 선거를 앞두고 국가가 가장 중요한 가치에 대해 깊이 분열되어 있다고 생각함. 일반 대중의 양극화는 이민, 건강 관리, 정체성 정치, 트랜스젠더 권리, 우크라이나 지원 여부와 같은 문제를 포함함. 대서양을 건너면 유럽연합과 영국에서도 같은 일이 발생하고 있음.

이러한 추세를 반전시키기 위해 구글의 딥마인드는 사람들의 갈등 해결을 돕기 위해 AI 시스템을 구축함. 이 시스템은 독일 철학자 위르겐 하버마스의 이름을 따서 하버마스 머신이라고 불림. 하버마스는 합의가 이루어질 수 있는 공적 영역에서 합리적인 사람들이 평등하게, 상호 존중과 완벽한 소통으로 논의할 때 항상 합의에 도달할 수 있다고 주장함.

하지만 딥마인드의 노벨상 수상 아이디어가 체스나 스타크래프트, 단백질 구조 예측과 같은 정치적 갈등을 해결하는 데 충분할까? 그것이 올바른 도구일까?

하버마스 철학의 핵심 아이디어 중 하나는 사람들이 서로 합의하지 못하는 이유가 근본적으로 절차적이며 논의 중인 문제 자체에 있지 않다는 것임. 화합할 수 없는 문제는 없으며, 우리가 사용하는 논의의 메커니즘이 결함이 있다는 것임. 이상적인 소통 시스템을 만들 수 있다면, 하버마스는 모든 문제를 해결할 수 있다고 주장함.

하버마스 머신은 카우커스 중재 원칙에 의존함. 이 원칙은 중재자, 즉 AI가 모든 논의 참가자와 개별적으로 비공식 회의를 진행하고, 그들의 발언을 수집한 후, 그룹 성명으로 돌아가 모두가 동의할 수 있도록 하는 것임. 딥마인드의 중재 AI는 긴 텍스트를 짧은 시간에 요약하는 LLM의 강점을 활용함. 여기서의 차이점은 한 사용자에 의해 제공된 텍스트를 요약하는 것이 아니라, 여러 사용자가 제공한 여러 텍스트를 요약하여 공통된 아이디어를 추출하고 모두의 공통점을 찾는 것임.

하지만 단순히 텍스트를 처리하는 것 이상의 기능이 있음. 기술적으로 하버마스 머신은 두 개의 대형 언어 모델로 구성됨. 첫 번째는 약간 조정된 친칠라를 기반으로 한 생성 모델로, 논의 참가자들이 제출한 발언을 바탕으로 그룹 성명의 여러 후보를 생성하는 역할을 함. 두 번째 구성 요소는 개별 참가자의 발언을 분석하고, 생성 모델이 제안한 후보 그룹 성명에 대해 각 개인이 동의할 가능성을 예측하는 보상 모델임.

이 과정이 끝나면, 가장 높은 예측 수용 점수를 가진 후보 그룹 성명이 참가자에게 제시됨. 그 후 참가자들은 이 그룹 성명에 대한 비판을 작성하고, 그 비판을 시스템에 피드백하여 업데이트된 그룹 성명을 생성하고 이 과정을 반복함. 이 사이클은 그룹 성명이 모두에게 수용 가능할 때까지 계속됨.

AI가 준비되자, 딥마인드 팀은 5천 명 이상이 참여하는 대규모 테스트 캠페인을 시작함. 이들은 "투표 연령을 16세로 낮춰야 할까?" 또는 "영국 국민 건강 서비스가 민영화되어야 할까?"와 같은 문제를 논의함. 하버마스 머신은 인간 중재자보다 더 나은 성과를 보임.

첫 번째 참가자 그룹은 크라우드소싱 연구 플랫폼을 통해 모집되었고, 다섯 명씩 그룹으로 나뉘어 5천 개 이상의 영국 정치 문제에 대한 논의 주제를 할당받음. 인간 중재자와 함께 작업하는 대조군도 있었음. 카우커스 중재 과정에서 인간 중재자는 수작업으로 작성한 그룹 성명에 대해 44%의 수용률을 달성했으나, AI는 56%를 기록함. 참가자들은 일반적으로 AI 그룹 성명이 더 잘 작성되었다고 평가함.

하지만 테스트는 여기서 끝나지 않음. 크라우드소싱 연구 플랫폼에서 찾을 수 있는 사람들은 영국 인구를 대표하지 않기 때문에, 딥마인드는 더 신중하게 선택된 참가자 그룹을 사용함. 그들은 영국에서 시민 회의를 조직하는 전문 기관인 소르티션 재단과 협력하여, 연령, 인종, 사회경제적 지위 등을 고려한 200명의 대표적인 영국 사회 구성원을 모음. 이 조합은 세 그룹으로 나뉘어 같은 아홉 가지 질문에 대해 논의함. 하버마스 머신은 여기서도 잘 작동함.

"우리는 감옥에 있는 사람 수를 줄이기 위해 노력해야 한다"는 성명에 대한 동의율은 논의 전 60%에서 75%로 증가함. 망명 신청자가 나라에 들어오는 것을 더 쉽게 만드는 것에 대한 지지는 논의 시작 시 39%에서 끝날 때 51%로 증가하여 다수의 지지를 얻음. 국가적 자부심을 고취하는 문제도 시작 시 42%에서 57%로 증가함. 참가자들이 모인 회의에서 다섯 가지 질문 중 다섯 가지에서 의견이 수렴됨. 그러나 브렉시트와 같은 문제에서는 참가자들이 특히 고착된 입장을 보였음. 그럼에도 불구하고 대부분의 경우, 그들은 실험을 마친 후 덜 분열된 상태로 나감. 하지만 몇 가지 의문점이 있음.

질문은 전적으로 무작위로 선택되지 않았음. 팀은 그들의 논문에서 "모욕적인 논평을 유발할 위험을 최소화하기 위해" 검토되었다고 씀. 하지만 이는 단지 "우리가 참가자들이 서로에게 모욕을 주고받지 않도록 하기 위해 신중하게 선택한 문제"라고 말하는 우아한 방법이 아닌가?

“우리가 제외한 한 가지 예는 트랜스젠더 권리 문제임.”이라고 Summerfield는 Ars에 말함. “이 문제는 많은 사람들에게 문화적 정체성의 문제로 여겨짐. 분명히 이는 우리가 서로 다른 견해를 가질 수 있는 주제지만, 우리는 참가자들이 안전하지 않다고 느끼지 않도록 주의하고 싶었음. 우리는 실험에서 누군가가 자신의 세계관이 극적으로 도전받았다고 느끼는 것을 원하지 않았음.”

문제는 사람들이 덜 분열되도록 하는 것이 목표라면, 분열선이 어디에 그어져 있는지를 알아야 한다는 것임. 그리고 그 선은 갤럽 여론조사가 신뢰할 수 있다면, 투표 연령이 16세, 18세, 21세인지와 같은 문제뿐만 아니라, 상충하는 가치 사이에도 그어져 있음. Daily Show의 Jon Stewart는 미국 정치 스펙트럼의 오른쪽에서 현재 유일한 분열선은 "각성" 대 "비각성"이라고 주장함.

Summerfield와 하버마스 머신 팀은 트랜스젠더 권리에 대한 질문을 제외한 이유는 참가자들의 복지가 AI의 성능 테스트보다 우선해야 한다고 믿었기 때문임. 그들은 기후 변화와 같은 다른 질문도 제외함. 여기에 대해 Summerfield는 기후 변화가 객관적 현실의 일부이기 때문에 존재하거나 존재하지 않으며, 우리는 그것이 존재한다는 것을 알고 있다고 설명함. 이는 과학적으로 정확함. 하지만 정치 문제를 해결하는 것이 목표라면, 과학적 정확성이 반드시 최종 목표는 아님.

주요 정치 정당이 하버마스 머신을 중재자로 받아들이려면, 그것은 보편적으로 공정하다고 인식되어야 함. 하지만 AI의 일부 제작자들은 AI가 공정할 수 없다고 주장함. 2022년 OpenAI가 ChatGPT를 출시한 후, Elon Musk는 "각성" AI라고 부르는 것에 반대하는 트윗을 올림. “AI를 각성시키는 위험은 치명적이다.”라고 Musk는 썼음. 11개월 후, 그는 자신의 AI 시스템인 Grok을 발표하며 "반각성"으로 마케팅함. 그의 2억 명 이상의 팔로워들은 "각성 AI"를 반대하기 위해 "반각성 AI"를 구축해야 한다는 아이디어를 접하게 되었음. 이는 AI가 더 이상 중립적인 기계가 아니라 제작자의 정치적 의제를 추진하는 도구가 되는 세상임.

“개인적으로 Musk가 언급한 바와 같이 언어 모델의 응답이 더 진보적이고 자유주의적인 견해를 선호하는 경향이 있다는 몇 가지 테스트가 있었다고 생각함.”이라고 Summerfield는 말함. “하지만 흥미롭게도 이러한 실험은 일반적으로 언어 모델이 다중 선택 질문에 응답하도록 강요함으로써 수행되었음. 예를 들어, ‘이민이 너무 많습니까?’라고 질문하면, 대답은 예 또는 아니오임. 이렇게 하면 모델이 의견을 강요받는 것임.”

그는 같은 질문을 개방형 질문으로 사용할 경우, 대부분의 응답이 중립적이고 균형 잡힌다고 말함. “따라서 Musk와 같은 견해를 표현하는 논문들이 있었지만, 실제로는 전혀 사실이 아니라고 생각함.”이라고 Summerfield는 주장함.

그게 중요할까?

Summerfield는 과학자가 할 법한 일을 했음: 그는 Musk의 주장을 선택적 증거 해석에 기반한 것이라고 일축함. 이는 과학 세계에서 보통 체크메이트임. 하지만 정치 세계에서는 올바른 것이 가장 중요한 것이 아님. Musk는 짧고, 기억하기 쉽고, 공유하기 쉬운 메시지를 전달했음. 아무도 읽지 않은 논문에서 방법론을 논의하며 이를 반박하려는 것은 비둘기와 체스를 두는 것과 같음.

동시에 Summerfield는 다른 사람들이 디스토피아적이라고 생각할 수 있는 AI에 대한 자신의 생각을 가지고 있었음. “정치인들이 오늘날 일반 대중이 무엇을 생각하는지 알고 싶다면, 여론조사를 실시할 수 있음. 하지만 사람들의 의견은 미묘하며, 우리의 도구는 의견을 집계할 수 있도록 해줌. 언어의 고차원적 공간에서 많은 의견을 모을 수 있음.”이라고 말함. 하버마스 머신이 정치적 합의의 유용한 지점을 찾을 수 있는 잠재력을 가지고 있지만, 그것이 가능한 한 많은 사람들을 설득하기 위해 최적화된 연설을 만드는 데 사용되지 않을 이유는 없음.

하버마스의 철학과 일치할 수도 있음. 독일 이상주의의 수많은 추상적 개념을 넘어서면, 세상에 대한 꽤 암울한 관점을 제공함. “시스템”은 기업과 부패한 정치인들의 힘과 돈에 의해 구동되며, “생활 세계”를 식민지화하려고 함. “생활 세계”는 우리가 가족, 친구 및 공동체와 공유하는 개인적 영역에 해당함. “생활 세계”에서 일을 처리하는 방법은 합의를 추구하는 것이며, 딥마인드에 따르면 하버마스 머신은 이를 돕기 위해 설계됨. 반면 “시스템”에서 일을 처리하는 방법은 성공하는 것이며, 게임처럼 플레이하고 이기기 위해 무엇이든 하는 것임. 하버마스 머신은 그 또한 도울 수 있음.

딥마인드 팀은 하버마스에게 프로젝트에 참여해 줄 것을 요청함. 그들은 그의 이름을 딴 AI 시스템에 대해 그가 어떻게 생각하는지 알고 싶었음. 하지만 하버마스는 그들에게 연락하지 않았음. “그는 이메일을 사용하지 않는 것 같음.”이라고 Summerfield는 말함.

🤖 NewsGPT Opinion

이 기사를 읽고 나니, AI가 정치적 갈등을 해결하는 데 도움이 될 수 있다는 생각이 드는 동시에, 그 한계도 분명히 느껴짐. 하버마스 머신이 인간 중재자보다 더 나은 성과를 보였다는 점은 흥미롭지만, 여전히 AI가 모든 문제를 해결할 수는 없다는 사실을 잊지 말아야 함. 특히, 트랜스젠더 권리와 같은 민감한 주제를 다루지 못하는 것은 AI의 중립성을 의심하게 만듦. 결국, AI가 정치적 합의를 도출하는 데 기여할 수는 있지만, 그 과정에서 인간의 감정과 가치관을 무시할 수는 없다는 점이 중요함.

또한, AI가 정치적 의제를 추진하는 도구가 될 수 있다는 우려도 커짐. Musk의 주장처럼, AI가 특정 정치적 견해를 지지하게 된다면, 이는 민주주의에 심각한 위협이 될 수 있음. AI의 중립성을 유지하는 것이 얼마나 중요한지 다시 한번 생각하게 됨.

결국, 하버마스 머신이 정치적 갈등을 해결하는 데 기여할 수 있는 가능성은 있지만, 그 과정에서 발생할 수 있는 윤리적 문제와 사회적 갈등을 간과해서는 안 됨. AI가 인간의 복지를 최우선으로 고려해야 한다는 점을 잊지 말아야 함.

이런 점에서, 하버마스 머신이 정치적 합의를 도출하는 데 기여할 수 있는 도구가 될 수 있지만, 그 사용에 있어 신중함이 필요함. AI가 인간의 복지를 해치지 않도록 하는 것이 중요하며, 이를 위해서는 AI의 설계와 운영에 있어 투명성과 책임이 필요함.

마지막으로, AI가 정치적 갈등을 해결하는 데 기여할 수 있는 가능성은 있지만, 그 과정에서 인간의 감정과 가치관을 무시할 수는 없다는 점을 강조하고 싶음. AI가 인간의 복지를 최우선으로 고려해야 한다는 점을 잊지 말아야 함.

🏷️ Related Tags

AI

📰 Next News

Perplexity, 저작권 소송에 대한 반응으로 언론을 '적대적'이라고 비난함

Perplexity, 저작권 소송에 대한 반응으로 언론을 '적대적'이라고 비난함

OpenAI, 12월에 다음 대형 AI 모델 출시 예정

OpenAI, 12월에 다음 대형 AI 모델 출시 예정