유엔 AI 자문 기구의 최종 보고서는 AI에 대한 '글로벌 거버넌스 결핍'을 지적하며 이를 해결하기 위한 여러 가지 권고안을 제시함.
전 세계의 일부 지역은 AI 거버넌스에 대한 대화에서 완전히 제외됨.
이는 유엔 사무총장 고위 자문 기구인 인공지능 고위 자문 기구(HLAB-AI)의 보고서에 따른 것으로, 오늘(9월 19일) 발표됨.
인류를 위한 AI 거버넌스 보고서는 AI 거버넌스의 위험과 도전에 대해 자세히 논의하고 이러한 위험을 해결하기 위한 주요 권고안을 작성함.
“전문가로서 우리는 AI의 미래와 그 선한 잠재력에 대해 낙관적임. 그러나 그 낙관은 현재의 구조와 인센티브의 불충분함에 대한 현실 인식에 달려 있음”이라고 HLAB-AI는 보고서에서 언급함.
‘전 세계의 일부 지역은 국제 AI 거버넌스 대화에서 제외됨’
“우리는 또한 효과적이고 공정한 거버넌스를 위한 글로벌 집단 행동에 방해가 될 수 있는 국제적 의심에 대해 현실적이어야 함. 이 기술은 너무 중요하고, 이해관계가 너무 크기 때문에 시장의 힘과 단편적인 국가 및 다자간 행동에만 의존할 수 없음.”
AI 자문 기구는 2023년 10월에 출범했으며, 유명한 인지 과학자인 아베바 비르하네 박사와 OpenAI의 최고 기술 책임자 미라 무라티가 포함됨.
출범 당시 유엔 사무총장 안토니오 구테레즈는 인류에 대한 AI의 이점을 극대화하고 위험을 억제하고 줄이기 위해 이 기구를 설립했다고 밝힘.
오늘의 보고서는 AI 거버넌스에 대한 문서와 대화는 부족하지 않지만, 그 중 어느 것도 “진정으로 글로벌한 범위”를 갖추고 있지 않다고 언급함. 샘플링된 AI 거버넌스 노력에 참여하는 국가는 7개국에 불과하며, 118개국은 전혀 참여하지 않음 – 특히 글로벌 남반구에서.
“대표성 측면에서 전 세계의 일부 지역은 국제 AI 거버넌스 대화에서 제외됨”이라고 보고서는 명시함.
“형평성은 더 많은 목소리가 기술을 어떻게 거버넌스할지에 대한 결정에서 의미 있는 역할을 해야 함을 요구함. AI 기술 부문에서의 의사 결정 집중은 정당화될 수 없음.”
위험과 도전
AI 시스템의 편향, 의심스러운 AI 기반 얼굴 인식 및 AI 생성 허위 정보와 같은 문제는 사회에 대한 위협임이 분명하지만, 보고서는 AI의 모든 위험 목록을 작성하는 것은 “어리석은 일”이라고 언급함. 기술이 얼마나 빠르게 발전하는지를 고려할 때.
“우리는 취약한 커뮤니티와 공공재의 관점에서 위험을 살펴보는 것이 더 유용하다고 믿음. 위험을 취약성에 따라 프레이밍하면 정책 의제의 초점을 각 위험의 '무엇'에서 '누가' 위험에 처해 있는지와 '어디서'로 전환할 수 있으며, 각 경우에 누가 책임져야 하는지를 명확히 할 수 있음.”
실리콘리퍼블릭과의 인터뷰에서 국제 변호사이자 자문 위원회 멤버인 지메나 소피아 비베로스 알바레즈는 가장 큰 위협은 AI의 무기화된 사용과 자율 무기 시스템이라고 믿음.
“적절한 거버넌스가 없다면 이러한 기술은 인류에 대한 존재적 위험을 초래하며, 생사에 대한 결정이 제로와 일로 축소되는 것은 인권을 위협함”이라고 그녀는 말함.
“또한 즉각적인 위협은 AI의 이중 사용 성격으로, 사실상 모든 시스템이 다른 용도로 쉽게 재사용될 수 있음. 이 점에서 '민간' 기술은 범죄 조직 및 테러리스트 그룹과 같은 비국가 행위자에 의해 쉽게 악용될 수 있으며, 그들은 이를 무기화하고 불법 활동을 확대할 수 있음.”
해결해야 할 도전 과제 중 하나는 글로벌 격차를 해소하는 것이며, 특히 전 세계의 국가들이 목소리를 낼 수 있도록 보장하는 것임.
보고서는 현재 AI를 거버넌스할 수 있는 글로벌 프레임워크가 존재하지 않으며, 기술 발전이 몇몇 다국적 기업과 몇몇 국가의 손에 달려 있기 때문에 AI와 관련된 위험이 대부분의 사람들에게 아무런 의사 결정 과정 없이 부과될 수 있다고 경고함.
“AI 거버넌스 체제는 효과적이기 위해서는 글로벌해야 함. 글로벌 대화를 통해 우리는 글로벌 거버넌스가 의미 있고 조화로운 영향을 미칠 것으로 기대함”이라고 비베로스 알바레즈는 말함.
“우리의 권고안은 유엔 회원국을 대상으로 하며, 민간 부문, 기술 커뮤니티, 시민 사회 및 학계와 협력하여 추진되어야 하며, 기존의 국제 AI 거버넌스 이니셔티브와도 협력해야 함.”
주요 권고 사항
보고서 내에서 HLAB-AI 회원들은 AI의 발전과 관련된 우려와 도전을 해결하기 위한 여러 가지 권고안을 제시함. 여기에는 AI에 대한 국제 과학 패널 설립, AI 표준 교환 및 AI 역량 개발 네트워크를 구축하여 협력하는 유엔 관련 역량 개발 센터를 연결하는 것이 포함됨.
이 모든 것은 AI 관련 이니셔티브에 대한 전문 지식을 모으거나 소싱하기 위해 설계되었으며, 매년 위험, 기회 및 트렌드를 식별하는 보고서를 발행함.
AI 표준 교환은 AI 시스템을 측정하고 평가하기 위한 정의 및 적용 가능한 표준의 등록부를 개발하고 유지 관리하며, 새로운 표준이 필요한 격차를 식별하는 역할도 수행함.
회원들은 또한 대학생, 젊은 연구자, 사회적 기업가 및 공공 부문 관계자를 대상으로 하는 AI에 대한 온라인 교육 기회를 제공하고, 유망한 개인이 학술 기관이나 기술 회사에서 시간을 보낼 수 있는 펠로우십 프로그램을 제안함. 보고서는 또한 AI 격차를 해소하기 위한 글로벌 기금의 설립을 제안함.
마지막 권고 사항은 유엔 사무국 내에 AI 사무소를 설립하여 사무총장에게 보고하고, 보고서의 제안들을 통합하는 '접착제' 역할을 하도록 하는 것임.
비베로스 알바레즈는 실리콘리퍼블릭과의 인터뷰에서 이 기구가 아직 국제적 수준에서 집행 기능을 가진 AI 기관을 추천하지 않지만, “그러한 조직의 계획은 계속 논의되어야 한다”고 말함. 그래야만 완전하게 효과적이고 운영 가능할 수 있음.
희망의 신호
이 보고서는 AI가 전 세계적으로 안전하고 공정하게 배포되도록 하기 위해 해야 할 일이 많다는 것을 보여줌. 이해관계가 얽힌 산업 관계자들이 때때로 규제가 혁신을 억제한다고 불평할 수 있지만, 비베로스 알바레즈는 이것이 잘못된 것이라고 말함. “안전한 가이드라인을 설정하고 적극적인 대화를 촉진하는 것은 인류 모두의 이익과 보호를 위해 AI가 안전하게 사용될 수 있도록 보장하는 혁신적인 환경을 위한 필수 요소임”이라고 그녀는 강조함.
그리고 자문 기구는 AI 거버넌스 논의에서 국가와 부문 간의 차이가 있지만, “대화에 대한 강한 열망”이 희망을 주었다고 말함.
“5년 후를 돌아보면 기술 환경이 오늘날과는 극적으로 다를 수 있음. 그러나 우리가 이 길을 계속 가고 주저함과 의심을 극복한다면, 5년 후에는 모든 개인, 커뮤니티 및 국가에 대해 포괄적이고 권한을 부여하는 AI 거버넌스 환경을 바라볼 수 있을 것임.
“궁극적으로 중요한 것은 기술 변화 그 자체가 아니라, 인류가 그것에 어떻게 반응하는가임.”