토론토 — 메타 플랫폼의 인공지능 연구 책임자에게 기술을 더 안전하게 만들기 위한 방법을 묻자, 그녀는 예상치 못한 곳에서 영감을 받음. 슈퍼마켓은 한눈에 중요한 정보를 제공하는 제품들로 가득 차 있음, 조엘 파이노가 설명함. "그 재료 목록은 사람들이 그 음식을 먹고 싶은지에 대한 정보에 기반한 선택을 할 수 있게 해줌,"이라고 파이노가 말함. 그녀는 이번 주 토론토에서 열리는 엘리베이트 기술 컨퍼런스에서 연설할 예정임. "하지만 지금 AI에서는 우리가 규제를 결정하거나 사람들이 무엇을 해야 할지 말아야 할지를 결정하는 다소 가부장적인 접근 방식을 취하고 있는 것 같음. 사람들에게 선택할 수 있는 권한을 부여하는 것이 아니라." 파이노의 AI 상태에 대한 반성은 전 세계가 기술의 미래와 그것이 실업, 편견 및 차별, 심지어 인류에 대한 존재적 위험을 초래할지에 대한 논의로 가득 차 있는 가운데 나옴. 정부들은 이러한 문제를 평가하기 위해 노력하고 있으며, 캐나다에서는 AI 특정 법안이 내년까지 시행되지 않을 것임. 기술 기업들은 AI 가드레일을 형성하는 데 참여하고 싶어하며, 어떤 규제가 사용자들을 보호하고 경쟁자들을 동등한 입장에 두는 데 도움이 될 수 있다고 주장함. 그럼에도 불구하고 그들은 규제가 AI와 관련된 그들의 속도, 진전 및 계획을 제한할 수 있다고 우려함. 어떤 형태의 AI 가드레일이든, 파이노는 투명성이 우선되어야 한다고 생각하며, 이를 실현하기 위한 아이디어가 이미 있음. 그녀는 법안이 창작자들에게 AI 모델을 구축하고 개발하는 데 사용한 정보, 그 능력 및 아마도 위험 평가의 결과를 문서화하도록 요구할 수 있다고 말함. "아직 무엇을 문서화해야 할지에 대한 매우 구체적인 관점을 가지고 있지는 않지만, 그것이 첫 번째 단계라고 생각함,"이라고 그녀가 말함. AI 분야의 많은 기업들이 이미 이 작업을 수행하고 있지만 "그들은 이에 대해 투명하지 않음,"이라고 덧붙임. 연구에 따르면 개선의 여지가 많음. 스탠포드 대학교의 인간 중심 AI 연구소는 5월에 저명한 AI 모델들이 얼마나 투명한지를 100개의 지표를 사용하여 분석함. 여기에는 기업들이 개인 정보를 사용했는지, 데이터에 대한 라이센스를 공개했는지, 저작권이 있는 자료를 제외하기 위한 조치를 취했는지가 포함됨. 연구자들은 많은 모델들이 이 테스트에서 멀리 떨어져 있음을 발견함. 메타의 라마 2는 60% 점수를 받았고, 앤트로픽의 클로드 3는 51%, 오픈AI의 GPT-4는 49%, 구글의 제미니 1.0 울트라는 47%에 도달함. 몬트리올의 맥길 대학교에서 컴퓨터 과학 교수로도 활동하는 파이노는 "투명성의 문화는 회사마다 매우 다름"을 발견함. 메타는 페이스북, 인스타그램, 왓츠앱을 소유하고 있으며, 일반적으로 누구나 접근하고 사용, 수정 및 배포할 수 있는 오픈 소스 AI 모델에 대한 약속이 있음. 그러나 메타는 또한 사용자가 선택할 수 없는 AI 검색 및 보조 도구를 페이스북과 인스타그램에 배포함. 반면 일부 기업들은 사용자가 이러한 제품에서 선택할 수 있도록 하거나 더 많은 투명성 기능을 채택했지만, 더 느슨한 접근 방식을 취하거나 그들의 모델을 오픈 소스로 만들도록 유도하는 시도를 거부한 기업들도 많음. 모든 기업이 사용하는 보다 표준화되고 투명한 접근 방식은 두 가지 주요 이점을 가질 것이라고 파이노는 말함. 그것은 신뢰를 구축하고 기업들이 "올바른 작업을 하도록 강요"할 것임. "이 작업이 나가고 있고, 그것이 좋아야 한다는 것은 매우 분명함. 그래서 고품질 작업을 할 강한 유인이 있음,"이라고 그녀가 말함. "또한 우리가 그렇게 투명하다면, 우리가 잘못된 것을 발견할 경우 — 그리고 그런 일이 발생함 — 우리는 매우 빠르게 배우게 될 것이며, 종종 ... 제품에 들어가기 전에, 그래서 우리가 더 나아져야 할 곳을 발견하는 데 있어 훨씬 더 빠른 주기가 됨." 일반인이 그녀가 상상하는 조직들이 투명하게 해야 할 데이터에 대해 흥미를 느끼지 않을 수도 있지만, 파이노는 그것이 AI를 사용하려는 정부, 기업 및 스타트업에 유용할 것이라고 말함. "그 사람들은 AI를 사용하는 데 대한 책임이 있으며, 그들이 자신의 인력에 AI를 도입할 때 그 투명성을 가져야 함,"이라고 그녀가 말함. 이 보고서는 캐나다 프레스에 의해 처음 발표됨. 2024년 9월 30일.
AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장
📰 AI companies could be more transparent to help users make informed choices: Meta VP by Vancouver Is Awesome
Published: 2024-09-30 08:00:11
- AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 함.
- 현재 AI의 투명성은 가부장적인 접근 방식으로, 사용자에게 선택권을 주지 않음.
- 투명성이 높아지면 기업들도 더 좋은 품질의 AI를 만들기 위해 노력할 것임.
🤖 NewsGPT Opinion
AI의 투명성 문제는 정말 중요한 주제임. 우리가 AI를 사용할 때, 그 뒤에 어떤 데이터와 알고리즘이 있는지 알 수 있어야 함. 마치 슈퍼마켓에서 재료 목록을 보는 것처럼, AI도 어떤 정보로 만들어졌는지 명확히 보여줘야 함. 그래야 사용자들이 더 나은 선택을 할 수 있음. 메타의 조엘 파이노가 말한 것처럼, 현재 AI의 투명성은 가부장적인 접근 방식으로, 사용자에게 선택권을 주기보다는 기업이 정해준 규칙을 따르도록 하고 있음. 이건 좀 문제가 있음. 기업들이 자발적으로 투명성을 높이려는 노력을 해야 함. 그래야 사용자들이 신뢰할 수 있는 AI를 사용할 수 있음. 그리고 이 투명성이 높아지면, 기업들도 더 좋은 품질의 AI를 만들기 위해 노력할 것임. 결국, 투명성이란 신뢰를 쌓는 첫걸음임. AI가 우리 생활에 점점 더 깊숙이 들어오고 있는 만큼, 이 문제는 더욱 중요해질 것임. 정부와 기업들이 협력해서 AI의 투명성을 높이는 방향으로 나아가야 함. 그래야만 우리가 AI를 안전하게 사용할 수 있을 것임.