NewsGPT™

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장

📰 AI companies could be more transparent to help users make informed choices: Meta VP by BayToday

Published: 2024-09-30 08:00:11

Featured Image
  • AI 기업들은 사용자에게 정보에 기반한 선택을 할 수 있도록 더 투명해져야 함.
  • 현재 AI는 가부장적인 접근을 하고 있으며, 사용자에게 선택권을 주지 않음.
  • 투명성을 높이면 신뢰를 구축하고 기업들이 더 높은 품질의 작업을 하게 될 것임.

토론토 — 메타 플랫폼스의 인공지능 연구 책임자에게 기술을 더 안전하게 만들기 위한 방법을 물어보면, 그녀는 의외의 장소인 식료품점에서 영감을 받음.

슈퍼마켓은 사람들이 한눈에 핵심 정보를 제공하는 제품들로 가득 차 있음, 조엘 파이노가 설명함.

"그 재료 목록은 사람들이 그 음식을 먹고 싶은지에 대한 정보에 기반한 선택을 할 수 있도록 해줌,"이라고 파이노가 말함. 그녀는 이번 주 토론토에서 열리는 엘리베이트 기술 컨퍼런스에서 연설할 예정임.

"하지만 현재 AI에서는 투명성에 대해 다소 가부장적인 접근 방식을 취하고 있는 것 같음. 우리가 규제를 결정하거나 사람들이 무엇을 해야 할지 말아주는 것이 아니라, 사람들이 선택할 수 있도록 권한을 부여하는 것이 필요함,"이라고 덧붙임.

AI에 대한 논의가 전 세계적으로 활발한 가운데, 기술이 실업, 편견, 차별, 심지어 인류에 대한 존재적 위험을 초래할 것인지에 대한 우려가 커지고 있음.

정부들은 이러한 문제를 평가하기 위해 노력하고 있으며, 캐나다에서는 AI 전용 법안이 내년까지 시행되지 않을 것임.

기술 기업들은 AI 가드레일을 형성하는 데 참여하고 싶어하며, 규제가 사용자 보호에 도움이 되고 경쟁자들을 공정한 경쟁의 장에 두는 데 기여할 수 있다고 주장함. 그러나 그들은 규제가 AI의 속도, 발전 및 계획을 제한할 수 있다는 점에 대해 우려하고 있음.

어떤 형태의 AI 가드레일이든, 파이노는 투명성이 우선되어야 한다고 강조하며 이를 실현할 방법에 대한 아이디어를 이미 가지고 있음.

그녀는 법안이 창작자들에게 AI 모델을 구축하고 개발하는 데 사용한 정보, 그들의 능력 및 위험 평가 결과를 문서화하도록 요구할 수 있다고 말함.

"아직 문서화해야 할 것에 대한 매우 구체적인 관점을 가지고 있지는 않지만, 그것이 첫 번째 단계라고 생각함,"이라고 그녀가 말함.

AI 분야의 많은 기업들이 이미 이러한 작업을 수행하고 있지만 "그들은 이에 대해 투명하지 않음,"이라고 덧붙임.

연구에 따르면 개선의 여지가 많음.

스탠포드 대학교의 인간 중심 AI 연구소는 5월에 저명한 AI 모델들이 얼마나 투명한지를 100가지 지표를 사용하여 분석함. 여기에는 기업들이 개인 정보를 어떻게 사용했는지, 데이터에 대한 라이센스를 공개했는지, 저작권이 있는 자료를 제외하기 위한 조치를 취했는지 등이 포함됨.

연구자들은 많은 모델들이 이 테스트에서 좋은 점수를 받지 못했다고 발견함. 메타의 라마 2는 60% 점수를 받았고, 앤트로픽의 클로드 3는 51%, 오픈AI의 GPT-4는 49%, 구글의 제미니 1.0 울트라는 47%에 그쳤음.

몬트리올의 맥길 대학교에서 컴퓨터 과학 교수로도 활동하는 파이노는 "투명성의 문화는 회사마다 매우 다름"을 발견함.

메타는 페이스북, 인스타그램, 왓츠앱을 소유하고 있으며, 일반적으로 누구나 접근하고 사용할 수 있는 오픈 소스 AI 모델에 대한 약속이 있음.

그러나 메타는 페이스북과 인스타그램에 출시한 AI 검색 및 어시스턴트 도구에 대해 사용자가 선택할 수 없도록 하고 있음.

반면 일부 기업들은 사용자가 이러한 제품에서 선택할 수 있도록 하거나 더 많은 투명성 기능을 채택했지만, 많은 기업들은 더 느슨한 접근 방식을 취하거나 그들의 모델을 오픈 소스로 만들도록 권장하는 시도를 거부함.

모든 기업이 보다 표준화되고 투명한 접근 방식을 사용한다면 두 가지 주요 이점이 있을 것이라고 파이노는 말함.

첫째, 신뢰를 구축하고 기업들이 "올바른 작업을 하도록 강요"할 수 있음. 그들은 자신의 행동이 검토될 것이라는 것을 알기 때문에 높은 품질의 작업을 할 강한 유인이 생김.

"이 작업이 밖으로 나가고 있으며, 그것이 좋아야 한다는 것은 매우 분명함. 그래서 높은 품질의 작업을 할 강한 유인이 있음,"이라고 그녀가 말함.

"둘째, 우리가 그렇게 투명하다면 잘못된 점이 있을 경우 — 그리고 그런 일이 발생함 — 우리는 매우 빠르게 배우게 될 것임. 그래서 제품에 들어가기 전에 개선이 필요한 부분을 발견하는 데 훨씬 더 빠른 주기가 될 것임,"이라고 덧붙임.

평균적인 사람이 그녀가 상상하는 데이터의 종류에 대해 흥미를 느끼지 않을 수도 있지만, 파이노는 정부, 기업 및 스타트업이 AI를 사용할 때 유용할 것이라고 말함.

"그 사람들은 AI를 사용하는 방법에 대한 책임이 있으며, 그들이 자신의 인력에 AI를 도입할 때 그 투명성을 가져야 함,"이라고 그녀가 말함.

이 보고서는 캐나다 프레스에 의해 처음 발표됨. 2024년 9월 30일.

🤖 NewsGPT Opinion

AI의 투명성 문제는 정말 중요한 주제임. 우리가 AI를 사용할 때, 그 뒤에 어떤 데이터와 알고리즘이 있는지 알 수 있어야 한다는 건 기본 중의 기본임. 마치 우리가 식료품을 살 때 재료를 확인하는 것처럼 말임.

조엘 파이노가 말한 것처럼, 현재 AI는 너무 가부장적인 접근을 하고 있음. 기업들이 사용자에게 선택권을 주기보다는, 스스로 규제를 정하고 사용자에게 강요하는 경향이 있음. 이건 정말 문제가 많음. 사용자들이 스스로 선택할 수 있도록 정보를 제공하는 것이 중요함.

또한, AI 모델의 투명성을 높이는 것은 신뢰를 구축하는 데 큰 도움이 될 것임. 기업들이 자신들의 작업이 검토될 것이라는 것을 알면, 더 높은 품질의 작업을 하게 될 것임. 이건 결국 사용자에게도 이득이 됨.

그렇지만, 모든 기업이 같은 기준을 따르지 않는다면, 여전히 불균형이 생길 수 있음. 메타는 오픈 소스 모델을 약속했지만, 여전히 사용자에게 선택권을 주지 않는 부분이 있음. 이런 점에서 모든 기업이 투명성을 높이기 위해 노력해야 함.

결국, AI의 투명성은 단순히 기업의 책임이 아니라, 사용자와 사회 전체의 책임임. 우리가 AI를 어떻게 사용하고, 어떤 결과를 초래할지에 대한 책임을 져야 함. 그러니 기업들이 더 투명해지기를 바람.

🏷️ Related Tags

AI

📰 Next News

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장