NewsGPT™

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장

📰 AI companies could be more transparent to help users make informed choices: Meta VP by GuelphToday

Published: 2024-09-30 08:00:11

Featured Image
  • AI 기업들은 사용자들에게 더 많은 정보를 제공해야 함.
  • 메타는 오픈 소스 AI 모델을 약속했지만, 여전히 사용자 선택권이 부족함.
  • 투명성이 높아지면 기업의 품질 향상과 신뢰 구축에 도움이 됨.

토론토 — 메타 플랫폼스의 인공지능 연구 책임자에게 기술을 더 안전하게 만들기 위한 방법을 묻자, 그녀는 예상치 못한 곳에서 영감을 받음. 슈퍼마켓은 한눈에 핵심 정보를 제공하는 제품들로 가득 차 있음. 조엘 파이노는 "그 재료 목록은 사람들이 그 음식을 먹고 싶은지에 대한 정보에 기반한 선택을 할 수 있게 해줌"이라고 설명함. 그녀는 이번 주 토론토에서 열리는 엘리베이트 기술 컨퍼런스에서 연설할 예정임. "하지만 현재 AI에서는 투명성에 대해 다소 가부장적인 접근 방식을 취하고 있는 것 같음. 우리가 규제를 결정하거나 사람들이 무엇을 해야 할지 말아주는 것이 아니라, 사람들이 선택할 수 있도록 권한을 부여하는 것이 필요함." 파이노의 AI에 대한 반성은 전 세계가 이 기술의 미래와 그것이 실업, 편견 및 차별, 심지어 인류에 대한 존재적 위험을 초래할 것인지에 대한 논의로 가득 차 있는 가운데 나옴. 정부들은 이러한 문제를 평가하기 위해 노력하고 있으며, 캐나다에서는 AI 전용 법안이 내년까지 시행되지 않을 것임. 기술 기업들은 AI 가드레일을 형성하는 데 참여하고 싶어하며, 어떤 규제든 사용자 보호와 경쟁자 간의 공정한 경쟁을 유지하는 데 도움이 될 것이라고 주장함. 그럼에도 불구하고 그들은 규제가 AI의 속도, 발전 및 계획을 제한할 수 있다고 우려함. 어떤 형태의 AI 가드레일이든, 파이노는 투명성을 우선시해야 한다고 생각하며, 이를 실현할 방법에 대한 아이디어가 있음. 그녀는 법안이 창작자에게 AI 모델을 구축하고 개발하는 데 사용한 정보, 그 능력 및 아마도 위험 평가 결과를 문서화하도록 요구할 수 있다고 말함. "아직 문서화해야 할 것에 대한 매우 구체적인 관점을 가지고 있지는 않지만, 그것이 첫 번째 단계라고 생각함"이라고 그녀는 말함. AI 분야의 많은 기업들이 이미 이 작업을 하고 있지만 "그들은 이에 대해 투명하지 않음"이라고 덧붙임. 연구에 따르면 개선의 여지가 많음. 스탠포드 대학교의 인간 중심 AI 연구소는 5월에 저명한 AI 모델들이 얼마나 투명한지를 100가지 지표를 사용하여 분석함. 여기에는 기업들이 개인 정보를 사용했는지, 데이터에 대한 라이센스를 공개했는지, 저작권이 있는 자료를 제외하기 위한 조치를 취했는지가 포함됨. 연구자들은 많은 모델들이 이 테스트에서 좋은 점수를 받지 못했다고 발견함. 메타의 라마 2는 60% 점수를 받았고, 앤트로픽의 클로드 3는 51%, 오픈AI의 GPT-4는 49%, 구글의 제미니 1.0 울트라는 47%에 도달함. 몬트리올의 맥길 대학교에서 컴퓨터 과학 교수로도 활동하는 파이노는 "투명성의 문화는 회사마다 매우 다름"을 발견함. 메타는 페이스북, 인스타그램, 왓츠앱을 소유하고 있으며, 일반적으로 누구나 접근하고 사용할 수 있는 오픈 소스 AI 모델에 대한 약속이 있음. 그러나 메타는 또한 사용자가 선택할 수 없는 AI 검색 및 보조 도구를 페이스북과 인스타그램에 배포함. 반면 일부 기업들은 사용자가 이러한 제품에서 선택할 수 있도록 하거나 더 많은 투명성 기능을 채택했지만, 많은 기업들은 더 느슨한 접근 방식을 취하거나 그들의 모델을 오픈 소스로 만들도록 권장하는 시도를 거부함. 모든 기업이 보다 표준화되고 투명한 접근 방식을 사용하면 두 가지 주요 이점이 있다고 파이노는 말함. 신뢰를 구축하고 기업들이 "올바른 작업을 하도록 강요"할 수 있기 때문임. "이 작업이 나가고 있으며, 그것이 좋아야 한다는 것은 매우 분명함. 그래서 고품질 작업을 할 강력한 유인이 있음"이라고 그녀는 말함. "또한 우리가 그렇게 투명하다면, 우리가 잘못된 것을 발견할 경우 — 그리고 그런 일이 발생함 — 우리는 매우 빠르게 배우게 될 것이며, 종종 ... 제품에 들어가기 전에, 그래서 우리가 더 나아져야 할 곳을 발견하는 데 있어 훨씬 더 빠른 주기가 됨." 일반인이 그녀가 상상하는 데이터에 대해 흥미를 느끼지 않을 수도 있지만, 파이노는 그것이 AI를 사용하려는 정부, 기업 및 스타트업에 유용할 것이라고 말함. "그 사람들은 AI를 사용하는 데 책임이 있으며, 그들이 자신의 인력에 AI를 도입할 때 그 투명성을 가져야 함"이라고 그녀는 덧붙임. 이 보고서는 캐나다 프레스에 의해 처음 발표됨. 2024년 9월 30일.

🤖 NewsGPT Opinion

AI의 투명성 문제는 정말 중요한 주제임. 우리가 사용하는 기술이 어떻게 작동하는지 알 수 있어야 하는데, 지금은 그게 부족함. 마치 슈퍼마켓에서 재료 목록을 보고 선택하는 것처럼, AI도 사용자에게 필요한 정보를 제공해야 함. 메타의 조엘 파이노가 말한 것처럼, 현재 AI는 가부장적인 접근을 취하고 있음. 사용자에게 선택권을 주기보다는 기업이 알아서 결정하는 방식이니까. 이건 정말 문제가 많음. AI가 우리 삶에 미치는 영향이 크기 때문에, 사용자들이 정보에 기반한 선택을 할 수 있도록 해야 함. 정부가 AI 규제를 논의하는 것도 좋은 방향임. 하지만 규제가 너무 과도하면 혁신이 저해될 수 있다는 우려도 이해함. 그래서 기업들이 자발적으로 투명성을 높이는 것이 중요함. 메타가 오픈 소스 AI 모델을 약속한 것은 긍정적이지만, 여전히 사용자에게 선택권을 주지 않는 부분은 아쉬움. 모든 기업이 투명성을 높이고, 사용자와의 신뢰를 쌓는 것이 필요함. 그래야만 AI가 더 안전하고 유용하게 발전할 수 있을 것임. 결국, 투명성이 높아지면 기업들도 더 좋은 품질의 제품을 만들기 위해 노력할 것임. 그리고 잘못된 점이 발견되면 빠르게 수정할 수 있는 기회가 생김. AI는 우리 삶의 많은 부분에 영향을 미치고 있으니, 그에 대한 책임도 함께 가져야 함. 그러니 사용자들이 AI를 사용할 때, 그 과정에서 어떤 정보가 사용되는지 알 수 있도록 해야 함. 이건 단순히 기술의 문제가 아니라, 우리 모두의 삶에 직결되는 문제임.

🏷️ Related Tags

AI

📰 Next News

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장

구글 폰, 아이폰에서 영감을 받은 디자인 변화 도입

구글 폰, 아이폰에서 영감을 받은 디자인 변화 도입