NewsGPT™

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장

📰 AI companies could be more transparent to help users make informed choices: Meta VP by ElliotLakeToday.com

Published: 2024-09-30 08:00:11

Featured Image
  • AI 기업들은 사용자들에게 더 많은 정보를 제공해야 함.
  • 투명성을 높이는 것이 AI의 신뢰를 구축하는 데 중요함.
  • 법적 규제가 AI 모델의 문서화를 요구할 수 있음.

토론토 — 메타 플랫폼의 인공지능 연구 책임자에게 기술을 더 안전하게 만들기 위한 방법을 물어보면, 그녀는 예상치 못한 곳에서 영감을 얻음. 슈퍼마켓은 한눈에 핵심 정보를 제공하는 제품들로 가득 차 있음. 조엘 파이노는 "재료 목록은 사람들이 그 음식을 먹고 싶은지에 대한 정보에 기반한 선택을 할 수 있게 해줌"이라고 설명함. 그녀는 이번 주 토론토에서 열리는 엘리베이트 기술 컨퍼런스에서 연설할 예정임. "하지만 현재 AI에서는 투명성에 대해 다소 가부장적인 접근 방식을 취하고 있는 것 같음. 우리가 규제를 결정하거나 사람들이 무엇을 해야 할지 말아주는 것이 아니라, 사람들이 선택할 수 있도록 권한을 부여하는 것이 필요함." 파이노의 AI에 대한 반성은 기술의 미래와 그것이 실업, 편견, 차별, 심지어 인류에 대한 존재적 위험을 초래할 것인지에 대한 논의가 전 세계적으로 활발한 가운데 나옴. 정부들은 이러한 문제를 평가하기 위해 노력하고 있으며, 캐나다에서는 AI 전용 법안이 내년까지 시행되지 않을 것임. 기술 기업들은 AI 가드레일을 형성하는 데 참여하고 싶어하며, 어떤 규제가 사용자들을 보호하고 경쟁자들을 공정한 경쟁의 장에 두는 데 도움이 될 수 있다고 주장함. 그럼에도 불구하고, 그들은 규제가 AI의 속도, 발전 및 계획을 제한할 수 있다고 우려하고 있음. 어떤 형태의 AI 가드레일이든, 파이노는 투명성을 우선시해야 한다고 강조하며, 이를 실현하기 위한 아이디어를 이미 가지고 있음. 그녀는 법안이 창작자들에게 AI 모델을 구축하고 개발하는 데 사용한 정보, 그 능력 및 아마도 위험 평가 결과를 문서화하도록 요구할 수 있다고 말함. "아직 문서화해야 할 것에 대한 매우 구체적인 관점을 가지고 있지는 않지만, 그것이 첫 번째 단계라고 생각함"이라고 그녀는 말함. AI 분야의 많은 기업들이 이미 이 작업을 수행하고 있지만, "그들은 이에 대해 투명하지 않음"이라고 덧붙임. 연구에 따르면 개선의 여지가 많음. 스탠포드 대학교의 인간 중심 AI 연구소는 5월에 저명한 AI 모델들이 얼마나 투명한지를 100가지 지표를 사용하여 분석함. 여기에는 기업들이 개인 정보를 사용했는지, 데이터에 대한 라이센스를 공개했는지, 저작권이 있는 자료를 제외하기 위한 조치를 취했는지가 포함됨. 연구자들은 많은 모델들이 이 테스트에서 좋은 점수를 받지 못했다고 발견함. 메타의 라마 2는 60% 점수를 받았고, 앤트로픽의 클로드 3는 51%, 오픈AI의 GPT-4는 49%, 구글의 제미니 1.0 울트라는 47%에 도달함. 몬트리올의 맥길 대학교에서 컴퓨터 과학 교수로도 활동하는 파이노는 "투명성의 문화는 회사마다 매우 다름"을 발견함. 메타는 페이스북, 인스타그램, 왓츠앱을 소유하고 있으며, 일반적으로 누구나 접근하고 사용할 수 있는 오픈 소스 AI 모델에 대한 약속이 있음. 그러나 메타는 페이스북과 인스타그램에 출시한 AI 검색 및 어시스턴트 도구에 대해 사용자가 선택할 수 없도록 하고 있음. 반면, 일부 기업들은 사용자가 이러한 제품에서 선택할 수 있도록 하거나 더 많은 투명성 기능을 채택했지만, 많은 기업들은 더 느슨한 접근 방식을 취하거나 그들의 모델을 오픈 소스로 만들도록 권장하는 시도를 거부함. 모든 기업이 보다 표준화되고 투명한 접근 방식을 사용하면 두 가지 주요 이점이 있다고 파이노는 말함. 신뢰를 구축하고 기업들이 "올바른 작업을 하도록 강요"할 수 있기 때문임. "이 작업이 나가고 있으며, 그것이 좋아야 한다는 것은 매우 분명함. 그래서 고품질 작업을 할 강한 유인이 있음"이라고 그녀는 말함. "또한 우리가 그렇게 투명하다면, 잘못된 점이 있을 경우 — 그리고 그런 일이 발생함 — 우리는 매우 빠르게 배우게 될 것이며, 종종 ... 제품에 들어가기 전에, 그래서 우리가 더 나아져야 할 곳을 발견하는 데 있어 훨씬 더 빠른 주기가 됨." 일반인이 그녀가 상상하는 데이터에 대해 흥미를 느끼지 않을 수도 있지만, 파이노는 정부, 기업 및 스타트업이 AI를 사용할 때 유용할 것이라고 말함. "그 사람들은 AI를 사용하는 데 대한 책임이 있으며, 그들이 자신의 인력에 AI를 도입할 때 그 투명성을 가져야 함"이라고 그녀는 말함. 이 보고서는 캐나다 프레스에 의해 처음 발표됨. 2024년 9월 30일.

🤖 NewsGPT Opinion

AI의 투명성 문제는 정말 중요한 주제임. 우리가 AI를 사용할 때, 그 뒤에 어떤 데이터와 알고리즘이 있는지 알 수 있어야 한다는 건 당연한 것 같음. 마치 슈퍼마켓에서 재료 목록을 보고 음식을 선택하는 것처럼, AI도 우리가 어떤 선택을 할 수 있는지에 대한 정보를 제공해야 함. 그런데 지금은 기업들이 너무 가부장적으로 행동하고 있는 것 같음. 사용자에게 선택권을 주기보다는, 기업이 정해준 규칙에 따라야 한다는 건 좀 불공평함. 그래서 파이노가 말한 것처럼, 투명성을 높이는 것이 정말 필요함. 법적으로라도 AI 모델을 개발할 때 어떤 정보가 사용되었는지 문서화하는 것이 첫걸음이 될 수 있음. 이게 잘 이루어지면, 사용자들은 더 나은 선택을 할 수 있을 것이고, 기업들도 더 책임감 있게 행동할 것임. 그리고 투명한 정보가 있다면, 잘못된 점이 생겼을 때 빠르게 수정할 수 있는 기회도 생김. 결국, AI는 우리 삶에 큰 영향을 미치는 기술이니만큼, 그 사용에 대한 책임이 필요함. 정부와 기업이 함께 협력해서 이 문제를 해결해 나가야 할 것임. AI의 미래는 우리가 어떻게 이 기술을 다루느냐에 달려 있음.

🏷️ Related Tags

AI

📰 Next News

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장

AI 기업들은 사용자들이 정보에 기반한 선택을 할 수 있도록 더 투명해져야 한다: 메타 부사장