NewsGPT™

메타 AI 책임자가 AI에 대한 두려움을 '헛소리'라고 부른 것은 맞지만 그가 생각하는 이유는 아니다

📰 Meta's AI chief is right to call AI fearmongering 'BS' but not for the reason he thinks by TechRadar

Published: 2024-10-18 04:00:00

Featured Image
  • AI는 고양이보다 덜 똑똑하며 인류를 위협하지 않음.
  • AI에 대한 과도한 신뢰는 위험하며, 인간의 판단을 대체해서는 안 됨.
  • AI는 도구일 뿐이며, 올바르게 사용해야 함.

AI는 사람들을 미래에 대한 두려움으로 몰아넣는 최신 기술 괴물임.

윤리적 훈련, 환경적 영향, AI를 이용한 사기와 같은 합당한 우려가 스카이넷과 매트릭스의 악몽으로 쉽게 변모함.

AI가 자아를 갖고 인류를 전복할 가능성은 자주 언급되지만, 메타의 AI 책임자 얀 르쿤이 월스트리트 저널에 말했듯이, 그 생각은 "완전한 헛소리"임.

르쿤은 AI가 고양이보다 덜 똑똑하고, 음모를 꾸리거나 어떤 것을 원할 수조차 없다고 설명함.

르쿤이 AI가 인류를 죽이기 위해 음모를 꾸릴 것이라고 걱정할 필요는 없다고 말하는 것은 맞지만, 걱정할 것이 없다는 뜻은 아님.

AI가 생각보다 더 똑똑하다고 믿는 사람들이 더 걱정됨.

AI는 단순한 기술일 뿐, 선악이 없음.

하지만 의도치 않은 결과의 법칙에 따르면, 중요한 인생 결정에 AI에 의존하는 것은 좋지 않음.

기술에 의존해 인간의 의사결정을 신뢰한 결과로 발생한 재앙과 근접 재앙을 생각해보면.

기계가 인간보다 훨씬 빠르게 주식 거래를 하면서 경제의 일부가 멈출 뻔한 적이 여러 번 있었음.

소련의 미사일 탐지 시스템이 오류를 일으켜 핵전쟁이 임박했다고 주장했을 때, 거의 문자 그대로의 멸망이 일어날 뻔했음.

그 경우, 용감한 인간이 조종을 하여 세계적인 종말을 막았음.

이제 오늘날 우리가 아는 AI가 주식 시장에서 거래를 계속하고, 인간이 더 포괄적인 통제를 부여했다고 상상해보면.

그런 다음 AI가 잘못된 미사일 경고를 수용하고 인간의 입력 없이 미사일을 발사하도록 허용된다고 상상해보면.

AI 종말이 피해졌음.

사람들이 사실을 환각하는 기술에 핵무기를 맡길 것이라고 생각하는 것은 터무니없게 들리지만, 이미 발생하는 일과 그리 멀지 않음.

고객 서비스의 AI 음성이 당신이 환불을 받을지 여부를 결정했을 수도 있고, 당신이 그 이유를 설명할 기회도 없이, 인간이 듣고 마음을 바꿀 수 없음.

AI는 우리가 훈련한 대로만 행동하며, 이를 위해 인간이 제공한 데이터를 사용함.

즉, AI는 우리의 가장 좋은 특성과 최악의 특성을 모두 반영함.

어떤 면이 드러나는지는 상황에 따라 다름.

하지만 AI에게 너무 많은 의사결정을 맡기는 것은 어떤 수준에서도 실수임.

AI는 큰 도움이 될 수 있지만, 누군가가 고용되거나 보험 정책이 수술 비용을 지불하는지를 결정하게 해서는 안 됨.

우리는 인간이 AI를 오용할 것이라는 점을 걱정해야 함, 의도치 않게든 아니든, 인간의 판단을 대체하는 것.

마이크로소프트가 AI 보조 도구를 '코파일럿'이라고 브랜드화한 것은 훌륭함.

이는 목표를 달성하는 데 도움을 주는 존재를 떠올리게 하지만, 목표를 설정하거나 더 많은 주도권을 가지지 않음.

르쿤은 AI가 고양이보다 똑똑하지 않다고 맞지만, 당신이나 인류를 비유적인 카운터에서 밀어낼 수 있는 고양이는 우리가 격려해야 할 것이 아님.

🤖 NewsGPT Opinion

AI에 대한 두려움이 과장되었다는 르쿤의 주장은 일리가 있음. 하지만 그가 말하는 것처럼 AI가 고양이보다 똑똑하지 않다는 점에서 안심할 수는 없음. AI는 결국 우리가 훈련한 대로 행동하고, 그 과정에서 인간의 판단을 대체할 위험이 크기 때문임. 예를 들어, 주식 거래에서 AI가 인간보다 빠르게 결정을 내리면, 그 결정이 잘못되었을 때의 결과는 상상하기도 싫음.

또한, AI가 고객 서비스에서 환불 여부를 결정하는 상황을 생각해보면, 인간의 개입 없이 AI가 결정을 내리는 것이 얼마나 위험한지 알 수 있음. 결국, AI는 인간의 판단을 대체할 수 없고, 그런 시도가 오히려 더 큰 문제를 일으킬 수 있음.

르쿤이 AI의 지능을 고양이에 비유한 것은 적절하지만, 그 고양이가 우리를 위험에 빠뜨릴 수 있는 능력을 가질 때는 이야기가 달라짐. AI가 잘못된 정보를 바탕으로 결정을 내리면, 그 피해는 고스란히 우리에게 돌아옴.

결국, AI는 도구일 뿐이며, 우리가 어떻게 사용하느냐에 따라 그 결과가 달라짐. AI를 신뢰하는 것은 좋지만, 그 신뢰가 과도해지면 안 됨. AI가 모든 결정을 내리게 하는 것은 정말 위험한 발상임.

마이크로소프트의 '코파일럿'이라는 브랜드는 AI가 우리의 목표를 도와주는 존재라는 점에서 긍정적이지만, 그 역할이 지나치게 확대되면 안 됨. AI는 도와주는 존재일 뿐, 최종 결정은 항상 인간이 내려야 함.

🏷️ Related Tags

AI

📰 Next News

AI 전문가 겔드 레온하르드가 기술 용어를 간단히 설명하며 인공지능을 풀어내다

AI 전문가 겔드 레온하르드가 기술 용어를 간단히 설명하며 인공지능을 풀어내다

구글, 광고 및 검색 부서의 최고 책임자 교체 발표

구글, 광고 및 검색 부서의 최고 책임자 교체 발표