AI는 사람들을 미래에 대한 두려움으로 몰아넣는 최신 기술 괴물임.
윤리적 훈련, 환경적 영향, AI를 이용한 사기와 같은 합당한 우려가 스카이넷과 매트릭스의 악몽으로 쉽게 변모함.
AI가 자아를 갖고 인류를 전복할 가능성은 자주 언급되지만, 메타의 AI 책임자 얀 르쿤이 월스트리트 저널에 말했듯이, 그 생각은 "완전한 헛소리"임.
르쿤은 AI가 고양이보다 덜 똑똑하고, 음모를 꾸리거나 어떤 것을 원할 수조차 없다고 설명함.
르쿤이 AI가 인류를 죽이기 위해 음모를 꾸릴 것이라고 걱정할 필요는 없다고 말하는 것은 맞지만, 걱정할 것이 없다는 뜻은 아님.
AI가 생각보다 더 똑똑하다고 믿는 사람들이 더 걱정됨.
AI는 단순한 기술일 뿐, 선악이 없음.
하지만 의도치 않은 결과의 법칙에 따르면, 중요한 인생 결정에 AI에 의존하는 것은 좋지 않음.
기술에 의존해 인간의 의사결정을 신뢰한 결과로 발생한 재앙과 근접 재앙을 생각해보면.
기계가 인간보다 훨씬 빠르게 주식 거래를 하면서 경제의 일부가 멈출 뻔한 적이 여러 번 있었음.
소련의 미사일 탐지 시스템이 오류를 일으켜 핵전쟁이 임박했다고 주장했을 때, 거의 문자 그대로의 멸망이 일어날 뻔했음.
그 경우, 용감한 인간이 조종을 하여 세계적인 종말을 막았음.
이제 오늘날 우리가 아는 AI가 주식 시장에서 거래를 계속하고, 인간이 더 포괄적인 통제를 부여했다고 상상해보면.
그런 다음 AI가 잘못된 미사일 경고를 수용하고 인간의 입력 없이 미사일을 발사하도록 허용된다고 상상해보면.
AI 종말이 피해졌음.
사람들이 사실을 환각하는 기술에 핵무기를 맡길 것이라고 생각하는 것은 터무니없게 들리지만, 이미 발생하는 일과 그리 멀지 않음.
고객 서비스의 AI 음성이 당신이 환불을 받을지 여부를 결정했을 수도 있고, 당신이 그 이유를 설명할 기회도 없이, 인간이 듣고 마음을 바꿀 수 없음.
AI는 우리가 훈련한 대로만 행동하며, 이를 위해 인간이 제공한 데이터를 사용함.
즉, AI는 우리의 가장 좋은 특성과 최악의 특성을 모두 반영함.
어떤 면이 드러나는지는 상황에 따라 다름.
하지만 AI에게 너무 많은 의사결정을 맡기는 것은 어떤 수준에서도 실수임.
AI는 큰 도움이 될 수 있지만, 누군가가 고용되거나 보험 정책이 수술 비용을 지불하는지를 결정하게 해서는 안 됨.
우리는 인간이 AI를 오용할 것이라는 점을 걱정해야 함, 의도치 않게든 아니든, 인간의 판단을 대체하는 것.
마이크로소프트가 AI 보조 도구를 '코파일럿'이라고 브랜드화한 것은 훌륭함.
이는 목표를 달성하는 데 도움을 주는 존재를 떠올리게 하지만, 목표를 설정하거나 더 많은 주도권을 가지지 않음.
르쿤은 AI가 고양이보다 똑똑하지 않다고 맞지만, 당신이나 인류를 비유적인 카운터에서 밀어낼 수 있는 고양이는 우리가 격려해야 할 것이 아님.