AI는 혁신과 서비스 향상을 가능하게 하는 변혁적인 기회를 제공함. 하지만 적절한 감독 없이 AI를 구현하면 보안 취약점, 윤리적 문제, 준수 도전과제가 발생할 수 있음. AI 시스템은 투명하고 공정하며 안전해야 하며, 잠재적 위험을 완화하기 위한 안전장치가 필요함, 라고 Howatt가 말함.
신중하게 진행하기
빠른 채택은 종종 관리의 범위를 벗어나기 때문에 함정이 쉽게 커질 수 있음. 거버넌스는 AI 채택과 구현을 늦추기 위한 것이 아니라, 책임감 있고 효과적인 사용을 가속화하고 최적화하여 새로운 기회를 창출하기 위한 것임, 라고 Howatt가 말함.
Protiviti의 기술 이사인 Archana Yallajosula는 “우리는 모두 AI 모델이나 알고리즘에 숨겨진 편향과 오류에 취약함”이라고 말함.
“이는 AI 시스템이 사회의 편향을 지속시키는 것부터 얼굴 인식 기술의 실수, 잘못된 금융 시장 알고리즘, 딥페이크 녹음, 심지어 결함이 있는 데이터셋으로 훈련된 알고리즘으로 인한 의료 오진까지 다양함.
“여기서 인간의 개입과 가드레일이 기본이 됨. 엄격한 거버넌스 프레임워크와 정책을 구현함으로써 조직은 AI와 관련된 위험을 식별하고 완화할 수 있으며, AI가 제공하는 기회를 놓치지 않을 수 있음.”
위기 시뮬레이션은 AI 시스템을 테스트하기 위해 점점 더 일반화되고 있음.
“이 시뮬레이션은 실제 시나리오를 반영하고 의도적으로 AI 시스템을 깨뜨리려고 하며, 편향을 찾고, 강건성을 테스트하고, 보안을 확인하며, 해를 끼치지 않는 원칙이 확고히 자리잡도록 함,” 라고 Yallajosula가 말함.
“Protiviti에서 우리가 AI의 위험과 보상을 균형 있게 맞춘 또 다른 방법은 ProGPT를 만드는 것임.
“내부 회사 데이터로 광범위하게 훈련된 이 시스템에 대해 우리는 완전한 통제를 가지고 있으며, 우리의 거버넌스 프레임워크에 맞춰 만들어졌음. 내부 운영의 효율성이 증가했을 뿐만 아니라, 예측 모델링과 향상된 워크플로우를 통해 조직을 도와 고객에게 더 큰 가치를 제공할 수 있음.”
거버넌스를 준비하기
동시에 호주의 국가 AI 센터는 산업과 협력하여 조직이 AI의 위험과 보상을 균형 있게 맞추도록 돕고 있음.
국가 AI 센터는 응용 기술 연구소(IAT-D)와 협력하여 모든 호주인에게 100만 개의 무료 AI 마이크로 스킬 과정을 제공하고 있으며, AI 준수 및 조달 문제, 위험 관리에 대한 비디오 설명서를 인간 기술 연구소(HTI)와 함께 제작함.
이러한 노력은 기업과 개인이 AI의 진화하는 환경을 책임감 있게 탐색하는 데 필요한 도구와 지식을 갖추는 것이 중요함을 강조함.
다섯 가지 주요 행동
이 단계들은 AI 거버넌스 여정에서 올바른 균형을 찾기 위해 따를 수 있음.
교차 기능적 의사결정 및 책임을 위한 위원회 설립.
윤리적 AI 개발 및 배포를 위한 가이드라인 제공.
AI 기술 및 모범 사례에 대한 직원 교육.
위험 평가 및 준수를 위한 AI 이니셔티브 및 역량 추적.
잠재적 피해를 완화하기 위해 가장 중요한 AI 위험에 자원을 집중.
AI 지원 비즈니스와 사회의 미래는 상당한 보상과 내재된 위험의 균형에 달려 있음. AI 거버넌스, 위험 관리 및 윤리에 대한 구조화된 접근 방식을 채택하는 것이 필수적이며, 이는 직장에서 무단 AI 사용이 감지되지 않도록 하고 궁극적으로 지역 사회를 보호하는 데 도움이 됨.