그러나 AI에 대한 과도한 의존은 금융 안정성 위험을 초래할 수 있으며, 특히 대부분의 금융 기관이 소수의 기술 제공업체에 의존할 때 더욱 그렇다. 또한 이 기술은 위험 평가의 동질성 증가와 상호 연결성 증가를 포함한 새로운 시스템적 위험의 원인을 가져올 수 있다.
전 세계적으로 중앙은행들은 AI를 광범위하게 채택하고 있다. 중앙은행들은 데이터의 형태와 분포에 관계없이 이상치를 식별하기 위해 AI 기반 기술을 사용하고 있다. 이 모델은 이상치를 식별하고, 이후 전문가들이 알고리즘을 정제하기 위해 검토할 수 있다. 이러한 피드백 루프는 AI 기반 모델의 '블랙박스' 특성을 극복한다.
이러한 모델의 흥미로운 사용 사례는 일화적 텍스트, 경제학자 및 시장 참여자와의 인터뷰를 처리하여 감정의 시계열을 생성하는 능력이다. 감정 지수는 GDP를 예측하거나 경제 불황을 예측하는 데 유용한 도구가 될 수 있다.
AI 기반 모델의 사용은 전통적 및 비전통적 데이터 소스의 광범위한 정보를 추출하여 통화 정책 결정을 지원할 수 있다. 이러한 도구는 또한 인플레이션의 원인을 분석하는 데 도움을 줄 수 있다. 즉, 인플레이션이 과거 가격 상승, 인플레이션 기대, 생산 격차 또는 국제적 요인으로 인해 얼마나 발생했는지를 분석할 수 있다.
AI 기반 시스템은 정기적인 거래에서 비정상 거래를 감지하여 결제 시스템의 감독을 개선할 수 있는 잠재력을 가지고 있다. 이러한 거래를 적시에 식별하는 것은 사이버 공격 및 자금 세탁과 같은 문제를 해결하는 데 중요하다.
최근 인도 중앙은행 혁신 허브(RBIH)는 머니 론더링 및 세금 회피에 사용되는 머니 계좌 사기를 해결하기 위해 AI 모델을 개발했다. 머니 계좌는 한 사람이 생성하지만 다른 사람이 운영하는 계좌이다.
고객 인터페이스는 은행들이 점점 더 AI 기반 챗봇과 가상 비서를 사용하여 고객에게 개인화된 서비스를 제공함에 따라 재편되고 있다. AI는 대출 결정을 가속화하는 데 점점 더 많이 사용되고 있다. 전통적으로 대출자는 대출 결정을 내리기 위해 신용 점수에 의존해왔다.
지불 이력에 대한 데이터는 대부분의 신용 점수 모델의 기초가 되며, 회귀 및 통계 분석을 사용하여 신용 점수를 생성하는 데 사용된다. 그러나 은행과 핀테크는 점점 더 소셜 미디어 활동, 모바일 전화 사용 및 문자 메시지를 포함한 비정형 데이터를 사용하여 신용도를 보다 세밀하게 평가하고 있다.
AI 기반 알고리즘을 사용하여 이러한 데이터를 통해 차용자의 지불 의사를 평가할 수 있게 되었다. 이는 차용자의 빠른 세분화로 이어져 더 빠른 신용 결정을 가능하게 한다.
AI와 머신러닝 알고리즘의 사용은 소외된 인구에게 더 많은 신용 접근을 제공하는 데 도움을 줄 수 있다. 전통적인 신용 점수 모델에서는 잠재적 차용자가 '신용 가능'으로 간주되기 위해 충분한 신용 이력을 가져야 한다.
그러나 이러한 지표는 신용 파일이 얇은 차용자, 특히 비정규 부문에 종사하는 차용자에게는 파악하기 어려운 경우가 많다. 이는 금융 포용 목표에 반하며, 은행이 활용할 수 있는 더 큰 고객 기반을 잠재적으로 배제할 수 있다.
AI 기반 솔루션은 자동 보고 및 진화하는 규제 기준 준수를 보장함으로써 규제 준수를 촉진할 수 있으며, 이로 인해 위법 행위 및 처벌의 위험을 줄일 수 있다. 인도의 은행들은 이러한 목표를 위해 AI 도구를 점점 더 활용하고 있다.
최근 RBI의 한 논문에 따르면, 은행의 연례 보고서에 대한 텍스트 마이닝을 사용한 결과, 2022-23년 동안 민간 부문 은행의 인공지능 채택이 2015-16년 대비 여섯 배 증가한 것으로 나타났다.
AI의 금융 분야에서의 새로운 응용 프로그램 중 하나는 로보 어드바이저로, 디지털 플랫폼에서 투자자에게 알고리즘 기반 투자 자문 서비스를 제공하는 가상 재무 자문가이다. 로보 어드바이저는 전통적인 자산 관리자에 비해 비용이 적게 들며, 투자자의 행동 편향을 없앨 수 있다. 비록 인도에서 로보 어드바이저 서비스의 사용이 초기 단계에 있지만, 향후 몇 년 동안 사용이 증가할 것으로 예상된다.
AI의 금융 서비스에서의 이점은 많지만, 데이터 오용 및 편향의 확산과 관련된 위험은 상당한 정책 조치와 규제 장치가 필요하다. 데이터 편향이나 부정확한 정보는 기술에 대한 불신을 초래할 수 있다.
AI의 광범위한 적용은 금융 안정성 위험을 가속화할 가능성이 있다. 많은 시장 참여자가 신용 점수 또는 금융 시장 활동에서 유사한 AI 및 머신러닝 프로그램을 사용할 경우, 그에 따른 상관된 위험과 군집 행동이 금융 안정성 위험을 증폭시킬 수 있다.
전 세계적으로 이러한 위험에 대응하기 위해 정책 개입이 이루어지고 있다. 유럽연합(EU)의 AI 법안은 2024년 7월에 제정되었으며, AI 시스템의 광범위한 위험 기반 분류를 가지고 있다. 보험 및 신용 심사와 같은 금융 서비스의 사용 사례는 법안에 따라 고위험 시스템으로 분류되며, 이 규칙은 2027년 8월부터 시행될 예정이다.
싱가포르 통화청은 2018년에 'FEAT 원칙'을 도입했다. 이러한 원칙과 평가 방법론은 AI의 책임 있는 사용을 위한 '공정성, 윤리, 책임 및 투명성' 조치를 기반으로 한다.
인도에서는 SEBI가 2019년부터 등록된 기관의 AI 애플리케이션 사용 보고를 요구하고 있다. 더 넓은 차원에서, 국가 인공지능 전략은 혁신과 안전 사이의 균형을 추구하고 있다.
이러한 모델과 관련된 복잡성과 위험을 감안할 때, 이러한 위험을 완화하기 위한 설명 가능성 평가가 필요할 수 있다.
Radhika Pandey는 공공 재정 및 정책 연구소(NIPFP)의 부교수이며, Abhijeet Singh은 연구원이다.