OpenAI는 중국과 연관된 그룹이 수행한 것으로 보이는 피싱 시도를 성공적으로 저지했다고 밝혔다. 이는 베이징이 미국의 주요 인공지능(AI) 기업을 겨냥한 사이버 위협에 대한 새로운 우려를 불러일으키고 있다.
AI 대기업은 올해 초, SweetSpecter라는 의심되는 중국 기반 그룹이 자사의 직원들을 겨냥해 ChatGPT 사용자로 가장해 공격을 시도했다고 전했다.
피싱 시도는 보안 시스템에 의해 차단됨
SweetSpecter는 OpenAI 직원들에게 고객 지원 메시지로 위장한 이메일을 보내며, 악성 코드가 포함된 첨부파일을 전송했다. 이 첨부파일이 열리면 공격자들이 스크린샷을 찍고 민감한 데이터를 추출할 수 있었을 것이다.
하지만 OpenAI의 보안 조치는 공격을 차단하는 데 효과적이었다. 회사는 보안팀이 타겟으로 지목된 직원들에게 신속하게 연락을 취했고, 이메일이 기업의 수신함에 도착하기 전에 차단되었다고 확인했다.
OpenAI의 증가하는 사이버 보안 위험
이번 사건은 미국과 중국이 AI 개발 및 지배권을 놓고 긴장 관계에 있는 가운데, 주요 AI 기업들의 취약성에 대한 우려를 다시 불러일으켰다.
올해 초, 또 다른 주목할 만한 사건에서는 전 구글 엔지니어가 중국 기업을 위해 AI 기술 비밀을 훔친 혐의로 기소되었다.
미국의 반복적인 비난에도 불구하고, 중국은 사이버 공격에 대한 연루를 일관되게 부인하며 외부 세력이 자국에 대한 비방 캠페인을 벌이고 있다고 주장하고 있다.
더 넓은 영향력 작전이 드러나다
OpenAI는 최근 위협 정보 보고서에서 피싱 시도와 사이버 범죄에서 자사의 AI 모델이 악용되는 불안한 세부 사항을 공개했다.
회사는 중국과 이란의 그룹과 관련된 계정을 차단하는 등 다양한 글로벌 위협에 대응하기 위해 바쁘게 움직이고 있다. 이들 그룹은 AI를 코딩 도움 및 연구 등 다양한 용도로 사용하고 있었다.
보고서는 오늘날의 빠르게 변화하는 기술 환경에서 AI 기업들이 직면한 사이버 보안 문제의 증가를 강조하고 있다. AI 지배권을 위한 글로벌 경쟁이 치열해짐에 따라, 악용 사건이 점점 더 빈번해지고 있다.
2024년 현재까지 OpenAI는 자사의 AI 모델을 사용해 선거 허위 정보를 유포하려는 대규모 시도에 대해 20건 이상의 사건을 처리했다. 주목할 만한 사건으로는 미국 선거와 관련된 가짜 콘텐츠를 생산하는 계정을 차단하고, 소셜 미디어에서 선거 관련 활동에 관여한 르완다의 계정을 금지한 사례가 있다. 마이크로소프트의 지원을 받는 OpenAI는 이러한 위험을 잘 인식하고 있으며, 그러한 악용을 억제하기 위한 노력을 강화하고 있다.