생물학에서 인공지능(AI) 모델이 초래하는 생물안전 위험에 대한 우려가 커지고 있음.
이러한 우려 속에서 Doni Bloomfield와 동료들은 정책 포럼에서 새로운 모델의 개선된 거버넌스와 출시 전 안전성 평가를 주장하여 잠재적 위협을 완화해야 한다고 주장함.
저자들은 "미국을 포함한 국가 정부가 고급 생물학적 모델이 주요 전염병이나 팬데믹을 일으킬 수 있는 새로운 병원체의 생성에 실질적으로 기여하지 않도록 방지하는 법률과 의무 규정을 제정해야 한다"고 씀.
생물학적 AI 모델의 발전은 약물 및 백신 설계를 가속화하고 농작물 수확량과 회복력을 개선하는 등 많은 응용 분야에서 큰 가능성을 지님. 그러나 이러한 이점과 함께 생물학적 AI 모델은 심각한 위험도 초래함. 일반적인 목적의 특성 때문에, 유전자 치료를 위한 무해한 바이러스 벡터를 설계하는 동일한 모델이 백신을 회피하는 더 위험한 새로운 바이러스 병원체를 생성하는 데 사용될 수 있음. 이러한 시스템의 개발자들은 이러한 모델의 이중 사용 위험을 평가하기 위해 자발적인 약속을 했지만, Bloomfield 외 저자들은 이러한 조치가 안전성을 보장하기에는 불충분하다고 강조함.
저자들에 따르면, 고급 생물학적 AI 모델의 위험을 다루기 위한 거버넌스가 부족하며, 표준화된 의무 안전성 평가가 필요함. 백악관의 AI에 대한 행정명령과 2023년 영국 AI 안전 정상 회담에서 서명된 블렛클리 선언과 같은 일부 정책 조치가 존재하지만, 이러한 강력한 도구의 안전성을 출시 전에 평가하기 위한 통합된 접근 방식은 없음. 여기서 Bloomfield 외 저자들은 고급 생물학적 모델의 생물안전 위험을 줄이는 데 초점을 맞춘 정책을 요구하며, 그 잠재적 이점을 탐구할 수 있는 과학적 자유를 보존해야 한다고 주장함. 정책은 높은 위험을 초래하는 고급 AI 모델에 대해서만 출시 전 평가를 요구해야 함.
이러한 평가는 이중 사용 연구를 위한 기존 프레임워크를 활용할 수 있으며, 위험한 병원체를 직접 합성하지 않도록 대리 테스트를 포함해야 함. 또한, 감독은 모델의 가중치를 공개하는 것의 위험을 다루어야 하며, 이는 출시 후 제3자가 모델을 수정할 수 있게 할 수 있음. 게다가, 정책은 책임 있는 데이터 공유를 보장하고 해결되지 않은 위험이 있는 AI 시스템에 대한 접근을 제한해야 함.