ALS 환자가 혁신적인 뇌-컴퓨터 인터페이스(BCI) 덕분에 자신의 목소리를 되찾음. 이 기술은 약 97%의 정확도로 환자가 의도한 말을 해독할 수 있으며, 내장된 AI 기술로 그 말을 실제 목소리로 읽어줌.
45세의 ALS 환자 케이시 해럴은 근육 약화로 인해 언어 소통에 어려움을 겪고 있었음. 해럴은 "소통할 수 없는 것은 매우 답답하고 사기를 꺾는 일이다. 마치 갇힌 것 같은 기분이다"라고 말함.
해럴은 자신의 목소리를 되찾기 위한 BrainGate 임상 시험에 참여하고 있음. 그의 장치는 전례 없는 정확도를 달성하고 있으며, 통합된 AI 덕분에 과거의 목소리를 밀접하게 재현할 수 있음.
BrainGate 컨소시엄의 장치는 언어 조정에 중요한 역할을 하는 뇌의 왼쪽 전중심 회에 네 개의 미세 전극 배열을 이식함. 이 배열은 총 256개의 피질 전극으로 감지된 뇌 활동을 기록함.
"우리는 그들이 근육을 움직이고 말하려는 시도를 감지하고 있다"고 공동 수석 연구원인 세르게이 스타비스키 박사가 설명함. 뇌 신호는 머리와 목의 근육으로 향하고, 이는 소리 단위인 음소로 변환되어 그 사람이 말하려는 단어로 조합됨.
이 과정은 매우 복잡하며, 이전의 BCI 시스템은 느리고 오류가 많았음. 연구자들은 속도와 정확성을 개선하기 위해 노력해왔고, 두 개의 언어로 작동하거나 더 이상 언어를 시도할 수 없는 사람들을 위한 BCI는 이러한 시스템의 인상적인 능력을 보여줌. 하지만 해럴의 장치는 이전에 본 적 없는 정확도를 달성함.
장치가 이식된 지 25일 후, 해럴은 32주 동안 84회의 데이터 수집 세션을 시작함. 첫 번째 세션에서 단 30분 만에 시스템은 50단어 어휘에서 99.6%의 정확도에 도달함. 이후 어휘는 125,000단어로 확장되었고, 정확도는 90.2%에 달함. 지속적인 훈련 후, BCI는 97.5%의 정확도를 유지하고 있음.
"현재 우리는 케이시가 말하려는 것을 약 97%의 정확도로 해독할 수 있다. 이는 많은 상용 스마트폰 애플리케이션보다 더 나은 성능이다"라고 공동 수석 연구원인 데이비드 브랜드먼 박사가 말함. "이 기술은 말하고 싶지만 할 수 없는 사람들에게 희망을 제공하기 때문에 혁신적이다".
더욱 놀라운 것은 해럴의 BCI가 그의 실제 목소리를 최대한 가깝게 재현할 수 있다는 점임. 일반적으로 음성 BCI는 얇고 로봇 같은 목소리와 연관되지만, 해럴의 경우 AI 모델이 그가 아프기 전의 목소리 샘플로 훈련되어 출력이 과거의 목소리와 유사함.
인간의 삶이 비디오로 기록되는 세상에서, 이러한 기술이 미래의 환자들에게 더 쉽게 적용될 수 있기를 바람.
해럴의 경험과 BCI 기술의 잠재적 의미는 장치가 켜졌을 때 그의 반응으로 잘 요약될 수 있음. "시스템을 처음 시도했을 때, 그는 자신이 말하려는 단어가 화면에 정확히 나타나자 기쁨의 눈물을 흘렸다"고 스타비스키가 회상함.
"우리 모두가 그랬다."