구글은 사용자가 말하는 동안 실시간으로 결과를 새로 고치는 대화형 구글 검색 버전을 개발 중임.
이 미공식 업데이트는 안드로이드 개발자 AssembleDebug가 X(구 트위터)에 공유했으며, 구글 검색 기능을 제미니 라이브와 더 가깝게 만듦.
이 새로운 검색 방식은 음성 비서와 챗봇에 익숙한 현대 사용자에게 더 자연스럽게 느껴질 수 있으며, 모바일에 가장 적합할 것으로 보임.
구글은 소비자 트렌드에 맞춰 구글 검색 전략을 전환하는 방법을 점점 더 많이 테스트하고 있음. 음성 비서와 AI 챗봇의 출현 덕분에 사람들은 예전처럼 자주 구글 검색을 사용할 필요가 없어졌음. 이는 구글의 두 가지 주요 사업인 검색과 광고에 부정적인 영향을 미칠 수 있음.
AssembleDebug에 따르면, 구글은 실시간으로 결과를 새로 고치는 음성 검색 모드를 테스트 중임. 사용자가 구글 앱과 대화하는 동안 결과 페이지가 대화에 따라 조정됨. 이 기능은 제미니 라이브와 메타 AI와 유사하지만, 웹 결과에 특화되어 있음.
현재도 음성을 사용해 구글을 검색할 수 있지만, 개별 쿼리로 제한됨. 구글 앱에서 마이크 아이콘을 누르면 AssembleDebug 트윗에서 보여준 것처럼 음성-텍스트 시각화기가 호출됨. 하지만 말을 마친 후 구글이 검색 결과를 가져오면 대화는 끝남.
물론 음성 검색 옵션을 다시 사용할 수 있지만, 경험이 연속적이지 않음. 한편, 구글의 제미니 라이브 경험과 메타의 레이밴 메타 안경의 대화 모드는 더 매끄러운 소통 방식을 제공함.
AssembleDebug가 제공한 샘플 화면 녹화는 실험적인 대화 모드가 사용자가 음성으로 후속 질문을 할 수 있도록 하는 방법을 보여줌. 예를 들어, 누군가 밴드의 멤버 이름을 묻고, 그 후 밴드가 언제 결성되었는지 물어볼 수 있으며, 모든 것을 처음부터 검색할 필요 없이 가능함.