본문 바로가기
카테고리 없음

AI와 문자 대신 말로 쓰는 시대, 화면을 떠나는 AI 기기들

by 상식살이 2026. 1. 29.
반응형

오픈AI가 올해 하반기 AI 기능 활용에 최적화된 새로운 형태의 기기를 공개하겠다고 밝히면서 AI 산업의 시선이 다시 하드웨어로 향하고 있습니다. 구체적인 형태는 공개되지 않았으나 화면이 없거나 매우 작고, 음성을 중심으로 작동하는 방식이 될 가능성이 크다는 전망이 나오고 있습니다.

AI를 사용하는 방식이 키보드와 화면 중심에서 말과 소리를 중심으로 옮겨가고 있다는 흐름과 맞닿아 있는 움직임으로 보입니다.

 

AI 서비스는 주로 스마트폰이나 노트북 화면을 통해 텍스트를 입력하고 텍스트로 답변을 받는 방식입니다. 챗GPT나 구글 제미나이 같은 거대언어모델 기반 서비스가 빠르게 확산되었지만, 여전히 사용자는 화면을 바라보며 글을 입력해야 했습니다. 최근 들어 음성 인식 기술이 크게 개선되면서 상황이 달라지고 있습니다. 말을 통한 입력은 손을 사용하지 않아도 되고, 즉각적인 반응을 얻을 수 있다는 점에서 일상 속 활용도가 높아지고 있습니다.

 

이러한 변화의 중심에 있는 기업 중 하나가 메타입니다. 메타는 레이밴과 협업해 출시한 AI 안경 ‘메타 레이밴 디스플레이’를 통해 음성 기반 인터페이스를 전면에 내세우고 있습니다. 사용자는 별도의 조작 없이 “헤이 메타”라는 호출어만으로 음악 재생, 사진 촬영, 길 안내, 정보 검색 같은 기능을 이용할 수 있습니다. 메타는 이 제품의 연간 생산량을 2000만 대 이상으로 늘리는 방안을 검토 중인 것으로 알려졌습니다. 스마트폰을 꺼내지 않고도 주변 정보를 즉시 얻는 경험을 일상화하겠다는 전략으로 해석됩니다.

구글 역시 한때 단종했던 구글 글라스를 다시 개발하고 있습니다. 초기 구글 글라스는 기술적 한계와 사생활 침해 논란으로 시장에서 자리 잡지 못했으나, 현재는 AI 처리 성능과 음성 인식 정확도가 크게 향상된 상황입니다. 안경 형태의 기기는 사용자의 시선을 방해하지 않으면서도 필요한 정보를 제공할 수 있다는 점에서 차세대 AI 단말기의 유력한 후보로 거론되고 있습니다.

 

음성 중심의 AI 인터페이스는 완전히 새로운 개념은 아닙니다. 2010년대 초 아마존은 음성 비서 ‘알렉사’를 선보였고, 애플은 아이폰에 ‘시리’를 탑재하며 음성 기반 AI 시대를 예고했습니다. 다만 당시에는 음성 인식률이 낮았고, 수행할 수 있는 기능도 제한적이어서 소비자들의 기대를 충족시키지 못했다는 평가가 많았습니다.

 

최근 들어 이들 서비스는 다시 주목받고 있습니다. 아마존은 생성형 AI를 적용한 ‘알렉사 플러스’를 공개하며 대대적인 업그레이드를 단행했습니다. 이는 2014년 알렉사 출시 이후 처음 이뤄진 본격적인 개편으로 평가됩니다. 애플의 시리 역시 향후 구글 제미나이를 기반으로 한 구동이 예상되고 있습니다. 단순 명령 수행을 넘어 맥락을 이해하고 복합적인 요청을 처리하는 방향으로 진화하고 있다는 분석이 나옵니다.

 

음성 인터페이스 확산과 함께 새로운 과제도 제기되고 있습니다. 공공장소에서 AI와 대화하는 상황이 늘어나면서 개인 정보 노출에 대한 우려가 커지고 있습니다. 주변 소음으로 인한 오작동 문제 역시 해결해야 할 과제로 남아 있습니다. 이러한 한계를 보완하기 위한 기술도 빠르게 등장하고 있습니다.

 

일본 스타트업 도넛 로보틱스는 마스크 형태의 음성 인터페이스 기기를 개발했습니다. 외형은 일반 방역용 마스크와 유사하지만 사용자의 음성을 증폭하거나 여러 언어로 번역하는 기능을 갖추고 있습니다. 사람들 앞에서 큰 소리로 말하지 않아도 의사 전달이 가능하다는 점에서 관광과 의료 현장에서 활용 가능성이 거론되고 있습니다.

또 다른 일본 기업 번테크놀로지스는 방음 기능을 강화한 스마트 마스크 ‘웨어폰’을 선보였습니다. 입 모양이나 대화 내용이 외부로 노출될 가능성을 줄이도록 설계돼 공공장소에서의 정보 유출 우려를 낮추는 데 초점을 맞췄습니다. 음성 인터페이스의 편의성과 사생활 보호를 동시에 고려한 사례로 평가받고 있습니다.

 

미국 보스턴의 스타트업 얼터에고는 한 단계 더 나아간 기술을 개발했습니다. 머리에 착용하는 헤드셋 형태의 장비가 신경과 근육 신호를 감지해 사용자가 실제로 소리를 내지 않아도 의도를 인식하는 방식입니다. 머릿속으로 떠올린 말이나 입의 미세한 움직임만으로도 AI와 소통할 수 있어 말하기가 어려운 환경이나 질환을 가진 사람들에게 실질적인 도움을 줄 수 있을 것으로 기대되고 있습니다.

 

이처럼 AI 기기는 점차 눈에 보이는 화면에서 벗어나고 있습니다. 스마트폰 이후의 기기는 손에 쥐는 물건이 아니라 몸에 자연스럽게 착용하거나 생활 공간에 스며드는 형태로 진화할 가능성이 큽니다. 오픈AI가 준비 중인 새로운 하드웨어 역시 이러한 흐름 위에 놓여 있다는 해석이 나옵니다. AI를 사용하는 행위가 눈에 띄지 않게 일상 속으로 녹아드는 순간, 기술의 영향력은 더욱 커질 수 있습니다.

 

말로 작동하는 AI 기기의 확산은 입력 방식의 변화에 그치지 않고 인간과 기술의 관계를 다시 정의하는 과정으로 보입니다. 키보드와 화면을 매개로 하던 시대에서 벗어나 자연스러운 대화와 반응을 중심으로 한 상호작용이 일상이 되는 단계로 접어들고 있습니다. 스마트폰 이후를 둘러싼 다음 기기의 경쟁은 이미 시작됐으며, 그 중심에는 음성과 AI가 자리 잡고 있습니다.

 

 

 

 

출처:ChatGPT,조선일보,raybanmeta인스타그램,CNN인스타그램

 

반응형