정보기술 · 인공지능 · 실감형콘텐츠 ·
구글, 안드로이드 XR 생태계 확장...헤드셋·AI 안경까지 다각화
갤럭시 XR에 PC 연결·여행 모드 추가, 삼성·XREAL 등과 차세대 기기 개발
[한국정보기술신문] 구글이 확장현실(XR) 플랫폼인 안드로이드 XR의 생태계를 본격적으로 확장하고 있다. 12월 8일 개최한 '안드로이드 쇼: XR 에디션'을 통해 헤드셋부터 AI 안경까지 다양한 폼팩터를 지원하는 전략을 공개했다.
구글은 삼성과 함께 출시한 갤럭시 XR 헤드셋에 세 가지 주요 기능을 추가했다. 먼저 PC 커넥트 기능은 윈도우 PC를 헤드셋에 연결해 데스크톱 화면이나 개별 창을 구글 플레이의 앱과 나란히 배치할 수 있게 한다. 이를 통해 노트북 화면으로는 불가능한 방식으로 업무나 PC 게임을 즐길 수 있다. 이 기능은 베타 버전으로 출시됐다.
여행 모드는 비행기 등 이동 중에도 안정적인 화면을 제공해 좁은 공간을 개인 영화관이나 작업 공간으로 활용할 수 있게 한다. 또한 라이크니스(Likeness) 기능은 사용자의 얼굴 표정과 손동작을 실시간으로 반영하는 디지털 아바타를 생성해 헤드셋을 착용한 상태에서도 자연스러운 화상 통화가 가능하도록 지원한다. 라이크니스는 일부 안드로이드 기기에서 베타로 제공된다.
다양한 폼팩터로 XR 접근성 확대
구글은 하나의 폼팩터로는 모든 사용자의 요구를 충족할 수 없다는 판단 아래 다양한 디바이스를 지원하는 전략을 추진한다. 삼성과 함께 젠틀 몬스터, 워비 파커와 협력해 경량 AI 안경을 개발 중이다.
AI 안경은 두 가지 형태로 나뉜다. 화면이 없는 AI 안경은 스피커, 마이크, 카메라를 통해 제미니(Gemini)와 자연스럽게 대화하고 사진을 촬영하거나 도움을 받을 수 있다. 디스플레이 AI 안경은 렌즈 내 디스플레이를 통해 길 안내나 실시간 번역 자막 같은 정보를 시야에 직접 표시한다. 첫 제품은 내년 출시 예정이다.
안드로이드 XR은 유선 XR 안경도 지원한다. XREAL의 '프로젝트 아우라(Project Aura)'가 이 분야의 첫 기기로 공개됐다. 70도 시야각과 광학 투과 기술을 갖춘 이 기기는 디지털 콘텐츠를 물리적 세계에 직접 겹쳐 보여준다. 사용자는 헤드셋 수준의 몰입감과 현실 인식을 동시에 경험하면서 여러 창을 배치한 대형 작업 공간을 휴대할 수 있다. 요리 중 레시피 영상을 띄우거나 가전 수리 시 단계별 가이드를 표시하는 등 실용적인 활용이 가능하다. 프로젝트 아우라는 내년 출시될 예정이다.
개발자 생태계 구축에 주력
구글은 하드웨어와 플랫폼을 기반으로 개발자들이 새로운 경험을 창출하도록 지원하고 있다. 안드로이드 XR SDK 개발자 프리뷰 3을 출시하며 AI 안경 개발을 공식 개방했다. 우버, 겟유어가이드 같은 파트너사들이 이미 증강 경험을 제공하고 있다.
새 SDK는 헤드셋과 유선 XR 안경을 위한 더욱 풍부하고 몰입도 높은 경험을 구축할 수 있는 기능도 포함한다. 개발자들은 안드로이드 개발자 블로그를 통해 상세 정보를 확인할 수 있으며, 일반 사용자는 뉴스레터를 통해 기기 출시 소식을 받아볼 수 있다.
구글의 XR 담당 부사장 샤람 이자디는 "AI와 XR이 진정으로 도움이 되려면 하드웨어가 일상에 자연스럽게 녹아들고 개인 스타일에 맞아야 한다"며 "안드로이드 XR을 통해 사용자가 무게, 스타일, 몰입도의 균형을 자유롭게 선택할 수 있도록 다양한 디바이스를 지원한다"고 밝혔다.
업계에서는 구글의 이번 발표가 메타, 애플 등이 주도하는 XR 시장에서 안드로이드 생태계의 입지를 강화하려는 전략으로 평가하고 있다. 특히 다양한 폼팩터를 통한 접근성 확대와 개발자 지원 강화가 향후 시장 경쟁력을 좌우할 것으로 전망된다.
한국정보기술신문 실감형콘텐츠분과 장용빈 기자 news@kitpa.org