KR20240007245A - 증강 현실 안내식 깊이 추정 - Google Patents

증강 현실 안내식 깊이 추정 Download PDF

Info

Publication number
KR20240007245A
KR20240007245A KR1020237042783A KR20237042783A KR20240007245A KR 20240007245 A KR20240007245 A KR 20240007245A KR 1020237042783 A KR1020237042783 A KR 1020237042783A KR 20237042783 A KR20237042783 A KR 20237042783A KR 20240007245 A KR20240007245 A KR 20240007245A
Authority
KR
South Korea
Prior art keywords
pose
frame
depth
virtual object
augmented
Prior art date
Application number
KR1020237042783A
Other languages
English (en)
Inventor
게오르기오스 에반젤리디스
브라니슬라프 미쿠식
사기 카츠
Original Assignee
스냅 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/529,527 external-priority patent/US20220375110A1/en
Application filed by 스냅 인코포레이티드 filed Critical 스냅 인코포레이티드
Publication of KR20240007245A publication Critical patent/KR20240007245A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

AR-안내식 깊이 추정을 위한 방법이 설명된다. 본 방법은 증강 현실(AR) 디바이스의 제1 자세에 기초하여 생성되는 제1 프레임에서 렌더링된 가상 객체를 식별하는 단계, AR 디바이스의 제2 자세를 결정하는 단계- 제2 자세는 제1 자세에 후속함 -, 제1 프레임에서 렌더링된 가상 객체 및 제2 자세에 기초하여 제2 프레임에서 증강 영역을 식별하는 단계, 제2 프레임에서 증강 영역에 대한 깊이 정보를 결정하는 단계, 및 깊이 정보에 기초하여 제2 프레임에서 가상 객체를 렌더링하는 단계를 포함한다.

Description

증강 현실 안내식 깊이 추정
본 출원은 2021년 5월 18일자로 출원된 미국 가특허 출원 제63/189,980호 및 2021년 11월 18일자로 출원된 미국 특허 출원 제17/529,527호에 대한 우선권을 주장하며, 이들 각각은 참조 문헌으로서 그 전체 내용이 본 명세서에 포함된다.
본 명세서에 개시되는 주제는 일반적으로 시각적 추적 시스템에 관한 것이다. 구체적으로, 본 개시내용은 시각적-관성 추적 시스템들에서 깊이를 추정하기 위한 시스템들 및 방법들을 다룬다.
AR(augmented reality) 디바이스는 사용자가 장면을 관찰하면서 동시에 디바이스의 시야 내의 아이템, 이미지, 객체, 또는 환경에 정렬될 수 있는 관련 가상 콘텐츠를 볼 수 있게 한다. VR(virtual reality) 디바이스는 AR 디바이스보다 더 몰입적인 경험을 제공한다. VR 디바이스는 VR 디바이스의 포지션 및 오리엔테이션에 기초하여 디스플레이되는 가상 콘텐츠로 사용자의 시야를 차단한다.
임의의 특정 요소 또는 액트(act)의 논의를 용이하게 식별하기 위해, 참조 번호에서 최상위 숫자 또는 숫자들은 그 요소가 처음 도입되는 도면 번호를 지칭한다.
도 1은 일 예시적인 실시예에 따른 AR 디바이스를 동작시키기 위한 네트워크 환경을 예시하는 블록도이다.
도 2는 일 예시적인 실시예에 따른 AR 디바이스를 예시하는 블록도이다.
도 3은 일 예시적인 실시예에 따른 6DOF 추적기를 예시하는 블록도이다.
도 4는 일 예시적인 실시예에 따라 가상 객체를 렌더링하기 위한 프로세스를 예시하는 블록도이다.
도 5는 일 예시적인 실시예에 따른 AR-안내식 깊이 추정(AR-guided depth estimation)을 위한 방법을 예시하는 흐름도이다.
도 6은 일 예시적인 실시예에 따라 깊이 정보에 대한 영역을 추정하기 위한 동작을 예시하는 블록도이다.
도 7은 일 예시적인 실시예에 따라 렌더링 영역에서 객체를 렌더링하는 동작을 예시하는 블록도이다.
도 8은 일 예시적인 실시예에 따른 렌더링의 예시적인 동작을 예시하는 블록도이다.
도 9는 일 예시적인 실시예에 따라 헤드-웨어러블 디바이스가 구현될 수 있는 네트워크 환경을 예시한다.
도 10은 예시적인 실시예에 따른, 본 개시내용이 구현될 수 있는 소프트웨어 아키텍처를 도시하는 블록도이다.
도 11은 일 예시적인 실시예에 따른, 머신으로 하여금 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행하게 야기하기 위한 명령어들의 세트가 실행될 수 있는 컴퓨터 시스템 형태의 머신의 도식적 표현이다.
이하의 설명은 본 주제의 예시적인 실시예들을 예시하는 시스템들, 방법들, 기법들, 명령어 시퀀스들, 및 컴퓨팅 머신 프로그램 제품들을 설명한다. 이하의 설명에서는, 설명의 목적으로, 본 주제의 다양한 실시예들의 이해를 제공하기 위해 수많은 특정 세부사항들이 제시된다. 그러나, 본 기술분야의 통상의 기술자들에게는, 본 주제의 실시예들이 이러한 특정 세부사항들 중 일부 또는 다른 것이 없어도 실시될 수 있다는 것이 명백할 것이다. 예들은 가능한 변형들을 단지 유형화한다. 명시적으로 달리 언급되지 않는 한, 구조들(예를 들어, 모듈들과 같은 구조적 컴포넌트들)은 선택적이고, 조합되거나 세분될 수 있으며, (예를 들어, 절차, 알고리즘, 또는 다른 기능에서의) 동작들은 시퀀스가 변하거나 조합되거나 세분될 수 있다.
"증강 현실(augmented reality)"(AR)이라는 용어는, 본 명세서에서, 현실 세계에 존재하는 물리적 객체들이 컴퓨터-생성 디지털 콘텐츠(가상 콘텐츠 또는 합성 콘텐츠라고도 지칭됨)에 의해 "증강" 또는 강화되는 현실 세계 환경의 상호작용 경험을 지칭하는데 사용된다. AR은 또한 현실 및 가상 세계들의 조합, 실시간 상호작용, 및 가상 및 실제 객체들의 3D 등록을 가능하게 하는 시스템을 지칭할 수 있다. AR 시스템의 사용자는 현실 세계 물리적 객체에 부착되거나 그와 상호작용하는 것으로 보이는 가상 콘텐츠를 인지한다.
용어 "가상 현실"(VR)은 본 명세서에서 현실 세계 환경과 완전히 구별되는 가상 세계 환경의 시뮬레이션 경험을 지칭하는데 사용된다. 컴퓨터-생성 디지털 콘텐츠는 가상 세계 환경에서 디스플레이된다. VR은 또한 VR 시스템의 사용자가 가상 세계 환경에 완전히 몰입되고 가상 세계 환경에 제시된 가상 객체들과 상호작용할 수 있게 하는 시스템을 지칭한다.
용어 "AR 애플리케이션"은 본 명세서에서 AR 경험을 가능하게 하는 컴퓨터-동작형 애플리케이션을 지칭하는데 사용된다. 용어 "VR 애플리케이션"은 본 명세서에서 VR 경험을 가능하게 하는 컴퓨터-동작형 애플리케이션을 지칭하는데 사용된다. 용어 "AR/VR 애플리케이션"은 AR 경험 또는 VR 경험의 조합을 가능하게 하는 컴퓨터-동작형 애플리케이션을 지칭한다.
"시각적 추적 시스템"이라는 용어는 본 명세서에서 시스템이 시각적 추적 시스템의 하나 이상의 카메라에 의해 캡처된 이미지들에서 식별된 시각적 특징들을 추적할 수 있게 하는 컴퓨터-동작형 애플리케이션 또는 시스템을 지칭하는데 사용된다. 시각적 추적 시스템은 추적된 시각적 특징들에 기초하여 현실 세계 환경의 모델을 구축한다. 시각적 추적 시스템의 비-제한적인 예들은: VSLAM(visual Simultaneous Localization and Mapping system), 및 VIO(Visual Inertial Odometry) 시스템을 포함한다. VSLAM은 시각적 추적 시스템의 하나 이상의 카메라에 기초하여 환경 또는 장면으로부터 타겟을 구축하는데 사용될 수 있다. VIO 시스템(시각적-관성 추적 시스템이라고도 지칭됨)은 디바이스의 복수의 센서(예를 들어, 광학 센서, 관성 센서)로부터 취득된 데이터에 기초하여 디바이스의 최신 자세(예를 들어, 포지션 및 오리엔테이션)를 결정한다.
본 명세서에서 "관성 측정 유닛(IMU)"이라는 용어는 이동체의 가속도, 속도, 오리엔테이션 및 포지션을 포함하는 이동체의 관성 상태에 대해 보고할 수 있는 디바이스를 지칭하는데 사용된다. IMU는 IMU에 의해 측정된 가속도 및 각속도를 적분함으로써 신체의 움직임의 추적을 가능하게 한다. IMU는 또한 선형 가속도 및 각속도를 각각 결정하고 정량화할 수 있는 가속도계들 및 자이로스코프들의 조합을 지칭할 수 있다. IMU의 자이로스코프들로부터 획득된 값들을 처리하여 IMU의 피치, 롤, 및 헤딩(heading)을 획득하고, 따라서 IMU가 연관되는 신체의 것도 획득할 수 있다. IMU의 가속도계들로부터의 신호들도 처리하여 IMU의 속도 및 변위를 획득할 수 있다.
용어 "3자유도 추적 시스템"(3DOF 추적 시스템)은 본 명세서에서 회전 움직임을 추적하는 디바이스를 지칭하는데 사용된다. 예를 들어, 3DOF 추적 시스템은 헤드-웨어러블 디바이스의 사용자가 좌측 또는 우측을 보고 있는지, 그들의 머리를 위 또는 아래로 회전시키고, 좌측 또는 우측으로 피벗하고 있는지를 추적할 수 있다. 그러나, 헤드-웨어러블 디바이스는 사용자가 물리적 세계에서 이동함으로써 장면 주위로 이동했는지를 결정하기 위해 3DOF 추적 시스템을 사용할 수 없다. 이와 같이, 3DOF 추적 시스템은 포지션 신호들에 사용되기에 충분히 정확하지 않을 수 있다. 3DOF 추적 시스템은 IMU 센서들을 포함하는 AR/VR 디스플레이 디바이스의 일부일 수 있다. 예를 들어, 3DOF 추적 시스템은 가속도계들, 자이로스코프들, 및 자력계들과 같은 센서들로부터의 센서 데이터를 사용한다.
"6자유도 추적 시스템"(6DOF 추적 시스템)이라는 용어는 본 명세서에서 회전 및 병진 모션을 추적하는 디바이스를 지칭하는데 사용된다. 예를 들어, 6DOF 추적 시스템은 사용자가 그들의 머리를 회전시키고 앞으로 또는 뒤로, 횡방향으로 또는 수직으로 그리고 위 또는 아래로 이동했는지를 추적할 수 있다. 6DOF 추적 시스템은 다수의 센서(예를 들어, 깊이 카메라, 관성 센서)로부터 취득된 데이터에 의존하는 SLAM 시스템 또는 VIO 시스템을 포함할 수 있다. 6DOF 추적 시스템은 센서들로부터의 데이터를 분석하여 디스플레이 디바이스의 자세를 정확하게 결정한다.
현실적인 증강을 위해서는 깊이 정보가 요구된다. 고해상도 깊이는 계산적으로 까다로운 프로세스인 시각 정보를 처리함으로써 계산된다. 전형적으로, AR 디바이스는 모든 처리된 프레임의 전체 이미지 영역에 대한 깊이 맵을 추정한다. 그러나, 휴대용 AR 디바이스에서의 깊이 추정은 제한된 계산 자원들 및 전력 제약들로 인해 모든 프레임에 대해 수행되지 않을 수 있다.
본 출원은 6DOF 추적 시스템으로부터의 최신 자세 데이터를 사용하여 증강될 카메라 시야의 영역/구역을 예측하기 위해 그래픽 렌더링 엔진으로부터 피드백을 획득하는 시스템을 설명한다. 시스템은 카메라 이미지의 제한된 관심 영역/구역에 대해서만 깊이 정보를 결정하고, 그에 의해 계산 자원들 및 전력을 절감한다.
일 예시적인 실시예에서, AR-안내식 깊이 추정을 위한 방법이 설명된다. 본 방법은, 증강 현실(AR) 디바이스의 제1 자세에 기초하여 생성되는 제1 프레임에서 렌더링된 가상 객체를 식별하는 단계, AR 디바이스의 제2 자세를 결정하는 단계- 제2 자세는 제1 자세에 후속함 -, 제1 프레임에서 렌더링된 가상 객체 및 제2 자세에 기초하여 제2 프레임에서 증강 영역을 식별하는 단계, 제2 프레임에서의 증강 영역에 대해서만 깊이 정보를 결정하는 단계, 및 깊이 정보에 기초하여 제2 프레임에서 가상 객체를 렌더링하는 단계를 포함한다.
그 결과, 본 명세서에 기술된 방법론들 중 하나 이상은 전체 이미지 대신에 이미지의 제한된 영역에 대한 깊이를 결정함으로써 전력 소비 절감의 기술적 문제를 해결하는 것을 용이하게 한다. 현재 설명되는 방법은 전력 소비 감소를 제공함으로써 컴퓨터의 기능의 동작에 대한 개선을 제공한다. 이와 같이, 본 명세서에 기술된 방법론들 중 하나 이상은 특정의 노력 또는 컴퓨팅 자원에 대한 필요성을 제거할 수 있다. 이러한 컴퓨팅 자원의 예는 프로세서 사이클, 네트워크 트래픽, 메모리 사용, 데이터 저장 용량, 전력 소비, 네트워크 대역폭, 및 냉각 용량을 포함한다.
도 1은 일부 예시적인 실시예들에 따른, AR 디바이스(110)를 동작시키기에 적합한 네트워크 환경(100)을 예시하는 네트워크도이다. 네트워크 환경(100)은 네트워크(104)를 통해 서로 통신가능하게 결합된 AR 디바이스(110) 및 서버(112)를 포함한다. AR 디바이스(110) 및 서버(112)는 각각, 도 11과 관련하여 후술되는 바와 같이, 전체적으로 또는 부분적으로, 컴퓨터 시스템에서 구현될 수 있다. 서버(112)는 네트워크 기반 시스템의 일부일 수 있다. 예를 들어, 네트워크 기반 시스템은 가상 콘텐츠(예를 들어, 가상 객체들의 3차원 모델들)와 같은 추가 정보를 AR 디바이스(110)에 제공하는 클라우드 기반 서버 시스템일 수 있거나 이를 포함할 수 있다.
사용자(106)는 AR 디바이스(110)를 동작시킨다. 사용자(106)는 인간 사용자(예를 들어, 인간), 머신 사용자(예를 들어, AR 디바이스(110)와 상호작용하도록 소프트웨어 프로그램에 의해 구성된 컴퓨터), 또는 이들의 임의의 적절한 조합(예를 들어, 머신에 의해 보조받는 인간 또는 인간이 감독하는 머신)일 수 있다. 사용자(106)는 네트워크 환경(100)의 일부가 아니지만, AR 디바이스(110)와 연관된다.
AR 디바이스(110)는 스마트폰, 태블릿 컴퓨터, 또는 웨어러블 컴퓨팅 디바이스(예를 들어, 시계 또는 안경)와 같은 디스플레이를 갖는 컴퓨팅 디바이스일 수 있다. 컴퓨팅 디바이스는 핸드헬드일 수 있거나 또는 사용자(106)의 머리에 착탈식으로 장착될 수 있다. 일 예에서, 디스플레이는 AR 디바이스(110)의 카메라로 캡처되는 것을 디스플레이하는 스크린일 수 있다. 또 다른 예에서, 디바이스의 디스플레이는 웨어러블 컴퓨팅 안경의 렌즈들에서와 같이 투명할 수 있다. 또 다른 예들에서, 디스플레이는 자동차, 비행기, 트럭의 윈드실드(windshield)와 같은 투명 디스플레이일 수 있다. 디스플레이는 비-투명할 수도 있고, 사용자의 시계(field of vision)를 커버하기 위하여 사용자에 의해 착용가능할 수 있다.
사용자(106)는 AR 디바이스(110)의 애플리케이션을 동작시킨다. 애플리케이션은 2차원 물리적 객체(예를 들어, 사진), 3차원 물리적 객체(예를 들어, 조각상), (예를 들어, 공장의) 위치, 또는 현실 세계 물리적 환경에서의 임의의 기준들(예를 들어, 벽 또는 가구의 인지된 코너들)과 같은 물리적 객체(108)에 의해 트리거되는 경험을 사용자(106)에게 제공하도록 구성되는 AR 애플리케이션을 포함할 수 있다. 예를 들어, 사용자(106)는 물리적 객체(108)의 이미지를 캡처하도록 AR 디바이스(110)의 카메라를 포인팅할 수 있다.
AR 디바이스(110)는 추적 시스템(도시되지 않음)을 포함한다. 추적 시스템은 광학 센서들(예를 들어, 깊이 인에이블된 3D 카메라, 이미지 카메라), 관성 센서들(예를 들어, 자이로스코프, 가속도계), 무선 센서들(블루투스, Wi-Fi), GPS 센서, 및 오디오 센서를 사용하여 현실 세계 환경(102)에 대한 AR 디바이스(110)의 자세(예를 들어, 포지션 및 오리엔테이션)를 추적하여 현실 세계 환경(102) 내에서의 AR 디바이스(110)의 위치를 결정한다.
일 예시적인 실시예에서, 서버(112)는 AR 디바이스(110)로부터의 센서 데이터(예를 들어, 이미지 및 깊이 데이터)에 기초하여 물리적 객체(108)를 검출 및 식별하고, 센서 데이터에 기초하여 AR 디바이스(110) 및 물리적 객체(108)의 자세를 결정하기 위해 사용될 수 있다. 서버(112)는 또한 AR 디바이스(110) 및 물리적 객체(108)의 자세에 기초하여 가상 객체를 생성할 수 있다. 서버(112)는 가상 객체를 AR 디바이스(110)에 전달한다. 객체 인식, 추적, 및 AR 렌더링은 AR 디바이스(110), 서버(112), 또는 AR 디바이스(110)와 서버(112) 사이의 조합 상에서 수행될 수 있다.
도 1에 도시한 임의의 머신들, 데이터베이스들 또는 디바이스들은 그 머신, 데이터베이스 또는 디바이스가 본 명세서에 기술되는 기능들 중 하나 이상을 수행하기 위해 소프트웨어에 의해 변형되어(예를 들어, 구성되거나 프로그램되어) 특수 목적의 컴퓨터가 될 범용 컴퓨터에서 구현될 수 있다. 예를 들어, 본 명세서에 설명된 방법들 중 임의의 하나 이상을 구현할 수 있는 컴퓨터 시스템이 도 5를 참조하여 이하 논의된다. 본 명세서에서 사용될 때, "데이터베이스"는 데이터 저장 자원이며, 텍스트 파일, 테이블, 스프레드시트, 관계형 데이터베이스(예를 들어, 객체-관계형 데이터베이스), 트리플 스토어, 계층적 데이터 스토어 또는 이들의 임의의 적절한 조합으로 구성된 데이터를 저장할 수 있다. 더욱이, 도 1에 예시된 머신들, 데이터베이스들 또는 디바이스들 중 임의의 둘 이상은 단일 머신으로 조합될 수 있고, 임의의 단일 머신, 데이터베이스 또는 디바이스에 대해 여기서 기술되는 기능들은 다수의 머신들, 데이터베이스들 또는 디바이스들 사이에서 세분화될 수 있다.
네트워크(104)는 머신들(예를 들어, 서버(112)), 데이터베이스들, 및 디바이스들(예를 들어, AR 디바이스(110)) 사이에서 또는 이들 중에서 통신을 가능하게 하는 임의의 네트워크일 수 있다. 따라서, 네트워크(104)는 유선 네트워크, 무선 네트워크(예를 들어, 모바일 또는 셀룰러 네트워크), 또는 이들의 임의의 적절한 조합일 수 있다. 네트워크(104)는 사설 네트워크, 공중 네트워크(예를 들어, 인터넷), 또는 이들의 임의의 적절한 조합을 구성하는 하나 이상의 부분을 포함할 수 있다.
도 2는 일부 예시적인 실시예들에 따른, AR 디바이스(110)의 모듈들(예를 들어, 컴포넌트들)을 예시하는 블록도이다. AR 디바이스(110)는 센서들(202), 디스플레이(204), 프로세서(208), 그래픽 처리 유닛(218), 디스플레이 제어기(220), 및 저장 디바이스(206)를 포함한다. AR 디바이스(110)의 예들은 웨어러블 컴퓨팅 디바이스, 태블릿 컴퓨터, 내비게이션 디바이스, 휴대용 미디어 디바이스, 또는 스마트폰을 포함한다.
센서들(202)은 광학 센서(214), 관성 센서(216), 및 깊이 센서(226)를 포함한다. 광학 센서(214)는 컬러 카메라, 열 카메라, 깊이 센서, 및 하나 또는 다수의 그레이스케일, 글로벌 셔터 추적 카메라들의 조합을 포함한다. 관성 센서(216)는 자이로스코프, 가속도계, 자력계의 조합을 포함한다. 깊이 센서(226)는 구조화된 광 센서, 비행 시간 센서, 수동 스테레오 센서, 및 초음파 디바이스, 비행 시간 센서의 조합을 포함한다. 센서들(202)의 다른 예들은 근접 또는 위치 센서(예를 들어, 근접장 통신, GPS, 블루투스, Wifi), 오디오 센서(예를 들어, 마이크로폰), 또는 이들의 임의의 적절한 조합을 포함한다. 본 명세서에 설명된 센서들(202)은 예시의 목적을 위한 것이며, 따라서 센서들(202)은 전술된 것들로 제한되지 않는다는 점에 유의한다.
디스플레이(204)는 프로세서(208)에 의해 생성된 이미지들을 디스플레이하도록 구성된 스크린 또는 모니터를 포함한다. 일 예시적인 실시예에서, 디스플레이(204)는 사용자(106)가 (AR 사용 사례에서) 디스플레이(204)를 통해 볼 수 있도록 투명하거나 반-투명할 수 있다. 다른 예에서, LCOS 디스플레이와 같은 디스플레이(204)는 가상 콘텐츠의 각각의 프레임을 다수의 제시로 제시한다.
프로세서(208)는 AR 애플리케이션(210), 6DOF 추적기(212), 및 깊이 시스템(224)을 포함한다. AR 애플리케이션(210)은 컴퓨터 비전을 이용하여 물리적 환경 또는 물리적 객체(108)를 검출하고 식별한다. AR 애플리케이션(210)은 식별된 물리적 객체(108) 또는 물리적 환경에 기초하여 가상 객체(예컨대, 3D 객체 모델)를 검색한다. 디스플레이(204)는 가상 객체를 디스플레이한다. AR 애플리케이션(210)은 광학 센서(214)에 의해 캡처된 물리적 객체(108)의 이미지 상에 오버레이된(예컨대, 그 위에 중첩되거나, 또는 이와 달리 나란히 디스플레이된) 가상 객체의 시각화를 생성하는 로컬 렌더링 엔진을 포함한다. 가상 객체의 시각화는 광학 센서(214)에 대한 물리적 객체(108)의 포지션(예를 들어, 그 물리적 위치, 오리엔테이션, 또는 둘 모두)을 조정함으로써 조작될 수 있다. 유사하게, 가상 객체의 시각화는 물리적 객체(108)에 대한 AR 디바이스(110)의 자세를 조정함으로써 조작될 수 있다.
6DOF 추적기(212)는 AR 디바이스(110)의 자세를 추정한다. 예를 들어, 6DOF 추적기(212)는 광학 센서(214) 및 관성 센서(216)로부터의 이미지 데이터 및 대응하는 관성 데이터를 사용하여 기준 프레임(예를 들어, 현실 세계 환경(102))에 대한 AR 디바이스(110)의 위치 및 자세를 추적한다. 일 예에서, 6DOF 추적기(212)는 센서 데이터를 사용하여 AR 디바이스(110)의 3차원 자세를 결정한다. 3차원 자세는 사용자의 현실 세계 환경(102)에 대한 AR 디바이스(110)의 결정된 오리엔테이션 및 포지션이다. 예를 들어, AR 디바이스(110)는 사용자의 현실 세계 환경(102)의 이미지들뿐만 아니라, AR 디바이스(110)를 둘러싸는 현실 세계 환경(102)에서의 물리적 객체들로부터 AR 디바이스(110)의 상대적 포지션 및 오리엔테이션을 식별하기 위한 다른 센서 데이터를 사용할 수 있다. 6DOF 추적기(212)는 현실 세계 환경(102)에서의 물리적 객체들로부터의 AR 디바이스(110)의 상대적 포지션 및 오리엔테이션의 변화들을 표시하는 AR 디바이스(110)의 업데이트된 3차원 자세들을 결정하기 위해 AR 디바이스(110)의 움직임들을 기술하는 업데이트된 센서 데이터를 계속적으로 수집하고 사용한다. 6DOF 추적기(212)는 AR 디바이스(110)의 3차원 자세를 그래픽 처리 유닛(218)에 제공한다.
그래픽 처리 유닛(218)은 AR 애플리케이션(210)에 의해 제공되는 가상 콘텐츠 및 AR 디바이스(110)의 자세에 기초하여 가상 객체의 3D 모델의 프레임을 렌더링하도록 구성되는 렌더 엔진(도시되지 않음)을 포함한다. 즉, 그래픽 처리 유닛(218)은 AR 디바이스(110)의 3차원 자세를 사용하여 디스플레이(204) 상에 제시될 가상 콘텐츠의 프레임들을 생성한다. 예를 들어, 그래픽 처리 유닛(218)은 3차원 자세를 사용하여 가상 콘텐츠의 프레임을 렌더링하며, 따라서 가상 콘텐츠는 사용자의 현실을 적절히 증대시키기 위해 디스플레이(204)의 오리엔테이션 및 포지션에 제공된다. 예로서, 그래픽 처리 유닛(218)은, 디스플레이(204) 상에 제시될 때, 가상 콘텐츠가 사용자의 현실 세계 환경(102)에서의 물리적 객체와 오버랩하도록 가상 콘텐츠의 프레임을 렌더링하기 위해 3차원 자세 데이터를 사용할 수 있다. 그래픽 처리 유닛(218)은 사용자의 현실 세계 환경(102)에서의 물리적 객체들과 관련하여 사용자의 포지션 및 오리엔테이션의 변화들을 반영하는 AR 디바이스(110)의 업데이트된 3차원 자세들에 기초하여 가상 콘텐츠의 업데이트된 프레임들을 생성한다.
그래픽 처리 유닛(218)은 렌더링된 프레임을 디스플레이 제어기(220)로 전달한다. 디스플레이 제어기(220)는 그래픽 처리 유닛(218)과 디스플레이(204) 사이의 중개자로서 포지셔닝되고, 그래픽 처리 유닛(218)으로부터 이미지 데이터(예를 들어, 렌더링된 프레임)를 수신하고, AR 디바이스(110)의 최신 자세에 기초하여 (워핑 프로세스를 수행함으로써) 프레임을 재투영하고, 재투영된 프레임을 디스플레이(204)에 제공한다.
일 예에서, 그래픽 처리 유닛(218)은 렌더링된 가상 객체에 대한 정보를 피드백으로서 깊이 시스템(224)에 제공한다. 예를 들어, 피드백 정보는 현재 프레임에서 렌더링된 가상 객체의 위치를 식별한다.
깊이 시스템(224)은 깊이 센서(226)에 기초하여 이미지의 깊이를 측정한다. 일 예에서, 깊이 시스템(224)은 전형적인 깊이 센서(TOF, 구조 광, 수동 스테레오, 초음파)로부터의 데이터에 액세스한다. 다른 예에서, 깊이 시스템(224)은 다른 방법들(예를 들어, 3d 사전-구축 모델, 단일 이미지로부터의 깊이를 제공하는 심층 네트워크(deep network)에 기초한 렌더링)을 사용하여 깊이를 계산한다. 깊이 시스템(224)은 관심 구역(AR에 필요한 깊이를 갖는 픽셀들)을 마킹하는 Dd 마스크를 수신하는 능력을 갖는다.
깊이 시스템(224)은 6DOF 추적기(212)로부터 최신 자세를 검색하고, 현재 프레임에서의 렌더링된 가상 객체의 위치를 다음 프레임에서의 관심 영역/구역으로 워핑한다. 즉, 깊이 시스템(224)은 가상 객체가 다음 프레임에 위치될 곳을 추정한다. 깊이 시스템(224)은 관심 영역/구역에 대응하는 깊이를 측정하고, 제한된 깊이 정보를 그래픽 처리 유닛(218)에 다시 제공하여 다음 프레임에서 가상 객체를 렌더링한다.
저장 디바이스(206)는 가상 객체 콘텐츠(222)를 저장한다. 가상 객체 콘텐츠(222)는, 예를 들어, 시각적 기준들(예를 들어, 이미지들, QR 코드들) 및 대응하는 가상 콘텐츠(예를 들어, 가상 객체들의 3차원 모델)의 데이터베이스를 포함한다.
본 명세서에서 설명되는 모듈들 중 어느 하나 이상은 하드웨어(예를 들어, 머신의 프로세서) 또는 하드웨어와 소프트웨어의 조합을 사용하여 구현될 수 있다. 예를 들어, 본 명세서에서 설명되는 임의의 모듈은 그 모듈에 대해 본 명세서에서 설명되는 동작들을 수행하도록 프로세서를 구성할 수 있다. 더욱이, 이들 모듈들 중 임의의 2개 이상은 단일 모듈로 결합될 수 있고, 단일 모듈에 대해 본 명세서에서 설명되는 기능들은 다수의 모듈 사이에 세분될 수 있다. 더욱이, 다양한 예시적인 실시예들에 따르면, 단일 머신, 데이터베이스, 또는 디바이스 내에 구현되는 것으로 본 명세서에 설명된 모듈들은 다수의 머신, 데이터베이스 또는 디바이스에 걸쳐 분산될 수 있다.
도 3은 일 예시적인 실시예에 따른 6DOF 추적기(212)를 예시하는 블록도이다. 6DOF 추적기(212)는 관성 센서(216)로부터의 관성 센서 데이터 및 광학 센서(214)로부터의 광학 센서 데이터에 액세스한다.
6DOF 추적기(212)는 기준 프레임(예를 들어, 현실 세계 환경(102))에 대한 AR 디바이스(110)의 자세(예를 들어, 위치, 포지션, 오리엔테이션, 경사)를 결정한다. 일 예시적인 실시예에서, 6DOF 추적기(212)는 광학 센서(214)로 캡처된 이미지들 및 관성 센서(216)로 캡처된 관성 센서 데이터로부터의 특징점들의 3D 맵들에 기초하여 AR 디바이스(110)의 자세를 추정하는 VIO(302)를 포함한다.
6DOF 추적기(212)는 자세 데이터를 그래픽 처리 유닛(218)에 제공한다. 깊이 시스템(224)은 현재 프레임에 대한 전체 깊이 맵을 그래픽 처리 유닛(218)에 제공한다. 그래픽 처리 유닛(218)은 자세 및 전체 깊이 맵에 기초하여 가상 객체를 렌더링한다.
일 예시적인 실시예에서, 그래픽 처리 유닛(218)은 피드백 정보를 깊이 시스템(224)에 다시 제공한다. 피드백 정보는, 예를 들어, 렌더링된 객체에 관한 정보(예를 들어, 렌더링된 객체 메타데이터)를 포함한다. 렌더링된 객체 메타데이터는 가상 객체가 렌더링되는 현재 프레임 내의 구역을 식별할 수 있다. 깊이 시스템(224)은 렌더링된 객체 메타데이터에 기초하여 제한된 깊이 계산을 수행한다. 예를 들어, 깊이 시스템(224)은 렌더링된 객체 메타데이터로부터 결정된 관심 구역에 기초하여 이미지의 제한된 부분에서의 깊이를 계산한다.
도 4는 일 예시적인 실시예에 따라 가상 객체를 렌더링하기 위한 프로세스를 예시하는 블록도이다. 6DOF 추적기(212)는 AR 디바이스(110)의 초기 자세 데이터를 그래픽 처리 유닛(218)에 제공한다. 깊이 시스템(224)은 초기 자세 데이터에 대응하는 현재 프레임의 전체 깊이 맵을 그래픽 처리 유닛(218)에 제공한다. 그래픽 처리 유닛(218)은 전체 깊이 맵 및 초기 자세 데이터에 기초하여 가상 객체를 렌더링한다.
일 예에서, 깊이 시스템(224)은 증강 영역 모듈(402) 및 깊이 계산 모듈(404)을 포함한다. 증강 영역 모듈(402)은 그래픽 처리 유닛(218)으로부터 피드백 정보를 수신한다. 피드백 정보는, 예를 들어, 렌더링된 객체 데이터(렌더링 메타데이터라고도 지칭됨)를 포함한다. 렌더링된 객체 데이터의 예들은 현재 프레임에서의 렌더링된 가상 객체의 영역, 구역, 위치, 렌더링된 가상 객체의 크기 및 형상을 포함한다.
다른 예시적인 실시예에서, 피드백 정보는, 렌더링된 가상 객체가 정적인지 또는 움직이는지에 관한 정보를 포함한다. 예를 들어, 피드백 정보는 움직이는 가상 객체의 투영된 경로를 표시한다. 투영된 경로는 가상 객체의 미리 구성된 동적 거동에 기초할 수 있다.
증강 영역 모듈(402)은 6DOF 추적기(212)로부터의 최신 자세 데이터를 피드백 정보에 적용하여 다음 프레임에서 관심 구역을 식별한다. 예를 들어, 증강 영역 모듈(402)은 현재 자세와 최신 자세 데이터 사이의 차이에 기초하여 현재 프레임을 워핑하여 다음 프레임을 생성한다.
증강 영역 모듈(402)은 깊이 계산 모듈(404)에게 다음 프레임에서 관심 구역으로 제한된 깊이를 결정하도록 지시한다. 일 예에서, 깊이 계산 모듈(404)은 단안 이미지 또는 3D 재구성된 장면에 기초하여 깊이 데이터(관심 구역으로 제한됨)를 계산한다. 깊이 계산 모듈(404)은 관심 구역의 깊이 데이터(증강 영역 깊이 데이터라고도 지칭됨)를 그래픽 처리 유닛(218)에 제공한다.
그래픽 처리 유닛(218)은 증강 영역 깊이 데이터에 기초하여 다음 프레임에서 가상 객체를 렌더링한다. 디스플레이 제어기(220)는 렌더링된 가상 객체를 디스플레이(204)에 제공한다.
도 5는 일 예시적인 실시예에 따른 AR-안내식 깊이 추정을 위한 방법(500)을 예시하는 흐름도이다. 방법(500)에서의 동작들은 도 2와 관련하여 전술한 컴포넌트들(예를 들어, 모듈들, 엔진들)을 사용하여 AR 디바이스(110)에 의해 수행될 수 있다. 따라서, 방법(500)은 AR 디바이스(110)를 참조하여 예로서 설명된다. 그러나, 방법(500)의 동작들 중 적어도 일부가 다양한 다른 하드웨어 구성들에 배포될 수 있거나 다른 곳에 존재하는 유사한 컴포넌트들에 의해 수행될 수 있다는 것을 잘 알 것이다.
블록(502)에서, AR 디바이스(110)는 현재의 자세에 기초하여 현재 프레임에서 렌더링된 가상 객체를 식별한다. 일 예에서, 그래픽 처리 유닛(218)은 렌더링된 가상 객체를 식별하고 렌더링된 가상 객체에 대한 피드백 정보를 증강 영역 모듈(402)에 생성한다.
블록(504)에서, AR 디바이스(110)는 최신 자세를 결정한다. 일 예에서, 6DOF 추적기(212)는 AR 디바이스(110)의 최신 자세를 식별한다. 6DOF 추적기(212)는 최신 자세 데이터를 증강 영역 모듈(402)에 제공한다.
블록(506)에서, AR 디바이스(110)는 현재 프레임에서의 렌더링된 가상 객체의 위치 및 AR 디바이스(110)의 최신 자세에 기초하여 다음 프레임에서 증강 영역을 식별한다. 일 예에서, 증강 영역 모듈(402)은 현재 프레임에서의 렌더링된 가상 객체의 원래 위치 및 6DOF 추적기(212)로부터의 최신 자세 데이터에 기초하여 다음 프레임에서의 관심 구역을 식별한다.
블록(508)에서, AR 디바이스(110)는 증강 영역(예를 들어, 다음 프레임에서 식별된 관심 구역)의 깊이를 결정한다. 일 예에서, 깊이 계산 모듈(404)은 깊이 센서를 사용하여 다음 프레임의 제한된 구역/영역(예를 들어, 관심 구역)에서의 깊이를 결정한다.
블록(510)에서, AR 디바이스(110)는 증강 영역의 깊이에 기초하여 증강 영역에서의 다음 프레임에서 가상 객체를 렌더링한다. 예를 들어, 그래픽 처리 유닛(218)은 깊이 계산 모듈(404)로부터의 제한된 영역에 관한 깊이 데이터(예를 들어, 증강 영역 깊이 데이터) 및 6DOF 추적기(212)로부터의 최신 자세 데이터에 기초하여 다음 프레임에서 가상 객체를 렌더링한다.
유의할 점은, 다른 실시예들이 유사한 기능들을 달성하기 위해 상이한 시퀀싱, 부가의 또는 보다 적은 동작들, 및 상이한 명명법 또는 용어법을 사용할 수 있다는 것이다. 일부 실시예들에서, 다양한 동작들이, 동기식 또는 비동기식 방식으로, 다른 동작들과 병렬로 수행될 수 있다. 본 명세서에 기술된 동작들은 동작들의 일부 원리들을 간략화된 형태로 예시하기 위해 선택되었다.
도 6은 일 예시적인 실시예에 따라 깊이 정보에 대한 영역을 추정하기 위한 동작을 예시하는 블록도이다. 현재 프레임 t(602)에서, 가상 객체 A(606)는 렌더링 영역(608)에 렌더링된다. 다음 프레임 t+1(604)에서, 6DOF 추적기(212)는 전파/예측/VIO 자세 및 렌더링 메타데이터를 사용하여 렌더링 영역(608)을 다음 프레임 t+1(604)에서의 이미지 영역(610)으로 워핑한다. 이미지 영역(610)은 깊이 정보가 가상 객체 A(606)를 렌더링하기 위해 사용되는 이미지 영역에 대응한다.
도 7은 일 예시적인 실시예에 따라 렌더링 영역에서 객체를 렌더링하는 동작을 예시하는 블록도이다. 초기화 단계(702)에서, 깊이 시스템(224)은 이미지(706)를 처리하여 이미지(708) 내의 전체 이미지 영역에 대한 깊이 추정을 수행한다. 객체들은 이미지(710)에 렌더링된다. 렌더링 단계(704)에서, 깊이 시스템(224)은 이미지(712)를 처리하여 이미지(712) 내의 AR 객체의 위치에 대응하는 렌더링 영역에 대한 깊이 추정을 수행한다.
도 8은 일 예시적인 실시예에 따른 렌더링의 예시적인 동작을 예시하는 블록도이다. 시간 t(802)에서의 이미지는 실제 객체(808)를 묘사한다. 시간 t+1(804)에서의 이미지는 실제 객체(810)를 묘사한다. AR 애플리케이션(210)은 렌더링 시간 t+dt에서 실제 객체(814)에 대응하는 가상 객체(806)를 렌더링한다. 가상 객체(806)가 렌더링되는 영역은 AR 디바이스(110)의 상대적 자세들을 사용하여 워핑되어 관심 영역(816)을 식별한다. 깊이 정보를 필요로 하는 이미지 영역은 관심 영역(816)으로 제한된다. 가상 객체(818)는 관심 영역(816) 내의 깊이 정보에 기초하여 대응하는 깊이로 렌더링된다.
헤드-웨어러블 장치를 갖는 시스템
도 9는 헤드-웨어러블 장치(902)가 일 예시적인 실시예에 따라 구현될 수 있는 네트워크 환경(900)을 예시한다. 도 9는 다양한 네트워크(940)를 통해 모바일 클라이언트 디바이스(938) 및 서버 시스템(932)에 통신가능하게 결합된 예시적인 헤드-웨어러블 장치(902)의 하이-레벨 기능 블록도이다.
헤드-웨어러블 장치(902)는 가시광 카메라(912), 적외선 방출기(914) 및 적외선 카메라(916) 중 적어도 하나와 같은 카메라를 포함한다. 클라이언트 디바이스(938)는 통신(934) 및 통신(936) 양쪽 모두를 사용하여 헤드-웨어러블 장치(902)와 접속할 수 있다. 클라이언트 디바이스(938)는 서버 시스템(932) 및 네트워크(940)에 접속된다. 네트워크(940)는 유선 및 무선 접속들의 임의의 조합을 포함할 수 있다.
헤드-웨어러블 장치(902)는 광학 어셈블리(904)의 이미지 디스플레이의 2개의 이미지 디스플레이를 추가로 포함한다. 이 둘은 헤드-웨어러블 장치(902)의 좌측 측방향 측면과 연관된 것 및 우측 측방향 측면과 연관된 것을 포함한다. 헤드-웨어러블 장치(902)는 또한 이미지 디스플레이 드라이버(908), 이미지 프로세서(910), 저전력 저전력 회로(926), 및 고속 회로(918)를 포함한다. 광학 어셈블리(904)의 이미지 디스플레이는 헤드-웨어러블 장치(902)의 사용자에 대한 그래픽 사용자 인터페이스를 포함할 수 있는 이미지를 포함하여, 이미지들 및 비디오들을 제시하기 위한 것이다.
이미지 디스플레이 드라이버(908)는 광학 어셈블리(904)의 이미지 디스플레이의 이미지 디스플레이를 명령하고 제어한다. 이미지 디스플레이 드라이버(908)는 제시를 위해 광학 어셈블리(904)의 이미지 디스플레이의 이미지 디스플레이에 직접 이미지 데이터를 전달할 수 있거나, 또는 이미지 데이터를 이미지 디스플레이 디바이스에 전달하기에 적합한 신호 또는 데이터 포맷으로 변환해야 할 수 있다. 예를 들어, 이미지 데이터는 H.264(MPEG-4 Part 10), HEVC, Theora, Dirac, RealVideo RV40, VP8, VP9 등과 같은 압축 포맷들에 따라 포맷된 비디오 데이터일 수 있고, 정지 이미지 데이터는 PNG(Portable Network Group), JPEG(Joint Photographic Experts Group), TIFF(Tagged Image File Format) 또는 Exif(exchangeable image file format) 등과 같은 압축 포맷들에 따라 포맷될 수 있다.
위에서 언급된 바와 같이, 헤드-웨어러블 장치(902)는 프레임, 및 프레임의 측방향 측면으로부터 연장되는 스템들(또는 템플들)을 포함한다. 헤드-웨어러블 장치(902)는 헤드-웨어러블 장치(902) 상의 입력 표면을 포함하는 사용자 입력 디바이스(906)(예를 들어, 터치 센서 또는 푸시 버튼)를 추가로 포함한다. 사용자 입력 디바이스(906)(예를 들어, 터치 센서 또는 푸시 버튼)는 제시된 이미지의 그래픽 사용자 인터페이스를 조작하기 위한 입력 선택을 사용자로부터 수신한다.
헤드-웨어러블 장치(902)에 대한 도 9에 도시된 컴포넌트들은 림들 또는 템플들에서 하나 이상의 회로 보드, 예를 들어 PCB 또는 가요성 PCB 상에 위치된다. 대안적으로, 또는 추가적으로, 묘사된 컴포넌트들은 헤드-웨어러블 장치(902)의 청크들, 프레임들, 힌지들, 또는 브리지에 위치될 수 있다. 좌측 및 우측은 상보형 금속 산화물 반도체(CMOS) 이미지 센서, 전하 결합 디바이스, 카메라 렌즈, 또는 미지의 객체들을 갖는 장면들의 이미지들을 포함하여, 데이터를 캡처하는데 사용될 수 있는 임의의 다른 각각의 가시광 또는 광 캡처링 소자들과 같은 디지털 카메라 소자들을 포함할 수 있다.
헤드-웨어러블 장치(902)는 본 명세서에 설명된 기능들의 서브세트 또는 전부를 수행하기 위한 명령어들을 저장하는 메모리(922)를 포함한다. 메모리(922)는 또한 저장 디바이스를 포함할 수 있다.
도 9에 도시된 바와 같이, 고속 회로(918)는 고속 프로세서(920), 메모리(922), 및 고속 무선 회로(924)를 포함한다. 예에서, 이미지 디스플레이 드라이버(908)는 고속 회로(918)에 결합되고, 광학 어셈블리(904)의 이미지 디스플레이의 좌측 및 우측 이미지 디스플레이들을 구동하기 위해 고속 프로세서(920)에 의해 동작된다. 고속 프로세서(920)는 헤드-웨어러블 장치(902)에 필요한 임의의 일반 컴퓨팅 시스템의 동작 및 고속 통신을 관리할 수 있는 임의의 프로세서일 수 있다. 고속 프로세서(920)는 고속 무선 회로(924)를 사용하여 무선 근거리 네트워크(WLAN)로의 통신(936) 상의 고속 데이터 전달들을 관리하기 위해 필요한 처리 자원들을 포함한다. 특정 예들에서, 고속 프로세서(920)는 LINUX 운영 체제 또는 헤드-웨어러블 장치(902)의 다른 그러한 운영 체제와 같은 운영 체제를 실행하고, 운영 체제는 실행을 위해 메모리(922)에 저장된다. 임의의 다른 책임들 이외에, 헤드-웨어러블 장치(902)에 대한 소프트웨어 아키텍처를 실행하는 고속 프로세서(920)는 고속 무선 회로(924)와의 데이터 전달을 관리하는데 사용된다. 특정 예들에서, 고속 무선 회로(924)는, 본 명세서에서 Wi-Fi라고도 지칭되는, IEEE(Institute of Electrical and Electronic Engineers) 902.11 통신 표준을 구현하도록 구성된다. 다른 예들에서, 다른 고속 통신 표준들은 고속 무선 회로(924)에 의해 구현될 수 있다.
헤드-웨어러블 장치(902)의 저전력 무선 회로(930) 및 고속 무선 회로(924)는 단거리 송수신기들(BluetoothTM) 및 무선 광역, 로컬, 또는 광역 네트워크 송수신기들(예를 들어, 셀룰러 또는 WiFi)을 포함할 수 있다. 통신(934) 및 통신(936)을 통해 통신하는 송수신기들을 포함하는 클라이언트 디바이스(938)는, 네트워크(940)의 다른 요소들이 그런 것처럼, 헤드-웨어러블 장치(902)의 아키텍처의 세부사항들을 이용하여 구현될 수 있다.
메모리(922)는, 그 중에서도 특히, 좌측 및 우측의, 적외선 카메라(916), 및 이미지 프로세서(910)에 의해 생성된 카메라 데이터는 물론, 광학 어셈블리(904)의 이미지 디스플레이의 이미지 디스플레이 상에 이미지 디스플레이 드라이버(908)에 의해 디스플레이하기 위해 생성된 이미지들을 비롯한, 다양한 데이터 및 애플리케이션들을 저장할 수 있는 임의의 저장 디바이스를 포함한다. 메모리(922)는 고속 회로(918)와 통합된 것으로 도시되어 있지만, 다른 예들에서, 메모리(922)는 헤드-웨어러블 장치(902)의 독립적인 독립형 요소일 수 있다. 이러한 특정 예들에서, 전기 라우팅 라인들은 고속 프로세서(920)를 포함하는 칩을 통해 이미지 프로세서(910) 또는 저전력 프로세서(928)로부터 메모리(922)로의 접속을 제공할 수 있다. 다른 예들에서, 고속 프로세서(920)는 메모리(922)의 어드레싱을 관리할 수 있으며, 따라서 저전력 프로세서(928)는 메모리(922)가 수반된 판독 또는 기입 동작이 필요할 때마다 고속 프로세서(920)를 부팅할 것이다.
도 9에 도시된 바와 같이, 헤드-웨어러블 장치(902)의 저전력 프로세서(928) 또는 고속 프로세서(920)는 카메라(가시광 카메라(912); 적외선 방출기(914) 또는 적외선 카메라(916)), 이미지 디스플레이 드라이버(908), 사용자 입력 디바이스(906)(예를 들어, 터치 센서 또는 푸시 버튼), 및 메모리(922)에 결합될 수 있다.
헤드-웨어러블 장치(902)는 호스트 컴퓨터와 접속된다. 예를 들어, 헤드-웨어러블 장치(902)는 통신(936)을 통해 클라이언트 디바이스(938)와 페어링되거나 또는 네트워크(940)를 통해 서버 시스템(932)에 접속된다. 서버 시스템(932)은, 예를 들어, 프로세서, 메모리, 및 네트워크(940)를 통해 클라이언트 디바이스(938) 및 헤드-웨어러블 장치(902)와 통신하기 위한 네트워크 통신 인터페이스를 포함하는 서비스 또는 네트워크 컴퓨팅 시스템의 일부로서의 하나 이상의 컴퓨팅 디바이스일 수 있다.
클라이언트 디바이스(938)는 프로세서 및 프로세서에 결합되는 네트워크 통신 인터페이스를 포함한다. 네트워크 통신 인터페이스는, 네트워크(940), 통신(934) 또는 통신(936)을 통한 통신을 허용한다. 클라이언트 디바이스(938)는 또한, 클라이언트 디바이스(938)의 메모리에 양귀(binaural) 오디오 콘텐츠를 생성하기 위한 명령어들의 적어도 일부를 저장하여 본 명세서에서 설명된 기능성을 구현할 수 있다.
헤드-웨어러블 장치(902)의 출력 컴포넌트들은 LCD(liquid crystal display)와 같은 디스플레이, PDP(plasma display panel), LED(light emitting diode) 디스플레이, 프로젝터, 또는 도파관과 같은 시각적 컴포넌트들을 포함한다. 광학 어셈블리의 이미지 디스플레이들은 이미지 디스플레이 드라이버(908)에 의해 구동된다. 헤드-웨어러블 장치(902)의 출력 컴포넌트들은 음향 컴포넌트들(예를 들어, 스피커들), 햅틱 컴포넌트들(예를 들어, 진동 모터), 다른 신호 생성기들 등을 추가로 포함한다. 사용자 입력 디바이스(906)와 같은, 헤드-웨어러블 장치(902), 클라이언트 디바이스(938), 및 서버 시스템(932)의 입력 컴포넌트들은, 영숫자 입력 컴포넌트들(예를 들어, 키보드, 영숫자 입력을 수신하도록 구성된 터치 스크린, 포토-광학 키보드, 또는 다른 영숫자 입력 컴포넌트), 포인트 기반 입력 컴포넌트들(예를 들어, 마우스, 터치패드, 트랙볼, 조이스틱, 모션 센서, 또는 다른 포인팅 기구), 촉각 입력 컴포넌트들(예를 들어, 물리적 버튼, 터치 또는 터치 제스처의 위치 및 힘을 제공하는 터치 스크린, 또는 다른 촉각 입력 컴포넌트), 오디오 입력 컴포넌트들(예를 들어, 마이크로폰) 등을 포함할 수 있다.
헤드-웨어러블 장치(902)는 추가적인 주변 디바이스 요소들을 선택적으로 포함할 수 있다. 이러한 주변 디바이스 요소들은 헤드-웨어러블 장치(902)와 통합되는 바이오메트릭 센서들, 추가적인 센서들, 또는 디스플레이 요소들을 포함할 수 있다. 예를 들어, 주변 디바이스 요소들은 출력 컴포넌트들, 모션 컴포넌트들, 포지션 컴포넌트들, 또는 본 명세서에 설명된 임의의 다른 그러한 요소들을 포함하는 임의의 I/O 컴포넌트들을 포함할 수 있다.
예를 들어, 바이오메트릭 컴포넌트들은, 표정들(예를 들어, 손 표현, 얼굴 표정, 음성 표현, 신체 제스처, 또는 시선 추적)을 검출하고, 생체신호들(예를 들어, 혈압, 심박수, 체온, 땀 또는 뇌파)을 측정하고, 사람을 식별(예를 들어, 음성 식별, 망막 식별, 얼굴 식별, 지문 식별, 또는 뇌파계 기반 식별)하는 등의 컴포넌트들을 포함한다. 모션 컴포넌트들은, 가속 센서 컴포넌트들(예를 들어, 가속도계), 중력 센서 컴포넌트들, 회전 센서 컴포넌트들(예를 들어, 자이로스코프) 등을 포함할 수 있다. 포지션 컴포넌트들은 위치 좌표들을 생성하는 위치 센서 컴포넌트들(예를 들어, GPS(Global Positioning System) 수신기 컴포넌트), 포지셔닝 시스템 좌표들을 생성하는 WiFi 또는 BluetoothTM 송수신기들, 고도 센서 컴포넌트들(예를 들어, 고도계 또는 고도가 도출될 수 있는 기압을 검출하는 기압계), 방위 센서 컴포넌트들(예를 들어, 자력계) 등을 포함한다. 이러한 포지셔닝 시스템 좌표들은는 또한 저전력 무선 회로(930) 또는 고속 무선 회로(924)를 통해 클라이언트 디바이스(938)로부터 수신 및 통신(936)될 수 있다.
"A, B, 또는 C 중 적어도 하나", "A, B, 및 C 중 적어도 하나", "A, B, 또는 C 중 하나 이상", 또는 "A, B, 및 C 중 하나 이상"과 유사한 구문이 사용되는 경우, 이는 그 구문이 실시예에서 A만이 존재할 수 있다는 것, 실시예에서 B만이 존재할 수 있다는 것, 실시예에서 C만이 존재할 수 있다는 것, 또는 단일 실시예에서 요소 A, B, 및 C의 임의의 조합이 존재할 수 있다는 것; 예를 들어, A 및 B, A 및 C, B 및 C, 또는 A 및 B 및 C를 의미하는 것으로 해석될 수 있다는 것이 의도된다.
변경들 및 수정들은 본 개시내용의 범위로부터 벗어남 없이 개시된 실시예들에 대해 이루어질 수 있다. 이들 및 다른 변경들 또는 수정들은 다음의 청구항들에 표현된 바와 같이 본 개시내용의 범위 내에 포함되는 것으로 의도된다.
도 10은 본 명세서에서 설명된 임의의 하나 이상의 디바이스들 상에 설치될 수 있는 소프트웨어 아키텍처(1004)를 예시하는 블록도(1000)이다. 이러한 소프트웨어 아키텍처(1004)는, 프로세서들(1020), 메모리(1026), 및 I/O 컴포넌트들(1038)을 포함하는 머신(1002)과 같은, 하드웨어에 의해 지원된다. 이 예에서, 소프트웨어 아키텍처(1004)는 계층들의 스택으로서 개념화될 수 있으며, 여기서 각각의 계층은 특정 기능성을 제공한다. 소프트웨어 아키텍처(1004)는 운영 체제(1012), 라이브러리들(1010), 프레임워크들(1008), 및 애플리케이션들(1006)과 같은 계층들을 포함한다. 동작적으로, 애플리케이션들(1006)은 소프트웨어 스택을 통해 API 호출들(1050)을 기동하고 API 호출들(1050)에 응답하여 메시지들(1052)을 수신한다.
운영 체제(1012)는 하드웨어 자원들을 관리하고 공통 서비스들을 제공한다. 운영 체제(1012)는, 예를 들어, 커널(1014), 서비스들(1016), 및 드라이버들(1022)을 포함한다. 커널(1014)은 하드웨어와 다른 소프트웨어 계층들 사이에서 추상화 계층(abstraction layer)으로서 역할을 한다. 예를 들어, 커널(1014)은, 다른 기능성들 중에서도, 메모리 관리, 프로세서 관리(예를 들어, 스케줄링), 컴포넌트 관리, 네트워크화, 및 보안 설정들을 제공한다. 서비스들(1016)은 다른 소프트웨어 계층들을 위한 다른 공통 서비스들을 제공할 수 있다. 드라이버들(1022)은 기본 하드웨어(underlying hardware)를 제어하거나 그와 인터페이스하는 것을 담당한다. 예를 들어, 드라이버들(1022)은 디스플레이 드라이버들, 카메라 드라이버들, BLUETOOTH® 또는 BLUETOOTH® Low Energy 드라이버들, 플래시 메모리 드라이버들, 직렬 통신 드라이버들(예를 들어, USB(Universal Serial Bus) 드라이버들), WI-FI® 드라이버들, 오디오 드라이버들, 전력 관리 드라이버들 등을 포함할 수 있다.
라이브러리들(1010)은 애플리케이션들(1006)에 의해 사용되는 로우-레벨 공통 인프라스트럭처를 제공한다. 라이브러리들(1010)은 메모리 할당 기능들, 스트링 조작 기능들, 수학 기능들 등과 같은 기능들을 제공하는 시스템 라이브러리들(1018)(예를 들어, C 표준 라이브러리)을 포함할 수 있다. 또한, 라이브러리들(1010)은, 미디어 라이브러리들(예를 들어, MPEG4(Moving Picture Experts Group-4), H.264 또는 AVC(Advanced Video Coding), MP3(Moving Picture Experts Group Layer-3), AAC(Advanced Audio Coding), AMR(Adaptive Multi-Rate) 오디오 코덱, JPEG 또는 JPG(Joint Photographic Experts Group), PNG(Portable Network Graphics) 등의 다양한 미디어 포맷의 제시 및 조작을 지원하는 라이브러리들), 그래픽 라이브러리들(예를 들어, 그래픽 콘텐츠를 디스플레이 상에서 2차원(2D) 및 3차원(3D)으로 렌더링하는데 이용되는 OpenGL 프레임워크), 데이터베이스 라이브러리들(예를 들어, 다양한 관계형 데이터베이스 기능을 제공하는 SQLite), 웹 라이브러리들(예를 들어, 웹 브라우징 기능성을 제공하는 WebKit), 및 그와 유사한 것과 같은 API 라이브러리들(1024)을 포함할 수 있다. 라이브러리들(1010)은 또한, 많은 다른 API를 애플리케이션(1006)에 제공하는 매우 다양한 다른 라이브러리들(1028)을 포함할 수 있다.
프레임워크들(1008)은 애플리케이션들(1006)에 의해 사용되는 하이-레벨 공통 인프라스트럭처를 제공한다. 예를 들어, 프레임워크들(1008)은 다양한 그래픽 사용자 인터페이스(GUI) 기능들, 하이-레벨 자원 관리, 및 하이-레벨 위치 서비스들을 제공한다. 프레임워크들(1008)은 애플리케이션들(1006)에 의해 사용될 수 있는 광범위한 범위의 다른 API들을 제공할 수 있으며, 그 중 일부는 특정 운영 체제 또는 플랫폼에 특정적일 수 있다.
예시적인 실시예에서, 애플리케이션들(1006)은 홈 애플리케이션(1036), 연락처 애플리케이션(1030), 브라우저 애플리케이션(1032), 북 리더 애플리케이션(1034), 위치 애플리케이션(1042), 미디어 애플리케이션(1044), 메시징 애플리케이션(1046), 게임 애플리케이션(1048), 및 제3자 애플리케이션들(1040)과 같은 아주 다양한 다른 애플리케이션들을 포함할 수 있다. 애플리케이션들(1006)은 프로그램들에서 정의되는 기능들을 실행하는 프로그램들이다. 애플리케이션들(1006) 중 하나 이상을 생성하기 위해 객체 지향형 프로그래밍 언어(예를 들어, Objective-C, Java, 또는 C++) 또는 절차형 프로그래밍 언어(예를 들어, C 또는 어셈블리 언어)와 같은 다양한 방식으로 구조화된 다양한 프로그래밍 언어가 채택될 수 있다. 구체적인 예에서, 제3자 애플리케이션(1040)(예를 들어, 특정 플랫폼의 벤더 이외의 엔티티에 의해 ANDROIDTM 또는 IOSTM 소프트웨어 개발 키트(SDK)를 사용하여 개발된 애플리케이션)은 IOSTM, ANDROIDTM, WINDOWS® Phone, 또는 다른 모바일 운영 체제와 같은 모바일 운영 체제 상에서 실행되는 모바일 소프트웨어일 수 있다. 이 예에서, 제3자 애플리케이션(1040)은 본 명세서에서 설명된 기능성을 용이하게 하기 위해 운영 체제(1012)에 의해 제공되는 API 호출들(1050)을 기동할 수 있다.
도 11은, 머신(1100)으로 하여금 본 명세서에서 논의된 방법론들 중 어느 하나 이상을 수행하게 야기하기 위한 명령어들(1108)(예를 들어, 소프트웨어, 프로그램, 애플리케이션, 애플릿, 앱, 또는 기타 실행가능한 코드)이 실행될 수 있는 머신(1100)의 도식적 표현이다. 예를 들어, 명령어들(1108)은 머신(1100)으로 하여금 본 명세서에 설명된 방법들 중 임의의 하나 이상을 실행하게 야기할 수 있다. 명령어들(1108)은, 일반적인 비프로그래밍된 머신(1100)을, 설명되고 예시된 기능들을 설명된 방식으로 실행하도록 프로그래밍된 특정한 머신(1100)으로 변환한다. 머신(1100)은 독립형 디바이스로서 동작하거나 또는 다른 머신들에 결합(예를 들어, 네트워크화)될 수 있다. 네트워크화된 배치에서, 머신(1100)은 서버-클라이언트 네트워크 환경에서 서버 머신 또는 클라이언트 머신의 자격으로 동작하거나, 피어-투-피어(또는 분산형) 네트워크 환경에서 피어 머신으로서 동작할 수 있다. 머신(1100)은, 서버 컴퓨터, 클라이언트 컴퓨터, 개인용 컴퓨터(PC), 태블릿 컴퓨터, 랩톱 컴퓨터, 넷북, 셋톱 박스(STB), PDA, 엔터테인먼트 미디어 시스템, 셀룰러 전화, 스마트 폰, 모바일 디바이스, 웨어러블 디바이스(예를 들어, 스마트 시계), 스마트 홈 디바이스(예를 들어, 스마트 어플라이언스), 다른 스마트 디바이스들, 웹 어플라이언스, 네트워크 라우터, 네트워크 스위치, 네트워크 브리지, 또는 머신(1100)에 의해 취해질 액션들을 특정하는 명령어들(1108)을 순차적으로 또는 다른 방식으로 실행할 수 있는 임의의 머신을 포함할 수 있지만, 이들로 제한되지 않는다. 또한, 단일 머신(1100)만이 예시되어 있지만, 용어 "머신"은 또한, 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행하기 위해 명령어들(1108)을 개별적으로 또는 공동으로 실행하는 머신들의 컬렉션을 포함하는 것으로 취해질 것이다.
머신(1100)은 버스(1144)를 통해 서로 통신하도록 구성될 수 있는 프로세서들(1102), 메모리(1104), 및 I/O 컴포넌트들(1142)을 포함할 수 있다. 예시적인 실시예에서, 프로세서들(1102)(예를 들어, CPU(Central Processing Unit), RISC(Reduced Instruction Set Computing) 프로세서, CISC(Complex Instruction Set Computing) 프로세서, GPU(Graphics Processing Unit), DSP(Digital Signal Processor), ASIC, RFIC(Radio-Frequency Integrated Circuit), 또 다른 프로세서, 또는 이들의 임의의 적절한 조합)은, 예를 들어, 명령어들(1108)을 실행하는 프로세서(1106) 및 프로세서(1110)를 포함할 수 있다. "프로세서"라는 용어는 명령어들을 동시에 실행할 수 있는 둘 이상의 독립적인 프로세서들(때때로 "코어들"이라고 지칭됨)을 포함할 수 있는 멀티-코어 프로세서를 포함하는 것으로 의도된다. 도 11이 다수의 프로세서(1102)를 도시하지만, 머신(1100)은 단일-코어를 갖는 단일 프로세서, 다수의 코어를 갖는 단일 프로세서(예를 들어, 멀티-코어 프로세서), 단일 코어를 갖는 다수의 프로세서, 다수의 코어를 갖는 다수의 프로세서, 또는 이들의 임의의 조합을 포함할 수 있다.
메모리(1104)는 메인 메모리(1112), 정적 메모리(1114), 및 저장 유닛(1116)을 포함하고, 이들 둘 다 버스(1144)를 통해 프로세서들(1102)에 액세스 가능하다. 메인 메모리(1104), 정적 메모리(1114), 및 저장 유닛(1116)은, 본 명세서에서 설명된 방법론들 또는 기능들 중 임의의 하나 이상을 구현하는 명령어들(1108)을 저장한다. 명령어들(1108)은 또한, 머신(1100)에 의한 그 실행 동안에, 완전히 또는 부분적으로, 메인 메모리(1112) 내에, 정적 메모리(1114) 내에, 저장 유닛(1116) 내의 머신 판독가능 매체(1118) 내에, 프로세서(1102)들 중 적어도 하나 내에(예를 들어, 프로세서의 캐시 메모리 내에), 또는 이들의 임의의 적절한 조합으로 상주할 수 있다.
I/O 컴포넌트들(1142)은 입력을 수신하고, 출력을 제공하고, 출력을 생성하고, 정보를 송신하고, 정보를 교환하고, 측정들을 캡처하는 등을 위한 매우 다양한 컴포넌트들을 포함할 수 있다. 특정 머신에 포함되는 특정 I/O 컴포넌트들(1142)은 머신의 타입에 의존할 것이다. 예를 들어, 모바일 폰들과 같은 휴대용 머신들은 터치 입력 디바이스 또는 다른 그러한 입력 메커니즘들을 포함할 수 있는 반면, 헤드리스 서버 머신(headless server machine)은 그러한 터치 입력 디바이스를 포함하지 않을 가능성이 클 것이다. I/O 컴포넌트들(1142)은 도 11에 도시되지 않은 많은 다른 컴포넌트들을 포함할 수 있다는 것을 알 것이다. 다양한 예시적인 실시예들에서, I/O 컴포넌트들(1142)은 출력 컴포넌트들(1128) 및 입력 컴포넌트들(1130)을 포함할 수 있다. 출력 컴포넌트들(1128)은, 시각적 컴포넌트들(예를 들어, 플라즈마 디스플레이 패널(PDP), 발광 다이오드(LED) 디스플레이, 액정 디스플레이(LCD), 프로젝터, 또는 음극선관(CRT)과 같은 디스플레이), 청각적 컴포넌트들(예를 들어, 스피커), 햅틱 컴포넌트들(예를 들어, 진동 모터, 저항 메커니즘), 다른 신호 생성기 등을 포함할 수 있다. 입력 컴포넌트들(1130)은, 영숫자 입력 컴포넌트들(예를 들어, 키보드, 영숫자 입력을 수신하도록 구성된 터치 스크린, 포토-광학 키보드, 또는 다른 영숫자 입력 컴포넌트), 포인트 기반 입력 컴포넌트들(예를 들어, 마우스, 터치패드, 트랙볼, 조이스틱, 모션 센서, 또는 다른 포인팅 기구), 촉각 입력 컴포넌트들(예를 들어, 물리적 버튼, 터치 또는 터치 제스처의 위치 및/또는 힘을 제공하는 터치 스크린, 또는 다른 촉각 입력 컴포넌트), 오디오 입력 컴포넌트들(예를 들어, 마이크로폰) 등을 포함할 수 있다.
추가의 예시적인 실시예들에서, I/O 컴포넌트들(1142)은, 광범위한 다른 컴포넌트들 중에서도, 바이오메트릭 컴포넌트들(1132), 모션 컴포넌트들(1134), 환경 컴포넌트들(1136), 또는 포지션 컴포넌트들(1138)을 포함할 수 있다. 예를 들어, 바이오메트릭 컴포넌트들(1132)은 표현들(예를 들어, 손 표현들, 얼굴 표정들, 음성 표현들, 신체 제스처들, 또는 눈 추적)을 검출하고, 생체신호들(예를 들어, 혈압, 심박수, 체온, 땀, 또는 뇌파)을 측정하고, 사람을 식별(예를 들어, 음성 식별, 망막 식별, 얼굴 식별, 지문 식별, 또는 뇌파계 기반 식별)하는 컴포넌트들 등을 포함한다. 모션 컴포넌트들(1134)은 가속도 센서 컴포넌트들(예를 들어, 가속도계), 중력 센서 컴포넌트들, 회전 센서 컴포넌트들(예를 들어, 자이로스코프) 등을 포함한다. 환경 컴포넌트들(1136)은, 예를 들어, 조명 센서 컴포넌트들(예를 들어, 광도계), 온도 센서 컴포넌트들(예를 들어, 주위 온도를 검출하는 하나 이상의 온도계), 습도 센서 컴포넌트들, 압력 센서 컴포넌트들(예를 들어, 기압계), 음향 센서 컴포넌트들(예를 들어, 배경 노이즈를 검출하는 하나 이상의 마이크로폰), 근접 센서 컴포넌트들(예를 들어, 인근 객체들을 검출하는 적외선 센서들), 가스 센서들(예를 들어, 안전을 위해 유해성 가스들의 농도들을 검출하거나 대기 내의 오염물질들을 측정하기 위한 가스 검출 센서들), 또는 주변 물리적 환경에 대응하는 지시들, 측정들, 또는 신호들을 제공할 수 있는 다른 컴포넌트들을 포함한다. 포지션 컴포넌트들(1138)은, 위치 센서 컴포넌트들(예를 들어, GPS 수신기 컴포넌트), 고도 센서 컴포넌트들(예를 들어, 고도계 또는 고도가 도출될 수 있는 기압을 검출하는 기압계), 방위 센서 컴포넌트들(예를 들어, 자력계) 등을 포함한다.
통신은 매우 다양한 기술을 사용하여 구현될 수 있다. I/O 컴포넌트들(1142)은 제각기 머신(1100)을 결합(1124) 및 결합(1126)을 통해 네트워크(1120) 또는 디바이스들(1122)에 결합하도록 동작가능한 통신 컴포넌트들(1140)을 추가로 포함한다. 예를 들어, 통신 컴포넌트들(1140)은 네트워크 인터페이스 컴포넌트, 또는 네트워크(1120)와 인터페이스하기에 적합한 또 다른 디바이스를 포함할 수 있다. 추가 예들에서, 통신 컴포넌트(1140)는, 유선 통신 컴포넌트들, 무선 통신 컴포넌트들, 셀룰러 통신 컴포넌트들, NFC(Near Field Communication) 컴포넌트들, Bluetooth® 컴포넌트들(예를 들어, Bluetooth® Low Energy), Wi-Fi® 컴포넌트들, 및 다른 양태를 통해 통신을 제공하는 기타의 통신 컴포넌트들을 포함할 수 있다. 디바이스들(1122)은 또 다른 머신 또는 매우 다양한 주변 디바이스들(예를 들어, USB를 통해 결합된 주변 디바이스) 중 임의의 것일 수 있다.
또한, 통신 컴포넌트들(1140)은 식별자들을 검출할 수 있거나 식별자들을 검출하도록 동작가능한 컴포넌트들을 포함할 수 있다. 예를 들어, 통신 컴포넌트들(1140)은 RFID(Radio Frequency Identification) 태그 판독기 컴포넌트들, NFC 스마트 태그 검출 컴포넌트들, 광학 판독기 컴포넌트들(예를 들어, UPC(Universal Product Code) 바코드와 같은 1차원 바코드들, QR(Quick Response) 코드와 같은 다차원 바코드들, Aztec 코드, Data Matrix, Dataglyph, MaxiCode, PDF417, Ultra Code, UCC RSS-2D 바코드, 및 다른 광학 코드들을 검출하는 광학 센서), 또는 음향 검출 컴포넌트들(예를 들어, 태깅된 오디오 신호들을 식별하는 마이크로폰들)을 포함할 수 있다. 또한, 인터넷 프로토콜(IP) 지오로케이션을 통한 위치, Wi-Fi® 신호 삼각측량을 통한 위치, 특정 위치를 나타낼 수 있는 NFC 비컨 신호를 검출하는 것을 통한 위치 등과 같은 다양한 정보가 통신 컴포넌트들(1140)을 통해 도출될 수 있다.
다양한 메모리들(예를 들어, 메모리(1104), 메인 메모리(1112), 정적 메모리(1114), 및/또는 프로세서들(1102)의 메모리) 및/또는 저장 유닛(1116)은 본 명세서에 설명된 방법론들 또는 기능들 중 임의의 하나 이상을 구현하거나 그에 의해 사용되는 명령어들 및 데이터 구조들(예를 들어, 소프트웨어)의 하나 이상의 세트를 저장할 수 있다. 이러한 명령어들(예를 들어, 명령어들(1108))은 프로세서들(1102)에 의해 실행될 때 다양한 동작으로 하여금 개시된 실시예들을 구현하게 야기한다.
명령어들(1108)은 네트워크 인터페이스 디바이스(예를 들어, 통신 컴포넌트들(1140)에 포함된 네트워크 인터페이스 컴포넌트)를 통해, 그리고 다수의 잘 알려진 전송 프로토콜들(예를 들어, HTTP(hypertext transfer protocol)) 중 어느 하나를 사용하여, 송신 매체를 사용하여, 네트워크(1120)를 통해 송신되거나 수신될 수 있다. 유사하게, 명령어들(1108)은 디바이스들(1122)에 대한 결합(1126)(예를 들어, 피어-투-피어 결합)을 통해 송신 매체를 사용하여 송신되거나 수신될 수 있다.
본 명세서에서 사용되는 바와 같이, "머신-저장 매체", "디바이스-저장 매체", "컴퓨터-저장 매체"라는 용어들은 동일한 것을 의미하고 본 개시내용에서 상호교환가능하게 사용될 수 있다. 이러한 용어들은 실행가능한 명령어들 및/또는 데이터를 저장하는 단일 또는 다수의 저장 디바이스 및/또는 매체(예를 들어, 중앙집중형 또는 분산형 데이터베이스, 및/또는 연관된 캐시들 및 서버들)를 지칭한다. 따라서, 용어들은, 솔리드 스테이트 메모리들, 및 프로세서들 내부 또는 외부의 메모리를 포함하는 광학 및 자기 매체들을 포함하지만, 이에 제한되지 않는 것으로 취해져야 한다. 머신-저장 매체, 컴퓨터-저장 매체 및/또는 디바이스-저장 매체의 특정 예들은, 예로서 반도체 메모리 디바이스들, 예를 들어, EPROM(erasable programmable read-only memory), EEPROM(electrically erasable programmable read-only memory), FPGA, 및 플래시 메모리 디바이스들을 포함하는 비휘발성 메모리; 내부 하드 디스크들 및 이동식 디스크들과 같은 자기 디스크들; 광자기 디스크들; 및 CD-ROM 및 DVD-ROM 디스크들을 포함한다. 용어들 "머신-저장 매체", "컴퓨터-저장 매체", 및 "디바이스-저장 매체"은 구체적으로 반송파들, 변조된 데이터 신호들, 및 다른 그러한 매체들을 제외하며, 이들 중 적어도 일부는 이하에서 논의되는 용어 "신호 매체" 하에서 커버된다.
"송신 매체" 및 "신호 매체"라는 용어들은 동일한 것을 의미하고 본 개시내용에서 상호교환가능하게 사용될 수 있다. "송신 매체" 및 "신호 매체"라는 용어들은, 머신(1400)에 의한 실행을 위한 명령어들(1416)을 저장, 인코딩, 또는 운반하는 것이 가능한 임의의 무형적(intangible) 매체를 포함하고 그러한 소프트웨어의 통신을 용이하게 하기 위한 디지털 또는 아날로그 통신 신호들 또는 다른 무형적 매체를 포함하는 것으로 취해질 것이다. 따라서, "송신 매체" 및 "신호 매체"라는 용어들은 임의의 형태의 변조된 데이터 신호, 반송파 등을 포함하는 것으로 취해질 것이다. "변조된 데이터 신호"라는 용어는 신호 내의 정보를 인코딩하는 방식으로 설정 또는 변경된 특성들 중 하나 이상을 갖는 신호를 의미한다.
용어들 "머신 판독가능 매체", "컴퓨터 판독가능 매체" 및 "디바이스 판독가능 매체"는 동일한 것을 의미하고, 본 개시내용에서 상호교환가능하게 사용될 수 있다. 그 용어들은 머신-저장 매체 및 송신 매체 둘 모두를 포함하도록 정의된다. 따라서, 용어들은 저장 디바이스들/매체 및 반송파들/변조된 데이터 신호들 둘 다를 포함한다.
특정 예시적인 실시예들을 참조하여 실시예가 설명되었지만, 본 개시내용의 더 넓은 범위를 벗어나지 않고 이러한 실시예들에 대해 다양한 수정들 및 변경들이 이루어질 수 있음이 명백할 것이다. 따라서, 명세서 및 도면들은 제한적인 의미가 아니라 예시적인 것으로 간주되어야 한다. 그 일부를 형성하는 첨부 도면들은, 본 발명의 주제가 실시될 수 있는 특정 실시예들을, 제한이 아닌, 예시로서 도시한다. 예시된 실시예들은 본 기술분야의 통상의 기술자들이 본 명세서에 개시된 교시를 실시할 수 있게 하기 위해 충분히 상세히 기술되어 있다. 본 개시내용의 범위로부터 벗어나지 않고 구조적 및 논리적 치환과 변경이 이루어질 수 있도록 하는 다른 실시예들이 이용될 수 있고 본 개시내용으로부터 도출될 수 있다. 따라서, 상세한 설명은 제한적인 의미로 취해져서는 안되며, 다양한 실시예들의 범위는 첨부된 청구항들과 그러한 청구항들이 부여된 균등물의 전체 범위에 의해서만 정의된다.
본 주제의 이러한 실시예들은 본 명세서에서 "발명"이라는 용어로 개별적으로 및/또는 종합적으로 지칭될 수 있으나, 단지 편리함을 위해서이며, 실질적으로 개시된 것보다 많은 경우라도 임의의 단일 발명 또는 본 발명의 사상에 대해 본 출원의 범위를 자발적으로 제한하려는 의도가 아니다. 따라서, 특정 실시예들이 본 명세서에 예시되고 기술되어 있지만, 동일한 목적을 달성하기 위해 계산된 임의의 배열이 도시된 특정 실시예들을 대체할 수 있다는 것을 잘 알 것이다. 본 개시내용은 다양한 실시예들의 모든 개조들 또는 변형들을 포함하는 것으로 보아야 한다. 상기의 실시예들 및 본 명세서에서 구체적으로 설명되지 않은 그외의 실시예들의 조합들은 상기의 설명을 검토할 때 본 기술분야의 통상의 기술자들에게 명백할 것이다.
본 개시내용의 요약은 독자가 본 기술적 개시내용의 속성을 신속하게 알아내는 것을 허용하기 위해 제공된다. 그것은 청구항들의 범위 또는 의미를 해석하거나 제한하기 위해 이용되지는 않을 것이라는 이해하에 제시된다. 그에 부가하여, 전술한 상세한 설명에서는, 본 개시내용을 간소화하기 위해 다양한 특징들이 단일의 실시예에 함께 그룹화되어 있다는 것을 알 수 있다. 개시내용의 이러한 방법은 청구된 실시예들이 각각의 청구항에 명백하게 인용되는 것 보다 많은 특징들을 요구한다는 의도를 반영하는 것으로서 해석되지 않아야 한다. 오히려, 이하의 청구항들이 반영하고 있는 바와 같이, 본 주제가 단일의 개시된 실시예의 특징들 전부가 아닌 일부에 있다. 따라서, 이하의 청구항들은 이에 따라 상세한 설명에 포함되며, 각각의 청구항은 그 자체로서 개별적인 실시예로서의 지위를 갖는다.
예들
주제의 설명된 구현들은 하나 이상의 특징을 예로서 아래에 예시된 바와 같이 단독으로 또는 조합하여 포함할 수 있다.
예 1은 증강 현실(AR) 디바이스의 제1 자세에 기초하여 생성되는 제1 프레임에서 렌더링된 가상 객체를 식별하는 단계, AR 디바이스의 제2 자세를 결정하는 단계- 제2 자세는 제1 자세에 후속함 -, 제1 프레임에서 렌더링된 가상 객체 및 제2 자세에 기초하여 제2 프레임에서 증강 영역을 식별하는 단계, 제2 프레임에서의 증강 영역에 대해서만 깊이 정보를 결정하는 단계, 및 깊이 정보에 기초하여 제2 프레임에서 가상 객체를 렌더링하는 단계를 포함하는 방법이다.
예 2는 예 1의 방법을 포함하고, 여기서 증강 영역은 제1 프레임에서의 가상 객체의 위치에 기초하는 것이다.
예 3은 예 1의 방법을 포함하고, 여기서 가상 객체는 제2 프레임에서의 증강 영역에 렌더링된다.
예 4는 예 1의 방법을 포함하고, 여기서 제2 자세는 6자유도(6DOF) 추적기로부터 결정된다.
예 5는 예 4의 방법을 포함하고, 여기서 6DOF 추적기는 VIO(visual-inertial odometry) 시스템 또는 SLAM 시스템을 포함한다.
예 6은 예 1의 방법을 포함하고, 여기서 제2 자세를 결정하는 단계는: AR 디바이스로부터 최신 IMU 데이터에 액세스하는 단계; 및 최신 IMU 데이터 및 제1 자세에 기초하여 제2 자세를 예측하는 단계를 포함한다.
예 7은 예 1의 방법을 포함하고, 여기서 깊이 정보를 결정하는 단계는: AR 디바이스의 깊이 센서에 액세스하는 단계를 포함하고, 깊이 센서는 구조화된 광 센서, 비행 시간 센서, 수동 스테레오 센서, 및 초음파 디바이스 중 적어도 하나를 포함한다.
예 8은 예 7의 방법을 포함하고, 깊이 감지를 상기 증강 영역으로 제한하도록 깊이 센서의 설정을 구성하는 단계를 추가로 포함한다.
예 9는 예 1의 방법을 포함하고, 여기서 깊이 정보를 결정하는 단계는: 단안 이미지 또는 3D 재구성된 장면에 기초하여 깊이를 계산하는 단계를 포함한다.
예 10은 예 1의 방법을 포함하고, 여기서 제2 프레임에서 증강 영역을 식별하는 단계는: 제1 자세와 제2 자세 사이의 차이에 기초하여 또는 가상 객체의 모션에 기초하여 렌더링된 가상 객체의 제1 프레임으로부터 제2 프레임으로의 워핑 변환을 적용하는 단계; 및 워핑 변환으로부터 증강 영역을 정의하는 단계를 포함한다.
예 11은 프로세서; 및 명령어들을 저장한 메모리를 포함하고, 명령어들은, 프로세서에 의해 실행될 때, 장치가: 증강 현실(AR) 디바이스의 제1 자세에 기초하여 생성되는 제1 프레임에서 렌더링된 가상 객체를 식별하고; AR 디바이스의 제2 자세를 결정하고- 제2 자세는 제1 자세에 후속함 -; 제1 프레임에서 렌더링된 가상 객체, 및 제2 자세에 기초하여 제2 프레임에서 증강 영역을 식별하고; 제2 프레임에서의 증강 영역에 대해서만 깊이 정보를 결정하고; 깊이 정보에 기초하여 제2 프레임에서 가상 객체를 렌더링하도록 구성되는 컴퓨팅 장치이다.
예 12는 예 11의 컴퓨팅 장치를 포함하고, 여기서 증강 영역은 제1 프레임에서의 가상 객체의 위치에 기초하는 것이다.
예 13은 예 11의 컴퓨팅 장치를 포함하고, 여기서 가상 객체는 제2 프레임에서의 증강 영역에 렌더링된다.
예 14는 예 11의 컴퓨팅 장치를 포함하고, 여기서 제2 자세는 6자유도(6DOF) 추적기로부터 결정된다.
예 15는 예 14의 컴퓨팅 장치를 포함하고, 여기서 6DOF 추적기는 VIO(visual-inertial odometry) 시스템 또는 SLAM 시스템을 포함한다.
예 16은 예 11의 컴퓨팅 장치를 포함하고, 여기서 제2 자세를 결정하는 것은: AR 디바이스로부터 최신 IMU 데이터에 액세스하는 것; 및 최신 IMU 데이터 및 제1 자세에 기초하여 제2 자세를 예측하는 것을 포함한다.
예 17은 예 11의 컴퓨팅 장치를 포함하고, 여기서 깊이 정보를 결정하는 것은: AR 디바이스의 깊이 센서에 액세스하는 것을 포함하고, 깊이 센서는 구조화된 광 센서, 비행 시간 센서, 수동 스테레오 센서, 및 초음파 디바이스 중 적어도 하나를 포함한다.
예 18은 예 17의 컴퓨팅 장치를 포함하고, 여기서 명령어들은: 깊이 감지를 증강 영역으로 제한하기 위해 깊이 센서의 설정을 구성하도록 장치를 추가로 구성한다.
예 19는 예 11의 컴퓨팅 장치를 포함하고, 여기서 깊이 정보를 결정하는 것은: 단안 이미지 또는 3D 재구성된 장면에 기초하여 깊이를 계산하는 것을 포함한다.
예 20은 비일시적 컴퓨터 판독가능 저장 매체이고, 이 컴퓨터 판독가능 저장 매체는 컴퓨터에 의해 실행될 때, 컴퓨터로 하여금: 증강 현실(AR) 디바이스의 제1 자세에 기초하여 생성되는 제1 프레임에서 렌더링된 가상 객체를 식별하게 하고; AR 디바이스의 제2 자세를 결정하게 하고- 제2 자세는 제1 자세에 후속함 -; 제1 프레임에서 렌더링된 가상 객체 및 제2 자세에 기초하여 제2 프레임에서 증강 영역을 식별하게 하고; 제2 프레임에서의 증강 영역에 대해서만 깊이 정보를 결정하게 하고; 깊이 정보에 기초하여 제2 프레임에서 가상 객체를 렌더링하게 하는 명령어들을 포함한다.

Claims (20)

  1. 방법으로서,
    증강 현실(AR) 디바이스의 제1 자세에 기초하여 생성되는 제1 프레임에서 렌더링된 가상 객체를 식별하는 단계;
    상기 AR 디바이스의 제2 자세를 결정하는 단계- 상기 제2 자세는 상기 제1 자세에 후속함 -;
    상기 제1 프레임에서 렌더링된 상기 가상 객체, 및 상기 제2 자세에 기초하여 상기 제2 프레임에서 증강 영역을 식별하는 단계;
    상기 제2 프레임에서의 상기 증강 영역에 대해서만 깊이 정보를 결정하는 단계; 및
    상기 깊이 정보에 기초하여 상기 제2 프레임에서 상기 가상 객체를 렌더링하는 단계를 포함하는 방법.
  2. 제1항에 있어서,
    상기 증강 영역은 상기 제1 프레임에서의 상기 가상 객체의 위치에 기초하는 것인 방법.
  3. 제1항에 있어서,
    상기 가상 객체는 상기 제2 프레임에서의 증강 영역에 렌더링되는 방법.
  4. 제1항에 있어서,
    상기 제2 자세는 6자유도(6DOF) 추적기로부터 결정되는 방법.
  5. 제4항에 있어서,
    상기 6DOF 추적기는 VIO(visual-inertial odometry) 시스템 또는 SLAM 시스템을 포함하는 방법.
  6. 제1항에 있어서,
    상기 제2 자세를 결정하는 단계는:
    상기 AR 디바이스로부터 최신 IMU 데이터에 액세스하는 단계; 및
    상기 최신 IMU 데이터 및 상기 제1 자세에 기초하여 상기 제2 자세를 예측하는 단계를 포함하는 방법.
  7. 제1항에 있어서,
    상기 깊이 정보를 결정하는 단계는:
    상기 AR 디바이스의 깊이 센서에 액세스하는 단계- 상기 깊이 센서는 구조화된 광 센서, 비행 시간 센서, 수동 스테레오 센서, 및 초음파 디바이스 중 적어도 하나를 포함함 -를 포함하는 방법.
  8. 제7항에 있어서,
    깊이 감지를 상기 증강 영역으로 제한하도록 상기 깊이 센서의 설정을 구성하는 단계를 추가로 포함하는 방법.
  9. 제1항에 있어서,
    상기 깊이 정보를 결정하는 단계는:
    단안 이미지 또는 3D 재구성된 장면에 기초하여 깊이를 계산하는 단계를 포함하는 방법.
  10. 제1항에 있어서,
    상기 제2 프레임에서 상기 증강 영역을 식별하는 단계는:
    상기 제1 자세와 상기 제2 자세 사이의 차이에 기초하여 또는 상기 가상 객체의 모션에 기초하여 상기 렌더링된 가상 객체의 상기 제1 프레임으로부터 상기 제2 프레임으로의 워핑 변환(warping transformation)을 적용하는 단계; 및
    상기 워핑 변환으로부터 상기 증강 영역을 정의하는 단계를 포함하는 방법.
  11. 컴퓨팅 장치로서,
    프로세서; 및
    명령어들을 저장한 메모리를 포함하고, 상기 명령어들은, 상기 프로세서에 의해 실행될 때, 상기 장치가:
    증강 현실(AR) 디바이스의 제1 자세에 기초하여 생성되는 제1 프레임에서 렌더링된 가상 객체를 식별하고;
    상기 AR 디바이스의 제2 자세를 결정하고- 상기 제2 자세는 상기 제1 자세에 후속함 -;
    상기 제1 프레임에서 렌더링된 상기 가상 객체, 및 상기 제2 자세에 기초하여 상기 제2 프레임에서 증강 영역을 식별하고;
    상기 제2 프레임에서의 상기 증강 영역에 대해서만 깊이 정보를 결정하고;
    상기 깊이 정보에 기초하여 상기 제2 프레임에서 상기 가상 객체를 렌더링하도록 구성되는 컴퓨팅 장치.
  12. 제11항에 있어서,
    상기 증강 영역은 상기 제1 프레임에서의 상기 가상 객체의 위치에 기초하는 것인 컴퓨팅 장치.
  13. 제11항에 있어서,
    상기 가상 객체는 상기 제2 프레임에서의 상기 증강 영역에 렌더링되는 컴퓨팅 장치.
  14. 제11항에 있어서,
    상기 제2 자세는 6자유도(6DOF) 추적기로부터 결정되는 컴퓨팅 장치.
  15. 제14항에 있어서,
    상기 6DOF 추적기는 VIO(visual-inertial odometry) 시스템 또는 SLAM 시스템을 포함하는 컴퓨팅 장치.
  16. 제11항에 있어서,
    상기 제2 자세를 결정하는 것은:
    상기 AR 디바이스로부터 최신 IMU 데이터에 액세스하는 것; 및
    상기 최신 IMU 데이터 및 상기 제1 자세에 기초하여 상기 제2 자세를 예측하는 것을 포함하는 컴퓨팅 장치.
  17. 제11항에 있어서,
    상기 깊이 정보를 결정하는 것은:
    상기 AR 디바이스의 깊이 센서에 액세스하는 것- 상기 깊이 센서는 구조화된 광 센서, 비행 시간 센서, 수동 스테레오 센서, 및 초음파 디바이스 중 적어도 하나를 포함함 -을 포함하는 컴퓨팅 장치.
  18. 제17항에 있어서,
    상기 명령어들은 상기 장치가:
    깊이 감지를 상기 증강 영역으로 제한하게 상기 깊이 센서의 설정을 구성하도록 추가로 구성하는 컴퓨팅 장치.
  19. 제11항에 있어서,
    상기 깊이 정보를 결정하는 것은:
    단안 이미지 또는 3D 재구성된 장면에 기초하여 깊이를 계산하는 것을 포함하는 컴퓨팅 장치.
  20. 비일시적 컴퓨터 판독가능 저장 매체로서,
    상기 컴퓨터 판독가능 저장 매체는 명령어들을 포함하고, 상기 명령어들은, 컴퓨터에 의해 실행될 때, 상기 컴퓨터로 하여금:
    증강 현실(AR) 디바이스의 제1 자세에 기초하여 생성되는 제1 프레임에서 렌더링된 가상 객체를 식별하게 하고;
    상기 AR 디바이스의 제2 자세를 결정하게 하고- 상기 제2 자세는 상기 제1 자세에 후속함 -;
    상기 제1 프레임에서 렌더링된 상기 가상 객체, 및 상기 제2 자세에 기초하여 상기 제2 프레임에서 증강 영역을 식별하게 하고;
    상기 제2 프레임에서의 상기 증강 영역에 대해서만 깊이 정보를 결정하게 하고;
    상기 깊이 정보에 기초하여 상기 제2 프레임에서 상기 가상 객체를 렌더링하게 하는 비일시적 컴퓨터 판독가능 저장 매체.
KR1020237042783A 2021-05-18 2022-05-13 증강 현실 안내식 깊이 추정 KR20240007245A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163189980P 2021-05-18 2021-05-18
US63/189,980 2021-05-18
US17/529,527 2021-11-18
US17/529,527 US20220375110A1 (en) 2021-05-18 2021-11-18 Augmented reality guided depth estimation
PCT/US2022/029183 WO2022245649A1 (en) 2021-05-18 2022-05-13 Augmented reality guided depth estimation

Publications (1)

Publication Number Publication Date
KR20240007245A true KR20240007245A (ko) 2024-01-16

Family

ID=82358486

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237042783A KR20240007245A (ko) 2021-05-18 2022-05-13 증강 현실 안내식 깊이 추정

Country Status (3)

Country Link
EP (1) EP4341786A1 (ko)
KR (1) KR20240007245A (ko)
WO (1) WO2022245649A1 (ko)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140192164A1 (en) * 2013-01-07 2014-07-10 Industrial Technology Research Institute System and method for determining depth information in augmented reality scene
CN117590582A (zh) * 2019-04-11 2024-02-23 三星电子株式会社 头戴式显示设备及其操作方法

Also Published As

Publication number Publication date
EP4341786A1 (en) 2024-03-27
WO2022245649A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
US20220375110A1 (en) Augmented reality guided depth estimation
KR20240009993A (ko) 멀티레벨 특징 추적을 위한 직접 스케일 레벨 선택
US11615506B2 (en) Dynamic over-rendering in late-warping
US20240176428A1 (en) Dynamic initialization of 3dof ar tracking system
KR20240007678A (ko) 노출 및 iso 관련 애플리케이션의 동적 조정
KR20240008915A (ko) 모션 블러 완화를 위한 선택적 이미지 피라미드 계산
US20240029197A1 (en) Dynamic over-rendering in late-warping
US12008155B2 (en) Reducing startup time of augmented reality experience
US12014523B2 (en) Intrinsic parameters estimation in visual tracking systems
US11983897B2 (en) Camera intrinsic re-calibration in mono visual tracking system
US11683585B2 (en) Direct scale level selection for multilevel feature tracking under motion blur
KR20240007245A (ko) 증강 현실 안내식 깊이 추정
US20230267691A1 (en) Scene change detection with novel view synthesis
US20230401796A1 (en) Fast ar device pairing using depth predictions
US11941184B2 (en) Dynamic initialization of 3DOF AR tracking system
US20240221212A1 (en) Device pairing using machine-readable optical label
US20240127006A1 (en) Sign language interpretation with collaborative agents
CN117321546A (zh) 增强现实引导的深度估计
KR20240008370A (ko) 움직이는 객체들의 레이턴시를 최소화하기 위한 늦은 워핑
WO2023239776A1 (en) Fast ar device pairing using depth predictions
WO2024145124A1 (en) Device pairing using machine-readable optical label
WO2024137521A1 (en) Augmented reality ergonomics evaluation system
CN117321472A (zh) 进行后期扭曲以最小化移动对象的延迟
CN117425869A (zh) 后期扭曲中的动态过度渲染