KR20240006669A - 늦은-워핑에서의 동적 오버-렌더링 - Google Patents

늦은-워핑에서의 동적 오버-렌더링 Download PDF

Info

Publication number
KR20240006669A
KR20240006669A KR1020237042785A KR20237042785A KR20240006669A KR 20240006669 A KR20240006669 A KR 20240006669A KR 1020237042785 A KR1020237042785 A KR 1020237042785A KR 20237042785 A KR20237042785 A KR 20237042785A KR 20240006669 A KR20240006669 A KR 20240006669A
Authority
KR
South Korea
Prior art keywords
rendered
over
pose
display device
warp
Prior art date
Application number
KR1020237042785A
Other languages
English (en)
Inventor
베른하르트 융
에드워드 리 킴-쿤
Original Assignee
스냅 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/530,242 external-priority patent/US11615506B2/en
Application filed by 스냅 인코포레이티드 filed Critical 스냅 인코포레이티드
Publication of KR20240006669A publication Critical patent/KR20240006669A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

AR 디바이스에서 디스플레이의 오버-렌더링된 영역을 조정하기 위한 방법이 설명된다. 방법은 디스플레이 디바이스의 각속도, 디스플레이 디바이스의 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들을 식별하는 단계, 및 각속도, 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들의 조합에 기초하여 동적 오버-렌더링된 영역의 크기를 조정하는 단계를 포함한다.

Description

늦은-워핑에서의 동적 오버-렌더링
본 출원은 2021년 5월 18일자로 출원된 미국 가특허 출원 제63/189,928호에 대한 우선권을 주장하는 2021년 11월 18일자로 출원된 미국 특허 출원 제17/530,242호에 대한 우선권을 주장하며, 이들 각각은 참조 문헌으로서 그 전체 내용이 본 명세서에 포함된다.
본 명세서에 개시된 주제는 일반적으로 디스플레이 시스템에 관한 것이다. 구체적으로, 본 개시내용은 증강 현실(AR) 디바이스들에서 모션-대-광자 레이턴시(motion-to-photon latency)를 감소시키기 위한 시스템들 및 방법들을 다룬다.
증강 현실(AR) 시스템들은 사용자의 현실 세계 환경을 증강시키기 위해 가상 콘텐츠를 제시한다. 예를 들어, 물리적 객체 위에 오버레이된 가상 콘텐츠는 물리적 객체가 움직이고 있고, 애니메이션화되어 있다는 등의 착시를 생성하는데 사용될 수 있다. 사용자가 착용한 AR 디바이스는 사용자의 움직임들에 기초하여 가상 콘텐츠의 제시를 계속 업데이트하여 가상 콘텐츠가 사용자의 현실 세계 환경에 물리적으로 존재한다는 착시를 생성한다. 예를 들어, 사용자가 자신의 머리를 움직일 때, AR 디바이스는 가상 콘텐츠의 제시를 업데이트하여 가상 콘텐츠가 사용자의 현실 세계 환경 내에서 동일한 지리적 포지션에 남아 있다는 착시를 생성한다. 따라서, 사용자는 사용자가 물리적 객체 주위를 움직이는 것과 동일한 방식으로 AR 디바이스에 의해 제시된 가상 객체 주위로 이동할 수 있다.
가상 객체가 사용자의 현실 세계 환경에 있다는 착시를 설득력 있게 생성하기 위해, AR 디바이스는 디바이스의 움직임에 대해 거의 순간적으로 가상 객체의 제시를 업데이트해야 한다. 그러나, AR 디바이스가 환경 데이터를 처리하고, 가상 콘텐츠를 렌더링한 다음, 가상 콘텐츠를 투영해야 하기 때문에, 가상 콘텐츠는 업데이트되는데 더 긴 시간이 걸릴 수 있다. 이 프로세스는 물리적 객체가 AR 디바이스에 의해 추적되는 시간과 렌더링된 가상 객체가 AR 디바이스의 디스플레이에 디스플레이되는 시간 사이의 레이턴시를 생성한다. 이 레이턴시는 "모션-대-광자 레이턴시(motion-to-photon latency)"라고도 지칭된다. 임의의 인지가능한 모션-대-광자 레이턴시는 사용자의 경험을 감소시킨다.
임의의 특정 요소 또는 액트(act)의 논의를 용이하게 식별하기 위해, 참조 번호에서 최상위 숫자 또는 숫자들은 그 요소가 처음 도입되는 도면 번호를 지칭한다.
도 1은 일 예시적인 실시예에 따른 AR 디바이스를 동작시키기 위한 환경을 예시하는 블록도이다.
도 2는 일 예시적인 실시예에 따른 AR/VR 디스플레이 디바이스를 예시하는 블록도이다.
도 3은 일 예시적인 실시예에 따른 시각적 추적 시스템을 예시하는 블록도이다.
도 4는 일 예시적인 실시예에 따른 디스플레이 제어기를 예시하는 블록도이다.
도 5는 일 예시적인 실시예에 따른 동적 오버-렌더링 모듈을 예시하는 블록도이다.
도 6은 일 예시적인 실시예에 따른 동적 오버-렌더링 프로세스를 예시하는 블록도이다.
도 7은 일 예시적인 실시예에 따른 동적 오버-렌더링을 위한 프로세스를 예시하는 흐름도이다.
도 8은 일 예시적인 실시예에 따른 동적 오버-렌더링 영역의 예를 예시한다.
도 9는 일 예시적인 실시예에 따른 동적 오버-렌더링 영역들의 예를 예시한다.
도 10은 일 예시적인 실시예에 따른 동적 오버-렌더링된 영역에서 이미지를 렌더링하기 위한 방법을 예시하는 흐름도이다.
도 11은 일 예시적인 실시예에 따른 동적 오버-렌더링된 영역에서 이미지를 렌더링하기 위한 방법을 예시하는 흐름도이다.
도 12는 일 예시적인 실시예에 따라 헤드-웨어러블 디바이스가 구현될 수 있는 네트워크 환경을 예시한다.
도 13은 예시적인 실시예에 따른, 본 개시내용이 구현될 수 있는 소프트웨어 아키텍처를 도시하는 블록도이다.
도 14는 일 예시적인 실시예에 따른, 머신으로 하여금 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행하게 야기하기 위한 명령어들의 세트가 실행될 수 있는 컴퓨터 시스템 형태의 머신의 도식적 표현이다.
이하의 설명은 본 주제의 예시적인 실시예들을 예시하는 시스템들, 방법들, 기법들, 명령어 시퀀스들, 및 컴퓨팅 머신 프로그램 제품들을 설명한다. 이하의 설명에서는, 설명의 목적으로, 본 주제의 다양한 실시예들의 이해를 제공하기 위해 수많은 특정 세부사항들이 제시된다. 그러나, 본 기술분야의 통상의 기술자들에게는, 본 주제의 실시예들이 이러한 특정 세부사항들 중 일부 또는 다른 것이 없어도 실시될 수 있다는 것이 명백할 것이다. 예들은 가능한 변형들을 단지 유형화한다. 명시적으로 달리 언급되지 않는 한, 구조들(예를 들어, 모듈들과 같은 구조적 컴포넌트들)은 선택적이고, 조합되거나 세분될 수 있으며, (예를 들어, 절차, 알고리즘, 또는 다른 기능에서의) 동작들은 시퀀스가 변하거나 조합되거나 세분될 수 있다.
"증강 현실(augmented reality)"(AR)이라는 용어는, 본 명세서에서, 현실 세계에 존재하는 물리적 객체들이 컴퓨터-생성 디지털 콘텐츠(가상 콘텐츠 또는 합성 콘텐츠라고도 지칭됨)에 의해 "증강" 또는 강화되는 현실 세계 환경의 상호작용 경험을 지칭하는데 사용된다. AR은 또한 현실 및 가상 세계들의 조합, 실시간 상호작용, 및 가상 및 실제 객체들의 3D 등록을 가능하게 하는 시스템을 지칭할 수 있다. AR은 가상 콘텐츠가 사용자의 현실 세계 환경에 물리적으로 존재하고, 사용자의 현실 세계 환경에 부착되거나 그와 상호작용하는 것으로 보인다는 착시를 생성한다.
용어 "가상 현실"(VR)은 본 명세서에서 현실 세계 환경과 완전히 구별되는 가상 세계 환경의 시뮬레이션 경험을 지칭하는데 사용된다. 컴퓨터-생성 디지털 콘텐츠는 가상 세계 환경에서 디스플레이된다. VR은 또한 VR 시스템의 사용자가 가상 세계 환경에 완전히 몰입되고 가상 세계 환경에 제시된 가상 객체들과 상호작용할 수 있게 하는 시스템을 지칭한다.
용어 "AR 애플리케이션"은 본 명세서에서 AR 경험을 가능하게 하는 컴퓨터-동작형 애플리케이션을 지칭하는데 사용된다. 용어 "VR 애플리케이션"은 본 명세서에서 VR 경험을 가능하게 하는 컴퓨터-동작형 애플리케이션을 지칭하는데 사용된다. 용어 "AR/VR 애플리케이션"은 AR 경험 또는 VR 경험의 조합을 가능하게 하는 컴퓨터-동작형 애플리케이션을 지칭한다.
용어 "AR 디스플레이 디바이스"("AR 디바이스"라고도 지칭됨)는 본 명세서에서 AR 애플리케이션을 동작시키는 컴퓨팅 디바이스를 지칭하는데 사용된다. 용어 "VR 디스플레이 디바이스"("VR 디바이스"라고도 치칭됨)는 본 명세서에서 VR 애플리케이션을 동작시키는 컴퓨팅 디바이스를 지칭하는데 사용된다. 용어 "AR/VR 디스플레이 디바이스"("AR/VR 디바이스"라고도 지칭됨)는 본 명세서에서 AR 애플리케이션과 VR 애플리케이션의 조합을 동작시키는 컴퓨팅 디바이스를 지칭하는데 사용된다.
용어 "시각적 추적 시스템"("시각적 추적 디바이스"라고도 지칭됨)은 본 명세서에서 시각적 추적 시스템의 하나 이상의 카메라에 의해 캡처된 이미지들에서 식별된 시각적 특징들을 추적하는 컴퓨터-동작형 애플리케이션을 지칭하기 위해 사용된다. 시각적 추적 시스템은 추적된 시각적 특징들에 기초하여 현실 세계 환경의 모델을 구축한다. 시각적 추적 시스템의 비-제한적인 예들은: VSLAM(visual Simultaneous Localization and Mapping system), 및 VIO(Visual Inertial Odometry) 시스템을 포함한다. VSLAM은 시각적 추적 시스템의 하나 이상의 카메라에 기초하여 환경 또는 장면으로부터 타깃을 구축하는데 사용될 수 있다. VIO(시각적-관성 추적이라고도 지칭됨)는 그 복수의 센서(예를 들어, 광학 센서, 관성 센서)로부터 취득된 데이터에 기초하여 디바이스의 가장 최근 자세(예를 들어, 포지션 및 오리엔테이션)를 결정한다.
본 명세서에서 "관성 측정 유닛(IMU)"이라는 용어는 이동체의 가속도, 속도, 오리엔테이션 및 포지션을 포함하는 이동체의 관성 상태에 대해 보고할 수 있는 디바이스를 지칭하는데 사용된다. IMU는 IMU에 의해 측정된 가속도 및 각속도를 적분함으로써 신체의 움직임의 추적을 가능하게 한다. IMU는 또한 선형 가속도 및 각속도를 각각 결정하고 정량화할 수 있는 가속도계들 및 자이로스코프들의 조합을 지칭할 수 있다. IMU의 자이로스코프들로부터 획득된 값들을 처리하여 IMU의 피치, 롤, 및 헤딩(heading)을 획득하고, 따라서 IMU가 연관되는 신체의 것도 획득할 수 있다. IMU의 가속도계들로부터의 신호들도 처리하여 IMU의 속도 및 변위를 획득할 수 있다.
용어 "모션-대-광자 레이턴시(motion-to-photon latency)"(M2P 레이턴시)는 본 명세서에서 사용자가 시각적 추적 디바이스를 이동시키는 것과 그 특정 모션에 적응하는 가상 콘텐츠의 제시 사이의 지속기간을 지칭하는데 사용된다. 모션-대-광자 레이턴시는 또한 AR 디바이스에서 가상 콘텐츠를 제시하는 것과 연관된 레이턴시를 지칭할 수 있다. 사용자가 AR 디바이스를 이동시킴에 따라, 현실 세계 환경의 사용자의 뷰는 순간적으로 변한다. 그러나, AR 디바이스가 IMU 데이터로 환경 데이터를 처리하고, 가상 콘텐츠를 렌더링하고, 사용자의 시야 앞에 가상 콘텐츠를 투영해야 하기 때문에, 가상 콘텐츠는 업데이트하는데 더 긴 시간이 걸린다. 모션-대-광자 레이턴시(motion-to-photon latency)는 가상 콘텐츠가 불안해지거나 지연되는 것처럼 보일 수 있고, 사용자의 AR 경험을 감소시킨다.
용어들 "시간-워프(time-warp)"("시간-워핑(time-warping)", "늦은-워프(late-warp)", "늦은-워핑(late-warping)"으로도 지칭됨)은 본 명세서에서 렌더링된 이미지를 디스플레이에 전송하기 전에 워핑시켜 렌더링 후에 발생한 머리 움직임을 정정하는 재-투영(re-projection) 기법을 지칭하는데 사용된다. 이 프로세스는 이미 렌더링된 이미지를 취하고, 이를 IMU로부터의 가장 최근에 수집된 회전 데이터로 수정한 다음, 워핑된 이미지를 스크린 상에 디스플레이한다.
AR을 구현하는 것의 하나의 문제점은 가상 콘텐츠를 제시하는 것과 연관된 레이턴시이다. 사용자가 AR 디바이스를 이동시킴에 따라, 현실 세계 환경의 사용자의 뷰는 순간적으로 변한다. AR 디스플레이 디바이스가 관성 측정 유닛(IMU) 데이터로 환경 데이터를 처리하고, 가상 콘텐츠를 렌더링하고, 사용자의 시야 앞에 가상 콘텐츠를 투영해야 하기 때문에, 가상 콘텐츠는 변경하는데 더 긴 시간이 걸린다. 이 레이턴시는 본 명세서에서 M2P 레이턴시로 지칭된다.
앞서 언급된 바와 같이, 늦은-워핑은 자세 차이를 감안하여 렌더링된 이미지를 워핑함으로써 M2P 레이턴시를 보상한다. 워핑 프로세스는 그 후 통상적으로 흑색으로 남아 있는 일부 픽셀들에 대한 누락된 정보로 이어질 수 있다. "오버-렌더링(over-rendering)"은 늦은-워핑 동안 스크린 상의 모든 픽셀을 채울 수 있도록 디스플레이 상에 실제로 보여지는 것보다 더 많은 픽셀들을 렌더링하는데 사용되는 기법이다. 그러나, 오버-렌더링된 영역은 크게 유지될 수 있다. (필요한 것보다) 오버-렌더링된 영역들이 클수록 더 많은 메모리 및 전력 소비를 초래한다.
본 출원은 늦은-워핑 후의 흑색 픽셀들의 수를 작게 유지하면서 음영 처리된 픽셀들의 수를 감소시키기 위해 추가 픽셀들이 렌더링되는 오버-렌더링된 영역의 크기를 동적으로 조정하는 방법을 설명한다. 예를 들어, 본 시스템은 (a) 가장 최근 자세 및 선형/각속도, (b) 이전의 워프 자세들, 및 (c) 이전의 오버-렌더링된 영역들에 기초하여 특정 렌더 시간에 대한 동적 오버-렌더링 함수를 정의한다. 예측 부정확도 및 감소된 렌더링 레이트, 필요한 오버-렌더링의 양은 2개의 워핑 자세 사이의 최대 예측 에러 또는 최대 자세 차이에 의존한다(이들 모두는 AR 디바이스의 머리 모션의 역학에 의존한다).
일 예시적인 실시예에서, AR 디바이스에서 디스플레이의 오버-렌더링된 영역을 조정하기 위한 방법이 설명된다. 본 방법은 디스플레이 디바이스의 각속도, 디스플레이 디바이스의 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들을 식별하는 단계, 및 각속도, 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들의 조합에 기초하여 동적 오버-렌더링된 영역의 크기를 조정하는 단계를 포함한다.
그 결과, 본 명세서에 기술된 방법론들 중 하나 이상은 AR 디바이스의 자세 차이들 및 각도/선형 속도에 기초하여 오버-렌더링된 영역들의 크기를 제한함으로써 전력 소비 절감의 기술적 문제를 해결하는 것을 용이하게 한다. 현재 설명되는 방법은 계산 비용, 전력 소비, 및 열 충격을 줄임으로써 컴퓨팅 디바이스의 기능의 동작에 대한 개선을 제공한다. 이와 같이, 본 명세서에 기술된 방법론들 중 하나 이상은 특정의 노력 또는 컴퓨팅 자원에 대한 필요성을 제거할 수 있다. 이러한 컴퓨팅 자원의 예는 프로세서 사이클, 네트워크 트래픽, 메모리 사용, 데이터 저장 용량, 전력 소비, 네트워크 대역폭, 및 냉각 용량을 포함한다.
도 1은 일부 예시적인 실시예들에 따른, AR 디바이스(106)를 동작시키기에 적합한 환경(100)을 예시하는 네트워크도이다. 환경(100)은 사용자(102), AR 디바이스(106), 및 물리적 객체(104)를 포함한다. 사용자(102)는 AR 디바이스(106)를 동작시킨다. 사용자(102)는 인간 사용자(예를 들어, 인간), 머신 사용자(예를 들어, AR 디바이스(106)와 상호작용하도록 소프트웨어 프로그램에 의해 구성된 컴퓨터), 또는 이들의 임의의 적절한 조합(예를 들어, 머신에 의해 보조받는 인간 또는 인간이 감독하는 머신)일 수 있다. 사용자(102)는 AR 디바이스(106)와 연관된다.
AR 디바이스(106)는 스마트폰, 태블릿 컴퓨터, 또는 웨어러블 컴퓨팅 디바이스(예를 들어, 시계 또는 안경)와 같은 디스플레이를 갖는 컴퓨팅 디바이스일 수 있다. 컴퓨팅 디바이스는 핸드헬드일 수 있거나 또는 사용자(102)의 머리에 착탈식으로 장착될 수 있다. 일 예에서, 디스플레이는 AR 디바이스(106)의 카메라로 캡처된 이미지들을 디스플레이하는 스크린을 포함한다. 또 다른 예에서, 디바이스의 디스플레이는 웨어러블 컴퓨팅 안경의 렌즈들에서와 같이 투명할 수 있다. 또 다른 예들에서, 디스플레이는 불투명하고, 부분적으로 투명하고, 부분적으로 불투명할 수 있다. 또 다른 예들에서, 디스플레이는 사용자(102)의 시야를 커버하기 위해 사용자(102)에 의해 착용가능할 수 있다.
AR 디바이스(106)는 AR 디바이스(106)의 카메라로 검출된 이미지들에 기초하여 가상 콘텐츠를 생성하는 AR 애플리케이션을 포함한다. 예를 들어, 사용자(102)는 물리적 객체(104)의 이미지를 캡처하도록 AR 디바이스(106)의 카메라를 포인팅할 수 있다. AR 애플리케이션은 이미지에서 식별된 객체(예를 들어, 물리적 객체(104))에 대응하는 가상 콘텐츠를 생성하고, AR 디바이스(106)의 디스플레이에 가상 콘텐츠를 제시한다.
AR 디바이스(106)는 시각적 추적 시스템(108)을 포함한다. 시각적 추적 시스템(108)은, 예를 들어, 광학 센서들(예를 들어, 깊이 인에이블된 3D 카메라, 이미지 카메라), 관성 센서들(예를 들어, 자이로스코프, 가속도계), 무선 센서들(블루투스, Wi-Fi), GPS 센서, 및 오디오 센서를 사용하여 현실 세계 환경(110)에 대한 AR 디바이스(106)의 자세(예를 들어, 포지션 및 오리엔테이션)를 추적한다. 일 예에서, AR 디바이스(106)는 현실 세계 환경(110) 및/또는 물리적 객체(104)에 대한 AR 디바이스(106)의 자세에 기초하여 가상 콘텐츠를 디스플레이한다.
도 1에 도시한 임의의 머신들, 데이터베이스들 또는 디바이스들은 그 머신, 데이터베이스 또는 디바이스가 본 명세서에 기술되는 기능들 중 하나 이상을 수행하기 위해 소프트웨어에 의해 변형되어(예를 들어, 구성되거나 프로그램되어) 특수 목적의 컴퓨터가 될 범용 컴퓨터에서 구현될 수 있다. 예를 들어, 본 명세서에 설명된 방법들 중 임의의 하나 이상을 구현할 수 있는 컴퓨터 시스템이 도 10 내지 도 11을 참조하여 이하 논의된다. 본 명세서에서 사용될 때, "데이터베이스"는 데이터 저장 자원이며, 텍스트 파일, 테이블, 스프레드시트, 관계형 데이터베이스(예를 들어, 객체-관계형 데이터베이스), 트리플 스토어, 계층적 데이터 스토어 또는 이들의 임의의 적절한 조합으로 구성된 데이터를 저장할 수 있다. 더욱이, 도 1에 예시된 머신들, 데이터베이스들 또는 디바이스들 중 임의의 둘 이상은 단일 머신으로 조합될 수 있고, 임의의 단일 머신, 데이터베이스 또는 디바이스에 대해 여기서 기술되는 기능들은 다수의 머신들, 데이터베이스들 또는 디바이스들 사이에서 세분화될 수 있다.
AR 디바이스(106)는 컴퓨터 네트워크를 통해 동작할 수 있다. 컴퓨터 네트워크는 머신들, 데이터베이스들, 및 디바이스들 사이에서 또는 이들 중에서 통신을 가능하게 하는 임의의 네트워크일 수 있다. 따라서, 컴퓨터 네트워크는 유선 네트워크, 무선 네트워크(예를 들어, 모바일 또는 셀룰러 네트워크), 또는 이들의 임의의 적절한 조합일 수 있다. 컴퓨터 네트워크는 사설 네트워크, 공중 네트워크(예를 들어, 인터넷), 또는 이들의 임의의 적절한 조합을 구성하는 하나 이상의 부분을 포함할 수 있다.
도 2는 일부 예시적인 실시예들에 따른, AR 디바이스(106)의 모듈들(예를 들어, 컴포넌트들)을 예시하는 블록도이다. AR 디바이스(106)는 센서들(202), 디스플레이(204), 프로세서(208), 그래픽 처리 유닛(216), 디스플레이 제어기(218), 및 저장 디바이스(206)를 포함한다. AR 디바이스(106)의 예들은 웨어러블 컴퓨팅 디바이스(예를 들어, 안경), 태블릿 컴퓨터, 내비게이션 디바이스, 휴대용 미디어 디바이스 또는 스마트폰을 포함한다.
센서들(202)은, 예를 들어, 광학 센서(212)(예를 들어, 컬러 카메라, 열 카메라, 깊이 센서 및 하나 또는 다수의 그레이스케일, 글로벌 셔터 추적 카메라들과 같은 카메라) 및 관성 센서(214)(예를 들어, 자이로스코프, 가속도계, 자력계)를 포함한다. 센서들(202)의 다른 예들은 근접 또는 위치 센서(예를 들어, 근접장 통신, GPS, 블루투스, Wifi), 오디오 센서(예를 들어, 마이크로폰), 또는 이들의 임의의 적절한 조합을 포함한다. 본 명세서에 설명된 센서들(202)은 예시의 목적을 위한 것이며, 따라서 센서들(202)은 전술된 것들로 제한되지 않는다는 점에 유의한다.
디스플레이(204)는 프로세서(208)에 의해 생성된 이미지들을 디스플레이하도록 구성된 스크린 또는 모니터를 포함한다. 하나의 예시적인 실시예에서, 디스플레이(204)는 사용자(102)가 (AR 사용 사례에서) 디스플레이(204)를 통해 볼 수 있도록 투명하거나 반-투명할 수 있다. 다른 예에서, (LCOS 디스플레이와 같은) 디스플레이(204)는 가상 콘텐츠의 각각의 프레임을 다수의 제시로 제시한다.
프로세서(208)는 AR 애플리케이션(210) 및 시각적 추적 시스템(108)을 포함한다. AR 애플리케이션(210)은 컴퓨터 비전을 이용하여 물리적 환경 또는 물리적 객체(104)를 검출하고 식별한다. AR 애플리케이션(210)은 식별된 물리적 객체(104) 또는 물리적 환경에 기초하여 가상 객체(예컨대, 3D 객체 모델)를 검색한다. AR 애플리케이션(210)은 디스플레이(204)에서 가상 객체를 렌더링한다. AR 애플리케이션의 경우, AR 애플리케이션(210)은 물리적 객체(104)의 이미지 또는 뷰 상에 오버레이된(예를 들어, 그 위에 중첩되거나, 또는 다른 방식으로 나란히 디스플레이된) 가상 객체의 3D 모델을 렌더링하는 로컬 렌더링 엔진을 포함한다. 가상 객체의 뷰는 광학 센서(212)에 대한 물리적 객체(104)의 포지션(예를 들어, 그 물리적 위치, 오리엔테이션, 또는 둘 모두)을 조정함으로써 조작될 수 있다. 유사하게, 가상 객체의 뷰는 애플리케이션(104)에 대한 AR 디바이스(106)의 자세를 조정함으로써 조작될 수 있다. VR 애플리케이션의 경우, AR 애플리케이션(210)은 AR 디바이스(106)의 자세에 기초하여 결정된 (디스플레이(204) 내의) 위치에서 디스플레이(204)에 가상 객체를 디스플레이한다.
일 예시적인 실시예에서, 시각적 추적 시스템(108)은 AR 디바이스(106)의 자세를 추정한다. 예를 들어, 시각적 추적 시스템(108)은 광학 센서(212) 및 관성 센서(214)로부터의 이미지 데이터 및 대응하는 관성 데이터를 사용하여 기준 프레임(예를 들어, 현실 세계 환경(110))에 대한 AR 디바이스(106)의 위치 및 자세를 추적한다. 일 예에서, 시각적 추적 시스템(108)은 센서 데이터를 사용하여 AR 디바이스(106)의 3차원 자세를 결정한다. 3차원 자세는 사용자의 현실 세계 환경(110)에 대한 AR 디바이스(106)의 결정된 오리엔테이션 및 포지션이다. 예를 들어, AR 디바이스(106)는 사용자의 현실 세계 환경(110)의 이미지들뿐만 아니라, AR 디바이스(106)를 둘러싸는 현실 세계 환경(110)에서의 물리적 객체들로부터 AR 디바이스(106)의 상대적 포지션 및 오리엔테이션을 식별하기 위한 다른 센서 데이터를 사용할 수 있다. 시각적 추적 시스템(108)은 현실 세계 환경(110)에서의 물리적 객체들로부터의 AR 디바이스(106)의 상대적 포지션 및 오리엔테이션의 변화들을 표시하는 AR 디바이스(106)의 업데이트된 3차원 자세들을 결정하기 위해 AR 디바이스(106)의 움직임들을 기술하는 업데이트된 센서 데이터를 계속적으로 수집하고 사용한다. 시각적 추적 시스템(108)은 AR 디바이스(106)의 3차원 자세를 그래픽 처리 유닛(216)에 제공한다.
그래픽 처리 유닛(216)은 AR 애플리케이션(210)에 의해 제공되는 가상 콘텐츠 및 시각적 추적 시스템(108)에 의해 제공되는 자세에 기초하여 가상 객체의 3D 모델의 프레임을 렌더링하도록 구성되는 렌더 엔진(도시되지 않음)을 포함한다. 즉, 그래픽 처리 유닛(216)은 AR 디바이스(106)의 3차원 자세를 사용하여 디스플레이(204) 상에 제시될 가상 콘텐츠의 프레임들을 생성한다. 예를 들어, 그래픽 처리 유닛(216)은 3차원 자세를 사용하여 가상 콘텐츠의 프레임을 렌더링하며, 따라서 가상 콘텐츠는 사용자의 현실을 적절히 증대시키기 위해 디스플레이(204)의 적절한 오리엔테이션 및 포지션에 제공된다. 예로서, 그래픽 처리 유닛(216)은, 디스플레이(204) 상에 제시될 때, 가상 콘텐츠가 사용자의 현실 세계 환경(110)에서의 물리적 객체와 오버랩하도록 가상 콘텐츠의 프레임을 렌더링하기 위해 3차원 자세 데이터를 사용할 수 있다. 그래픽 처리 유닛(216)은 사용자의 현실 세계 환경(110)에서의 물리적 객체들과 관련하여 사용자의 포지션 및 오리엔테이션의 변화들을 반영하는 AR 디바이스(106)의 업데이트된 3차원 자세들에 기초하여 가상 콘텐츠의 업데이트된 프레임들을 생성한다. 그래픽 처리 유닛(216)은 렌더링된 프레임을 디스플레이 제어기(218)로 전달한다.
디스플레이 제어기(218)는 그래픽 처리 유닛(216)과 디스플레이(204) 사이의 중개자로서 배치된다. 디스플레이 제어기(218)는 그래픽 처리 유닛(216)으로부터 이미지 데이터(예를 들어, 렌더링된 프레임)를 수신하고, 시간-워핑된 프레임에서 렌더링된 가상 콘텐츠의 위치를 재조정함으로써 렌더링된 프레임을 워핑한다. 디스플레이 제어기(218)는 AR 디바이스(106)의 가장 최근 자세 및 (상이한 움직임을 갖는 다수의 물리적 객체들의, 가상 객체의 미리 설정된 애니메이션의, 추적된 물리적 객체의) 가장 최근 추적 정보에 기초하여 늦은-워핑 변환을 수행한다. 디스플레이 제어기(218)는 시간-워핑된 프레임을 디스플레이를 위해 디스플레이(204)에 제공한다.
저장 디바이스(206)는 가상 객체 콘텐츠(220)를 저장한다. 가상 객체 콘텐츠(220)는, 예를 들어, 시각적 기준들(예를 들어, 이미지들, QR 코드들) 및 대응하는 가상 콘텐츠(예를 들어, 가상 객체들의 3차원 모델)의 데이터베이스를 포함한다.
본 명세서에서 설명되는 모듈들 중 어느 하나 이상은 하드웨어(예를 들어, 머신의 프로세서) 또는 하드웨어와 소프트웨어의 조합을 사용하여 구현될 수 있다. 예를 들어, 본 명세서에서 설명되는 임의의 모듈은 그 모듈에 대해 본 명세서에서 설명되는 동작들을 수행하도록 프로세서를 구성할 수 있다. 더욱이, 이들 모듈들 중 임의의 2개 이상은 단일 모듈로 결합될 수 있고, 단일 모듈에 대해 본 명세서에서 설명되는 기능들은 다수의 모듈 사이에 세분될 수 있다. 더욱이, 다양한 예시적인 실시예들에 따르면, 단일 머신, 데이터베이스, 또는 디바이스 내에 구현되는 것으로 본 명세서에 설명된 모듈들은 다수의 머신, 데이터베이스 또는 디바이스에 걸쳐 분산될 수 있다.
도 3은 일 예시적인 실시예에 따른 시각적 추적 시스템을 예시하는 블록도이다. 시각적 추적 시스템(108)은, 예를 들어, 관성 센서 모듈(302), 광학 센서 모듈(304), 및 자세 추정 모듈(306)을 포함한다. 관성 센서 모듈(302)은 관성 센서(214)로부터의 관성 센서 데이터에 액세스한다. 광학 센서 모듈(304)은 광학 센서(212)로부터의 광학 센서 데이터에 액세스한다.
자세 추정 모듈(306)은 기준 프레임(예를 들어, 현실 세계 환경(110))에 대한 AR 디바이스(106)의 자세(예를 들어, 위치, 포지션, 오리엔테이션)를 결정한다. 일 예시적인 실시예에서, 자세 추정 모듈(306)은 광학 센서(212)로 캡처된 이미지들로부터의 특징점들의 3D 맵들 및 관성 센서(214)로 캡처된 관성 센서 데이터에 기초하여 AR 디바이스(106)의 자세를 추정하는 VIO 시스템을 포함한다.
예를 들어, 자세 추정 모듈(306)은 AR 디바이스(106)의 광학 센서(212)에 의해 캡처된 이미지들에서 식별된 시각적 특징들(예를 들어, 3D 특징점들)을 추적하는 애플리케이션을 동작시킨다. 시각적 추적 시스템(108)은 추적된 시각적 특징들에 기초하여 현실 세계 환경의 모델을 구축한다. 시각적 추적 시스템(108)은, 예를 들어, VSLAM(visual Simultaneous Localization and Mapping system) 또는 VIO(Visual Inertial Odometry) 시스템을 포함한다. VSLAM은 시각적 추적 시스템(108)의 하나 이상의 카메라에 기초하여 환경 또는 장면으로부터 타깃을 구축하는데 사용될 수 있다. VIO(시각적-관성 추적이라고도 지칭됨)는 그 복수의 센서(예를 들어, 광학 센서, 관성 센서)로부터 취득된 데이터에 기초하여 디바이스의 가장 최근 자세(예를 들어, 포지션 및 오리엔테이션)를 결정한다.
도 4는 일 예시적인 실시예에 따른 디스플레이 제어기(218)를 예시하는 블록도이다. 디스플레이 제어기(218)는 동적 오버-렌더링 엔진(402) 및 시간-워핑 엔진(404)을 포함한다.
시간-워핑 엔진(404)은 시각적 추적 시스템(108)으로부터 AR 디바이스(106)의 가장 최근 자세에 액세스한다. 시간-워핑 엔진(404)은 (렌더링된 프레임을 컴퓨팅하기 위해 사용되는) AR 디바이스(106)의 자세, 및 (시각적 추적 시스템(108)에 의해 디스플레이 제어기(218)에 제공되는) AR 디바이스(106)의 가장 최근 자세에 기초하여 그래픽 처리 유닛(216)에 의해 생성된 렌더링된 프레임을 재-투영한다.
동적 오버-렌더링 엔진(402)은 렌더링된 프레임의 오버-렌더링된 영역의 크기를 동적으로 조정한다. 타임-워핑이 적절하게 동작하기 위해, 렌더링된 프레임의 크기는 디스플레이(204)의 크기보다 커야 한다. 그렇지 않고, 시간-워핑 엔진(404)이 렌더링된 이미지를 시프트할 때, 시간-워핑 엔진(404)은 빈 픽셀들을 가시 영역으로 시프트하는 것을 종료할 수 있다. 일 예시적인 실시예에서, 동적 오버-렌더링 엔진(402)은 (a) 시각적 추적 시스템(108)의 가장 최근 자세 및 시각적 추적 시스템(108)의 선형/각속도, (b) 시각적 추적 시스템(108)의 이전의 워프 자세들, 및 (c) 동적 오버-렌더링 엔진(402)으로부터의 이전의 오버-렌더링된 영역들의 조합에 기초하여 렌더링된 프레임의 크기를 조정한다. 조정된 오버-렌더링된 프레임은 디스플레이를 위해 디스플레이(204)에 제공된다. 동적 오버-렌더링 엔진(402)의 예시적인 컴포넌트들은 도 5와 관련하여 하기에 추가로 기술된다.
도 5는 일 예시적인 실시예에 따른 동적 오버-렌더링 엔진(402)을 예시하는 블록도이다. 동적 오버-렌더링 엔진(402)은 가장 최근 자세 모듈(508), 각속도 모듈(510), 워프 자세들 이력 모듈(512), 오버-렌더링된 영역들 이력 모듈(514), 및 오버-렌더링된 영역 추정기(502)를 포함한다.
가장 최근 자세 모듈(508)은 AR 디바이스(106)의 가장 최근 자세를 식별한다. 예를 들어, 가장 최근 자세 모듈(508)은 시각적 추적 시스템(108)으로부터의 가장 최근 VIO 데이터에 기초하여 AR 디바이스(106)의 가장 최근 자세에 액세스한다.
각속도 모듈(510)은 AR 디바이스(106)의 각속도를 식별한다. 일 예에서, 각속도 모듈(510)은 IMU로부터 각속도를 검색한다. 다른 예에서, 각속도 모듈(510)은 (시각적 추적 시스템(108)으로부터의) VIO 데이터로부터 각속도를 추정한다.
워프 자세들 이력 모듈(512)은 시간-워핑 엔진(404)에 의해 이전에 생성된 워프 자세들을 식별한다. 예를 들어, 워프 자세들 이력 모듈(512)은 시각적 추적 시스템(108)에 의해 식별된 최종 자세에 대응하는 워핑된 자세를 검색한다. 워프 자세들 이력 모듈(512)은 미리 설정된 수의 최종 워핑된 자세들을 저장 디바이스들(206)에 저장할 수 있다.
오버-렌더링된 영역들 이력 모듈(514)은 동적 오버-렌더링 엔진(402)에 의해 이전에 생성된 오버-렌더링된 영역들을 식별한다. 예를 들어, 오버-렌더링된 영역들 이력 모듈(514)은 최종 워핑된 자세 또는 최종 자세에 대응하는 오버-렌더링된 영역을 검색한다. 오버-렌더링된 영역들 이력 모듈(514)은 미리 설정된 수의 최종 오버-렌더링된 영역들을 저장 디바이스(206)에 저장할 수 있다.
오버-렌더링된 영역 추정기(502)는 가장 최근 자세 모듈(508)로부터의 가장 최근 자세 데이터, 각속도 모듈(510)로부터의 각속도 데이터, 워프 자세들 이력 모듈(512)로부터의 워프 자세 이력 데이터, 및 오버-렌더링된 영역들 이력 모듈(514)로부터의 오버-렌더링된 영역들 이력 데이터에 액세스한다. 오버-렌더링된 영역 추정기(502)는 가장 최근 자세 데이터, 각속도 데이터, 워프 자세 이력 데이터, 및 오버-렌더링된 영역 이력 데이터에 기초하여 오버-렌더링된 영역의 크기를 조정한다.
일 예시적인 실시예에서, 오버-렌더링된 영역 추정기(502)는 휴리스틱 모듈(504) 및 머신 학습 모듈(506)을 포함한다. 휴리스틱 모듈(504)은 시간-워핑 엔진(404)에 의해 렌더링될 필요가 있는 요구되는 영역을 추정하기 위해 가장 최근 자세 데이터, 각속도 데이터, 워프 자세 이력 데이터, 및 오버-렌더링된 영역 이력 데이터에 대해 휴리스틱-기반 계산 방법을 수행한다. 다른 예에서, 휴리스틱 모듈(504)은 수신된 데이터에 대해 통계적 분석을 수행하여 필요한 영역을 추정한다.
머신 학습 모듈(506)은 가장 최근 자세 데이터, 각속도 데이터, 워프 자세 이력 데이터, 및 오버-렌더링된 영역 이력 데이터에 기초하여 훈련 데이터를 생성한다. 머신 학습 모듈(506)은 상이한 파라미터들에 기초하여 오버-렌더링된 영역의 크기들을 식별하는 모델을 훈련하기 위해 훈련 데이터를 사용한다. 그 후 훈련된 모델은 최적의 오버-렌더링된 영역을 식별하기 위해 사용될 수 있다. 다른 예에서, 오버-렌더링된 영역 추정기(502)는 최적의 오버-렌더링된 영역을 추정하기 위해 휴리스틱 모듈(504) 및 머신 학습 모듈(506)의 조합을 사용한다.
도 6은 일 예시적인 실시예에 따른 예시적인 프로세스를 예시하는 블록도이다. 시각적 추적 시스템(108)은 센서들(202)로부터 센서 데이터를 수신하여 AR 디바이스(106)의 자세(예를 들어, 자세 a)를 결정한다. 시각적 추적 시스템(108)은 그래픽 처리 유닛(216)에 자세를 제공한다. 그래픽 처리 유닛(216)은 시각적 추적 시스템(108)에 의해 결정된 회전 자세(예를 들어, 자세 a)에 기초하여 (AR 애플리케이션(210)에 의해 제공되는) 가상 콘텐츠의 프레임(예를 들어, 프레임 a)을 (디스플레이(204) 내의) 제1 위치에서 렌더링하기 위해 3D 렌더 엔진(602)을 사용한다. 그래픽 처리 유닛(216)은 렌더링된 프레임(예를 들어, 프레임 a)을 디스플레이 제어기(218)에 제공한다.
디스플레이 제어기(218)는 시각적 추적 시스템(108)으로부터 가장 최근 자세(예를 들어, 자세 b)를 수신한다. 즉, 자세 b는 자세 a보다 AR 디바이스(106)의 더 최근 자세이다. 동적 오버-렌더링 엔진(402)은 렌더링된 프레임의 오버-렌더링된 영역의 크기를 동적으로 조정한다.
시간-워핑 엔진(404)은 새로운 프레임(예를 들어, 프레임 b)을 생성하기 위해 렌더링된 프레임(예를 들어, 프레임 a)에 대해 시간-워핑 동작을 수행함으로써 렌더링된 프레임을 재-투영한다. 디스플레이 제어기(218)는 프레임 b를 디스플레이를 위해 디스플레이(204)에 전달한다.
도 7은 일 예시적인 실시예에 따른 동적 오버-렌더링을 위한 프로세스(700)를 예시하는 흐름도이다. 블록 702에서, 시각적 추적 시스템(108)은 AR 디바이스(106)의 각속도 및 가장 최근 자세를 식별한다. 블록 706에서, 동적 오버-렌더링 엔진(402)은 이전의 워프 자세들을 식별한다. 블록 708에서, 동적 오버-렌더링 엔진(402)은 이전의 오버-렌더링된 영역들을 식별한다. 블록 704에서, 동적 오버-렌더링 엔진(402)은 가장 최근 자세, 각속도, 이전의 워프 자세들, 또는 이전의 오버-렌더링된 영역들에 기초하여 오버-렌더링된 영역을 동적으로 조정한다.
유의할 점은, 다른 실시예들이 유사한 기능들을 달성하기 위해 상이한 시퀀싱, 부가의 또는 보다 적은 동작들, 및 상이한 명명법 또는 용어법을 사용할 수 있다는 것이다. 일부 실시예들에서, 다양한 동작들이, 동기식 또는 비동기식 방식으로, 다른 동작들과 병렬로 수행될 수 있다. 본 명세서에 기술된 동작들은 동작들의 일부 원리들을 간략화된 형태로 예시하기 위해 선택되었다.
도 8은 일 예시적인 실시예에 따른 동적 오버-렌더링 영역의 예를 예시한다. 예를 들어, 동적 오버-렌더링된 영역(806)의 크기는 오버-렌더링된 영역(802)의 크기보다 작고 스크린 크기(804)보다 늦다.
도 9는 일 예시적인 실시예에 따른 동적 오버-렌더링 영역들의 예를 예시한다. AR 디바이스(106)는 시간 tn에서 물리적 객체(908)의 이미지를 캡처하기 위해 tn(902)에서 뷰에 포인팅된다. AR 디바이스(106)의 스크린(910)은 제1 위치에서 물리적 객체(908)에 대응하는 렌더링된 가상 객체의 이미지를 디스플레이한다.
AR 디바이스(106)는 시간 tn+1에서 물리적 객체(908)의 이미지를 캡처하기 위해 tn+1(906)에서 뷰에 포인팅된다. AR 디바이스(106)의 스크린(910)은 제2 위치에서 물리적 객체(908)에 대응하는 렌더링된 가상 객체의 이미지를 디스플레이한다.
시각적 추적 시스템(108)은 렌더링된 자세(904)에서 뷰를 결정하고, tn에 대한 오버-렌더링된 영역(912)(워프 자세 tn에 대응함)을 tn+1에 대한 오버-렌더링된 영역(914)(워프 자세 tn+1에 대응함)과 결합한다.
도 10은 일 예시적인 실시예에 따른 동적 오버-렌더링된 영역에서 이미지를 렌더링하기 위한 방법(1000)을 예시하는 흐름도이다. 방법(1000)에서의 동작들은 도 2와 관련하여 전술한 컴포넌트들(예를 들어, 모듈들, 엔진들)을 사용하여 AR 디바이스(106)에 의해 수행될 수 있다. 따라서, 방법(1000)은 AR 디바이스(106)를 참조하여 예로서 설명된다. 그러나, 방법(1000)의 동작들 중 적어도 일부는 다양한 다른 하드웨어 구성들 상에 배치되거나 다른 곳에 존재하는 유사한 컴포넌트들에 의해 수행될 수 있다는 것을 이해해야 한다.
블록 1002에서, AR 디바이스(106)는 동적 오버-렌더링된 영역에서 이미지를 렌더링한다. 예를 들어, 그래픽 처리 유닛(216)은 이미지를 렌더링한다. 블록 1004에서, AR 디바이스(106)는 AR 디바이스(106)의 가장 최근 자세에 기초하여 렌더링된 이미지에 변환을 적용한다. 예를 들어, 디스플레이 제어기(218)는 오버-렌더링된 영역의 크기를 결정하고, 오버-렌더링된 영역에 대응하는 렌더링된 이미지에 시간-워핑 알고리즘을 적용한다. 블록 1006에서, AR 디바이스(106)는 변환된 이미지를 디스플레이한다. 예를 들어, 디스플레이(204)는 워핑된 이미지를 투영한다.
유의할 점은, 다른 실시예들이 유사한 기능들을 달성하기 위해 상이한 시퀀싱, 부가의 또는 보다 적은 동작들, 및 상이한 명명법 또는 용어법을 사용할 수 있다는 것이다. 일부 실시예들에서, 다양한 동작들이, 동기식 또는 비동기식 방식으로, 다른 동작들과 병렬로 수행될 수 있다. 본 명세서에 기술된 동작들은 동작들의 일부 원리들을 간략화된 형태로 예시하기 위해 선택되었다.
도 11은 일 예시적인 실시예에 따른 동적 오버-렌더링된 영역에서 이미지를 렌더링하기 위한 방법(1100)을 예시하는 흐름도이다. 방법(1100)에서의 동작들은 도 2와 관련하여 전술한 컴포넌트들(예를 들어, 모듈들, 엔진들)을 사용하여 AR 디바이스(106)에 의해 수행될 수 있다. 따라서, 방법(1100)은 AR 디바이스(106)를 참조하여 예로서 설명된다. 그러나, 방법(1100)의 동작들 중 적어도 일부는 다양한 다른 하드웨어 구성들 상에 배치되거나 다른 곳에 존재하는 유사한 컴포넌트들에 의해 수행될 수 있다는 것을 이해해야 한다.
블록 1102에서, AR 디바이스(106)는 제1 자세를 결정한다. 일 예시적인 실시예에서, 시각적 추적 시스템(108)은 AR 디바이스(106)의 제1 자세를 식별한다. 블록 1104에서, AR 디바이스(106)는 가상 콘텐츠에 액세스한다. 일 예시적인 실시예에서, AR 애플리케이션(210)은 저장 디바이스(206)로부터 가상 객체 콘텐츠(220)에 액세스한다.
블록 1106에서, AR 디바이스(106)는 동적 오버-렌더링된 영역의 크기를 식별한다. 일 예시적인 실시예에서, 동적 오버-렌더링 엔진(402)은 오버-렌더링된 영역의 크기를 결정한다. 블록 1108에서, AR 디바이스(106)는 동적 오버-렌더링된 영역에서 그래픽 처리 유닛(216)의 렌더 엔진을 사용하여 제1 프레임에서 가상 콘텐츠의 3D 모델을 렌더링한다. 블록 1110에서, 시간-워핑 엔진(404)은 렌더링된 3D 모델에 변환을 적용한다.
헤드-웨어러블 장치를 갖는 시스템
도 12는 헤드-웨어러블 장치(1202)가 일 예시적인 실시예에 따라 구현될 수 있는 네트워크 환경(1200)을 예시한다. 도 12는 다양한 네트워크(1240)를 통해 모바일 클라이언트 디바이스(1238) 및 서버 시스템(1232)에 통신가능하게 결합된 예시적인 헤드-웨어러블 장치(1202)의 하이-레벨 기능 블록도이다.
헤드-웨어러블 장치(1202)는 가시광 카메라(1212), 적외선 방출기(1214) 및 적외선 카메라(1216) 중 적어도 하나와 같은 카메라를 포함한다. 클라이언트 디바이스(1238)는 통신(1234) 및 통신(1236) 둘 다를 사용하여 헤드-웨어러블 장치(1202)와 접속할 수 있다. 클라이언트 디바이스(1238)는 서버 시스템(1232) 및 네트워크(1240)에 접속된다. 네트워크(1240)는 유선 및 무선 접속들의 임의의 조합을 포함할 수 있다.
헤드-웨어러블 장치(1202)는 광학 어셈블리(1204)의 이미지 디스플레이의 2개의 이미지 디스플레이를 추가로 포함한다. 이 둘은 헤드-웨어러블 장치(1202)의 좌측 측방향 측면과 연관된 것 및 우측 측방향 측면과 연관된 것을 포함한다. 헤드-웨어러블 장치(1202)는 또한 이미지 디스플레이 드라이버(1208), 이미지 프로세서(1210), 저전력 저전력 회로(1226), 및 고속 회로(1218)를 포함한다. 광학 어셈블리(1204)의 이미지 디스플레이는 헤드-웨어러블 장치(1202)의 사용자에 대한 그래픽 사용자 인터페이스를 포함할 수 있는 이미지를 포함하여, 이미지들 및 비디오들을 제시하기 위한 것이다.
이미지 디스플레이 드라이버(1208)는 광학 어셈블리(1204)의 이미지 디스플레이의 이미지 디스플레이를 명령하고 제어한다. 이미지 디스플레이 드라이버(1208)는 제시를 위해 광학 어셈블리(1204)의 이미지 디스플레이의 이미지 디스플레이에 직접 이미지 데이터를 전달할 수 있거나, 또는 이미지 데이터를 이미지 디스플레이 디바이스에 전달하기에 적합한 신호 또는 데이터 포맷으로 변환해야 할 수 있다. 예를 들어, 이미지 데이터는 H.264(MPEG-4), HEVC, Theora, Dirac, RealVideo RV40, VP8, VP9 등과 같은 압축 포맷들에 따라 포맷된 비디오 데이터일 수 있고, 정지 이미지 데이터는 PNG(Portable Network Group), JPEG(Joint Photographic Experts Group), TIFF(Tagged Image File Format) 또는 Exif(exchangeable image file format) 등과 같은 압축 포맷들에 따라 포맷될 수 있다.
위에서 언급된 바와 같이, 헤드-웨어러블 장치(1202)는 프레임, 및 프레임의 측방향 측면으로부터 연장되는 스템들(또는 템플들)을 포함한다. 헤드-웨어러블 장치(1202)는 헤드-웨어러블 장치(1202) 상의 입력 표면을 포함하는 사용자 입력 디바이스(1206)(예를 들어, 터치 센서 또는 푸시 버튼)를 추가로 포함한다. 사용자 입력 디바이스(1206)(예를 들어, 터치 센서 또는 푸시 버튼)는 제시된 이미지의 그래픽 사용자 인터페이스를 조작하기 위한 입력 선택을 사용자로부터 수신한다.
헤드-웨어러블 장치(1202)에 대한 도 12에 도시된 컴포넌트들은 림들 또는 템플들에서 하나 이상의 회로 보드, 예를 들어 PCB 또는 가요성 PCB 상에 위치된다. 대안적으로, 또는 추가적으로, 묘사된 컴포넌트들은 헤드-웨어러블 장치(1202)의 청크들, 프레임들, 힌지들, 또는 브리지에 위치될 수 있다. 좌측 및 우측은 상보형 금속 산화물 반도체(CMOS) 이미지 센서, 전하 결합 디바이스, 카메라 렌즈, 또는 미지의 객체들을 갖는 장면들의 이미지들을 포함하여, 데이터를 캡처하는데 사용될 수 있는 임의의 다른 각각의 가시광 또는 광 캡처링 소자들과 같은 디지털 카메라 소자들을 포함할 수 있다.
헤드-웨어러블 장치(1202)는 본 명세서에 설명된 기능들의 서브세트 또는 전부를 수행하기 위한 명령어들을 저장하는 메모리(1222)를 포함한다. 메모리(1222)는 또한 저장 디바이스를 포함할 수 있다.
도 12에 도시된 바와 같이, 고속 회로(1218)는 고속 프로세서(1220), 메모리(1222), 및 고속 무선 회로(1224)를 포함한다. 예에서, 이미지 디스플레이 드라이버(1208)는 고속 회로(1218)에 결합되고, 광학 어셈블리(1204)의 이미지 디스플레이의 좌측 및 우측 이미지 디스플레이들을 구동하기 위해 고속 프로세서(1220)에 의해 동작된다. 고속 프로세서(1220)는 헤드-웨어러블 장치(1202)에 필요한 임의의 일반 컴퓨팅 시스템의 동작 및 고속 통신을 관리할 수 있는 임의의 프로세서일 수 있다. 고속 프로세서(1220)는 고속 무선 회로(1224)를 사용하여 무선 근거리 네트워크(WLAN)로의 통신(1236) 상의 고속 데이터 전달들을 관리하기 위해 필요한 처리 자원들을 포함한다. 특정 예들에서, 고속 프로세서(1220)는 LINUX 운영 체제 또는 헤드-웨어러블 장치(1202)의 다른 그러한 운영 체제와 같은 운영 체제를 실행하고, 운영 체제는 실행을 위해 메모리(1222)에 저장된다. 임의의 다른 책임들 이외에, 헤드-웨어러블 장치(1202)에 대한 소프트웨어 아키텍처를 실행하는 고속 프로세서(1220)는 고속 무선 회로(1224)와의 데이터 전달을 관리하는데 사용된다. 특정 예들에서, 고속 무선 회로(1224)는, 본 명세서에서 Wi-Fi라고도 지칭되는, IEEE(Institute of Electrical and Electronic Engineers) 802.11 통신 표준을 구현하도록 구성된다. 다른 예들에서, 다른 고속 통신 표준들은 고속 무선 회로(1224)에 의해 구현될 수 있다.
헤드-웨어러블 장치(1202)의 저전력 무선 회로(1230) 및 고속 무선 회로(1224)는 단거리 송수신기들(BluetoothTM) 및 무선 광역, 로컬, 또는 광역 네트워크 송수신기들(예를 들어, 셀룰러 또는 WiFi)을 포함할 수 있다. 통신(1234) 및 통신(1236)을 통해 통신하는 송수신기들을 포함하는 클라이언트 디바이스(1238)는, 네트워크(1240)의 다른 요소들이 그런 것처럼, 헤드-웨어러블 장치(1202)의 아키텍처의 세부사항들을 이용하여 구현될 수 있다.
메모리(1222)는, 그 중에서도 특히, 좌측 및 우측의, 적외선 카메라(1216), 및 이미지 프로세서(1210)에 의해 생성된 카메라 데이터는 물론, 광학 어셈블리(1204)의 이미지 디스플레이의 이미지 디스플레이 상에 이미지 디스플레이 드라이버(1208)에 의해 디스플레이하기 위해 생성된 이미지들을 비롯한, 다양한 데이터 및 애플리케이션들을 저장할 수 있는 임의의 저장 디바이스를 포함한다. 메모리(1222)는 고속 회로(1218)와 통합된 것으로 도시되어 있지만, 다른 예들에서, 메모리(1222)는 헤드-웨어러블 장치(1202)의 독립적인 독립형 요소일 수 있다. 이러한 특정 예들에서, 전기 라우팅 라인들은 고속 프로세서(1220)를 포함하는 칩을 통해 이미지 프로세서(1210) 또는 저전력 프로세서(1228)로부터 메모리(1222)로의 접속을 제공할 수 있다. 다른 예들에서, 고속 프로세서(1220)는 메모리(1222)의 어드레싱을 관리할 수 있으며, 따라서 저전력 프로세서(1228)는 메모리(1222)가 수반된 판독 또는 기입 동작이 필요할 때마다 고속 프로세서(1220)를 부팅할 것이다.
도 12에 도시된 바와 같이, 헤드-웨어러블 장치(1202)의 저전력 프로세서(1228) 또는 고속 프로세서(1220)는 카메라(가시광 카메라(1212); 적외선 방출기(1214) 또는 적외선 카메라(1216)), 이미지 디스플레이 드라이버(1208), 사용자 입력 디바이스(1206)(예를 들어, 터치 센서 또는 푸시 버튼), 및 메모리(1222)에 결합될 수 있다.
헤드-웨어러블 장치(1202)는 호스트 컴퓨터와 접속된다. 예를 들어, 헤드-웨어러블 장치(1202)는 통신(1236)을 통해 클라이언트 디바이스(1238)와 페어링되거나 또는 네트워크(1240)를 통해 서버 시스템(1232)에 접속된다. 서버 시스템(1232)은, 예를 들어, 프로세서, 메모리, 및 네트워크(1240)를 통해 클라이언트 디바이스(1238) 및 헤드-웨어러블 장치(1202)와 통신하기 위한 네트워크 통신 인터페이스를 포함하는 서비스 또는 네트워크 컴퓨팅 시스템의 일부로서의 하나 이상의 컴퓨팅 디바이스일 수 있다.
클라이언트 디바이스(1238)는 프로세서 및 프로세서에 결합되는 네트워크 통신 인터페이스를 포함한다. 네트워크 통신 인터페이스는, 네트워크(1240), 통신(1234) 또는 통신(1236)을 통한 통신을 허용한다. 클라이언트 디바이스(1238)는 또한, 클라이언트 디바이스(1238)의 메모리에 양귀(binaural) 오디오 콘텐츠를 생성하기 위한 명령어들의 적어도 일부를 저장하여 본 명세서에서 설명된 기능성을 구현할 수 있다.
헤드-웨어러블 장치(1202)의 출력 컴포넌트들은 LCD(liquid crystal display)와 같은 디스플레이, PDP(plasma display panel), LED(light emitting diode) 디스플레이, 프로젝터, 또는 도파관과 같은 시각적 컴포넌트들을 포함한다. 광학 어셈블리의 이미지 디스플레이들은 이미지 디스플레이 드라이버(1208)에 의해 구동된다. 헤드-웨어러블 장치(1202)의 출력 컴포넌트들은 음향 컴포넌트들(예를 들어, 스피커들), 햅틱 컴포넌트들(예를 들어, 진동 모터), 다른 신호 생성기들 등을 추가로 포함한다. 사용자 입력 디바이스(1206)와 같은, 헤드-웨어러블 장치(1202), 클라이언트 디바이스(1238), 및 서버 시스템(1232)의 입력 컴포넌트들은, 영숫자 입력 컴포넌트들(예를 들어, 키보드, 영숫자 입력을 수신하도록 구성된 터치 스크린, 포토-광학 키보드, 또는 다른 영숫자 입력 컴포넌트), 포인트 기반 입력 컴포넌트들(예를 들어, 마우스, 터치패드, 트랙볼, 조이스틱, 모션 센서, 또는 다른 포인팅 기구), 촉각 입력 컴포넌트들(예를 들어, 물리적 버튼, 터치 또는 터치 제스처의 위치 및 힘을 제공하는 터치 스크린, 또는 다른 촉각 입력 컴포넌트), 오디오 입력 컴포넌트들(예를 들어, 마이크로폰) 등을 포함할 수 있다.
헤드-웨어러블 장치(1202)는 추가적인 주변 디바이스 요소들을 선택적으로 포함할 수 있다. 이러한 주변 디바이스 요소들은 헤드-웨어러블 장치(1202)와 통합되는 바이오메트릭 센서들, 추가적인 센서들, 또는 디스플레이 요소들을 포함할 수 있다. 예를 들어, 주변 디바이스 요소들은 출력 컴포넌트들, 모션 컴포넌트들, 포지션 컴포넌트들, 또는 본 명세서에 설명된 임의의 다른 그러한 요소들을 포함하는 임의의 I/O 컴포넌트들을 포함할 수 있다.
예를 들어, 바이오메트릭 컴포넌트들은, 표정들(예를 들어, 손 표현, 얼굴 표정, 음성 표현, 신체 제스처, 또는 시선 추적)을 검출하고, 생체신호들(예를 들어, 혈압, 심박수, 체온, 땀 또는 뇌파)을 측정하고, 사람을 식별(예를 들어, 음성 식별, 망막 식별, 얼굴 식별, 지문 식별, 또는 뇌파계 기반 식별)하는 등의 컴포넌트들을 포함한다. 모션 컴포넌트들은, 가속 센서 컴포넌트들(예를 들어, 가속도계), 중력 센서 컴포넌트들, 회전 센서 컴포넌트들(예를 들어, 자이로스코프) 등을 포함할 수 있다. 포지션 컴포넌트들은 위치 좌표들을 생성하는 위치 센서 컴포넌트들(예를 들어, GPS(Global Positioning System) 수신기 컴포넌트), 포지셔닝 시스템 좌표들을 생성하는 WiFi 또는 BluetoothTM 송수신기들, 고도 센서 컴포넌트들(예를 들어, 고도계 또는 고도가 도출될 수 있는 기압을 검출하는 기압계), 방위 센서 컴포넌트들(예를 들어, 자력계) 등을 포함한다. 이러한 포지셔닝 시스템 좌표들은는 또한 저전력 무선 회로(1230) 또는 고속 무선 회로(1224)를 통해 클라이언트 디바이스(1238)로부터 수신 및 통신(1236)될 수 있다.
"A, B, 또는 C 중 적어도 하나", "A, B, 및 C 중 적어도 하나", "A, B, 또는 C 중 하나 이상", 또는 "A, B, 및 C 중 하나 이상"과 유사한 구문이 사용되는 경우, 이는 그 구문이 실시예에서 A만이 존재할 수 있다는 것, 실시예에서 B만이 존재할 수 있다는 것, 실시예에서 C만이 존재할 수 있다는 것, 또는 단일 실시예에서 요소 A, B, 및 C의 임의의 조합이 존재할 수 있다는 것; 예를 들어, A 및 B, A 및 C, B 및 C, 또는 A 및 B 및 C를 의미하는 것으로 해석될 수 있다는 것이 의도된다.
변경들 및 수정들은 본 개시내용의 범위로부터 벗어남 없이 개시된 실시예들에 대해 이루어질 수 있다. 이들 및 다른 변경들 또는 수정들은 다음의 청구항들에 표현된 바와 같이 본 개시내용의 범위 내에 포함되는 것으로 의도된다.
도 13은 본 명세서에서 설명된 임의의 하나 이상의 디바이스들 상에 설치될 수 있는 소프트웨어 아키텍처(1304)를 예시하는 블록도(1300)이다. 소프트웨어 아키텍처(1304)는 프로세서들(1320), 메모리(1326), 및 I/O 컴포넌트들(1338)을 포함하는 머신(1302)과 같은 하드웨어에 의해 지원된다. 이 예에서, 소프트웨어 아키텍처(1304)는 계층들의 스택으로서 개념화될 수 있으며, 여기서 각각의 계층은 특정 기능성을 제공한다. 소프트웨어 아키텍처(1304)는 운영 체제(1312), 라이브러리들(1310), 프레임워크들(1308), 및 애플리케이션들(1306)과 같은 계층들을 포함한다. 동작적으로, 애플리케이션들(1306)은 소프트웨어 스택을 통해 API 호출들(1350)을 기동하고 API 호출들(1350)에 응답하여 메시지(1352)를 수신한다.
운영 체제(1312)는 하드웨어 자원들을 관리하고 공통 서비스들을 제공한다. 운영 체제(1312)는, 예를 들어, 커널(1314), 서비스들(1316), 및 드라이버들(1322)을 포함한다. 커널(1314)은 하드웨어와 다른 소프트웨어 계층들 사이에서 추상화 계층(abstraction layer)으로서 역할을 한다. 예를 들어, 커널(1314)은, 다른 기능성들 중에서도, 메모리 관리, 프로세서 관리(예를 들어, 스케줄링), 컴포넌트 관리, 네트워크화, 및 보안 설정들을 제공한다. 서비스들(1316)은 다른 소프트웨어 계층들을 위한 다른 공통 서비스들을 제공할 수 있다. 드라이버들(1322)은 기본 하드웨어(underlying hardware)를 제어하거나 그와 인터페이스하는 것을 담당한다. 예를 들어, 드라이버들(1322)은 디스플레이 드라이버들, 카메라 드라이버들, BLUETOOTH® 또는 BLUETOOTH® Low Energy 드라이버들, 플래시 메모리 드라이버들, 직렬 통신 드라이버들(예를 들어, USB(Universal Serial Bus) 드라이버들), WI-FI® 드라이버들, 오디오 드라이버들, 전력 관리 드라이버들 등을 포함할 수 있다.
라이브러리들(1310)은 애플리케이션들(1306)에 의해 사용되는 로우-레벨 공통 인프라스트럭처를 제공한다. 라이브러리들(1310)은 메모리 할당 기능들, 스트링 조작 기능들, 수학 기능들 등과 같은 기능들을 제공하는 시스템 라이브러리들(1318)(예를 들어, C 표준 라이브러리)을 포함할 수 있다. 또한, 라이브러리들(1310)은, 미디어 라이브러리들(예를 들어, MPEG4(Moving Picture Experts Group-4), H.264 또는 AVC(Advanced Video Coding), MP3(Moving Picture Experts Group Layer-3), AAC(Advanced Audio Coding), AMR(Adaptive Multi-Rate) 오디오 코덱, JPEG 또는 JPG(Joint Photographic Experts Group), PNG(Portable Network Graphics) 등의 다양한 미디어 포맷의 제시 및 조작을 지원하는 라이브러리들), 그래픽 라이브러리들(예를 들어, 그래픽 콘텐츠를 디스플레이 상에서 2차원(2D) 및 3차원(3D)으로 렌더링하는데 이용되는 OpenGL 프레임워크), 데이터베이스 라이브러리들(예를 들어, 다양한 관계형 데이터베이스 기능을 제공하는 SQLite), 웹 라이브러리들(예를 들어, 웹 브라우징 기능성을 제공하는 WebKit), 및 그와 유사한 것과 같은 API 라이브러리들(1324)을 포함할 수 있다. 라이브러리들(1310)은 또한, 많은 다른 API를 애플리케이션(1306)에 제공하는 매우 다양한 다른 라이브러리들(1328)을 포함할 수 있다.
프레임워크들(1308)은 애플리케이션들(1306)에 의해 사용되는 하이-레벨 공통 인프라스트럭처를 제공한다. 예를 들어, 프레임워크들(1308)은 다양한 그래픽 사용자 인터페이스(GUI) 기능들, 하이-레벨 자원 관리, 및 하이-레벨 위치 서비스들을 제공한다. 프레임워크들(1308)은 애플리케이션들(1306)에 의해 사용될 수 있는 광범위한 범위의 다른 API들을 제공할 수 있으며, 그 중 일부는 특정 운영 체제 또는 플랫폼에 특정적일 수 있다.
예시적인 실시예에서, 애플리케이션들(1306)은 홈 애플리케이션(1336), 연락처 애플리케이션(1330), 브라우저 애플리케이션(1332), 북 리더 애플리케이션(1334), 위치 애플리케이션(1342), 미디어 애플리케이션(1344), 메시징 애플리케이션(1346), 게임 애플리케이션(1348), 및 제3자 애플리케이션들(1340)과 같은 아주 다양한 다른 애플리케이션들을 포함할 수 있다. 애플리케이션들(1306)은 프로그램들에서 정의되는 기능들을 실행하는 프로그램들이다. 애플리케이션들(1306) 중 하나 이상을 생성하기 위해 객체 지향형 프로그래밍 언어(예를 들어, Objective-C, Java, 또는 C++) 또는 절차형 프로그래밍 언어(예를 들어, C 또는 어셈블리 언어)와 같은 다양한 방식으로 구조화된 다양한 프로그래밍 언어가 채택될 수 있다. 구체적인 예에서, 제3자 애플리케이션(1340)(예를 들어, 특정 플랫폼의 벤더 이외의 엔티티에 의해 ANDROIDTM 또는 IOSTM 소프트웨어 개발 키트(SDK)를 사용하여 개발된 애플리케이션)은 IOSTM, ANDROIDTM, WINDOWS® Phone, 또는 Linux OS, 또는 다른 모바일 운영 체제들과 같은 모바일 운영 체제 상에서 실행되는 모바일 소프트웨어일 수 있다. 이 예에서, 제3자 애플리케이션(1340)은 본 명세서에서 설명된 기능성을 용이하게 하기 위해 운영 체제(1312)에 의해 제공되는 API 호출들(1350)을 기동할 수 있다.
도 14는, 머신(1400)으로 하여금 본 명세서에서 논의된 방법론들 중 어느 하나 이상을 수행하게 야기하기 위한 명령어들(1408)(예를 들어, 소프트웨어, 프로그램, 애플리케이션, 애플릿, 앱, 또는 기타 실행가능한 코드)이 실행될 수 있는 머신(1400)의 도식적 표현이다. 예를 들어, 명령어들(1408)은 머신(1400)으로 하여금 본 명세서에 설명된 방법들 중 임의의 하나 이상을 실행하게 야기할 수 있다. 명령어들(1408)은, 일반적인 비프로그래밍된 머신(1400)을, 설명되고 예시된 기능들을 설명된 방식으로 실행하도록 프로그래밍된 특정한 머신(1400)으로 변환한다. 머신(1400)은 독립형 디바이스로서 동작하거나 또는 다른 머신들에 결합(예를 들어, 네트워크화)될 수 있다. 네트워크화된 배치에서, 머신(1400)은 서버-클라이언트 네트워크 환경에서 서버 머신 또는 클라이언트 머신의 자격으로 동작하거나, 피어-투-피어(또는 분산형) 네트워크 환경에서 피어 머신으로서 동작할 수 있다. 머신(1400)은, 서버 컴퓨터, 클라이언트 컴퓨터, 개인용 컴퓨터(PC), 태블릿 컴퓨터, 랩톱 컴퓨터, 넷북, 셋톱 박스(STB), PDA, 엔터테인먼트 미디어 시스템, 셀룰러 전화, 스마트 폰, 모바일 디바이스, 웨어러블 디바이스(예를 들어, 스마트 시계), 스마트 홈 디바이스(예를 들어, 스마트 어플라이언스), 다른 스마트 디바이스들, 웹 어플라이언스, 네트워크 라우터, 네트워크 스위치, 네트워크 브리지, 또는 머신(1400)에 의해 취해질 액션들을 특정하는 명령어들(1408)을 순차적으로 또는 다른 방식으로 실행할 수 있는 임의의 머신을 포함할 수 있지만, 이들로 제한되지 않는다. 또한, 단일 머신(1400)만이 예시되어 있지만, 용어 "머신"은 또한, 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행하기 위해 명령어들(1408)을 개별적으로 또는 공동으로 실행하는 머신들의 컬렉션을 포함하는 것으로 취해질 것이다.
머신(1400)은 버스(1444)를 통해 서로 통신하도록 구성될 수 있는 프로세서들(1402), 메모리(1404), 및 I/O 컴포넌트들(1442)을 포함할 수 있다. 예시적인 실시예에서, 프로세서들(1402)(예를 들어, CPU(Central Processing Unit), RISC(Reduced Instruction Set Computing) 프로세서, CISC(Complex Instruction Set Computing) 프로세서, GPU(Graphics Processing Unit), DSP(Digital Signal Processor), ASIC, RFIC(Radio-Frequency Integrated Circuit), 또 다른 프로세서, 또는 이들의 임의의 적절한 조합)은, 예를 들어, 명령어들(1408)을 실행하는 프로세서(1406) 및 프로세서(1410)를 포함할 수 있다. "프로세서"라는 용어는 명령어들을 동시에 실행할 수 있는 둘 이상의 독립적인 프로세서들(때때로 "코어들"이라고 지칭됨)을 포함할 수 있는 멀티-코어 프로세서를 포함하는 것으로 의도된다. 도 14가 다수의 프로세서(1402)를 도시하지만, 머신(1400)은 단일-코어를 갖는 단일 프로세서, 다수의 코어를 갖는 단일 프로세서(예를 들어, 멀티-코어 프로세서), 단일 코어를 갖는 다수의 프로세서, 다수의 코어를 갖는 다수의 프로세서, 또는 이들의 임의의 조합을 포함할 수 있다.
메모리(1404)는 메인 메모리(1412), 정적 메모리(1414), 및 저장 유닛(1416)을 포함하고, 이들 둘 다 버스(1444)를 통해 프로세서들(1402)에 액세스 가능하다. 메인 메모리(1404), 정적 메모리(1414), 및 저장 유닛(1416)은 본 명세서에 설명된 방법론들 또는 기능들 중 임의의 하나 이상을 구현하는 명령어들(1408)을 저장한다. 명령어들(1408)은 또한, 머신(1400)에 의한 그 실행 동안에, 완전히 또는 부분적으로, 메인 메모리(1412) 내에, 정적 메모리(1414) 내에, 저장 유닛(1416) 내의 머신 판독가능 매체(1418) 내에, 프로세서(1402)들 중 적어도 하나 내에(예를 들어, 프로세서의 캐시 메모리 내에), 또는 이들의 임의의 적절한 조합으로 상주할 수 있다.
I/O 컴포넌트들(1442)은 입력을 수신하고, 출력을 제공하고, 출력을 생성하고, 정보를 송신하고, 정보를 교환하고, 측정들을 캡처하는 등을 위한 매우 다양한 컴포넌트들을 포함할 수 있다. 특정 머신에 포함되는 특정 I/O 컴포넌트(1442)는 머신의 타입에 의존할 것이다. 예를 들어, 모바일 폰들과 같은 휴대용 머신들은 터치 입력 디바이스 또는 다른 그러한 입력 메커니즘들을 포함할 수 있는 반면, 헤드리스 서버 머신(headless server machine)은 그러한 터치 입력 디바이스를 포함하지 않을 가능성이 클 것이다. I/O 컴포넌트들(1442)은 도 14에 도시되지 않은 많은 다른 컴포넌트들을 포함할 수 있다는 것을 알 것이다. 다양한 예시적인 실시예들에서, I/O 컴포넌트들(1442)은 출력 컴포넌트들(1428) 및 입력 컴포넌트들(1430)을 포함할 수 있다. 출력 컴포넌트들(1428)은, 시각적 컴포넌트들(예를 들어, 플라즈마 디스플레이 패널(PDP), 발광 다이오드(LED) 디스플레이, 액정 디스플레이(LCD), 프로젝터, 또는 음극선관(CRT)과 같은 디스플레이), 청각적 컴포넌트들(예를 들어, 스피커), 햅틱 컴포넌트들(예를 들어, 진동 모터, 저항 메커니즘), 다른 신호 생성기 등을 포함할 수 있다. 입력 컴포넌트들(1430)은, 영숫자 입력 컴포넌트들(예를 들어, 키보드, 영숫자 입력을 수신하도록 구성된 터치 스크린, 포토-광학 키보드, 또는 다른 영숫자 입력 컴포넌트), 포인트 기반 입력 컴포넌트들(예를 들어, 마우스, 터치패드, 트랙볼, 조이스틱, 모션 센서, 또는 다른 포인팅 기구), 촉각 입력 컴포넌트들(예를 들어, 물리적 버튼, 터치 또는 터치 제스처의 위치 및/또는 힘을 제공하는 터치 스크린, 또는 다른 촉각 입력 컴포넌트), 오디오 입력 컴포넌트들(예를 들어, 마이크로폰) 등을 포함할 수 있다.
추가의 예시적인 실시예들에서, I/O 컴포넌트들(1442)은, 광범위한 다른 컴포넌트들 중에서도, 바이오메트릭 컴포넌트들(1432), 모션 컴포넌트들(1434), 환경 컴포넌트들(1436), 또는 포지션 컴포넌트들(1438)을 포함할 수 있다. 예를 들어, 바이오메트릭 컴포넌트들(1432)은 표현들(예를 들어, 손 표현들, 얼굴 표정들, 음성 표현들, 신체 제스처들, 또는 눈 추적)을 검출하고, 생체신호들(예를 들어, 혈압, 심박수, 체온, 땀, 또는 뇌파)을 측정하고, 사람을 식별(예를 들어, 음성 식별, 망막 식별, 얼굴 식별, 지문 식별, 또는 뇌파계 기반 식별)하는 컴포넌트들 등을 포함한다. 모션 컴포넌트들(1434)은 가속도 센서 컴포넌트들(예를 들어, 가속도계), 중력 센서 컴포넌트들, 회전 센서 컴포넌트들(예를 들어, 자이로스코프) 등을 포함한다. 환경 컴포넌트들(1436)은, 예를 들어, 조명 센서 컴포넌트들(예를 들어, 광도계), 온도 센서 컴포넌트들(예를 들어, 주위 온도를 검출하는 하나 이상의 온도계), 습도 센서 컴포넌트들, 압력 센서 컴포넌트들(예를 들어, 기압계), 음향 센서 컴포넌트들(예를 들어, 배경 노이즈를 검출하는 하나 이상의 마이크로폰), 근접 센서 컴포넌트들(예를 들어, 인근 객체들을 검출하는 적외선 센서들), 가스 센서들(예를 들어, 안전을 위해 유해성 가스들의 농도들을 검출하거나 대기 내의 오염물질들을 측정하기 위한 가스 검출 센서들), 또는 주변 물리적 환경에 대응하는 지시들, 측정들, 또는 신호들을 제공할 수 있는 다른 컴포넌트들을 포함한다. 포지션 컴포넌트들(1438)은, 위치 센서 컴포넌트들(예를 들어, GPS 수신기 컴포넌트), 고도 센서 컴포넌트들(예를 들어, 고도계 또는 고도가 도출될 수 있는 기압을 검출하는 기압계), 방위 센서 컴포넌트들(예를 들어, 자력계) 등을 포함한다.
통신은 매우 다양한 기술을 사용하여 구현될 수 있다. I/O 컴포넌트들(1442)은 제각기 머신(1400)을 결합(1424) 및 결합(1426)을 통해 네트워크(1420) 또는 디바이스들(1422)에 결합하도록 동작가능한 통신 컴포넌트들(1440)을 추가로 포함한다. 예를 들어, 통신 컴포넌트들(1440)은 네트워크 인터페이스 컴포넌트, 또는 네트워크(1420)와 인터페이스하기에 적합한 또 다른 디바이스를 포함할 수 있다. 추가 예들에서, 통신 컴포넌트(1440)는, 유선 통신 컴포넌트들, 무선 통신 컴포넌트들, 셀룰러 통신 컴포넌트들, NFC(Near Field Communication) 컴포넌트들, Bluetooth® 컴포넌트들(예를 들어, Bluetooth® Low Energy), Wi-Fi® 컴포넌트들, 및 다른 양태를 통해 통신을 제공하는 기타의 통신 컴포넌트들을 포함할 수 있다. 디바이스들(1422)은 또 다른 머신 또는 매우 다양한 주변 디바이스들(예를 들어, USB를 통해 결합된 주변 디바이스) 중 임의의 것일 수 있다.
또한, 통신 컴포넌트들(1440)은 식별자들을 검출할 수 있거나 식별자들을 검출하도록 동작가능한 컴포넌트들을 포함할 수 있다. 예를 들어, 통신 컴포넌트들(1440)은 RFID(Radio Frequency Identification) 태그 판독기 컴포넌트들, NFC 스마트 태그 검출 컴포넌트들, 광학 판독기 컴포넌트들(예를 들어, UPC(Universal Product Code) 바코드와 같은 1차원 바코드들, QR(Quick Response) 코드와 같은 다차원 바코드들, Aztec 코드, Data Matrix, Dataglyph, MaxiCode, PDF417, Ultra Code, UCC RSS-2D 바코드, 및 다른 광학 코드들을 검출하는 광학 센서), 또는 음향 검출 컴포넌트들(예를 들어, 태깅된 오디오 신호들을 식별하는 마이크로폰들)을 포함할 수 있다. 또한, 인터넷 프로토콜(IP) 지오로케이션을 통한 위치, Wi-Fi® 신호 삼각측량을 통한 위치, 특정 위치를 나타낼 수 있는 NFC 비컨 신호를 검출하는 것을 통한 위치 등과 같은 다양한 정보가 통신 컴포넌트들(1440)을 통해 도출될 수 있다.
다양한 메모리들(예를 들어, 메모리(1404), 메인 메모리(1412), 정적 메모리(1414), 및/또는 프로세서들(1402)의 메모리) 및/또는 저장 유닛(1416)은 본 명세서에 설명된 방법론들 또는 기능들 중 임의의 하나 이상을 구현하거나 그에 의해 사용되는 명령어들 및 데이터 구조들(예를 들어, 소프트웨어)의 하나 이상의 세트를 저장할 수 있다. 이러한 명령어들(예를 들어, 명령어들(1408))은 프로세서들(1402)에 의해 실행될 때 다양한 동작으로 하여금 개시된 실시예들을 구현하게 야기한다.
명령어들(1408)은 네트워크 인터페이스 디바이스(예를 들어, 통신 컴포넌트들(1440)에 포함된 네트워크 인터페이스 컴포넌트)를 통해, 그리고 다수의 잘 알려진 전송 프로토콜들(예를 들어, HTTP(hypertext transfer protocol)) 중 어느 하나를 사용하여, 송신 매체를 사용하여, 네트워크(1420)를 통해 송신되거나 수신될 수 있다. 유사하게, 명령어들(1408)은 디바이스들(1422)에 대한 결합(1426)(예를 들어, 피어-투-피어 결합)을 통해 송신 매체를 사용하여 송신되거나 수신될 수 있다.
본 명세서에서 사용되는 바와 같이, "머신-저장 매체", "디바이스-저장 매체", "컴퓨터-저장 매체"라는 용어들은 동일한 것을 의미하고 본 개시내용에서 상호교환가능하게 사용될 수 있다. 이러한 용어들은 실행가능한 명령어들 및/또는 데이터를 저장하는 단일 또는 다수의 저장 디바이스 및/또는 매체(예를 들어, 중앙집중형 또는 분산형 데이터베이스, 및/또는 연관된 캐시들 및 서버들)를 지칭한다. 따라서, 용어들은, 솔리드 스테이트 메모리들, 및 프로세서들 내부 또는 외부의 메모리를 포함하는 광학 및 자기 매체들을 포함하지만, 이에 제한되지 않는 것으로 취해져야 한다. 머신-저장 매체, 컴퓨터-저장 매체 및/또는 디바이스-저장 매체의 특정 예들은, 예로서 반도체 메모리 디바이스들, 예를 들어, EPROM(erasable programmable read-only memory), EEPROM(electrically erasable programmable read-only memory), FPGA, 및 플래시 메모리 디바이스들을 포함하는 비휘발성 메모리; 내부 하드 디스크들 및 이동식 디스크들과 같은 자기 디스크들; 광자기 디스크들; 및 CD-ROM 및 DVD-ROM 디스크들을 포함한다. 용어들 "머신-저장 매체", "컴퓨터-저장 매체", 및 "디바이스-저장 매체"은 구체적으로 반송파들, 변조된 데이터 신호들, 및 다른 그러한 매체들을 제외하며, 이들 중 적어도 일부는 이하에서 논의되는 용어 "신호 매체" 하에서 커버된다.
"송신 매체" 및 "신호 매체"라는 용어들은 동일한 것을 의미하고 본 개시내용에서 상호교환가능하게 사용될 수 있다. "송신 매체" 및 "신호 매체"라는 용어들은, 머신(1400)에 의한 실행을 위한 명령어들(1416)을 저장, 인코딩, 또는 운반하는 것이 가능한 임의의 무형적(intangible) 매체를 포함하고 그러한 소프트웨어의 통신을 용이하게 하기 위한 디지털 또는 아날로그 통신 신호들 또는 다른 무형적 매체를 포함하는 것으로 취해질 것이다. 따라서, "송신 매체" 및 "신호 매체"라는 용어들은 임의의 형태의 변조된 데이터 신호, 반송파 등을 포함하는 것으로 취해질 것이다. "변조된 데이터 신호"라는 용어는 신호 내의 정보를 인코딩하는 방식으로 설정 또는 변경된 특성들 중 하나 이상을 갖는 신호를 의미한다.
용어들 "머신 판독가능 매체", "컴퓨터 판독가능 매체" 및 "디바이스 판독가능 매체"는 동일한 것을 의미하고, 본 개시내용에서 상호교환가능하게 사용될 수 있다. 그 용어들은 머신-저장 매체 및 송신 매체 둘 모두를 포함하도록 정의된다. 따라서, 용어들은 저장 디바이스들/매체 및 반송파들/변조된 데이터 신호들 둘 다를 포함한다.
특정 예시적인 실시예들을 참조하여 실시예가 설명되었지만, 본 개시내용의 더 넓은 범위를 벗어나지 않고 이러한 실시예들에 대해 다양한 수정들 및 변경들이 이루어질 수 있음이 명백할 것이다. 따라서, 명세서 및 도면들은 제한적인 의미가 아니라 예시적인 것으로 간주되어야 한다. 그 일부를 형성하는 첨부 도면들은, 본 발명의 주제가 실시될 수 있는 특정 실시예들을, 제한이 아닌, 예시로서 도시한다. 예시된 실시예들은 본 기술분야의 통상의 기술자들이 본 명세서에 개시된 교시를 실시할 수 있게 하기 위해 충분히 상세히 기술되어 있다. 본 개시내용의 범위로부터 벗어나지 않고 구조적 및 논리적 치환과 변경이 이루어질 수 있도록 하는 다른 실시예들이 이용될 수 있고 본 개시내용으로부터 도출될 수 있다. 따라서, 상세한 설명은 제한적인 의미로 취해져서는 안되며, 다양한 실시예들의 범위는 첨부된 청구항들과 그러한 청구항들이 부여된 균등물의 전체 범위에 의해서만 정의된다.
본 주제의 이러한 실시예들은 본 명세서에서 "발명"이라는 용어로 개별적으로 및/또는 종합적으로 지칭될 수 있으나, 단지 편리함을 위해서이며, 실질적으로 개시된 것보다 많은 경우라도 임의의 단일 발명 또는 본 발명의 사상에 대해 본 명세서의 범위를 자발적으로 제한하려는 의도가 아니다. 따라서, 특정 실시예들이 본 명세서에 예시되고 기술되어 있지만, 동일한 목적을 달성하기 위해 계산된 임의의 배열이 도시된 특정 실시예들을 대체할 수 있다는 것을 잘 알 것이다. 본 개시내용은 다양한 실시예들의 모든 개조들 또는 변형들을 포함하는 것으로 보아야 한다. 상기의 실시예들 및 본 명세서에서 구체적으로 설명되지 않은 그외의 실시예들의 조합들은 상기의 설명을 검토할 때 본 기술분야의 통상의 기술자들에게 명백할 것이다.
본 개시내용의 요약은 독자가 본 기술적 개시내용의 속성을 신속하게 알아내는 것을 허용하기 위해 제공된다. 그것은 청구항들의 범위 또는 의미를 해석하거나 제한하기 위해 이용되지는 않을 것이라는 이해하에 제시된다. 그에 부가하여, 전술한 상세한 설명에서는, 본 개시내용을 간소화하기 위해 다양한 특징들이 단일의 실시예에 함께 그룹화되어 있다는 것을 알 수 있다. 개시내용의 이러한 방법은 청구된 실시예들이 각각의 청구항에 명백하게 인용되는 것 보다 많은 특징들을 요구한다는 의도를 반영하는 것으로서 해석되지 않아야 한다. 오히려, 이하의 청구항들이 반영하고 있는 바와 같이, 본 주제가 단일의 개시된 실시예의 특징들 전부가 아닌 일부에 있다. 따라서, 이하의 청구항들은 이에 따라 상세한 설명에 포함되며, 각각의 청구항은 그 자체로서 개별적인 실시예로서의 지위를 갖는다.
예들
예 1은 오버-렌더링된 영역을 조정하기 위한 방법으로서, 디스플레이 디바이스의 각속도, 디스플레이 디바이스의 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들을 식별하는 단계; 및 각속도, 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들의 조합에 기초하여 동적 오버-렌더링된 영역의 크기를 조정하는 단계를 포함한다.
예 2는 예 1을 포함하고, 여기서 동적 오버-렌더링된 영역의 크기를 조정하는 단계는: 디스플레이 디바이스에서 관성 모션 유닛(IMU)으로부터 각속도를 검색하는 단계; 각속도가 임계치를 초과하는 것을 검출하는 단계; 및 각속도가 임계치를 초과하는 것을 검출한 것에 응답하여, 동적 오버-렌더링된 영역의 크기를 증가시키는 단계를 추가로 포함한다.
예 3은 예 1을 포함하고, 여기서 동적 오버-렌더링된 영역의 크기를 조정하는 단계는: 제1 워프 자세를 식별하는 단계; 제1 워프 자세에 대응하는 제1 오버-렌더링된 영역을 식별하는 단계; 제1 워프 자세에 후속하는 제2 워프 자세를 식별하는 단계; 제1 워프 자세에 대응하는 제2 오버-렌더링된 영역을 식별하는 단계; 및 제1 오버-렌더링된 영역 및 제2 오버-렌더링된 영역에 기초하여 동적 오버-렌더링된 영역을 형성하는 단계를 추가로 포함한다.
예 4는 예 3을 포함하고, 여기서 동적 오버-렌더링된 영역은 제1 오버-렌더링된 영역의 일부 및 제2 오버-렌더링된 영역의 일부를 포함한다.
예 5는 예 1을 포함하고, 여기서 동적 오버-렌더링된 영역의 크기를 조정하는 단계는: 각속도, 가장 최근 자세, 이전의 워프 자세들, 또는 이전의 오버-렌더링된 영역들에 기초하여 동적 오버-렌더링된 영역의 크기를 추정하기 위해 휴리스틱 알고리즘을 적용하는 단계를 추가로 포함한다.
예 6은 예 1을 포함하고, 여기서 동적 오버-렌더링된 영역의 크기를 조정하는 단계는: 각속도, 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들에 기초하여 동적 오버-렌더링된 영역의 크기를 추정하기 위해 머신 학습 알고리즘을 적용하는 단계를 추가로 포함한다.
예 7은 예 1을 포함하고, 렌더링된 자세에 기초하여 가상 콘텐츠를 생성하는 단계; 동적 오버-렌더링된 영역의 크기를 식별하는 단계; 동적 오버-렌더링된 영역에서 가상 콘텐츠를 렌더링하는 단계; 가장 최근 자세에 기초하여 렌더링된 이미지에 변환을 적용하여 변환된 이미지를 생성하는 단계; 및 변환된 이미지를 디스플레이 디바이스의 디스플레이에 디스플레이하는 단계를 추가로 포함한다.
예 8은 예 1을 포함하고, 제1 시간에 디스플레이 디바이스의 복수의 센서로부터의 제1 센서 데이터에 액세스하는 단계; 디스플레이 디바이스의 추적 시스템을 사용하여, 제1 센서 데이터에 기초하여 디스플레이 디바이스의 제1 자세를 결정하는 단계; 제1 시간에 후속하는 제2 시간에 디스플레이 디바이스의 복수의 센서로부터의 제2 센서 데이터에 액세스하는 단계; 및 디스플레이 디바이스의 추적 시스템을 사용하여, 제2 센서 데이터에 기초하여 디스플레이 디바이스의 제2 자세를 결정하는 단계를 추가로 포함한다.
예 9는 예 1을 포함하고, 디스플레이 디바이스의 3D 렌더 엔진의 렌더 레이트에 기초하여 동적 오버-렌더링된 영역의 크기를 조정하는 단계를 추가로 포함한다.
예 10은 예 1을 포함하고, 디스플레이 디바이스의 AR 애플리케이션을 사용하여, 동적 오버-렌더링된 영역에서 가상 콘텐츠를 생성하는 단계를 추가로 포함한다.
예 11은 컴퓨팅 장치로서, 프로세서; 및 명령어들을 저장한 메모리를 저장하고, 명령어들은, 프로세서에 의해 실행될 때: 디스플레이 디바이스의 각속도, 디스플레이 디바이스의 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들을 식별하는 동작; 및 각속도, 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들의 조합에 기초하여 동적 오버-렌더링된 영역의 크기를 조정하는 동작을 포함하는 동작들을 수행하도록 장치를 구성한다.
예 12는 예 11을 포함하고, 여기서 동적 오버-렌더링된 영역의 크기를 조정하는 동작은: 디스플레이 디바이스에서 관성 모션 유닛(IMU)으로부터 각속도를 검색하는 동작; 각속도가 임계치를 초과하는 것을 검출하는 동작; 및 각속도가 임계치를 초과하는 것을 검출한 것에 응답하여, 동적 오버-렌더링된 영역의 크기를 증가시키는 동작을 추가로 포함한다.
예 13은 예 11을 포함하고, 여기서 동적 오버-렌더링된 영역의 크기를 조정하는 동작은: 제1 워프 자세를 식별하는 동작; 제1 워프 자세에 대응하는 제1 오버-렌더링된 영역을 식별하는 동작; 제1 워프 자세에 후속하는 제2 워프 자세를 식별하는 동작; 제1 워프 자세에 대응하는 제2 오버-렌더링된 영역을 식별하는 동작; 및 제1 오버-렌더링된 영역 및 제2 오버-렌더링된 영역에 기초하여 동적 오버-렌더링된 영역을 형성하는 동작을 추가로 포함한다.
예 14는 예 13을 포함하고, 여기서 동적 오버-렌더링된 영역은 제1 오버-렌더링된 영역의 일부 및 제2 오버-렌더링된 영역의 일부를 포함한다.
예 15는 예 11을 포함하고, 여기서 동적 오버-렌더링된 영역의 크기를 조정하는 동작은: 각속도, 가장 최근 자세, 이전의 워프 자세들, 또는 이전의 오버-렌더링된 영역들에 기초하여 동적 오버-렌더링된 영역의 크기를 추정하기 위해 휴리스틱 알고리즘을 적용하는 동작을 추가로 포함한다.
예 16은 예 11을 포함하고, 여기서 동적 오버-렌더링된 영역의 크기를 조정하는 동작은: 각속도, 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들에 기초하여 동적 오버-렌더링된 영역의 크기를 추정하기 위해 머신 학습 알고리즘을 적용하는 동작을 추가로 포함한다.
예 17은 예 11을 포함하고, 여기서 명령어들은: 렌더링된 자세에 기초하여 가상 콘텐츠를 생성하고; 동적 오버-렌더링된 영역의 크기를 식별하고; 동적 오버-렌더링된 영역에 가상 콘텐츠를 렌더링하고; 가장 최근 자세에 기초하여 렌더링된 이미지에 변환을 적용하여 변환된 이미지를 생성하고; 변환된 이미지를 디스플레이 디바이스의 디스플레이에 디스플레이하도록 장치를 추가로 구성한다.
예 18은 예 11을 포함하고, 여기서 명령어들은: 제1 시간에 디스플레이 디바이스의 복수의 센서로부터의 제1 센서 데이터에 액세스하고; 디스플레이 디바이스의 추적 시스템을 사용하여, 제1 센서 데이터에 기초하여 디스플레이 디바이스의 제1 자세를 결정하고; 제1 시간에 후속하는 제2 시간에 디스플레이 디바이스의 복수의 센서로부터의 제2 센서 데이터에 액세스하고; 디스플레이 디바이스의 추적 시스템을 사용하여, 제2 센서 데이터에 기초하여 디스플레이 디바이스의 제2 자세를 결정하도록 장치를 추가로 구성된다.
예 19는 예 11을 포함하고, 여기서 명령어들은: 디스플레이 디바이스의 3D 렌더 엔진의 렌더 레이트에 기초하여 동적 오버-렌더링된 영역의 크기를 조정하도록 장치를 추가로 구성된다.
예 20은 비일시적 컴퓨터 판독가능 저장 매체이고, 이 컴퓨터 판독가능 저장 매체는 컴퓨터에 의해 실행될 때, 컴퓨터로 하여금: 디스플레이 디바이스의 각속도, 디스플레이 디바이스의 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들을 식별하는 동작; 및 각속도, 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들의 조합에 기초하여 동적 오버-렌더링된 영역의 크기를 조정하는 동작을 포함하는 동작들을 수행하게 하는 명령어들을 포함한다.

Claims (20)

  1. 오버-렌더링된 영역을 조정하기 위한 방법으로서,
    디스플레이 디바이스의 각속도, 상기 디스플레이 디바이스의 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들을 식별하는 단계; 및
    상기 각속도, 상기 가장 최근 자세, 상기 이전의 워프 자세들, 및 상기 이전의 오버-렌더링된 영역들의 조합에 기초하여 동적 오버-렌더링된 영역의 크기를 조정하는 단계를 포함하는 방법.
  2. 제1항에 있어서,
    상기 동적 오버-렌더링된 영역의 크기를 조정하는 단계는:
    상기 디스플레이 디바이스에서 관성 모션 유닛(IMU)으로부터 상기 각속도를 검색하는 단계;
    상기 각속도가 임계치를 초과하는 것을 검출하는 단계; 및
    상기 각속도가 상기 임계치를 초과하는 것을 검출한 것에 응답하여, 상기 동적 오버-렌더링된 영역의 크기를 증가시키는 단계를 추가로 포함하는 방법.
  3. 제1항에 있어서,
    상기 동적 오버-렌더링된 영역의 크기를 조정하는 단계는:
    제1 워프 자세를 식별하는 단계;
    상기 제1 워프 자세에 대응하는 제1 오버-렌더링된 영역을 식별하는 단계;
    상기 제1 워프 자세에 후속하는 제2 워프 자세를 식별하는 단계;
    상기 제1 워프 자세에 대응하는 제2 오버-렌더링된 영역을 식별하는 단계; 및
    상기 제1 오버-렌더링된 영역 및 상기 제2 오버-렌더링된 영역에 기초하여 상기 동적 오버-렌더링된 영역을 형성하는 단계를 추가로 포함하는 방법.
  4. 제3항에 있어서,
    상기 동적 오버-렌더링된 영역은 상기 제1 오버-렌더링된 영역의 일부 및 상기 제2 오버-렌더링된 영역의 일부를 포함하는 방법.
  5. 제1항에 있어서,
    상기 동적 오버-렌더링된 영역의 크기를 조정하는 단계는:
    상기 각속도, 상기 가장 최근 자세, 상기 이전의 워프 자세들, 또는 상기 이전의 오버-렌더링된 영역들에 기초하여 상기 동적 오버-렌더링된 영역의 크기를 추정하기 위해 휴리스틱 알고리즘(heuristic algorithm)을 적용하는 단계를 추가로 포함하는 방법.
  6. 제1항에 있어서,
    상기 동적 오버-렌더링된 영역의 크기를 조정하는 단계는:
    상기 각속도, 상기 가장 최근 자세, 상기 이전의 워프 자세들, 및 상기 이전의 오버-렌더링된 영역들에 기초하여 상기 동적 오버-렌더링된 영역의 크기를 추정하기 위해 머신 학습 알고리즘을 적용하는 단계를 추가로 포함하는 방법.
  7. 제1항에 있어서,
    렌더링된 자세에 기초하여 가상 콘텐츠를 생성하는 단계;
    상기 동적 오버-렌더링된 영역의 크기를 식별하는 단계;
    상기 동적 오버-렌더링된 영역에 상기 가상 콘텐츠를 렌더링하는 단계;
    상기 가장 최근 자세에 기초하여 렌더링된 이미지에 변환을 적용하여 변환된 이미지를 생성하는 단계; 및
    상기 변환된 이미지를 상기 디스플레이 디바이스의 디스플레이에 디스플레이하는 단계를 추가로 포함하는 방법.
  8. 제1항에 있어서,
    제1 시간에 상기 디스플레이 디바이스의 복수의 센서로부터의 제1 센서 데이터에 액세스하는 단계;
    상기 디스플레이 디바이스의 추적 시스템을 사용하여, 상기 제1 센서 데이터에 기초하여 상기 디스플레이 디바이스의 제1 자세를 결정하는 단계;
    상기 제1 시간에 후속하는 제2 시간에 상기 디스플레이 디바이스의 상기 복수의 센서로부터의 제2 센서 데이터에 액세스하는 단계; 및
    상기 디스플레이 디바이스의 추적 시스템을 사용하여, 상기 제2 센서 데이터에 기초하여 상기 디스플레이 디바이스의 제2 자세를 결정하는 단계를 추가로 포함하는 방법.
  9. 제1항에 있어서,
    상기 디스플레이 디바이스의 3D 렌더 엔진의 렌더 레이트에 기초하여 상기 동적 오버-렌더링된 영역의 크기를 조정하는 단계를 추가로 포함하는 방법.
  10. 제1항에 있어서,
    상기 디스플레이 디바이스의 AR 애플리케이션을 사용하여, 상기 동적 오버-렌더링된 영역에서 상기 가상 콘텐츠를 생성하는 단계를 추가로 포함하는 방법.
  11. 컴퓨팅 장치로서,
    프로세서; 및
    명령어들을 저장한 메모리를 포함하고, 상기 명령어들은, 상기 프로세서에 의해 실행될 때:
    디스플레이 디바이스의 각속도, 상기 디스플레이 디바이스의 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들을 식별하는 동작; 및
    상기 각속도, 상기 가장 최근 자세, 상기 이전의 워프 자세들, 및 상기 이전의 오버-렌더링된 영역들의 조합에 기초하여 동적 오버-렌더링된 영역의 크기를 조정하는 동작을 포함하는 동작들을 수행하도록 상기 장치를 구성하는 컴퓨팅 장치.
  12. 제11항에 있어서,
    상기 동적 오버-렌더링된 영역의 크기를 조정하는 동작은:
    상기 디스플레이 디바이스에서 관성 모션 유닛(IMU)으로부터 상기 각속도를 검색하는 동작;
    상기 각속도가 임계치를 초과하는 것을 검출하는 동작; 및
    상기 각속도가 상기 임계치를 초과하는 것을 검출한 것에 응답하여, 상기 동적 오버-렌더링된 영역의 크기를 증가시키는 동작을 추가로 포함하는 컴퓨팅 장치.
  13. 제11항에 있어서,
    상기 동적 오버-렌더링된 영역의 크기를 조정하는 동작은:
    제1 워프 자세를 식별하는 동작;
    상기 제1 워프 자세에 대응하는 제1 오버-렌더링된 영역을 식별하는 동작;
    상기 제1 워프 자세에 후속하는 제2 워프 자세를 식별하는 동작;
    상기 제1 워프 자세에 대응하는 제2 오버-렌더링된 영역을 식별하는 동작; 및
    상기 제1 오버-렌더링된 영역 및 상기 제2 오버-렌더링된 영역에 기초하여 상기 동적 오버-렌더링된 영역을 형성하는 동작을 추가로 포함하는 컴퓨팅 장치.
  14. 제13항에 있어서,
    상기 동적 오버-렌더링된 영역은 상기 제1 오버-렌더링된 영역의 일부 및 상기 제2 오버-렌더링된 영역의 일부를 포함하는 컴퓨팅 장치.
  15. 제11항에 있어서,
    상기 동적 오버-렌더링된 영역의 크기를 조정하는 동작은:
    상기 각속도, 상기 가장 최근 자세, 상기 이전의 워프 자세들, 또는 상기 이전의 오버-렌더링된 영역들에 기초하여 상기 동적 오버-렌더링된 영역의 크기를 추정하기 위해 휴리스틱 알고리즘을 적용하는 동작을 추가로 포함하는 컴퓨팅 장치.
  16. 제11항에 있어서,
    상기 동적 오버-렌더링된 영역의 크기를 조정하는 동작은:
    상기 각속도, 상기 가장 최근 자세, 상기 이전의 워프 자세들, 및 상기 이전의 오버-렌더링된 영역들에 기초하여 상기 동적 오버-렌더링된 영역의 크기를 추정하기 위해 머신 학습 알고리즘을 적용하는 동작을 추가로 포함하는 컴퓨팅 장치.
  17. 제11항에 있어서,
    상기 명령어들은:
    상기 렌더링된 자세에 기초하여 가상 콘텐츠를 생성하고;
    상기 동적 오버-렌더링된 영역의 크기를 식별하고;
    상기 동적 오버-렌더링된 영역에 상기 가상 콘텐츠를 렌더링하고;
    상기 가장 최근 자세에 기초하여 렌더링된 이미지에 변환을 적용하여 변환된 이미지를 생성하며;
    상기 변환된 이미지를 상기 디스플레이 디바이스의 디스플레이에 디스플레이하도록 상기 장치를 추가로 구성하는 컴퓨팅 장치.
  18. 제11항에 있어서,
    상기 명령어들은:
    제1 시간에 상기 디스플레이 디바이스의 복수의 센서로부터의 제1 센서 데이터에 액세스하고;
    상기 디스플레이 디바이스의 추적 시스템을 사용하여, 상기 제1 센서 데이터에 기초하여 상기 디스플레이 디바이스의 제1 자세를 결정하고;
    상기 제1 시간에 후속하는 제2 시간에 상기 디스플레이 디바이스의 상기 복수의 센서로부터의 제2 센서 데이터에 액세스하며;
    상기 디스플레이 디바이스의 추적 시스템을 사용하여, 상기 제2 센서 데이터에 기초하여 상기 디스플레이 디바이스의 제2 자세를 결정하도록 상기 장치를 추가로 구성하는 컴퓨팅 장치.
  19. 제11항에 있어서,
    상기 명령어들은:
    상기 디스플레이 디바이스의 3D 렌더 엔진의 렌더 레이트에 기초하여 상기 동적 오버-렌더링된 영역의 크기를 조정하도록 상기 장치를 추가로 구성하는 컴퓨팅 장치.
  20. 비일시적 컴퓨터 판독가능 저장 매체로서,
    상기 컴퓨터 판독가능 저장 매체는 명령어들을 포함하고, 상기 명령어들은, 컴퓨터에 의해 실행될 때, 상기 컴퓨터로 하여금:
    디스플레이 디바이스의 각속도, 상기 디스플레이 디바이스의 가장 최근 자세, 이전의 워프 자세들, 및 이전의 오버-렌더링된 영역들을 식별하는 동작; 및
    상기 각속도, 상기 가장 최근 자세, 상기 이전의 워프 자세들, 및 상기 이전의 오버-렌더링된 영역들의 조합에 기초하여 동적 오버-렌더링된 영역의 크기를 조정하는 동작을 포함하는 동작들을 수행하게 하는 비일시적 컴퓨터 판독가능 저장 매체.
KR1020237042785A 2021-05-18 2022-05-16 늦은-워핑에서의 동적 오버-렌더링 KR20240006669A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163189928P 2021-05-18 2021-05-18
US63/189,928 2021-05-18
US17/530,242 2021-11-18
US17/530,242 US11615506B2 (en) 2021-05-18 2021-11-18 Dynamic over-rendering in late-warping
PCT/US2022/072348 WO2022246389A1 (en) 2021-05-18 2022-05-16 Dynamic over-rendering in late-warping

Publications (1)

Publication Number Publication Date
KR20240006669A true KR20240006669A (ko) 2024-01-15

Family

ID=81927471

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237042785A KR20240006669A (ko) 2021-05-18 2022-05-16 늦은-워핑에서의 동적 오버-렌더링

Country Status (4)

Country Link
US (2) US11880958B2 (ko)
EP (1) EP4341780A1 (ko)
KR (1) KR20240006669A (ko)
WO (1) WO2022246389A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022246389A1 (en) 2021-05-18 2022-11-24 Snap Inc. Dynamic over-rendering in late-warping

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019183914A1 (en) 2018-03-30 2019-10-03 Intel Corporation Dynamic video encoding and view adaptation in wireless computing environments
EP3782125B1 (en) * 2018-04-19 2024-08-28 InterDigital VC Holdings, Inc. Systems and methods employing predictive overfilling for virtual reality
US11615506B2 (en) 2021-05-18 2023-03-28 Snap Inc. Dynamic over-rendering in late-warping
WO2022246389A1 (en) 2021-05-18 2022-11-24 Snap Inc. Dynamic over-rendering in late-warping

Also Published As

Publication number Publication date
WO2022246389A1 (en) 2022-11-24
US11880958B2 (en) 2024-01-23
EP4341780A1 (en) 2024-03-27
US20230206390A1 (en) 2023-06-29
US20240029197A1 (en) 2024-01-25

Similar Documents

Publication Publication Date Title
US11765457B2 (en) Dynamic adjustment of exposure and iso to limit motion blur
US20230388632A1 (en) Dynamic adjustment of exposure and iso to limit motion blur
KR20240009993A (ko) 멀티레벨 특징 추적을 위한 직접 스케일 레벨 선택
US11615506B2 (en) Dynamic over-rendering in late-warping
US20240248531A1 (en) Reducing startup time of augmented reality experience
US20220375110A1 (en) Augmented reality guided depth estimation
US20240176428A1 (en) Dynamic initialization of 3dof ar tracking system
US20220375041A1 (en) Selective image pyramid computation for motion blur mitigation in visual-inertial tracking
EP4342170A1 (en) Selective image pyramid computation for motion blur mitigation
US20240029197A1 (en) Dynamic over-rendering in late-warping
US11683585B2 (en) Direct scale level selection for multilevel feature tracking under motion blur
CN117321472A (zh) 进行后期扭曲以最小化移动对象的延迟
US12067693B2 (en) Late warping to minimize latency of moving objects
US11941184B2 (en) Dynamic initialization of 3DOF AR tracking system
US20230267691A1 (en) Scene change detection with novel view synthesis
KR20240008370A (ko) 움직이는 객체들의 레이턴시를 최소화하기 위한 늦은 워핑
KR20240007245A (ko) 증강 현실 안내식 깊이 추정
CN117425869A (zh) 后期扭曲中的动态过度渲染
WO2023239776A1 (en) Fast ar device pairing using depth predictions