KR20200106547A - 센서 집적 회로들을 포함하는 머리-착용 디스플레이들에 대한 위치 추적 시스템 - Google Patents
센서 집적 회로들을 포함하는 머리-착용 디스플레이들에 대한 위치 추적 시스템 Download PDFInfo
- Publication number
- KR20200106547A KR20200106547A KR1020207023775A KR20207023775A KR20200106547A KR 20200106547 A KR20200106547 A KR 20200106547A KR 1020207023775 A KR1020207023775 A KR 1020207023775A KR 20207023775 A KR20207023775 A KR 20207023775A KR 20200106547 A KR20200106547 A KR 20200106547A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor data
- camera
- image sensor
- head
- processor
- Prior art date
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 59
- 238000000034 method Methods 0.000 claims abstract description 50
- 230000008569 process Effects 0.000 claims abstract description 7
- 238000005259 measurement Methods 0.000 claims description 8
- 210000001508 eye Anatomy 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 12
- 210000003128 head Anatomy 0.000 description 9
- 210000001747 pupil Anatomy 0.000 description 8
- 230000003190 augmentative effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 201000003152 motion sickness Diseases 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 230000001720 vestibular Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
Abstract
머리-착용 디스플레이(head-mounted display; HMD)의 위치를 추적하기 위한 시스템들 및 방법들. HMD는 전향(forward facing) 카메라 및 복수의 광학적 흐름 센서 집적 회로(IC)들을 운반하는 지지 구조체를 포함할 수 있다. 전방 카메라는 제 1 프레임 레이트로 전방 카메라 시계(field of view; FOV) 내의 이미지 센서 데이터를 캡처하며, 복수의 센서 IC들의 각각은 제 2 프레임 레이트로 개별적인 복수의 센서 IC FOV들 내의 이미지 센서 데이터를 캡처한다. 센서 IC FOV들은 집합적으로 적어도 전방 카메라 FOV의 상당한 부분을 커버할 수 있다. 프로세서는 카메라 및 복수의 센서 IC들로부터 이미지 센서 데이터를 수신할 수 있다. 프로세서는 수신된 센서 데이터의 프로세싱에 기초하여 머리-착용 디스플레이의 위치를 추적하기 위해 수신된 이미지 센서 데이터 및/또는 다른 센서 데이터(예를 들어, IMU 데이터)를 프로세싱할 수 있다.
Description
본 개시는 전반적으로 머리-착용형 디스플레이들에 대한 위치 추적에 관한 것이다.
가상 현실(virtual reality; "VR") 또는 증강 현실(augmented reality; "AR") 경험들의 하나의 현행 생성은, 고정식 컴퓨터(예컨대, 개인용 컴퓨터("PC"), 랩탑, 또는 게임 콘솔)에 테더링되거나, 스마트 폰 및/또는 그것의 연관된 디스플레이와 결합되거나 및/또는 통합될 수 있거나, 또는 자급식일 수 있는 머리-착용 디스플레이(head-mounted display; "HMD")들을 사용하여 생성된다. 일반적으로, HMD들은, 하나의(단안 HMD) 또는 각각의 눈(쌍안 HMD)의 전방에 소형 디스플레이 디바이스를 갖는, 사용자의 머리에 착용되는 디스플레이 디바이스들이다. 디스플레이 유닛들은 전형적으로 소형화되며, 예를 들어, CRT, LCD, 실리콘 액정 표시장치(Liquid crystal on silicon; LCo)들, 또는 OLED 기술품들을 포함할 수 있다. 쌍안 HMD는 각각의 눈에 상이한 이미지를 디스플레이할 가능성을 갖는다. 이러한 성능은 입체 이미지들을 디스플레이하기 위하여 사용된다.
스마트폰들 및 고-화질 텔레비전들뿐만 아니라 다른 전자 디바이스들의 성장과 함께 고성능을 갖는 디스플레이들에 대한 수요가 증가하였다. 가상 현실 및 증강 현실 시스템들, 특히 이러한 HMD들을 사용하는 가상 현실 및 증강 현실 시스템들의 성장하고 있는 인기가 이러한 수요를 추가로 증가시키고 있다. 가상 현실 시스템들은 전형적으로 착용자의 눈들을 완전히 감싸고 착용자의 전방에서 실제 또는 물리적 현실 뷰(view)를 "가상" 현실로 치환하며, 반면 증강 현실 시스템들은 전형적으로, 실제 뷰가 추가적인 정보로 증강되도록 착용자의 눈들의 전방에 하나 이상의 스크린들의 반-투명 또는 투명 오버레이(overlay)를 제공하고, 매개 현실 시스템(mediated reality system)들은 유사하게 실제 엘리먼트들을 가상 엘리먼트들과 결합하는 정보를 시청자(viewer)에게 나타낼 수 있다. 다수의 가상 현실 및 증강 현실 시스템들에 있어서, 보여지고 있는 이미지들이 사용자의 움직임들을 반영하는 것을 가능하게 하기 위하여, 이러한 머리-착용 디스플레이의 착용자의 움직임은 다양한 방식들로, 예컨대 머리-착용 디스플레이 내의 및/또는 그 외부의 센서들을 통해 추적될 수 있다.
위치 추적은 HMD가 그 주위의 환경에 대하여 그것의 위치를 추정하는 것을 가능하게 한다. 위치 추적은 HMD의 절대 위치의 검출을 달성하기 위해 하드웨어 및 소프트웨어의 조합을 사용할 수 있다. 위치 추적은 AR 또는 VR 시스템들에 대하여 중요한 기술이며, 이는 6 자유도(six degrees of freedom; 6DOF)를 가지고 HMD들(및/또는 제어기들 또는 다른 주변기기들)의 움직임을 추적하는 것을 가능하게 한다.
위치 추적 기술은 점프 또는 웅크림과 같은 상이한 액션들을 반영하기 위하여 사용자의 시점을 변화시키기 위해 사용될 수 있으며, 사용자의 손들 및 가상 환경 내의 다른 물체들의 정확한 표현을 가능하게 할 수 있다. 위치 추적은 또한, 예를 들어, 터치에 의해 가상 물체들을 움직이기 위해 손 위치를 사용함으로써, 물리적 환경과 가상 환경 사이의 연결을 증가시킬 수 있다. 위치 추적은 시차(parallax) 때문에 사용자에 대한 가상 현실의 3D 인식을 개선하며, 이는 거리의 인식을 돕는다. 또한, 위치 추적은, 눈으로 보여지는 것의 입력과 사용자의 귀의 전정계에 의해 느껴지고 있는 것의 입력 사이의 분리(disconnect)에 의해 초래되는 멀미를 최소화하거나 또는 감소시키는 것을 도울 수 있다.
위치 추적의 상이한 방법들이 존재한다. 이러한 방법들은 음향 추적, 관성 추적, 자기 추적, 광학 추적, 이들의 조합들, 등을 포함할 수 있다.
머리 착용 디스플레이는, 사용자의 머리 상에 착용가능한 지지 구조체; 상기 지지 구조체에 의해 운반되는 카메라로서, 상기 카메라는 동작 시에 제 1 프레임 레이트(rate)로 카메라 시계(field of view) 내의 이미지 센서 데이터를 캡처하는, 상기 카메라; 상기 지지 구조체에 의해 운반되는 복수의 광학적 흐름 센서 집적 회로(integrated circuit; IC)들로서, 동작 시에 상기 복수의 광학적 흐름 센서 IC들의 각각은 제 2 프레임 레이트로 개별적인 센서 IC 시계 내의 이미지 센서 데이터를 캡처하며, 상기 센서 IC 시계들은 상기 카메라 시계보다 더 좁고, 상기 제 2 프레임 레이트는 상기 제 1 프레임 레이트보다 더 큰, 상기 복수의 광학적 흐름 센서 IC들; 프로세서-실행가능 명령어들 또는 데이터 중 적어도 하나를 포함하는 적어도 하나의 비일시적인 프로세서-판독가능 저장 매체; 및 상기 카메라, 상기 복수의 광학적 흐름 센서 IC들, 및 상기 적어도 하나의 비일시적인 프로세서-판독가능 저장 매체에 동작가능하게 결합되는 적어도 하나의 프로세서를 포함하며, 동작 시에, 상기 적어도 하나의 프로세서는, 상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터 상기 이미지 센서 데이터를 수신하고; 상기 수신된 이미지 센서 데이터를 프로세싱하며; 및 적어도 부분적으로 상기 수신된 이미지 센서 데이터의 프로세싱에 기초하여 상기 머리-착용 디스플레이의 위치를 추적하는 것으로서 요약될 수 있다. 상기 적어도 하나의 프로세서는 상기 머리-착용 디스플레이의 위치를 추적하기 위하여 상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터의 상기 이미지 센서 데이터를 융합할 수 있다.
상기 머리-착용 디스플레이는, 상기 적어도 하나의 프로세서에 동작가능하게 결합되는 관성 측정 유닛(inertial measurement unit; IMU) 센서를 더 포함할 수 있으며, 동작 시에 상기 적어도 하나의 프로세서는, 상기 IMU 센서로부터 IMU 센서 데이터를 수신하며; 상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터 수신된 상기 이미지 센서 데이터 및 상기 IMU 센서 데이터를 프로세싱하고; 및 적어도 부분적으로 상기 수신된 이미지 센서 데이터 및 상기 수신된 IMU 센서 데이터의 프로세싱에 기초하여 상기 머리-착용 디스플레이의 위치를 추적한다. 상기 복수의 광학적 흐름 센서 IC들의 각각은 이미지 센싱 회로부 및 그 위의 이미지 프로세싱 회로부를 갖는 단일 다이를 포함할 수 있다. 상기 제 1 프레임 레이트는 초 당 100 프레임 이하일 수 있으며, 상기 제 2 프레임 레이트는 초 당 1000 프레임 이상일 수 있다. 상기 적어도 하나의 프로세서는, 상기 머리-착용 디스플레이가 동작하는 환경 내에 존재하는 하나 이상의 특징들을 검출하기 위해 상기 수신된 이미지 센서 데이터를 프로세싱할 수 있다. 상기 센서 IC 시계들의 각각은 상기 카메라 시계의 일 부분과 중첩될 수 있다. 상기 적어도 하나의 프로세서는 상기 센서 IC 시계들을 상기 카메라 시계와 정렬(register)할 수 있다. 상기 카메라 시계는 100 도보다 더 클 수 있다.
상기 머리-착용 디스플레이는 각기 사용자의 하나의 눈에 대한 디스플레이를 제공하는 제 1 및 제 2 디스플레이 서브시스템들을 더 포함할 수 있으며, 동작 시에, 상기 적어도 하나의 프로세서는 상기 제 1 및 제 2 디스플레이 서브시스템들을 통해 상기 카메라로부터 획득된 이미지들을 선택적으로 제공한다.
머리-착용 디스플레이를 동작시키는 방법으로서, 상기 머리-착용 디스플레이는 사용자의 머리 상에 착용이 가능한 지지 구조체, 상기 지지 구조체에 의해 운반되는 카메라 및 상기 지지 구조체에 의해 운반되는 복수의 광학적 흐름 센서 집적 회로(IC)들을 포함하며, 상기 방법은, 상기 카메라를 통해, 제 1 프레임 레이트로 카메라 시계 내의 이미지 센서 데이터를 캡처하는 단계; 상기 복수의 광학적 흐름 센서 IC들을 통해, 제 2 프레임 레이트로 개별적인 센서 IC 시계 내의 이미지 센서 데이터를 캡처하는 단계로서, 상기 센서 IC 시계들은 상기 카메라 시계보다 더 좁고, 상기 제 2 프레임 레이트는 상기 제 1 프레임 레이트보다 더 큰, 단계; 적어도 하나의 프로세서에 의해, 상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터 상기 이미지 센서 데이터를 수신하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 수신된 이미지 센서 데이터를 프로세싱하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 적어도 부분적으로 상기 수신된 이미지 센서 데이터의 프로세싱에 기초하여 상기 머리-착용 디스플레이의 위치를 추적하는 단계를 포함하는 것으로서 요약될 수 있다. 상기 수신된 이미지 센서 데이터를 프로세싱하는 단계는, 상기 머리-착용 디스플레이의 위치를 추적하기 위하여 상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터의 상기 이미지 센서 데이터를 융합하는 단계를 포함할 수 있다.
상기 머리-착용 디스플레이는 상기 적어도 하나의 프로세서에 동작가능하게 결합되는 관성 측정 유닛(inertial measurement unit; IMU) 센서를 더 포함할 수 있으며, 상기 방법은, 상기 적어도 하나의 프로세서에 의해, 상기 IMU 센서로부터 IMU 센서 데이터를 수신하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터 수신된 상기 이미지 센서 데이터 및 상기 IMU 센서 데이터를 프로세싱하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 적어도 부분적으로 상기 수신된 이미지 센서 데이터 및 상기 수신된 IMU 센서 데이터의 프로세싱에 기초하여 상기 머리-착용 디스플레이의 위치를 추적하는 단계를 더 포함할 수 있다.
상기 복수의 광학적 흐름 센서 IC들을 통해 이미지 센서 데이터를 캡처하는 단계는, 각기 이미지 센싱 회로부 및 그 위의 이미지 프로세싱 회로부를 갖는 단일 다이를 포함하는 복수의 광학적 흐름 센서 IC들을 통해 이미지 센서 데이터를 캡처하는 단계를 포함할 수 있다. 제 1 프레임 레이트로 카메라 시계 내의 이미지 센서 데이터를 캡처하는 단계는 초당 100 프레임 이하인 제 1 프레임 레이트로 카메라 시계 내의 이미지 센서 데이터를 캡처하는 단계를 포함할 수 있으며, 제 2 프레임 레이트로 상기 센서 IC 시계들 내의 이미지 센서 데이터를 캡처하는 단계는 초당 1000 프레임 이상인 제 2 프레임 레이트로 상기 센서 IC 시계들 내의 이미지 센서 데이터를 캡처하는 단계를 포함할 수 있다. 상기 수신된 이미지 센서 데이터를 프로세싱하는 단계는, 상기 머리-착용 디스플레이가 동작하는 환경 내에 존재하는 하나 이상의 특징들을 검출하기 위해 상기 수신된 이미지 센서 데이터를 프로세싱하는 단계를 포함할 수 있다. 상기 센서 IC 시계들의 각각은 상기 카메라 시계의 일 부분과 중첩될 수 있다. 상기 수신된 이미지 센서 데이터를 프로세싱하는 단계는 상기 센서 IC 시계들을 상기 카메라 시계와 정렬하는 단계를 포함할 수 있다. 상기 카메라 시계는 100 도보다 더 클 수 있다.
상기 머리-착용 디스플레이는 각기 사용자의 하나의 눈에 대한 디스플레이를 제공하는 제 1 및 제 2 디스플레이 서브시스템들을 더 포함할 수 있으며, 상기 방법은 상기 제 1 및 제 2 디스플레이 서브시스템들을 통해 상기 카메라로부터 획득된 이미지들을 선택적으로 제공하는 단계를 더 포함할 수 있다.
도면들에서, 동일한 참조 번호들은 유사한 엘리먼트들 또는 행동들을 식별한다. 도면들 내에서 엘리먼트들의 크기들 및 상대적인 위치들은 반드시 축적이 맞춰져야 하는 것은 아니다. 예를 들어, 다양한 엘리먼트들의 형상들 및 각도들이 반드시 축적이 맞춰져야 할 필요는 없으며, 이러한 엘리먼트들 중 일부는 도면 가독성을 개선하기 위하여 임의적으로 확장되고 위치될 수 있다. 추가로, 도시되는 엘리먼트들의 특정 형상들은 반드시 특정 엘리먼트들의 정확한 형상에 관한 임의의 정보를 전달하도록 의도되는 것은 아니며, 단지 도면들 내에서의 인식의 용이성을 위하여 선택될 수 있다.
도 1은 본 개시의 예시적인 실시예에 따른 쌍안 디스플레이 서브시스템들, 전방 카메라, 및 복수의 센서 집적 회로들 포함하는 머리-착용 디스플레이 시스템의 상단 평면도를 예시한다.
도 2는 본 개시의 예시적인 실시예에 따른 쌍안 디스플레이 서브시스템들, 전방 카메라, 및 복수의 센서 집적 회로들 포함하는 머리-착용 디스플레이 시스템의 정면도이다.
도 3은 본 개시의 예시적인 일 실시예에 따른 도 2에 도시된 머리-착용 디스플레이 시스템의 상단 평면도이다.
도 4는 본 개시의 예시적인 실시예에 따른 머리-착용 디스플레이 시스템의 개략적인 블록도이다.
도 5는 본 개시의 예시적인 실시예에 따른 사용 동안 머리-착용 디스플레이 시스템의 위치, 배향 및/또는 움직임을 추적하기 위한 머리-착용 시스템을 동작시키는 방법에 대한 순서도이다.
도 1은 본 개시의 예시적인 실시예에 따른 쌍안 디스플레이 서브시스템들, 전방 카메라, 및 복수의 센서 집적 회로들 포함하는 머리-착용 디스플레이 시스템의 상단 평면도를 예시한다.
도 2는 본 개시의 예시적인 실시예에 따른 쌍안 디스플레이 서브시스템들, 전방 카메라, 및 복수의 센서 집적 회로들 포함하는 머리-착용 디스플레이 시스템의 정면도이다.
도 3은 본 개시의 예시적인 일 실시예에 따른 도 2에 도시된 머리-착용 디스플레이 시스템의 상단 평면도이다.
도 4는 본 개시의 예시적인 실시예에 따른 머리-착용 디스플레이 시스템의 개략적인 블록도이다.
도 5는 본 개시의 예시적인 실시예에 따른 사용 동안 머리-착용 디스플레이 시스템의 위치, 배향 및/또는 움직임을 추적하기 위한 머리-착용 시스템을 동작시키는 방법에 대한 순서도이다.
다음의 설명에 있어, 어떤 특정 세부사항들이 개시된 다양한 구현예들의 철저한 이해를 제공하기 위하여 기술되었다. 그러나, 당업자는 구현예들이 이러한 특정 세부사항들 중 하나 이상이 없는 상태로 또는 다른 방법들, 컴포넌트들, 재료들 등과 함께 실시될 수 있다는 것을 인식할 것이다. 다른 예들에 있어, 컴퓨터 시스템들, 서버 컴퓨터들, 및/또는 통신 네트워크들과 연관된 잘 알려진 구조들은 구현예들의 설명을 불필요하게 모호하게 하는 것을 회피하기 위하여 상세하게 도시되지 않거나 또는 설명되지 않는다.
문맥이 달리 요구하지 않는 한, 다음의 명세서 및 청구항들 전체에 걸쳐, 단어 "구성되는"은 "포함하는"과 동의어이며, 포괄적이고 개방적이다(즉, 추가적인, 언급되지 않은 엘리먼트들 또는 방법 행동들을 배제하지 않는다).
본 명세서 전체에 걸쳐 "하나의 구현예" 또는 "일 구현예"에 대한 이러한 설명의 언급은 구현예와 함께 설명된 특정 특징, 구조, 또는 특성이 적어도 하나의 구현예에 포함된다는 것을 의미한다. 따라서, 본 명세서 전체에 걸쳐 다양한 위치들에서의 문구들 "하나의 구현예에 있어서" 또는 "일 구현예에 있어서"의 출현이 반드시 모두 동일한 구현예를 지칭하는 것이 아니다. 추가적으로, 특정 특징들, 구조들, 또는 특성들은 하나 이상의 구현예들에서 임의의 적절한 방식으로 결합될 수 있다.
본 명세서에서 그리고 첨부된 청구항들에서 사용될 때, 단수 형태들 "일", 및 "상기"는 문맥이 명백하게 달리 기재하지 않는 한 복수의 지시대상들을 포함한다. 용어 "또는"은 일반적으로, 문맥이 명백히 달리 기술하지 않는 한, "및/또는"을 포함하는 의미로 이용된다.
본원에서 제공되는 본 개시의 표제 및 요약은 오로지 편의를 위한 것이며, 구현예들의 의미 또는 범위를 해석하지 않는다.
본 개시의 하나 이상의 구현예들은 HMD의 착용자에 의한 사용 동안 머리-착용 디스플레이(head-mounted display; HMD)의 위치를 정확히 추적하기 위한 시스템들 및 방법들에 관한 것이다. 적어도 하나의 구현예들에 있어서, HMD는 전향(forward facing) 카메라("전방 카메라" 또는 "정면 카메라") 및 복수의 광학적 흐름 센서 집적 회로(IC)들, 또는 "센서 IC들"을 운반하는 지지 구조체를 포함한다. 전방 카메라는 제 1 프레임 레이트(rate)(예를 들어, 30 Hz, 90 Hz)로 전방 카메라 시계(field of view) 내의 이미지 센서 데이터를 캡처한다. 복수의 센서 IC들의 각각은 제 2 프레임 레이트(예를 들어, 1000 Hz, 2000 Hz)로 개별적인 복수의 센서 IC 시계 내의 이미지 센서 데이터를 캡처한다. 적어도 일부 구현예들에 있어서, 센서 IC 시계는 전방 카메라 시계보다 더 좁을 수 있다. 예를 들어, 전방 카메라는 90°, 120°, 또는 150°의 상대적으로 넓은 전방 카메라 시계를 가질 수 있으며, 센서 IC들의 각각은 15°, 30°, 45°, 등인 상대적으로 좁은 센서 IC 시계를 가질 수 있다. 적어도 일부 구현예들에 있어서, 센서 IC 시계는 적어도 전방 카메라 시계의 상당한 부분을 집합적으로 커버할 수 있으며, 여기에서 센서 IC 시계의 각각이 전방 카메라 시계의 상이한 부분들과 중첩한다.
동작 시에, 전방 카메라 및 복수의 센서 IC들에 동작가능하게 결합된 적어도 하나의 프로세서는 카메라 및 복수의 광학적 흐름 센서 IC들로부터 이미지 센서 데이터를 수신할 수 있다. 적어도 하나의 프로세서는 수신된 이미지 센서 데이터의 프로세싱에 적어도 부분적으로 기초하여 머리-착용 디스플레이의 위치를 추적하기 위해 수신된 이미지 센서 데이터를 프로세싱할 수 있다. 예를 들어, 적어도 하나의 프로세서는 환경 내에 존재하는 하나 이상의 특징들을 추적하기 위하여 전방 카메라 및 복수의 센서 IC들로부터의 센서 데이터를 융합할 수 있다. 적어도 일부 구현예들에 있어서, 이미지 센서 데이터는 다른 센서들로부터의 센서 데이터, 예컨대 HMD의 관성 측정 유닛(inertial measurement unit; IMU)으로부터의 센서 데이터와 융합될 수 있다. 본 개시의 구현예들의 다양한 특징들이 이하에서 도면들을 참조하여 논의된다.
도 1은, 눈-근접(near-to-eye) 디스플레이 시스템들(102 및 104)의 쌍을 포함하는 HMD 시스템(100)의 간략화된 상단 평면도이다. 눈-근접 디스플레이 시스템들(102 및 104)은 각각 디스플레이들(106 및 108)(예를 들어, OLED 마이크로-디스플레이들) 및 각기 하나 이상의 광학적 렌즈들을 갖는 개별적인 광학 시스템들(110 및 112)을 포함한다. 디스플레이 시스템들(102 및 104)은, 전방 부분(116), 좌측 템플(temple)(118) 및 우측 템플(120)을 포함하는 지지 구조체 또는 프레임(114) 또는 다른 장착 구조체에 장착될 수 있다. 2개의 디스플레이 시스템들(102 및 104)은, 착용자 사용자(124)의 머리(122) 상에 착용될 수 있는 안경 장치 내의 프레임(114)에 고정될 수 있다. 좌측 템플(118) 및 우측 템플(120)은 각기 사용자의 귀들(126 및 128) 위에 놓일 수 있으며, 반면 코 어셈블리(미도시)가 사용자의 코(130) 위에 놓일 수 있다. 프레임(114)은 2개의 광학 시스템들(110 및 112)의 각각을 각기 사용자의 눈들(132 및 134) 중 하나의 전방에 위치시키도록 성형되고 크기가 결정될 수 있다. 프레임(114)이 설명의 목적들을 위하여 안경과 유사하게 간략화된 방식으로 도시되지만, 실제로는 더 정교한 구조체들(예를 들어, 고글, 통합 머리밴드, 헬멧, 스트랩들, 등)이 사용자(124)의 머리(122) 상에 디스플레이 시스템들(102 및104)을 위치시키고 지지하기 위하여 사용될 수 있다.
도 1의 HMD 시스템(100)은, 예컨대 초 당 30 프레임(또는 이미지) 또는 초 당 90 프레임과 같은 디스플레이 레이트(rate)로 표현되는 대응하는 비디오를 통해 사용자(124)에게 가상 현실 디스플레이를 나타낼 수 있으며, 반면 유사한 시스템의 다른 실시예들은 사용자(124)에게 증강 현실 디스플레이를 나타낼 수 있다. 디스플레이들(106 및 108)의 각각은, 각기 사용자(124)의 눈들(132 및 134) 상으로 개별적인 광학 시스템들(110 및 112)을 통해 전달되며 이에 의해 포커싱되는 광을 생성할 수 있다. 본원에 예시되지는 않았지만, 눈들의 각각 이를 통해 광이 눈 내로 전달되는 동공 개구(pupil aperture)를 포함하며, 여기에서 동공 크기는 매우 밝은 조건들에서 2 mm(밀리미터)로부터 어두운 조건들에서 무려 8mm까지의 범위를 가지며, 반면 동공이 포함되는 더 큰 홍채는 대략 12 mm의 크기를 가질 수 있다 - 동공(및 둘러싸는 홍채)은 전형적으로 수평 및/또는 수직 방향들로 수 밀리미터만큼 눈꺼풀들이 개방된 상태에서 눈의 가시적인 부분 내에서 움직일 수 있으며, 이는 또한 안구가 그것의 중심 주위에서 회전할 때 상이한 수평 및 수직 포지션들에 대하여 디스플레이의 광학적 렌즈 또는 다른 물리적 엘리먼트로부터 상이한 깊이들까지 동공을 움직일 것이다(이는 동공이 움직일 수 있는 3차원 체적을 야기한다). 사용자의 동공에 진입하는 광은 이미지들 및/또는 비디오로서 사용자(124)에게 보인다. 일부 구현예들에 있어서, 사용자의 눈들(132 및 134)과 광학적 시스템들(110 및 112)의 각각 사이의 거리는 비교적 짧을 수 있으며(예를 들어, 30 mm 미만, 20 mm 미만), 광학 시스템들 및 디스플레이 시스템들의 중량이 사용자의 얼굴에 상대적으로 가깝기 때문에 이는 유익하게는 HMD 시스템(100)이 사용자에게 더 가볍게 느껴지게 하고, 또한 사용자에게 더 큰 시야를 제공할 수 있다.
HMD 시스템(100)은 또한 외향 또는 전방 카메라(136)를 포함할 수 있다. 전방 카메라(136)는, 예를 들어, 증강 현실 애플리케이션들에서 또는 가상 현실 애플리케이션들과 관련하여 사용자(124)에게 선택적으로 제공될 수 있는 이미지 데이터를 캡처하도록 동작가능할 수 있다. 추가적으로 또는 대안적으로, 전방 카메라(136)는, 이하에서 추가로 논의되는 바와 같이, 사용 동안 HMD 시스템(100)의 위치를 추적하기 위하여 HMD 시스템(100)의 위치 추적 시스템에 의해 사용될 수 있다. 일 예로서, 전방 카메라(136)는, 상대적으로 넓은 각도(예를 들어, 60°, 90°, 120°, 150°)를 갖는 전방 카메라 시계 내에서 소정의 프레임 레이트(예를 들어, 30 Hz, 60 Hz, 90 Hz)로 이미지들을 캡처하는 비디오 카메라 및 연관된 렌즈 시스템을 포함할 수 있다.
HMD 시스템(100)은 또한 복수의(도시된 6개의) 광학 흐름 센서 IC들(138a-138f)(집합적으로, "광학 IC들(138))을 포함할 수 있다. 센서 IC들(138)의 각각은, 예를 들어, 광 마우스에서 사용되는 센서 IC들과 유사하거나 또는 동일할 수 있다. 일반적으로, 광학적 흐름은, 관찰자(예를 들어, 센서 IC)와 신(scene) 사이의 상대적인 움직임에 의해 초래되는 시각적 신 내의 물체들, 표면들, 및 에지들의 명백한 움직임의 패턴이다. 센서 IC들(138)은 HMD 시스템(100)을 추적하기 위해 제공되는 광학적 흐름 데이터를 사용할 수 있다.
적어도 일부 구현예들에 있어서, 센서 IC들(138)의 각각은 광학적 흐름 또는 시각적 움직임을 측정하고 광학적 흐름에 기초하여 측정치를 출력할 수 있는 비전 센서(vision sensor)일 수 있다. 센서 IC들(138)은 다양한 구성들을 가질 수 있다. 하나의 예시적인 구성은 광학적 흐름 알고리즘을 실행하도록 프로그래밍된 프로세서에 연결된 이미지 센서 칩을 포함한다. 다른 예시적인 구성은, 동일한 다이(die) 상에 이미지 센서 및 프로세싱 회로부 둘 모두를 가져서 소형 구현을 가능하게 하는 집적 회로일 수 있는 비전 칩을 사용할 수 있다. 적어도 일부 구현예들에 있어서, 프로세싱 회로부는, 최소 전류 소비를 사용하여 빠른 광학적 흐름 계산을 가능하게 하기 위하여 아날로그 또는 혼합-신호 회로들을 사용하여 구현될 수 있다. 센서 IC들의 각각은 16x16 픽셀들, 32x32 픽셀들, 등과 같은 픽셀들의 어레이를 형성하기 위하여 광전자 재료(예를 들어, 상보 금속-산화물 반도체(complementary metal-oxide semiconductor; CMOS)의 광-전자(photo-electronic) 센서 어레이를 포함할 수 있다. 추가로, 센서 IC들(138)의 각각은 희망되는 광학적 특징(예를 들어, FOV)을 달성하기 위한 연관된 렌즈 시스템을 포함할 수 있다. 이상에서 논의된 바와 같이, 센서 IC들(138)의 각각은 전방 카메라(136)의 프레임 레이트(예를 들어, 30 Hz, 90 Hz)에 비하여 상대적으로 높은 프레임 레이트(예를 들어, 1000 Hz 이상의 프레임 레이트)를 가질 수 있다.
도 1에 예시되지는 않았지만, 이러한 HMD 시스템의 일부 실시예들은, 예컨대 각각의 눈(132 및 134)에 대하여 개별적으로 동공 추적을 수행하기 위한, (예를 들어, 머리 추적의 부분으로서) 머리 위치 및 배향을 추적하기 위한, 사용자의 신체의 다른 다양한 유형들의 움직임들 및 포지션을 추적하기 위한 다양한 추가적인 내부 및/또는 외부 센서들, 외부 이미지들(예를 들어, 환경의 이미지들)을 기록하기 위한 다른 카메라들, 등을 포함할 수 있다.
추가로, 일부 실시예들에 있어서 설명되는 기술들이 도 1에 예시된 것과 유사한 디스플레이 시스템과 함께 사용될 수 있지만, 다른 실시예들에 있어서, 단일 광학적 렌즈 및 디스플레이 디바이스를 이용하거나 또는 다수의 이러한 광학적 렌즈들 및 디스플레이 디바이스들을 이용하는 것을 포함하여 다른 유형들의 디스플레이 시스템들이 사용될 수 있다. 다른 이러한 디바이스들의 비-배타적인 예들은 카메라들, 텔레스코프들, 마이크스코프들, 쌍안경들, 스팟팅 스코프(spotting scope)들, 서베잉 스코프(surveying scope)들, 등을 포함한다. 이에 더하여, 설명되는 기술들은, 1명 이상의 사용자들이 하나 이상의 광학적 렌즈를 통해 보는 이미지들을 형성하기 위하여 광을 방출하는 매우 다양한 디스플레이 패널들 또는 다른 디스플레이 디바이스들과 함께 사용될 수 있다. 다른 실시예들에 있어서, 사용자는, 예컨대 부분적으로 또는 전체적으로 다른 광원으로부터의 광을 반사하는 표면 상의, 디스플레이 패널과는 다른 방식으로 생성되는 하나 이상의 이미지들을 하나 이상의 광학적 렌즈를 통해 볼 수 있다.
도 2는 사용자(202)의 머리 상에 착용된 예시적인 HMD 시스템(200)의 정면도를 도시한다. 도 3은 HMD 시스템(200)의 컴포넌트들 중 일부에 대한 예시적인 시계들(210 및 212)을 보여주는 HMD 시스템(200)의 상단 평면도를 도시한다. HMD 시스템(200)은, 전향 또는 전방 카메라(206) 및 복수의 센서 IC들(208a-208n)(집합적으로 208)을 지지하는 지지 구조체(204)를 포함한다. 전방 카메라(206) 및 센서 IC들(208)은 각기, 도 1을 참조하여 이상에서 논의된, 전방 카메라(136) 및 센서 IC들(138)과 유사하거나 또는 동일할 수 있다. 센서 IC들(208)의 특정한 수는 도면들에 도시된 센서 IC들의 수보다 더 적거나 또는 더 많을 수 있다.
도시된 바와 같이, 전방 카메라(206) 및 센서 IC들(208)은 신 또는 환경(214)(도 3)을 향해 전방으로 지향되며, 여기에서 사용자(202)는 HMD 시스템(200)을 동작시킨다. 환경(214)은 그 안에 하나 이상의 물체들(213)을 포함할 수 있으며, 이들은, 벽들, 천장들, 가구, 의자들, 차들, 나무들, 추적 마커들, 또는 임의의 다른 유형의 물체들을 포함할 수 있다.
예시적인 목적들을 위하여, 단지 센서 IC들(208a, 208d, 208j 및 208l)만이 도 3에 도시된다. 도시된 바와 같이, 전방 카메라(206)는 FOV 각도(207)(예를 들어, 60°, 90°, 120°, 150°)를 갖는 전방 카메라 FOV(210)를 포함한다. 도시된 바와 같이, 센서 IC들(208a, 208d, 208j 및 208l)의 각각은, 개별적인 FOV 각도(209a, 209d, 209j 및 209l)(집합적으로, 209)를 갖는 개별적인 센서 IC FOV(212a, 212d, 212j 및 212l)(집합적으로 212)를 갖는다. 적어도 일부 구현예들에 있어서, 센서 IC들(208)의 FOV 각도들(209)은 전방 카메라(206)의 FOV 각도들(207)보다 더 좁다. 예를 들어, 적어도 일부 구현예들에 있어서, 센서 IC들(208)의 FOV들(212)은 적어도 전방 카메라(206)의 FOV(210)의 상당한 부분을 집합적으로 커버할 수 있으며, 여기에서 FOV들(212)의 각각은 FOV(210)의 상이한 부분을 커버한다.
HMD 시스템(200)은 또한 지지 구조체(204)에 의해 운반되는 관성 측정 유닛(inertial measurement unit; IMU)(216)을 포함할 수 있다. IMU(216)는, 가속도계들 및 자이로스코프들, 및 선택적으로, 자력계들의 조합을 사용하여, HMD 시스템(200)의 특정 힘, 각속도(angular rate), 및/또는 HMD 시스템 주변의 자기장을 측정하고 보고하는 전자 디바이스일 수 있다. 전방 카메라(206)에 대하여, IMU(216)는 상대적으로 높은 업데이트 또는 보고 레이트(예를 들어, 초 당 500, 초당 1000)를 가질 수 있다.
동작 시에, HMD 시스템(200)은, 사용자(202)에 의한 동작 동안 HMD 시스템(200)의 위치를 추적하기 위하여 전방 카메라(206), 센서 IC들(208) 및 선택적으로 IMU(216)로부터의 데이터를 융합하거나 또는 달리 조합할 수 있다. 일 예로서, 전방 카메라(200)는, 센서 IC들(208)의 제 2 프레임 레이트(예를 들어, 1000 Hz, 2000 Hz)보다 상당히 더 낮은 제 1 프레임 레이트(예를 들어, 60 Hz)를 가질 수 있다. HMD 시스템(200)은, 전방 카메라(206)의 FOV(210)의 전부 또는 실질적으로 전부에 걸친 고 대역폭 특징 추적을 제공하기 위하여 광학적 IC들(208)의 개별적인 FOV들(212)을 전방 카메라(206)의 더 넓은 FOV(210)와 정렬(register)할 수 있다. 선택적으로, HMD 시스템(200)은 또한, HMD 시스템의 위치 추적을 추가로 개선하기 위하여 IMU(216)으로부터의 센서 데이터를 융합할 수 있다. 이상에서 언급된 바와 같이, 센서 IC들과 마찬가지로, IMU(216)이 또한 상대적으로 높은 대역폭 또는 업데이트 레이트를 가질 수 있다. 따라서, 센서 IC들 또는 IMU(216)를 사용하면, 위치 데이터는 전방 카메라(206)으로부터의 이미지 센서 데이터의 프레임들 사이에서(in-between frames) 생성될 수 있으며, 이는 더 큰 정밀도의 위치 추적을 제공한다.
적어도 일부 구현예들에 있어서, 전방 카메라(206), 센서 IC들(208), 및/또는 IMU(216)는, HMD 시스템(200)의 위치를 추적하기 위하여 하나 이상의 베이스 스테이션(base station)들 또는 다른 기술품들(예를 들어, 마커들)과 함께 사용될 수 있다. 일 예로서, 이러한 컴포넌트들은 밸브 코퍼레이션(Valve Corporation)에 의해 개발된 Lighthouse® 베이스 스테이션과 함께 사용될 수 있다. 보다 더 일반적으로, 본원에서 논의되는 특징들은, 이들의 내용이 그 전체가 본원에 참조로서 통합되는, 미국 특허 공개공보 제 2014/0267667호; 미국 특허 공개공보 제 2016/0124502호; 미국 특허 공개공보 제 2016/0131761호; 미국 특허 공개공보 제 2016/0124502호; 또는 미국 특허 공개공보 제 2017/0249019호에서 논의되는 시스템들 및 방법들 중 임의의 것과 함께 또는 이와 조합되어 사용될 수 있다.
전방 카메라(206), 센서 IC들(208), 및/또는 IMU(216)는 환경(216)에 대하여 HMD 시스템(200)의 위치가 어떻게 변화하는지를 결정하기 위해 사용될 수 있다. HMD 시스템(200)이 움직일 때, 센서들(206, 208 및 216)이 환경(214) 내에서 HMD 시스템(200)의 위치를 재조정하며, 가상 환경이 실시간으로 응답할 수 있다. 카메라(206) 및 센서 IC들(208)은 주변 환경(214)의 특징들을 관찰한다. 마커들(예를 들어, 프리미티브(primitive) 형상들, 코드들, 활성 기반 스테이션들)이 사용될 때, 이러한 마커들은 추적 시스템에 의해 용이하게 검출되고 특정 영역들에 위치되도록 설계될 수 있다. 무마커(markerless) 추적을 이용하면, 일반적으로 환경(214) 내에 존재하는 특징적인 특성들 또는 특징들이 HMD 시스템(200)의 위치, 배향 및 움직임을 실시간으로 결정하기 위해 추적될 수 있다. 예를 들어, HMD 시스템(200)은, 특정 이미지들, 형상들, 또는 특징들을 식별하는 하나 이상의 알고리즘들을 사용할 수 있으며, 공간 내에서의 HMD 시스템의 위치, 배향, 및/또는 움직임을 계산하기 위해 이들을 사용할 수 있다. 이상에서 언급된 바와 같이, IMU(214) 또는 다른 센서로부터의 데이터가 또한 HMD 시스템(200)의 위치 추적의 정밀도를 증가시키기 위해 사용될 수 있다.
도 4는 본 개시의 하나 이상의 구현예들에 따른 HMD 시스템(400)의 개략적인 블록도를 도시한다. HMD 시스템(400)은 이상에서 논의된 HMD 시스템들(100 및 200)과 유사하거나 또는 동일할 수 있다. 따라서, HMD 시스템들(100 및 200)에 관한 이상의 논의가 또한 HMD 시스템(400)에 적용될 수 있다.
HMD 시스템(400)은 프로세스(402), 전향 또는 전방 카메라(404), 복수의 센서 IC들(406)을 포함하며, 선택적으로 IMU(407)를 포함한다. HMD 시스템(400)은 디스플레이 서브시스템(408)(예를 들어, 2개의 디스플레이들 및 대응하는 광학 시스템들)을 포함할 수 있다. HMD 시스템(400)은 또한, 위치 추적을 위한 명령어들 또는 데이터(412), 디스플레이 기능성을 위한 명령어들 또는 데이터(414)(예를 들어, 게임들), 및/또는 다른 프로그램들(416)을 저장할 수 있는 비일시적인 데이터 저장부(410)를 포함할 수 있다.
HMD 시스템(400)은 또한 다양한 I/O 컴포넌트들(418)을 포함할 수 있으며, 이들은 하나 이상의 사용자 인터페이스들(예를 들어, 버튼들, 터치 패드들, 스피커들), 하나 이상의 유선 또는 무선 통신 인터페이스들, 등을 포함할 수 있다. 일 예로서, I/O 컴포넌트들(418)은, HMD 시스템(400)이 유선 또는 무선 통신 링크(422)를 통해 외부 디바이스(420)와 통신하는 것을 가능하게 하는 통신 인터페이스를 포함할 수 있다. 비-제한적인 예들로서, 외부 디바이스(420)는 호스트 컴퓨터, 서버, 모바일 디바이스(예를 들어, 스마트폰, 착용형 컴퓨터), 등을 포함할 수 있다. HMD 시스템(400)의 다양한 컴포넌트들은 단일 하우징(예를 들어, 도 2 및 도 3의 지지 구조체(202)) 내에 하우징될 수 있거나, 별개의 하우징(예를 들어, 호스트 컴퓨터) 내에 하우징될 수 있거나, 또는 이들의 조합들일 수 있다.
예시된 컴퓨팅 시스템들 및 디바이스들이 단지 예시적이며 본 개시의 범위를 제한하도록 의도되지 않는다는 것이 이해될 것이다. 예를 들어, HMD(400) 및/또는 외부 디바이스들(420)은, 인터넷과 같은 하나 이상의 네트워크들을 통해서 또는 웹을 통하는 것을 포함하여, 예시되지 않은 다른 디바이스들에 연결될 수 있다. 더 일반적으로, 이러한 컴퓨팅 시스템 또는 디바이스는, 비제한적으로, 데스크탑 컴퓨터들, 랩탑 컴퓨터들, 슬레이트(slate) 컴퓨터들, 태블릿 컴퓨터들 또는 다른 컴퓨터들, 스마트 폰 컴퓨팅 디바이스들 및 다른 휴대폰들, 인터넷 기기들, PDA들 및 다른 전자 오거나이저(organizer)들, 데이터베이스 서버들, 네트워크 저장 디바이스 및 다른 네트워크 디바이스들, 무선 전화들, 호출기들, (예를 들어, 셋-탑 박스들 및/또는 개인용/디지털 비디오 레코더들 및/또는 게임 콘솔들 및/또는 매체 서버들을 사용하는) 텔레비전-기반 시스템들, 및 적절한 상호-통신 성능들을 포함하는 다양한 다른 소비자 제품들을 포함하여, 예컨대 적절한 소프트웨어를 가지고 프로그래밍되거나 또는 달리 구성될 때 설명된 유형들의 기능을 수행하고 상호작용할 수 있는 하드웨어의 임의의 조합을 포함할 수 있다. 예를 들어, 예시된 시스템들(400 및 420)은, 적어도 일부 실시예들에 있어서, 예컨대 이러한 시스템들 또는 디바이스들의 프로세서들을 구성하기 위하여, 특정 컴퓨팅 시스템들 또는 디바이스들에 의해 로딩되거나 및/또는 실행될 때 이러한 시스템들 또는 디바이스들을 프로그래밍하거나 또는 달리 구성하기 위하여 사용될 수 있는 실행가능 소프트웨어 명령어들 및/또는 데이터 구조들을 포함할 수 있다. 대안적으로, 다른 실시예들에 있어서, 소프트웨어 시스템들 중 일부 또는 전부는 다른 디바이스 상의 메모리에서 실행될 수 있으며, 컴퓨터-간 통신을 통해 예시된 컴퓨팅 시스템/디바이스와 통신할 수 있다. 이에 더하여, 다양한 아이템들이 다양한 시간들에(예를 들어, 사용되는 동안에) 메모리 내에 또는 저장부 상에 저장되는 것으로서 예시되지만, 이러한 아이템들 또는 이들의 부분들은 메모리 관리 및/또는 데이터 무결성의 목적들을 위하여 메모리와 저장부 사이에서 및/또는 (예를 들어, 상이한 위치들에 있는) 저장 디바이스들 사이에서 전송될 수 있다.
따라서, 적어도 일부 실시예들에 있어서, 예시된 시스템들은, 프로세서(들) 및/또는 다른 프로세서 수단에 의해 실행될 때 그 시스템이 설명된 동작들을 자동으로 수행하게끔 프로그래밍하는 소프트웨어 명령어들을 포함하는 소프트웨어-기반 시스템들이다. 추가로, 일부 실시예들에 있어서, 시스템들 중 일부 또는 전부는 예컨대, 비제한적으로, 하나 이상의 응용-특정 집적 회로(application-specific integrated circuit; ASIC)들, 표준 집적 회로들, (예를 들어, 적절한 명령어들을 수행함으로써, 그리고 마이크로제어기들 및/또는 내장형 제어기들을 포함하는) 제어기들, 필드-프로그램가능 게이트 어레이(field-programmable gate array; FPGA)들, 복합 프로그램가능 로직 디바이스(complex programmable logic device; CPLD)들, 등을 포함하여, 적어도 부분적으로 펌웨어 및/또는 하드웨어 수단으로 구현되거나 또는 제공될 수 있다. 시스템들 또는 데이터 구조들의 일부 또는 전부가 또한, 적절한 드라이브에 의해 또는 적절한 연결에 의해 판독되는 하드 디스크 또는 플래시 드라이브 또는 다른 비-휘발성 저장 디바이스, 휘발성 또는 비-휘발성 메모리(예를 들어, RAM), 네트워크 저장 디바이스, 또는 휴대용 매체 물품(예를 들어, DVD 디스크, CD 디스크, 광 디스크, 플래시 메모리 디바이스, 등)와 같은, 비-일시적인 컴퓨터-판독가능 저장 매체 상에 (예를 들어, 소프트웨어 명령어들 콘텐츠 또는 구조화된 데이터 콘텐츠로서) 저장될 수 있다. 일부 실시예들에 있어서, 시스템들, 모듈들 및 데이터 구조들은 또한, 무선-기반 및 유선/케이블-기반 매체들을 포함하는 다양한 컴퓨터-판독가능 송신 매체들 상의 생성된 데이터 신호들로서(예를 들어, 반송파 또는 다른 아날로그 또는 디지털 전파형 신호의 부분으로서) 송신될 수 있으며, (예를 들어, 단일 또는 멀티플렉스된 아날로그 신호의 부분으로서, 또는 다수의 이산 디지털 패킷들 또는 프레임들로서) 다양한 형태들을 취할 수 있다. 이러한 컴퓨터 프로그램 제품들이 또한 다른 실시예들에서 다른 형태들을 취할 수 있다. 따라서, 본 개시는 다른 컴퓨터 시스템 구성들을 가지고 실시될 수 있다.
도 5는 사용 동안 그것의 위치를 추적하기 위하여 HMD 시스템을 동작시키는 예시적인 방법(500)에 대한 순서도이다. 방법(500)은, 예를 들어, 도 4에 도시된 HMD 시스템(400)의 위치 추적 시스템 또는 모듈(412)에 의해 수행될 수 있다.
방법(500)의 예시된 구현예는 액트(act)(502)에서 시작하며, 여기에서 전향 카메라 및 복수의 센서 IC들을 갖는 HMD 시스템이 제공된다. 전방 카메라는 제 1 프레임 레이트로 전방 카메라 시계 내의 이미지 센서 데이터를 캡처할 수 있다. 복수의 센서 IC들은, 예를 들어, 광학적 흐름을 검출하도록 동작가능할 수 있다. 동작 시에, 복수의 센서 IC들의 각각은 제 2 프레임 레이트로 개별적인 복수의 센서 IC 시계 내의 이미지 센서 데이터를 캡처한다. 적어도 일부 구현예들에 있어서, 센서 IC 시계는 전방 카메라 시계보다 더 좁고, 센서 IC들의 제 2 프레임 레이트는 전방 카메라의 제 1 프레임 레이트보다 더 크다. 예를 들어, 적어도 일부 실시예들에 있어서, 제 1 프레임 레이트는 초 당 100 프레임 이하이며, 제 2 프레임 레이트는 초 당 1000 프레임 이상이다. 적어도 일부 구현예들에 있어서, 센서 IC 시계들의 각각은 전방 카메라 시계의 일 부분과 중첩하며, 그 결과, 복수의 센서 IC 시계들은 집합적으로 적어도 전방 카메라 시계의 상당한 부분(예를 들어, 50%, 80%, 90%, 100%)을 커버한다. 적어도 일부 구현예들에 있어서, 센서 IC들의 각각은 이미지 센싱 회로부 및 그 위의 이미지 프로세싱 회로부를 갖는 단일 다이를 포함할 수 있다.
504에서, HMD 시스템과 연관된 적어도 하나의 프로세서는 전방 카메라 및 복수의 센서 IC들로부터 센서 데이터를 수신할 수 있다. 일 예로서, 적어도 하나의 프로세서는 제 1의 더 낮은 레이트로 전방 카메라로부터 센서 데이터를 수신할 수 있으며, 제 2의 더 높은 레이트로 복수의 센서 IC들로부터 센서 데이터를 수신할 수 있다.
506에서, HMD 시스템과 연관된 적어도 하나의 프로세서는 선택적으로, 관성 추적 성능을 제공하도록 동작할 수 있는 관성 측정 유닛(inertial measurement unit; IMU)으로부터 센서 데이터를 수신할 수 있다.
508에서, HMD 시스템과 연관된 적어도 하나의 프로세서는 수신된 센서 데이터를 프로세싱할 수 있다. 예를 들어, 적어도 하나의 프로세서는, HMD 시스템에 동작되는 환경 내에 존재하는 하나 이상의 특징들을 추적하기 위하여 센서 데이터의 일부 또는 전부를 함께 융합할 수 있다. 센서 데이터는, 전방 카메라로부터의 센서 데이터, 복수의 센서 IC들 중 적어도 하나로부터의 센서 데이터, 및 선택적으로 IMU로부터의 센서 데이터를 포함할 수 있다.
510에서, HMD 시스템과 연관된 적어도 하나의 프로세서는, 환경 내에서 사용자에 의한 HMD 시스템의 사용 동안 HMD 시스템의 위치, 배향, 및/또는 움직임을 실시간으로 추적할 수 있다. 방법(500)은, 이상에서 논의된, HMD 시스템의 위치, 배향 및/또는 움직임을 계속하여 추적하기 위해 HMD의 동작 동안 계속될 수 있다.
이상의 상세한 설명은 블록도들, 개략도들 및 예들의 사용을 통해 디바이스 및/또는 프로세스들의 다양한 구현예를 기술하였다. 이러한 블록도들, 개략도들, 및 예들이 하나 이상의 기능들 및/또는 동작들을 포함하는 한, 이러한 블록도들, 순서도들, 또는 예들 내의 각각의 기능 및/또는 동작이, 광범위한 하드웨어, 소프트웨어, 펌웨어, 또는 사실상 이들의 임의의 조합에 의해 개별적으로 및/또는 집합적으로 구현될 수 있음이 당업자들에 의해 이해될 것이다.
일 구현예에 있어서, 본 주제는 애플리케이션 특정 집적 회로(Application Specific Integrated Circuit; ASIC)를 통해 구현될 수 있다. 그러나, 당업자들은, 본원에서 개시되는 구현예들이, 전체적으로 또는 부분적으로, 하나 이상의 컴퓨터들 상에서 실행되는 하나 이상의 컴퓨터 프로그램들로서(예를 들어, 하나 이상의 컴퓨터 시스템들 상에서 실행되는 하나 이상의 프로그램들로서), 하나 이상의 제어기들(예를 들어, 마이크로제어기들) 상에서 실행되는 하나 이상의 프로그램들로서, 하나 이상의 프로세서들(예를 들어, 마이크로프로세서들) 상에서 실행되는 하나 이상의 프로그램들로서, 펌웨어로서, 또는 사실상 이들의 임의의 조합으로서, 표준 집적 회로들 내에서 동등하게 구현될 수 있다는 것, 및 회로부를 설계하는 것 및/또는 소프트웨어 및/또는 펌웨어에 대한 코드를 작성하는 것이 본 개시의 내용을 고려하여 당업자의 기술 범위 내에 있다는 것을 인식할 것이다.
당업자들은, 본원에서 기술되는 방법들 및 알고리즘들 중 다수가 추가적인 액트들을 이용할 수 있거나, 일부 액트들을 생략할 수 있거나, 및/또는 명시된 것과는 상이한 순서로 실행될 수 있다는 것을 인식할 것이다.
이에 더하여, 당업자들은, 본원에서 교시되는 메커니즘들이 다양한 형태들의 프로그램 제품들로서 배포될 수 있다는 것, 및 예시적인 구현예가 실제로 배포를 수행하기 위하여 사용되는 신호 함유 매체들의 특정 유형과 무관하게 동일하게 적용된다는 것을 이해할 것이다. 신호 함유 매체들의 예들은, 비제한적으로, 다음을 포함한다: 기록가능 유형 매체 예컨대 플로피 디스크들, 하드 디스크 드라이브들, CD ROM들, 디지털 테이프, 및 컴퓨터 메모리.
이상에서 설명된 다양한 구현예들이 추가적인 구현예들을 제공하기 위하여 결합될 수 있다. 이들이 본원의 특정 교시들 및 정의들과 부합되지 않는 정도까지, 2018년 01월 18일자로 출원된 미국 가특허 출원 제62/618,928호를 포함하여, 본 명세서에서 언급된 미국 특허들, 미국 특허 출원 공보들, 미국 특허 출원들, 외국 특허들, 외국 특허 출원들 및 비-특허 공개문헌들의 전부는 그 전체가 본원에 참조로서 포함된다. 추가적인 구현예들을 제공하기 위하여 다양한 특허들, 출원들 및 공개문헌들의 시스템들, 회로들 및 개념들을 이용하는 것이 필요한 경우, 구현예들의 측면들이 수정될 수 있다.
이상의 상세한 설명을 고려하여 구현예들에 대하여 이러한 그리고 다른 변화들이 이루어질 수 있다. 일반적으로, 다음의 청구항들에 있어, 사용되는 용어들은 청구항들을 명세서 및 청구항들에 개시된 특정 구현예들로 한정하도록 해석되지 않아야만 하며, 오히려 이러한 청구항들에 대한 등가물들의 완전한 범위와 함께 가능한 모든 구현예들을 포함하는 것으로 해석되어야만 한다. 따라서, 청구항들은 본 개시에 의해 한정되지 않는다.
Claims (20)
- 머리 착용 디스플레이(head-mounted display)로서,
사용자의 머리 상에 착용가능한 지지 구조체;
상기 지지 구조체에 의해 운반되는 카메라로서, 상기 카메라는 동작 시에 제 1 프레임 레이트(rate)로 카메라 시계(field of view) 내의 이미지 센서 데이터를 캡처하는, 상기 카메라;
상기 지지 구조체에 의해 운반되는 복수의 광학적 흐름 센서 집적 회로(integrated circuit; IC)들로서, 동작 시에 상기 복수의 광학적 흐름 센서 IC들의 각각은 제 2 프레임 레이트로 개별적인 센서 IC 시계 내의 이미지 센서 데이터를 캡처하며, 상기 센서 IC 시계들은 상기 카메라 시계보다 더 좁고, 상기 제 2 프레임 레이트는 상기 제 1 프레임 레이트보다 더 큰, 상기 복수의 광학적 흐름 센서 IC들;
프로세서-실행가능 명령어들 또는 데이터 중 적어도 하나를 포함하는 적어도 하나의 비일시적인 프로세서-판독가능 저장 매체; 및
상기 카메라, 상기 복수의 광학적 흐름 센서 IC들, 및 상기 적어도 하나의 비일시적인 프로세서-판독가능 저장 매체에 동작가능하게 결합되는 적어도 하나의 프로세서를 포함하며, 동작 시에, 상기 적어도 하나의 프로세서는,
상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터 상기 이미지 센서 데이터를 수신하고;
상기 수신된 이미지 센서 데이터를 프로세싱하며; 및
적어도 부분적으로 상기 수신된 이미지 센서 데이터의 프로세싱에 기초하여 상기 머리-착용 디스플레이의 위치를 추적하는, 머리-착용 디스플레이.
- 청구항 1에 있어서,
상기 적어도 하나의 프로세서는 상기 머리-착용 디스플레이의 위치를 추적하기 위하여 상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터의 상기 이미지 센서 데이터를 융합하는, 머리-착용 디스플레이.
- 청구항 1에 있어서,
상기 머리-착용 디스플레이는,
상기 적어도 하나의 프로세서에 동작가능하게 결합되는 관성 측정 유닛(inertial measurement unit; IMU) 센서를 더 포함하며, 동작 시에 상기 적어도 하나의 프로세서는,
상기 IMU 센서로부터 IMU 센서 데이터를 수신하며;
상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터 수신된 상기 이미지 센서 데이터 및 상기 IMU 센서 데이터를 프로세싱하고; 및
적어도 부분적으로 상기 수신된 이미지 센서 데이터 및 상기 수신된 IMU 센서 데이터의 프로세싱에 기초하여 상기 머리-착용 디스플레이의 위치를 추적하는, 머리-착용 디스플레이.
- 청구항 1에 있어서,
상기 복수의 광학적 흐름 센서 IC들의 각각은 이미지 센싱 회로부 및 그 위의 이미지 프로세싱 회로부를 갖는 단일 다이(die)를 포함하는, 머리-착용 디스플레이.
- 청구항 1에 있어서,
상기 제 1 프레임 레이트는 초 당 100 프레임 이하이며, 상기 제 2 프레임 레이트는 초 당 1000 프레임 이상인, 머리-착용 디스플레이.
- 청구항 1에 있어서,
상기 적어도 하나의 프로세서는, 상기 머리-착용 디스플레이가 동작하는 환경 내에 존재하는 하나 이상의 특징들을 검출하기 위해 상기 수신된 이미지 센서 데이터를 프로세싱하는, 머리-착용 디스플레이.
- 청구항 1에 있어서,
상기 센서 IC 시계들의 각각은 상기 카메라 시계의 일 부분과 중첩되는, 머리-착용 디스플레이.
- 청구항 1에 있어서,
상기 적어도 하나의 프로세서는 상기 센서 IC 시계들을 상기 카메라 시계와 정렬(register)하는, 머리-착용 디스플레이.
- 청구항 1에 있어서,
상기 카메라 시계는 100 도보다 더 큰, 머리-착용 디스플레이.
- 청구항 1에 있어서,
상기 머리-착용 디스플레이는,
각기 사용자의 하나의 눈에 대한 디스플레이를 제공하는 제 1 및 제 2 디스플레이 서브시스템들을 더 포함하며,
동작 시에, 상기 적어도 하나의 프로세서는 상기 제 1 및 제 2 디스플레이 서브시스템들을 통해 상기 카메라로부터 획득된 이미지들을 선택적으로 제공하는, 머리-착용 디스플레이.
- 머리-착용 디스플레이를 동작시키는 방법으로서, 상기 머리-착용 디스플레이는 사용자의 머리 상에 착용이 가능한 지지 구조체, 상기 지지 구조체에 의해 운반되는 카메라 및 상기 지지 구조체에 의해 운반되는 복수의 광학적 흐름 센서 집적 회로(IC)들을 포함하며, 상기 방법은,
상기 카메라를 통해, 제 1 프레임 레이트로 카메라 시계 내의 이미지 센서 데이터를 캡처하는 단계;
상기 복수의 광학적 흐름 센서 IC들을 통해, 제 2 프레임 레이트로 개별적인 센서 IC 시계 내의 이미지 센서 데이터를 캡처하는 단계로서, 상기 센서 IC 시계들은 상기 카메라 시계보다 더 좁고, 상기 제 2 프레임 레이트는 상기 제 1 프레임 레이트보다 더 큰, 단계;
적어도 하나의 프로세서에 의해, 상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터 상기 이미지 센서 데이터를 수신하는 단계;
상기 적어도 하나의 프로세서에 의해, 상기 수신된 이미지 센서 데이터를 프로세싱하는 단계; 및
상기 적어도 하나의 프로세서에 의해, 적어도 부분적으로 상기 수신된 이미지 센서 데이터의 프로세싱에 기초하여 상기 머리-착용 디스플레이의 위치를 추적하는 단계를 포함하는, 방법.
- 청구항 11에 있어서,
상기 수신된 이미지 센서 데이터를 프로세싱하는 단계는, 상기 머리-착용 디스플레이의 위치를 추적하기 위하여 상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터의 상기 이미지 센서 데이터를 융합하는 단계를 포함하는, 방법.
- 청구항 11에 있어서,
상기 머리-착용 디스플레이는 상기 적어도 하나의 프로세서에 동작가능하게 결합되는 관성 측정 유닛(inertial measurement unit; IMU) 센서를 더 포함하며, 상기 방법은,
상기 적어도 하나의 프로세서에 의해, 상기 IMU 센서로부터 IMU 센서 데이터를 수신하는 단계;
상기 적어도 하나의 프로세서에 의해, 상기 카메라 및 상기 복수의 광학적 흐름 센서 IC들로부터 수신된 상기 이미지 센서 데이터 및 상기 IMU 센서 데이터를 프로세싱하는 단계; 및
상기 적어도 하나의 프로세서에 의해, 적어도 부분적으로 상기 수신된 이미지 센서 데이터 및 상기 수신된 IMU 센서 데이터의 프로세싱에 기초하여 상기 머리-착용 디스플레이의 위치를 추적하는 단계를 더 포함하는, 방법.
- 청구항 11에 있어서,
상기 복수의 광학적 흐름 센서 IC들을 통해 이미지 센서 데이터를 캡처하는 단계는, 각기 이미지 센싱 회로부 및 그 위의 이미지 프로세싱 회로부를 갖는 단일 다이를 포함하는 복수의 광학적 흐름 센서 IC들을 통해 이미지 센서 데이터를 캡처하는 단계를 포함하는, 방법.
- 청구항 11에 있어서,
제 1 프레임 레이트로 카메라 시계 내의 이미지 센서 데이터를 캡처하는 단계는 초당 100 프레임 이하인 제 1 프레임 레이트로 카메라 시계 내의 이미지 센서 데이터를 캡처하는 단계를 포함하며, 제 2 프레임 레이트로 상기 센서 IC 시계들 내의 이미지 센서 데이터를 캡처하는 단계는 초당 1000 프레임 이상인 제 2 프레임 레이트로 상기 센서 IC 시계들 내의 이미지 센서 데이터를 캡처하는 단계를 포함하는, 방법.
- 청구항 11에 있어서,
상기 수신된 이미지 센서 데이터를 프로세싱하는 단계는, 상기 머리-착용 디스플레이가 동작하는 환경 내에 존재하는 하나 이상의 특징들을 검출하기 위해 상기 수신된 이미지 센서 데이터를 프로세싱하는 단계를 포함하는, 방법.
- 청구항 11에 있어서,
상기 센서 IC 시계들의 각각은 상기 카메라 시계의 일 부분과 중첩되는, 방법.
- 청구항 11에 있어서,
상기 수신된 이미지 센서 데이터를 프로세싱하는 단계는 상기 센서 IC 시계들을 상기 카메라 시계와 정렬하는 단계를 포함하는, 방법.
- 청구항 11에 있어서,
상기 카메라 시계는 100 도보다 더 큰, 방법.
- 청구항 11에 있어서,
상기 머리-착용 디스플레이는 각기 사용자의 하나의 눈에 대한 디스플레이를 제공하는 제 1 및 제 2 디스플레이 서브시스템들을 더 포함하며, 상기 방법은,
상기 제 1 및 제 2 디스플레이 서브시스템들을 통해 상기 카메라로부터 획득된 이미지들을 선택적으로 제공하는 단계를 더 포함하는, 방법.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862618928P | 2018-01-18 | 2018-01-18 | |
US62/618,928 | 2018-01-18 | ||
PCT/US2019/013971 WO2019143793A1 (en) | 2018-01-18 | 2019-01-17 | Position tracking system for head-mounted displays that includes sensor integrated circuits |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200106547A true KR20200106547A (ko) | 2020-09-14 |
Family
ID=67213932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207023775A KR20200106547A (ko) | 2018-01-18 | 2019-01-17 | 센서 집적 회로들을 포함하는 머리-착용 디스플레이들에 대한 위치 추적 시스템 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10921881B2 (ko) |
EP (1) | EP3714318B1 (ko) |
JP (1) | JP7207809B2 (ko) |
KR (1) | KR20200106547A (ko) |
CN (2) | CN111602082B (ko) |
WO (1) | WO2019143793A1 (ko) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109194849B (zh) * | 2013-06-13 | 2021-01-15 | 核心光电有限公司 | 双孔径变焦数字摄影机 |
US10554883B2 (en) * | 2018-03-30 | 2020-02-04 | Ricoh Company, Ltd. | VR system, communication method, and non-transitory computer-readable medium |
US20190385372A1 (en) * | 2018-06-15 | 2019-12-19 | Microsoft Technology Licensing, Llc | Positioning a virtual reality passthrough region at a known distance |
GB201819896D0 (en) * | 2018-12-06 | 2019-01-23 | Bae Systems Plc | Tracking system |
US11070778B2 (en) * | 2019-02-14 | 2021-07-20 | Facebook Technologies, Llc | Multi-projector display architecture |
US11209657B2 (en) * | 2020-01-24 | 2021-12-28 | Valve Corporation | Position tracking system for head-mounted display systems that includes angle sensitive detectors |
WO2021158804A1 (en) * | 2020-02-06 | 2021-08-12 | Valve Corporation | Position tracking system for head-mounted display systems |
TWI745924B (zh) * | 2020-04-10 | 2021-11-11 | 宏碁股份有限公司 | 虛擬實境定位裝置、虛擬實境定位系統以及虛擬實境定位裝置的製作方法 |
CN112416125A (zh) * | 2020-11-17 | 2021-02-26 | 青岛小鸟看看科技有限公司 | Vr头戴式一体机 |
WO2024129121A1 (en) * | 2022-12-14 | 2024-06-20 | Google Llc | Gesture input for head-mounted device |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5856844A (en) * | 1995-09-21 | 1999-01-05 | Omniplanar, Inc. | Method and apparatus for determining position and orientation |
JP3902741B2 (ja) * | 2002-01-25 | 2007-04-11 | 株式会社半導体理工学研究センター | 半導体集積回路装置 |
US20050084179A1 (en) * | 2003-09-04 | 2005-04-21 | Keith Hanna | Method and apparatus for performing iris recognition from an image |
JP4422777B2 (ja) * | 2008-08-05 | 2010-02-24 | オリンパス株式会社 | 移動体姿勢検出装置 |
US20150309316A1 (en) * | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
WO2012154938A1 (en) * | 2011-05-10 | 2012-11-15 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
US8203605B1 (en) * | 2011-05-11 | 2012-06-19 | Google Inc. | Point-of-view object selection |
US8982471B1 (en) | 2012-01-04 | 2015-03-17 | Google Inc. | HMD image source as dual-purpose projector/near-eye display |
JP2013148745A (ja) | 2012-01-20 | 2013-08-01 | Fujitsu Mobile Communications Ltd | 電子機器、制御方法及び制御プログラム |
US9529426B2 (en) * | 2012-02-08 | 2016-12-27 | Microsoft Technology Licensing, Llc | Head pose tracking using a depth camera |
US9495783B1 (en) * | 2012-07-25 | 2016-11-15 | Sri International | Augmented reality vision system for tracking and geolocating objects of interest |
US9041840B2 (en) | 2012-08-21 | 2015-05-26 | Semiconductor Components Industries, Llc | Backside illuminated image sensors with stacked dies |
KR102019124B1 (ko) | 2013-01-04 | 2019-09-06 | 엘지전자 주식회사 | 헤드 마운트 디스플레이 및 그 제어 방법 |
US9395543B2 (en) * | 2013-01-12 | 2016-07-19 | Microsoft Technology Licensing, Llc | Wearable behavior-based vision system |
US9898866B2 (en) * | 2013-03-13 | 2018-02-20 | The University Of North Carolina At Chapel Hill | Low latency stabilization for head-worn displays |
US20140267667A1 (en) | 2013-03-14 | 2014-09-18 | Valve Corporation | Outward facing camera system with identical camera and eye image picture perspective |
EP3055754B1 (en) * | 2013-10-11 | 2023-08-02 | InterDigital Patent Holdings, Inc. | Gaze-driven augmented reality |
US20150356737A1 (en) * | 2014-06-09 | 2015-12-10 | Technical Illusions, Inc. | System and method for multiple sensor fiducial tracking |
US9541740B2 (en) | 2014-06-20 | 2017-01-10 | Qualcomm Incorporated | Folded optic array camera using refractive prisms |
US10423222B2 (en) * | 2014-09-26 | 2019-09-24 | Digilens Inc. | Holographic waveguide optical tracker |
CN107850953B (zh) | 2014-11-05 | 2021-08-31 | 威尔乌集团 | 用于在虚拟现实环境中引导用户的感官反馈系统和方法 |
US10338186B2 (en) | 2014-11-10 | 2019-07-02 | Valve Corporation | Positional tracking systems and methods |
US10286308B2 (en) | 2014-11-10 | 2019-05-14 | Valve Corporation | Controller visualization in virtual and augmented reality environments |
US10043281B2 (en) * | 2015-06-14 | 2018-08-07 | Sony Interactive Entertainment Inc. | Apparatus and method for estimating eye gaze location |
JP6768416B2 (ja) * | 2015-09-08 | 2020-10-14 | キヤノン株式会社 | 画像処理装置、画像合成装置、画像処理システム、画像処理方法、及びプログラム |
CN109477966B (zh) * | 2016-02-18 | 2022-06-03 | 苹果公司 | 具有内-外位置跟踪、用户身体跟踪和环境跟踪的用于虚拟现实和混合现实的头戴式显示器 |
US11089280B2 (en) * | 2016-06-30 | 2021-08-10 | Sony Interactive Entertainment Inc. | Apparatus and method for capturing and displaying segmented content |
US10134192B2 (en) * | 2016-10-17 | 2018-11-20 | Microsoft Technology Licensing, Llc | Generating and displaying a computer generated image on a future pose of a real world object |
US20190204599A1 (en) * | 2017-12-28 | 2019-07-04 | Microsoft Technology Licensing, Llc | Head-mounted display device with electromagnetic sensor |
-
2019
- 2019-01-17 US US16/250,821 patent/US10921881B2/en active Active
- 2019-01-17 WO PCT/US2019/013971 patent/WO2019143793A1/en unknown
- 2019-01-17 JP JP2020534621A patent/JP7207809B2/ja active Active
- 2019-01-17 CN CN201980008361.1A patent/CN111602082B/zh active Active
- 2019-01-17 KR KR1020207023775A patent/KR20200106547A/ko not_active Application Discontinuation
- 2019-01-17 CN CN202211683430.9A patent/CN115857173A/zh active Pending
- 2019-01-17 EP EP19741514.4A patent/EP3714318B1/en active Active
-
2021
- 2021-01-22 US US17/156,295 patent/US11314323B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3714318A1 (en) | 2020-09-30 |
JP2021511699A (ja) | 2021-05-06 |
US11314323B2 (en) | 2022-04-26 |
CN111602082B (zh) | 2023-01-17 |
EP3714318A4 (en) | 2021-06-09 |
US20210149481A1 (en) | 2021-05-20 |
CN115857173A (zh) | 2023-03-28 |
JP7207809B2 (ja) | 2023-01-18 |
CN111602082A (zh) | 2020-08-28 |
EP3714318B1 (en) | 2023-08-30 |
US20190220090A1 (en) | 2019-07-18 |
WO2019143793A1 (en) | 2019-07-25 |
US10921881B2 (en) | 2021-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11314323B2 (en) | Position tracking system for head-mounted displays that includes sensor integrated circuits | |
US10591731B2 (en) | Ocular video stabilization | |
CN106716303B (zh) | 稳定交互射线的运动 | |
US8976086B2 (en) | Apparatus and method for a bioptic real time video system | |
CN108139806A (zh) | 相对于可穿戴设备跟踪穿戴者的眼睛 | |
WO2014204905A1 (en) | Virtual object orientation and visualization | |
CN112655202B (zh) | 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正 | |
EP2859399A1 (en) | Apparatus and method for a bioptic real time video system | |
US20220317459A1 (en) | Eyewear including a push-pull lens set | |
US20230053497A1 (en) | Systems and methods for performing eye-tracking | |
WO2023113956A1 (en) | Eyewear including a non-uniform push-pull lens set | |
US11982808B2 (en) | Extended field-of-view capture of augmented reality experiences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |