KR20210010437A - 광학 위치 추적 장치를 위한 전력 관리 - Google Patents

광학 위치 추적 장치를 위한 전력 관리 Download PDF

Info

Publication number
KR20210010437A
KR20210010437A KR1020207029453A KR20207029453A KR20210010437A KR 20210010437 A KR20210010437 A KR 20210010437A KR 1020207029453 A KR1020207029453 A KR 1020207029453A KR 20207029453 A KR20207029453 A KR 20207029453A KR 20210010437 A KR20210010437 A KR 20210010437A
Authority
KR
South Korea
Prior art keywords
emitter
optical
laser line
during
cycle
Prior art date
Application number
KR1020207029453A
Other languages
English (en)
Inventor
로브 리드베르그
Original Assignee
밸브 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 밸브 코포레이션 filed Critical 밸브 코포레이션
Publication of KR20210010437A publication Critical patent/KR20210010437A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/70Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/70Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using electromagnetic waves other than radio waves
    • G01S1/703Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/70Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using electromagnetic waves other than radio waves
    • G01S1/703Details
    • G01S1/7032Transmitters
    • G01S1/7038Signal details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/01Determining conditions which influence positioning, e.g. radio environment, state of motion or energy consumption
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2330/00Aspects of power supply; Aspects of display protection and defect management
    • G09G2330/02Details of power systems and of start or stop of display operation
    • G09G2330/021Power management, e.g. power saving

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

위치 추적 장치의 전력 소비를 관리하기 위한 장치 및 기법이 본 명세서에 설명된다. 상기 위치 추적 장치는 상이한 방향으로부터 광학 신호를 수신하도록 배향된 다수의 광학 센서를 갖는 가상 현실(VR) 제어기일 수 있다. 고정 광학 방출기는 레이저 라인을 공간으로 투사하고 공간을 통해 레이저 라인을 반복적으로 스캔한다. 임의의 주어진 스캔에서 일부 센서는 레이저 라인을 검출할 수 있고 일부 센서는 방출기와는 다른 방향으로 배향되거나 차단 물체로 인해 레이저 라인을 검출하지 못할 수 있다. 개별 센서가 레이저 스캔을 검출하지 못하면 VR 제어기의 전력 소비를 줄이기 위해 하나 이상의 후속 레이저 스캔 동안 이 센서가 비활성화된다.

Description

광학 위치 추적 장치를 위한 전력 관리
관련 출원에 대한 상호 참조
본 출원은 전체 내용이 본 명세서에 병합된 미국 특허 출원 15/984,130(출원일: 2018년 5월 18일, 발명의 명칭: "Power Management for Optical Position Tracking Devices")의 우선권을 주장한다.
가상 현실(VR) 시스템은 가상 환경을 디스플레이하고, 사용자의 위치와 움직임을 감지하고, 사용자의 위치와 움직임에 반응함으로써 사용자가 가상 환경에 몰입할 수 있도록 한다. VR 게임은 종종 사용자의 자연스러운 움직임을 감지하는 착용형 장치 또는 다른 장치에 의존한다. 예를 들어, 복싱 게임에서 조이스틱을 동작시켜 펀치를 날리는 것이 아니라, 복싱 게임은 사용자의 손의 실제 위치와 움직임에 관한 입력을 수신하여, 사용자가 실제로 팔과 손으로 펀치를 가함으로써 게임을 플레이할 수 있도록 할 수 있다. 유사하게, 가상 현실 시스템은 사용자가 물체를 잡고, 가상 버튼을 누르는 등과 같은 물리적 단계를 취함으로써 디스플레이된 가상 환경을 통해 이동할 수 있도록 할 수 있다.
일부 시스템에서, 사용자는 VR 제어기라고 지칭되는 것을 착용하거나 보유할 수 있다. VR 제어기는 오디오 및 비디오와 같은 출력을 사용자에게 제공하는 장치이다. 예를 들어, 사용자는 가상 환경을 사용자에게 디스플레이하는 VR 헤드셋을 착용할 수 있다. VR 제어기는 또한 사용자 입력을 받아들이거나 검출하여 사용자가 가상 환경의 요소와 상호 작용하거나 이 가상 환경의 요소에 대해 이동할 수 있도록 할 수 있다. 구체적으로, 일부 VR 제어기는 사용자 위치와 움직임을 검출한다.
사용자의 위치 및 움직임은 다양한 방식으로 검출될 수 있다. 일부 시스템에서는 광학 기법을 사용하여 사용자의 움직임을 검출한다. 특히, 일부 시스템은 위치 정보를 운반하는 광학 신호를 검출하기 위해 VR 헤드셋 또는 VR 핸드 제어기와 같은 착용형 또는 핸드헬드 장치에 위치된 광학 센서를 사용할 수 있다.
VR 제어기는 일반적으로 전력을 위해 재충전 가능 배터리를 사용하여 무선으로 동작한다. 따라서 VR 제어기의 사용 가능 시간은 이용 가능한 배터리 용량에 의해 제한된다. 따라서 VR 제어기의 전력 소비를 최소화하거나 제한하는 것이 중요하다.
상세한 설명은 첨부된 도면을 참조하여 설명된다. 도면에서 참조 번호의 맨 왼쪽 숫자(들)는 이 참조 번호가 처음 나타나는 도면을 나타낸다. 다른 도면에서 동일한 참조 번호를 사용하는 것은 유사하거나 동일한 구성 요소 또는 특징부를 나타낸다.
도 1은 가상 현실(VR) 시스템이 동작하는 공간을 나타내는 도면;
도 2는 예시적인 VR 헤드셋을 도시하는 도면;
도 3은 예시적인 VR 핸드 제어기를 도시하는 도면;
도 4는 일 실시형태에서 고정 방출기에 의해 방출된 광학 신호 및 VR 제어기에 의해 수신된 대응하는 광학 신호를 보여주는 타이밍도;
도 5는 다른 실시형태에서 고정 방출기에 의해 방출된 광학 신호 및 VR 제어기에 의해 수신된 대응하는 광학 신호를 보여주는 타이밍도;
도 6은 또 다른 실시형태에서 고정 방출기에 의해 방출된 광학 신호 및 VR 제어기에 의해 수신된 대응하는 광학 신호를 보여주는 타이밍도;
도 7은 VR 제어기의 전력 소비를 감소시키기 위해 광 센서를 비활성화하는 예시적인 방법을 도시하는 흐름도;
도 8a, 도 8b, 도 8c 및 도 8d는 VR 제어기의 전력 소비를 줄이기 위해 센서를 비활성화하는 다른 상세를 도시하는 흐름도;
도 9는 대안적인 실시형태에서 센서를 비활성화하는 또 다른 상세를 도시하는 흐름도; 및
도 10은 본 명세서에 설명된 방법 및 기법을 구현할 수 있는 VR 제어기의 블록도.
다른 것들 중에서도, 물체의 3차원 위치 및 자세를 검출하기 위한 기법뿐만 아니라 위치 및 자세를 검출하기 위한 기법을 구현하기 위한 장치 및 시스템이 본 명세서에 설명된다.
본 명세서에 개시된 실시형태에 따르면, 광학 방출기는 룸 또는 다른 공간 내의 고정 위치에 장착된다. 광학 방출기는 룸을 통해 레이저 라인을 스캔하여 룸 내 위치 추적 장치로 위치 정보를 운반하도록 구성된다. 예를 들어, 레이저 라인의 스캔은 레이저 라인이 임의의 순간에 투사되는 각도가 동기화 펄스 후 경과된 시간의 함수이도록 제어될 수 있다. 또 다른 예로서, 레이저 라인은 레이저 라인이 공간 상을 또는 공간을 통해 스캔할 때 현재의 순간 투사 각도를 운반하도록 변조되거나 인코딩될 수 있다.
설명된 실시형태에서, 가상 현실(VR) 제어기 또는 다른 이동 가능하거나 착용 가능한 위치 추적 장치는 위에서 설명된 바와 같이 하나 이상의 고정 광학 방출기로부터 광학 신호를 수신하도록 배열된 광 센서를 갖는다. 구체적으로, 개별 광 센서는 레이저 라인이 광 센서와 교차하는 순간에 레이저 라인을 검출할 수 있다. 그런 다음 레이저 라인에 관한 정보를 분석하여 VR 제어기의 위치 좌표를 결정한다. 예를 들어, VR 제어기는 광학 동기화 펄스를 수신하는 것과 이후 스캔 레이저 라인을 검출하는 것 사이의 시간 차이를 측정할 수 있으며, 레이저 라인이 VR 제어기에 의해 검출된 순간의 레이저 라인의 투사 각도는 이 시간 차이의 함수로 계산될 수 있다. 다른 예로서, VR 제어기는 수신된 레이저 라인 신호를 복조 또는 디코딩하여 레이저 라인 신호에 매립된 각도 좌표 값을 얻을 수 있으며, 여기서 각도 좌표는 레이저 라인이 VR 제어기에 의해 검출된 순간에 레이저 라인의 투사된 각도에 대응한다.
임의의 주어진 시간에, 임의의 수의 광학 센서가 특정 고정 방출기로부터 투사된 레이저 라인을 수신하고 검출하도록 위치되고 배향될 수 있다. VR 제어기 및/또는 지원 컴퓨팅 장치는 VR 제어기의 3차원 위치 및 자세를 결정하기 위해 다수의 광 센서 및 다수의 고정 방출기로부터의 신호를 분석하여 얻어진 각도 위치 정보를 사용한다.
단일 위치에 있는 단일 방출기는 예를 들어 VR 제어기가 방출 장치에 대한 수평 및 수직 각도 좌표를 모두 결정할 수 있도록 예를 들어 수평 축 및 수직 축을 따라 다수의 각각의 방향으로 스캔되는 레이저 라인을 생성하도록 구성될 수 있다. 레이저는 방출기 사이클(emitter cycle)이라고 지칭되는 것에서 스캔되고, 여기서 각 방출기 사이클의 광학 신호는 현재 또는 새로운 위치 정보를 나타낸다.
광 센서에 의한 전력 소비를 줄이기 위해, 일부 광 센서는 이러한 광 센서가 다가오는 레이저 라인을 검출할 수 없을 것 같은 특정 상황에서 비활성화될 수 있다. 예를 들어, 개별 센서가 특정 방출기를 향하지 않을 수 있고 또는 방출기로부터 신호를 수신하지 못하도록 차단될 수 있다. VR 제어기는 센서들 중에서 특정 방출기 사이클의 레이저 라인을 검출하지 못한 센서를 결정하고 하나 이상의 후속 방출기 사이클 동안 이 센서를 비활성화하도록 구성된다. 일부 경우에 이와 같은 센서는 VR 제어기가 움직이지 않는 경우에만 비활성화될 수 있다. 일부 경우에 센서는 이 센서로부터의 입력이 특정 애플리케이션과 관련이 없거나 다른 센서로부터의 입력과 중복되기 때문에 비활성화될 수 있다. 일부 경우에 센서가 비활성화된 동안 후속 방출기 사이클의 수는 VR 제어기가 움직이는 속도에 의존할 수 있다. 일부 경우에 VR 제어기는 특정 센서가 이전 방출기 사이클 동안 스캔 레이저 라인을 검출한 다른 센서 근처에 있는 경우 이 특정 센서를 비활성화하지 않을 수 있다. 일부 경우에 센서는 대부분의 방출기 사이클 동안 비활성화될 수 있지만, 레이저 라인이 VR 제어기와 교차하여 이 VR 제어기에 도달한 것으로 예상되는 시간 범위 동안 활성화된다. 이러한 상세 및 다른 상세는 다음 논의에서 보다 상세히 설명된다.
도 1은 예시적인 실시형태에서 가상 현실(VR) 제어기의 사용을 도시한다. 구체적으로, 도 1은 이 예에서 룸인 물리적 공간(102)과, 공간(102) 내의 사용자(104)를 도시한다. 사용자(104)는 VR 헤드셋(106)과 한 쌍의 VR 핸드 제어기(108)를 착용하고 있다. VR 헤드셋(106)과 VR 핸드 제어기(108)는 VR 제어기 또는 VR 모션 제어기로 지칭되고, 보다 일반적으로 이동 가능한 위치 추적 장치로 지칭되는 착용형 구성 요소의 예이다.
VR 헤드셋(106)은 가상 환경의 시뮬레이션된 뷰(simulated view)를 제공하는 내부 디스플레이(도시되지 않음)를 갖는다. 예를 들어, 시뮬레이션된 뷰는 룸 또는 다른 공간을 보여줄 수 있으며 또한 가상 공간 내의 객체를 보여줄 수 있다. 사용자(104)가 움직일 때, VR 헤드셋(106)은 움직임을 감지하고 시뮬레이션된 뷰는 가상 공간 내에서 사용자(104)의 새로운 위치 또는 배향을 반영하도록 변한다. 예를 들어, 머리를 돌리면 사용자(104)는 가상 환경 내의 다른 방향 및/또는 다른 물체를 볼 수 있다.
VR 핸드 제어기(108)는 유사하게 사용자(104)의 손의 움직임을 감지한다. VR 헤드셋(106)에 의해 디스플레이되는 가상 환경은 사용자의 실제 손의 움직임에 따라 움직이는 시뮬레이션된 손을 포함할 수 있다. 일부 실시형태에서, VR 핸드 제어기(108)는 또한 손가락의 움직임을 감지하여 사용자(104)가 가상 환경 내에서 가상 버튼을 누르고, 표면을 밀고, 물체를 잡고 보유하는 등을 수행할 수 있도록 할 수 있다.
종종 게임 콘솔로 지칭되는 컴퓨터(110)는, 계산을 수행하고 VR 헤드셋(106)에 의한 디스플레이를 위한 사용자 움직임에 응답하여 가상 환경의 뷰를 생성하기 위해 VR 제어기(106 및 108)와 함께 사용될 수 있다. VR 제어기는 블루투스, WiFi 또는 다른 무선 기술을 사용하여 컴퓨터(110)와 무선으로 통신할 수 있다. VR 제어기는 또한 하나 이상의 유선 또는 무선을 통해 컴퓨터(110)에 연결될 수 있는 VR 헤드셋(106)을 통해 컴퓨터(110)와 통신할 수 있다.
물리적 공간(102)은, 공간(102)의 벽 또는 천장에 장착되고 룸에 대해 안쪽을 향하는 제1 방출기(112(a)) 및 제2 방출기(112(b))로서 도 1에 도시된 다수의 고정 방출기(112)를 갖는다. 각각의 방출기(112)는 각도 위치 정보를 결정하기 위해 VR 제어기(106 및 108)에 의해 수신되는 광학 기준 신호를 방출한다. 구체적으로, VR 제어기는 방출기(112) 및 공간(102)에 대한 사용자(104)의 위치 및 자세를 결정하기 위해 방출된 광학 기준 신호를 수신하고 분석하는 광학 센서(도 1에 도시되지 않음)를 갖는다. 설명된 실시예에서 광학 신호는 적외선 범위에 있고 사용자(104)에 의해 보이지 않는다.
도 2는 VR 헤드셋(106)을 보다 상세히 도시한다. 헤드셋(106)은 서로 다른 방향으로부터 적외선 광학 신호를 수신할 수 있도록 분산 및 배열된 다수의 광학 센서(204)를 갖는 전방 외부 표면(202)을 갖는다. 헤드셋(106)은 추가 센서(도시되지 않음)가 위치될 수 있는 헤드 밴드(206)를 갖는다. 일부 실시형태에서, VR 헤드셋(106)은 헬멧 또는 캡을 포함할 수 있고, 센서는 추가 방향으로부터 광학 신호를 수신하기 위해 헬멧 또는 캡의 상부의 다양한 추가 위치에 위치될 수 있다.
도 3은 VR 핸드 제어기(108) 중 하나를 보다 상세히 도시한다. VR 핸드 제어기(108)는 광학 센서(302)가 위치된 다양한 표면을 갖는다. 광학 센서(302)는 다양한 상이한 방향으로부터 광학 신호를 수신하도록 배열된다. VR 핸드 제어기(108)는 다양한 방식으로 사용자(104)에 의한 상호 작용을 허용하는 버튼, 센서, 조명, 제어, 노브(knob), 지시기, 디스플레이 등을 가질 수 있다.
본 명세서에 설명된 기법은 VR 제어기로 제한되지 않는 다양한 유형의 위치 추적 장치에 사용될 수 있다. 일부 VR 제어기는 또한 모션 검출에 사용될 수 있는 관성 측정 유닛(IMU)을 가질 수 있다.
다시 도 1을 참조하면, 각각의 방출기(112)는 공간(102)을 통해 레이저 라인(114)을 반복적으로 스위핑(sweep)하도록 구성될 수 있다. 레이저 라인(114)은 일례로서 회전 미러와 함께 라인-투사 레이저 방출기에 의해 생성될 수 있다. 도 1에서, 레이저 라인(114)은 수직 상방으로 스위핑하는 수평 라인으로 투사된다. 개별 방출기(112)는 또한 수평으로 스위핑하는 수직 라인으로서 레이저 라인을 투사할 수 있다. 일부 실시형태에서, 각각의 방출기(112)는 수직으로 스위핑하는 레이저 라인과, 수평으로 스위핑하는 레이저 라인을 교대로 투사할 수 있다.
레이저 라인(114)이 공간(102)을 가로지르거나 공간(102)을 통과할 때, 어떤 시점에서 레이저 라인(114)의 일부가 사용자(104)에 투사되고, VR 제어기(106 및 108)의 센서(204 및 302) 중 하나 이상에 도달하게 된다. 레이저 라인(114)은, 일반적으로 방출기(112)를 향하고 사용자(104) 또는 다른 물체에 의해 차단되지 않는 임의의 센서에 의해 검출된다.
레이저 라인(114)의 임의의 주어진 스위프 또는 스캔 동안, 하나 이상의 센서(204 또는 302)가 레이저 라인(114)을 수신하거나 검출하지 않는 일이 일어날 수 있다. 아래에서 보다 상세히 설명되는 바와 같이, 이러한 센서는 전력 소비를 줄이기 위해 하나 이상의 후속 레이저 라인이 스위핑하는 동안 비활성화될 수 있다. 예를 들어, 주어진 센서가 레이저 라인의 제1 스위프 동안 레이저 라인을 검출하지 못하면 이 센서는 레이저 라인의 후속 제2 스위프 동안 비활성화된 다음 레이저 라인의 제3 스위프 동안 다시 활성화될 수 있다. 광학 센서는 상당한 전력을 소비하므로, 임의의 센서를 비활성화하면, VR 제어기의 배터리 수명을 크게 향상시킬 수 있다.
도 4는 위에서 논의된 구성 요소를 사용하여 수행될 수 있는 것과 같이, 단일 고정 방출기에 대한 VR 제어기 또는 다른 위치 추적 장치의 각도 좌표를 결정하기 위한 기법을 도시한다. 도 4뿐만 아니라 도 5 및 도 6의 상부 부분은, 단일 방출기 사이클 동안 고정 방출기에 의한 광학 신호 전송을 보여주는 타임 라인이다. 도 4뿐만 아니라 도 5 및 도 6의 하부 부분은, 방출기 사이클 동안 VR 제어기의 광학 센서에 의한 광학 신호 수신을 보여주는 타임 라인이다.
다수의 방출기 사이클 각각 동안, 방출기는 짧은 전방향 동기화 펄스(402) 및 더 긴 스위핑된 레이저 라인(404)을 생성한다. 도시된 예에서, 레이저 라인(404)은 동기화 펄스(402) 후 고정된 알려진 시간에서 시작하여 일정한 알려진 각속도로 10° 내지 170°의 각도를 통해 스위핑된다. 언제든지 레이저 라인의 투사된 각도는 가장 최근의 동기화 펄스 후 경과된 시간의 선형 함수이다. 일부 실시형태에서, 하나를 초과하는 동기화 펄스(402)가 있을 수 있다는 것이 주목된다.
광학 센서는 전방향 동기화 펄스(402)에 대응하는 제1 신호(406) 및 레이저 라인이 비교적 짧은 시간 동안 광학 센서에 도달할 때 레이저 라인에 대응하는 제2 신호(408)를 검출한다. 광학 센서에 도달할 때 레이저 라인의 각도는 제1 신호(406)와 제2 신호(408) 사이의 시간(ta)의 선형 함수이다.
도 5는 단일 방출기가 각각 수평으로 및 수직으로 스위핑하는 2개의 스위핑 레이저 라인을 생성하도록 구성될 수 있는 것을 도시한다. 이 경우, 단일 방출기 사이클은 수평 또는 X 방향으로 레이저 라인의 제1 동기화 펄스(502) 및 대응하는 스위프(504), 및 수직 또는 Y 방향으로 레이저 라인의 제2 동기화 펄스(506) 및 대응하는 스위프(508)를 포함할 수 있다. 광학 센서는 수평으로 스위핑된 레이저 라인이 센서를 통과할 때 수평 동기화 신호(510) 및 대응하는 수평 레이저 펄스(512)를 수신한다. 방출기에 대한 센서의 수평 각도는 수평 동기화 신호(510)와 수평 레이저 펄스(512) 사이의 시간(tx)에 기초하여 계산된다. 동일한 센서는 수직으로 스위핑된 레이저 라인이 센서를 통과할 때 수직 동기화 신호(514) 및 대응하는 수직 레이저 펄스(516)를 수신한다. 방출기에 대한 센서의 수직 각도는 수직 동기화 신호(514)와 수직 레이저 펄스(516) 사이의 시간(ty)에 기초하여 계산된다.
제1 방출기(112(a)) 및 제2 방출기(112(b))의 방출기 사이클은 인터리빙(interleaved)될 수 있으며, 이에 의해 VR 제어기가 제1 방출기(112(a))와 제2 방출기(112(b)) 중 하나 또는 둘 모두에 대한 각도 좌표를 결정할 수 있다. VR 제어기의 3차원 위치 및 자세는 방출기(112(a) 및 112(b))의 위치가 알려져 있다고 가정하면 다수의 센서를 모니터링하는 것으로부터 유도된 이러한 좌표에 기초하여 계산될 수 있다.
도 6은 단일 고정 방출기에 대한 VR 제어기 또는 다른 위치 추적 장치의 각도 좌표를 지정하기 위한 다른 기법을 도시한다. 이 예에서, 방출기의 레이저 전송은 스위핑된 레이저 라인의 현재 각도 좌표를 지시하도록 연속적으로 변조되고 인코딩된다. 구체적으로, 레이저 방출은 임의의 시점에서 방출기에 대한 레이저 라인의 순간 투사 각도를 나타내도록 인코딩된다. 이것은 동기화 펄스의 필요성을 제거하여 방출기 사이클이 레이저 라인의 수평 또는 X 스위프(602), 및 레이저 라인의 후속 수직 또는 Y 스위프(604)를 포함하도록 한다. 센서가 606 및 608에서 레이저 라인을 검출하면 레이저 신호는 레이저 라인의 현재 각도 방향을 결정하도록 복조되거나 디코딩된다.
도 7은 위치 검출을 위한 광학 기준 신호를 검출하는 예시적인 방법(700)을 도시한다. 방법(700)은 다수의 방향으로부터 적외선 광학 신호를 수신하도록 장착된 다수의 광학 센서를 갖는 위치 추적 장치의 제어 로직에 의해 수행될 수 있다. 위에서 설명한 VR 제어기는 위치 추적 장치의 예이다.
방법(700)은 다수의 방출기 사이클 각각에 대해 수행된다. 본 명세서에 설명된 예에서, 도 4 내지 도 6에 도시된 바와 같이, 각각의 방출기 사이클은 공통 위치에 있는 하나 이상의 방출기에 의해 생성된 하나 이상의 스위핑된 레이저 라인을 포함한다. 일부 실시형태에서, 방출기 사이클은 또한 하나 이상의 동기화 펄스를 포함할 수 있다.
도 4의 예에서, 각각의 방출기 사이클은 전방향성 동기화 펄스, 및 공간을 스위핑하며 레이저 라인이 센서를 통과할 때 펄스(408)를 생성하는 후속 레이저 라인을 포함한다.
도 5의 예에서, 각각의 방출기 사이클은 수평 측정 사이클과 수직 측정 사이클을 포함한다. 수평 측정 사이클은 전방향 동기화 펄스, 및 공간을 수평으로 스위핑하며 레이저 라인이 센서를 통과할 때 펄스(512)를 생성하는 후속 레이저 라인을 포함한다. 수직 측정 사이클은 전방향 동기화 펄스, 및 공간을 수직으로 스위핑하며 레이저 라인이 센서를 통과할 때 펄스(516)를 생성하는 후속 레이저 라인을 포함한다.
도 6의 예에서, 각각의 방출기 사이클은 공간을 수평으로 스위핑하며 레이저 펄스(606)를 생성하는 제1 레이저 라인, 및 공간을 수직으로 스위핑하며 레이저 라인이 센서를 통과할 때 레이저 펄스(608)를 생성하는 후속 제2 레이저 라인을 포함한다. 도 6의 예에서, 각 레이저 라인은 레이저 라인의 현재 순간 투사 각도를 지시하도록 변조되거나 인코딩된다.
도 7은 단일 고정 방출기 또는 단일 위치에 있는 다수의 방출기로부터 방출된 신호에 대해 수행되는 동작을 도시한다. 일부 실시형태는 상이한 위치에서 다수의 고정 방출기를 포함할 수 있고, 방법(700)은 각 방출기 또는 방출기 위치의 방출기 사이클 동안 독립적으로 수행될 수 있다.
동작(702)은 위치 추적 장치에 장착된 다수의 광학 센서 중 적어도 하나를 사용하여 고정 방출기로부터 광학 기준 신호를 수신하는 것을 포함한다. 본 명세서에 설명된 실시형태에서, 동작(702)은 위치 추적 장치의 센서를 사용하여 스위핑된 레이저 라인을 수신하고 검출하는 것을 포함한다. 레이저 라인은 위치 추적 장치의 다수의 현재 활성화된 센서에 의해 수신 및 검출될 수 있으며, 여기서 개별 센서는 도 7의 후속 동작에 따라 활성화 및 비활성화된다. 일부 경우에 레이저 라인의 현재 투사 각도에 따라 변하는 위치 좌표를 지정하도록 코딩된 레이저 신호를 사용하여 스위핑된 레이저 라인이 생성될 수 있다.
동작(704)은 고정 방출기에 대한 위치 좌표를 결정하기 위해 광학 기준 신호를 분석하는 것을 포함한다. 위에서 설명한 바와 같이, 광학 기준 신호는 스위핑 레이저 라인을 포함할 수 있으며, 동작(704)은 (a) 스위핑된 레이저 라인을 검출하는 것과 선행 동기화 신호를 수신하는 것 사이의 시간 차이를 결정하는 것, 및 (b) 시간 차이에 적어도 부분적으로 기초하여 위치 추적 장치의 각도 위치 좌표를 결정하는 것을 포함할 수 있다. 다른 경우에, 동작(704)은 수신된 레이저 신호로부터 각도 위치 정보를 디코딩하는 것을 포함할 수 있다.
동작(704)은 VR 제어기 이외의 지원 구성 요소에 의해, 예를 들어, 도 1의 컴퓨터(110)에 의해 부분적으로 수행될 수 있다는 것이 주목된다. 예를 들어, 일부 경우에 VR 제어기는 컴퓨터(110)에 시간 차이를 보고할 수 있고, 컴퓨터(110)는 각도 위치 좌표를 계산하기 위해 시간 차이를 사용할 수 있다. 컴퓨터(110)는 VR 제어기의 3차원 위치 및 자세를 결정하기 위해 다수의 위치에서 다수의 방출기로부터 계산된 각도 위치 좌표를 더 사용할 수 있다.
동작(706)은 방출기 사이클 동안 광학 기준 신호를 수신하거나 검출하지 않은 다수의 광학 센서 중 임의의 것을 식별하는 것을 포함한다. 이들 광학 센서는 본 명세서에서 비-수신 센서로 지칭된다.
동작(708)은 비-수신 센서를 식별하는 동작(706)에 적어도 부분적으로 기초하여 전력 소비를 감소시키기 위해 개별 센서를 활성화 또는 비활성화하는 것을 포함한다. 일반적으로, 동작(708)은 후속 방출기 사이클 동안 임의의 비-수신 센서를 비활성화한 다음, 후속 방출기 사이클 후에 비-수신 센서를 재활성화하는 것을 포함한다. 일부 실시형태에서, 동작(708)은 소정 수의 후속 방출기 사이클 동안 각각의 비-수신 센서를 비활성화하는 것을 포함할 수 있다. 일부 경우에, 센서가 비활성화되는 후속 방출기 사이클의 수는 위치 추적 장치가 움직이는지 여부 및/또는 위치 추적 장치가 움직이는 속도에 의존할 수 있다.
도 8a, 도 8b, 도 8c 및 도 8d는 동작(708)이 구현될 수 있는 여러 방식을 예시한다. 이들 각 도면에 설명된 동작은 VR 제어기 또는 다른 위치 추적 장치의 각 센서에 대해 수행되며, 각 방출기 사이클 동안 반복된다.
도 8a에서, 동작(802)은 센서가 현재 방출기 사이클의 광학 기준 신호를 수신하고 검출했는지 여부를 결정하는 것을 포함한다. 센서가 광학 기준 신호를 수신하고 검출한 경우, 후속 방출기 사이클 동안 센서를 활성화하는 동작(804)이 수행된다.
센서가 광학 기준 신호를 수신 및 검출하지 못한 경우, 동작(806)이 수행된다. 동작(806)은 현재 방출기 사이클 동안 센서가 비활성화되었는지 여부를 결정하는 것을 포함한다. 센서가 비활성화된 경우, 후속 방출기 사이클 동안 센서를 활성화하는 동작(804)이 수행된다.
센서가 현재 방출기 사이클 동안 비활성화되지 않은 경우, 후속 방출기 사이클 동안 센서를 비활성화하는 동작(808)이 수행된다.
도 8b는 추가 동작(810)을 제외하고는, 도 8a의 것과 유사한 예시적인 구현을 도시한다. 비-수신 센서를 비활성화하는 동작(806)을 수행하기 전에, 비-수신 센서가 방출기 사이클 동안 광학 기준 신호를 수신한 다른 센서에 인접해 있는지 여부를 결정하는 동작(810)이 수행된다. 센서가 광학 기준 신호를 수신한 다른 센서에 인접하지 않은 경우 동작(808)이 수행된다. 센서가 광학 기준 신호를 수신한 다른 센서에 인접해 있다는 결정에 응답하여, 센서가 현재 방출기 사이클에서 광학 기준 신호를 수신하지 않았다 하더라도 후속 방출기 사이클 동안 센서를 활성화하는 동작(804)이 수행된다.
도 8c는 다른 도시된 동작 이전에 초기에 수행되는 동작(812)이 추가된 것을 제외하고는, 도 8a의 것과 유사한 예시적인 구현을 도시한다. 동작(812)은 위치 추적 장치가 움직이는지 여부를 결정하는 것을 포함한다. 위치 추적 장치가 움직이고 있는 경우, 센서가 수신 센서인지 비-수신 센서인지 여부에 상관 없이 후속 방출기 사이클 동안 센서를 활성화하는 동작(804)이 수행된다. 도 8c의 다른 동작은 위치 추적 장치가 움직이지 않는 경우 수행된다.
예로서, 위치 추적 장치의 가속도계 또는 관성 모니터링 장치(IMU)를 모니터링함으로써 위치 추적 장치가 움직이는지 여부가 결정될 수 있다. 다른 예로서, 위치 추적 장치의 움직임은 이전에 결정된 각도 좌표를 사용하여 이루어진 이전 위치 계산을 모니터링함으로써 결정될 수 있다.
도 8d는 도 8a의 것과 유사한 예시적인 구현을 도시한다. 이 예에서, 비-수신 센서를 비활성화하는 동작(808)을 수행하기 전에, 비-수신 센서가 비활성화될 가변 수의 방출기 사이클을 결정하는 동작(814)이 수행된다. 그런 다음, 동작(808)은 결정된 수의 방출기 사이클 동안 비-수신 센서를 비활성화하는 것을 포함한다. 동작(806)은 방법(800)의 각각의 반복 동안, 비-수신 센서가 결정된 수(N)의 사이클 동안 비활성화되었는지 여부를 결정하도록 수정된다. 비-수신 센서가 결정된 수의 사이클 동안 비활성화된 경우, 센서를 활성화하는 동작(804)이 수행된다. 비-수신 센서가 N개의 방출기 사이클 동안 이미 비활성화되지 않은 경우, 동작(814)이 수행된다. 이미 비활성화된 센서의 경우, 동작(814)은 방출기가 비활성화된 사이클의 수를 추적하기 위해 예를 들어 N을 증가시키거나 감소시키는 것에 의해 카운터를 증분시키거나 감분시키는 것을 포함할 수 있다.
동작(814)은 다양한 인자에 기초할 수 있다. 예를 들어, 가변 수(N)는 위치 추적 장치의 이전에 검출된 움직임을 나타낼 수 있으며, N은 위치 추적 장치가 움직이고 있거나 움직인 경우 더 작아질 수 있다. 다른 예로서, 동작(814)은 위치 추적 장치가 움직이는 속도를 검출하는 것을 포함할 수 있고, N은 위치 추적 장치의 속도에 적어도 부분적으로 기초할 수 있다. 즉, N은 위치 추적 장치가 더 느리게 움직이면 더 커질 수 있고, 위치 추적 장치가 더 빨리 움직이면 더 작아질 수 있다. N은 또한 감도, 정확도 및/또는 대기 시간과 같은 예상 위치 검출 성능에 관한 입력과 같은 외부 입력에 의존할 수 있다. 예를 들어, VR 제어기에 의해 제공되는 정보에 기초하여 생성된 정보를 사용하는 게임 또는 다른 애플리케이션은 동작 동안 예상 위치 검출 성능의 다양한 레벨을 지정할 수 있다. N은 더 높은 성능을 달성하기 위해 더 작아질 수 있고, 배터리 사용량을 절약하기 위해 이러한 성능이 필요하지 않을 때는 더 커질 수 있다.
도 8a, 도 8b, 도 8c 및 도 8d에 도시된 변형뿐만 아니라 다른 변형도 개별적으로 사용되거나 함께 결합되어 사용될 수 있다.
도 9는 일부 실시형태에서 사용될 수 있는 센서를 활성화 및 비활성화하는 예시적인 방법을 도시한다. 일부 실시형태에서, 각 센서는 전체 방출기 사이클 동안 활성화되거나 비활성화될 수 있다. 다른 실시형태에서, 도 9에 도시된 바와 같이, 센서는 방출기 사이클의 일부 동안 비활성화되고 방출기 사이클의 다른 부분 동안 활성화될 수 있다. 도 9의 동작은 각각의 센서에 대해 개별적으로 수행된다.
동작(902)은 이전 방출기 사이클 동안 광학 기준 신호의 관측된 도달 시간에 기초하여 광학 기준 신호의 예상 도달 시간을 예측하는 것을 포함한다. 많은 경우에, 광학 신호는 이전 방출기 사이클의 이전 도달 시간과 동일하거나 거의 동일한 시간에 도달할 것으로 신뢰성 있게 예측될 수 있다. 따라서, 주어진 방출기 사이클 동안 예상 도달 시간은 이전 방출기 사이클에서 광학 기준 신호의 실제 도달 시간인 것으로 결정될 수 있다.
동작(904)은 센서가 현재 방출기 사이클 동안 비활성화되었는지 여부, 예를 들어, 도 8a, 도 8b, 도 8c 및 도 8d에 도시된 방법 중 임의의 방법을 사용하여 비활성화되었는지 여부를 결정하는 것을 포함한다. 센서가 비활성화된 경우, 현재 방출기 사이클 내 제1 시간 범위를 지정하는 동작(906)이 수행되며, 여기서 제1 시간 범위는 광학 기준 신호의 예측된 도달 시간을 포함한다. 그런 다음, 지정된 제1 시간 범위 이외의 방출기 사이클의 부분 동안 센서를 비활성화하는 동작(908)이 수행된다. 즉, 센서는 제1 시간 범위 이외의 방출기 사이클 시간에 비활성화되지만, 제1 시간 범위 동안에는 활성화된다.
센서가 도 8a, 도 8b, 도 8c 또는 도 8d의 동작에 의해 비활성화되지 않은 경우, 현재 방출기 사이클 내 제2 시간 범위를 지정하는 동작(910)이 수행되며, 여기서 제2 시간 범위는 제1 시간 범위보다 더 길다. 특정 실시형태에서, 제2 시간 범위는 예측된 도달 시간 및 제1 시간 범위를 모두 포함할 수 있다. 그런 다음, 지정된 제2 시간 범위 이외의 방출기 사이클의 부분 동안 센서를 비활성화하는 동작(908)이 수행된다. 즉, 센서는 제2 시간 범위 동안에 활성화되지만, 제1 시간 범위 이외의 방출기 사이클 시간에는 비활성화된다.
제2 시간 범위는 방출기 사이클 사이의 시간에 위치 추적 장치의 이동 가능성을 고려하기 위해 제1 시간 범위보다 더 긴 것으로 지정될 수 있다. 일부 경우에, 제2 시간 범위는 방출기 사이클의 대부분 또는 전부를 포함할 수 있다.
도 10은 본 명세서에 설명된 특징 및 기법을 구현할 수 있는 VR 헤드셋(1000)의 예시적인 구성 요소를 도시한다. VR 헤드셋은 설명된 특징 및 기법과 함께 사용될 수 있는 다양한 상이한 유형의 VR 제어기, 착용형 장치 및/또는 위치 추적 장치의 예로서 도시된다.
VR 헤드셋(1000)은 사용자가 착용할 수 있는 독립형 장치로 구현될 수 있다. 일부 실시형태에서, VR 헤드셋(1000)은 안구에 인접한 또는 안구에 근접한 디스플레이(들)를 포함하는 가상 현실(VR) 또는 증강 현실(AR) 헤드셋을 포함한다.
도시된 구현에서, VR 헤드셋(1000)은 하나 이상의 프로세서(1002) 및 메모리(1004)(예를 들어, 컴퓨터 판독 가능 매체)를 포함한다. 일부 구현에서, 프로세서(들)(1002)는 중앙 처리 유닛(CPU), 그래픽 처리 유닛(GPU), CPU 및 GPU 모두, 마이크로프로세서, 디지털 신호 프로세서, 또는 이 기술 분야에 알려진 다른 처리 유닛 또는 구성 요소를 포함할 수 있다. 대안적으로 또는 추가적으로, 본 명세서에 설명된 기능은 적어도 부분적으로 하나 이상의 하드웨어 로직 구성 요소에 의해 수행될 수 있다. 예를 들어, 제한 없이, 사용될 수 있는 하드웨어 로직 구성 요소의 예시적인 유형은 전계 프로그래밍 가능 게이트 어레이(FPGA), 주문형 집적 회로(ASIC), 주문형 표준 제품(ASSP), 시스템 온 칩 시스템(SOC), 복합 프로그래밍 가능 로직 장치(CPLD) 등을 포함한다. 추가적으로, 프로세서(들)(1002) 각각은 또한 프로그램 모듈, 프로그램 데이터 및/또는 하나 이상의 운영 체제를 저장할 수 있는 자체 로컬 메모리를 가질 수 있다.
메모리(1004)는, 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈, 또는 다른 데이터와 같은 정보를 저장하기 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비-휘발성 메모리, 이동식 및 비-이동식 매체를 포함할 수 있다. 이러한 메모리는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다용도 디스크(DVD) 또는 다른 광학 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 또는 다른 자기 저장 장치, RAID 저장 시스템, 또는 원하는 정보를 저장하는 데 사용될 수 있고 컴퓨팅 장치에 의해 액세스될 수 있는 임의의 다른 매체를 포함하지만 이들로 국한되지 않는다. 메모리(1004)는 프로세서(들)(1002)에 의해 액세스되어 메모리(1004)에 저장된 명령어를 실행하도록 하기 위한 임의의 이용 가능한 물리적 매체일 수 있는 컴퓨터 판독 가능 저장 매체("CRSM")로 구현될 수 있다. 하나의 기본 구현에서, CRSM은 랜덤 액세스 메모리("RAM") 및 플래시 메모리를 포함할 수 있다. 다른 구현에서는, CRSM은 판독 전용 메모리("ROM"), 전기적으로 소거 가능한 프로그래밍 가능한 판독 전용 메모리("EEPROM"), 또는 원하는 정보를 저장하는데 사용될 수 있고 프로세서(들)(1002)에 의해 액세스될 수 있는 임의의 다른 유형의 매체를 포함할 수 있지만, 이들로 제한되지 않는다.
명령어, 데이터 저장소 등과 같은 여러 모듈이 메모리(1004) 내에 저장되고, 프로세서(들)(1002)에서 실행되도록 구성될 수 있다. 몇 가지 예시적인 기능 모듈은 메모리(1004)에 저장되고 프로세서(들)(1002)에서 실행되는 애플리케이션으로 표시되지만, 대안적으로 동일한 기능은 하드웨어, 펌웨어 또는 시스템 온 칩(SOC)으로 구현될 수 있다.
운영 체제 모듈(1006)은 다른 모듈의 이익을 위해 VR 헤드셋(1000) 내 그리고 VR 헤드셋에 결합된 하드웨어를 관리하도록 구성될 수 있다. 또한, 일부 경우에 VR 헤드셋(1000)은 메모리(1004)에 저장되거나 VR 헤드셋(1000)에 액세스할 수 있는 하나 이상의 애플리케이션(1008)을 포함할 수 있다. 이 구현에서, 애플리케이션(들)(1008)은 게임 애플리케이션(1010)을 포함한다. 그러나 VR 헤드셋(1000)은 임의의 수 또는 유형의 애플리케이션을 포함할 수 있으며 본 명세서에 도시된 특정 예로 제한되지 않는다. 게임 애플리케이션(1010)은 사용자가 플레이할 수 있는 비디오 기반 대화형 게임(예를 들어, VR 게임)의 게임 플레이를 시작하도록 구성될 수 있다.
일반적으로 VR 헤드셋(1000)은 입력 장치(1012) 및 출력 장치(1014)를 갖는다. 입력 장치(1012)는 제어 버튼을 포함할 수 있다. 일부 구현에서, 하나 이상의 마이크로폰은 사용자 음성 입력과 같은 오디오 입력을 수신하는 입력 장치(1012)로서 기능할 수 있다. 일부 구현에서, 하나 이상의 카메라 또는 다른 유형의 센서(예를 들어, 관성 측정 유닛(IMU))는 사용자의 손 및/또는 머리 움직임과 같은 제스처 입력을 수신하는 입력 장치(1012)로서 기능할 수 있다. 일부 실시형태에서, 추가 입력 장치(1012)는 키보드, 키패드, 마우스, 터치 스크린, 조이스틱 등의 형태로 제공될 수 있다. 다른 실시형태에서, VR 헤드셋(1000)은 키보드, 키패드 또는 다른 유사한 형태의 기계적 입력을 생략할 수 있다. 대신에, VR 헤드셋(1000)은 비교적 단순한 형태의 입력 장치(1012), 네트워크 인터페이스(무선 또는 유선 기반), 전력 및 처리/메모리 기능을 사용하여 구현될 수 있다. 예를 들어, VR 헤드셋(1000)을 이후 사용할 수 있도록 하나 이상의 입력 구성 요소의 제한된 세트(예를 들어, 구성, 전력 온/오프 등을 시작하기 위한 전용 버튼)가 이용될 수 있다. 일 구현에서, 입력 장치(들)(1012)는 볼륨 증가/감소를 위한 기본 볼륨 제어 버튼(들)뿐만 아니라 전력 및 리셋 버튼과 같은 제어 메커니즘을 포함할 수 있다.
출력 장치(1014)는 디스플레이(1016), 조명 요소(예를 들어, LED), 햅틱 감각을 생성하기 위한 진동기, 스피커(예를 들어, 헤드폰) 및/또는 등을 포함할 수 있다. 또한 예를 들어 전력이 온(on) 상태일 때와 같은 상태를 나타내는 간단한 조명 요소(예를 들어, LED)가 있을 수 있다. 도 10에 도시된 전자 디스플레이(들)(1016)는 시각적/그래픽 출력을 출력하는 출력 장치(1014)로서 기능할 수 있다.
VR 헤드셋(1000)은 네트워크에 무선 연결을 용이하게 수립하기 위해 안테나(1020)에 연결된 무선 유닛(1018)을 더 포함할 수 있다. 무선 유닛(1018)은 Wi-Fi, 블루투스 등과 같은 다양한 무선 기술 중 하나 이상을 구현할 수 있다. VR 헤드셋(1000)은 네트워크, 연결된 주변 장치, 또는 다른 무선 네트워크와 통신하는 플러그인 네트워크 장치에 유선 연결을 용이하게 하는 물리적 포트를 더 포함할 수 있는 것으로 이해된다.
VR 헤드셋(1000)은 전자 디스플레이(1016)로부터의 광을 하나 이상의 광학 요소를 사용하여 사용자의 눈(들)으로 향하게 하는 광학 서브시스템(1022)을 더 포함할 수 있다. 광학 서브시스템(1022)은 제한 없이 예를 들어 조리개, 렌즈(예를 들어, 프레넬 렌즈, 볼록 렌즈, 오목 렌즈 등), 필터 등을 포함하는 다양한 유형 및 상이한 광학 요소의 조합을 포함할 수 있다. 일부 실시형태에서, 광학 서브시스템(1022)의 하나 이상의 광학 요소는 반사 방지 코팅과 같은 하나 이상의 코팅을 가질 수 있다. 광학 서브시스템(1022)에 의해 이미지 광을 확대하면 전자 디스플레이(1016)가 더 큰 디스플레이에 비해 물리적으로 더 작고, 더 가볍고, 더 적은 전력을 소비할 수 있다. 추가적으로, 이미지 광을 확대하면 디스플레이된 콘텐츠(예를 들어, 이미지)의 시야(field-of-view: FOV)를 증가시킬 수 있다. 예를 들어, 디스플레이된 콘텐츠의 FOV는 디스플레이된 콘텐츠가 사용자의 FOV의 거의 전부(예를 들어, 120도 내지 150도 대각선) 또는 일부 경우에 전부를 사용하여 표시되도록 이루어진다. AR 애플리케이션은 더 좁은 FOV(예를 들어, 약 40도 FOV)를 가질 수 있다. 광학 서브시스템(1022)은 술통형 왜곡(barrel distortion), 핀쿠션 왜곡(pincushion distortion), 종방향 색수차, 횡방향 색수차, 구면 수차, 색수차, 상면 만곡(field curvature), 난시 등을 포함하지만 이들로 제한되지 않는 하나 이상의 광학 에러를 수정하도록 설계될 수 있다. 일부 실시형태에서, 디스플레이를 위해 전자 디스플레이(1016)에 제공된 콘텐츠는 사전 왜곡되고, 광학 서브시스템(1022)은 콘텐츠에 기초하여 생성된 전자 디스플레이(1016)로부터 이미지 광을 수신할 때 왜곡을 보정한다.
VR 헤드셋(1000)은 모션, 위치 및 배향 데이터를 생성하는 데 사용되는 센서와 같은 하나 이상의 센서(1024)를 더 포함할 수 있다. 이들 센서(1024)는 자이로스코프, 가속도계, 자력계, 비디오 카메라, 컬러 센서, 또는 다른 움직임, 위치 및 배향 센서이거나 이를 포함할 수 있다. 센서(1024)는 또한 모션, 위치 및 배향 데이터를 생성하기 위해 카메라 또는 컬러 센서에 의해 외부에서 볼 수 있는 일련의 능동 또는 수동 마커와 같은, 센서의 서브 부분을 포함할 수 있다.
일례에서, 센서(들)(1024)는 관성 측정 유닛(IMU)(1026)을 포함할 수 있다. IMU(1026)는 가속도계, 자이로스코프, 자력계, 및/또는 모션 검출, IMU(1026)와 관련된 에러 수정 또는 이들의 일부 조합에 적합한 다른 센서로부터 수신된 측정 신호에 기초하여 모션 데이터를 생성하는 전자 장치일 수 있다. 측정 신호에 기초하여 IMU(1026)와 같은 모션 기반 센서는 VR 헤드셋(1000)의 초기 위치에 대한 VR 헤드셋(1000)의 추정된 위치를 나타내는 교정 데이터를 생성할 수 있다. 예를 들어, 다수의 가속도계는 병진 운동(전진/후진, 상방/하방, 좌측/우측)을 측정할 수 있고, 다수의 자이로스코프는 회전 운동(예를 들어, 피치(pitch), 요우(yaw) 및 롤(roll))을 측정할 수 있다. IMU(1026)는, 예를 들어, 측정 신호를 빠르게 샘플링하고, 샘플링된 데이터로부터 VR 헤드셋(1000)의 추정된 위치를 계산할 수 있다. 예를 들어, IMU(1026)는 속도 벡터를 추정하기 위해 시간에 따라 가속도계로부터 수신된 측정 신호를 적분할 수 있고, VR 헤드셋(1000) 상의 기준 포인트의 추정 위치를 결정하기 위해 시간에 따라 속도 벡터를 적분할 수 있다.
다른 예로서, 센서(1024)는, 광학 신호를 검출하고 VR 헤드셋(1000)의 위치 및 자세를 결정하기 위해 전술한 바와 같이 사용될 수 있는 광학 광 센서(1028)를 포함할 수 있다. 광 센서(1028)는 예로서 적외선 광 감지 포토다이오드를 포함할 수 있다.
VR 헤드셋(1000)은 안구 추적 모듈(1030)을 더 포함할 수 있다. VR 헤드셋(1000) 내부의 카메라 또는 다른 광학 센서는 사용자의 안구의 이미지 정보를 캡처할 수 있고, 안구 추적 모듈(1030)은 캡처된 정보를 사용하여, 각각의 안구의 비틀림 및 회전(즉, 롤, 피치 및 요우)의 크기 및 응시 방향을 포함하여, (예를 들어, 왜곡 조절을 위해) 각각의 동공간 거리, 안구간 거리, VR 헤드셋(1000)에 대한 3차원(3D) 위치를 결정할 수 있다. 일례에서, 적외선 광은 VR 헤드셋(1000) 내에서 방출되고 각각의 안구로부터 반사된다. 반사된 광은 VR 헤드셋(1000)의 카메라에 의해 수신 또는 검출되고 나서 분석되어 각각의 안구에서 반사된 적외선 광의 변화로부터 안구의 회전이 추출된다.
사용자의 안구를 추적하는 많은 방법이 안구 추적 모듈(1030)에 의해 사용될 수 있다. 따라서, 안구 추적 모듈(1030)은 각 안구의 최대 6개의 자유도(즉, 3D 위치, 롤, 피치 및 요우)를 추적할 수 있고, 추적된 양의 적어도 서브세트는 시선 점(즉, 사용자가 보고 있는 가상 장면에서의 3D 위치 또는 위치)을 추정하기 위해 사용자의 두 안구로부터 결합될 수 있다. 예를 들어, 안구 추적 모듈(1030)은 과거 측정으로부터의 정보, 사용자의 머리 위치를 식별하는 측정치, 및 전자 디스플레이(1016)에 의해 제시된 장면을 설명하는 3D 정보를 통합할 수 있다. 따라서, 사용자의 안구의 위치 및 배향에 대한 정보는 사용자가 보고 있는 VR 헤드셋(1000)에 의해 제시된 가상 장면에서 시선 점을 결정하는 데 사용된다.
VR 헤드셋(1000)은 머리 추적 모듈(1032)을 더 포함할 수 있다. 머리 추적 모듈(1032)은 전술한 바와 같이 사용자의 머리 움직임을 추적하기 위해 하나 이상의 센서(1024)를 활용할 수 있다.
본 주제는 구조적 특징에 특정된 언어로 설명되었지만, 첨부된 청구 범위에 한정된 주제가 반드시 설명된 특정 특징으로 제한되는 것은 아니라는 것을 이해해야 한다. 오히려, 특정 특징은 청구 범위를 구현하는 예시적인 형태로서 개시된 것이다.

Claims (20)

  1. 방법으로서,
    다수의 방출기 사이클(emitter cycle) 각각 동안, 다수의 광학 센서 중 적어도 하나를 사용하여 고정 방출기로부터 광학 신호를 수신하는 단계;
    상기 고정 방출기에 대한 위치 좌표를 결정하기 위해 제1 방출기 사이클 동안 수신된 상기 광학 신호를 분석하는 단계;
    상기 다수의 광학 센서 중 제1 광학 센서가 상기 제1 방출기 사이클 동안 상기 광학 신호를 수신하지 않았다고 결정하는 단계; 및
    상기 결정에 응답하여, 전력 소비를 감소시키기 위해 제2 방출기 사이클의 적어도 제1 부분 동안 상기 제1 광학 센서를 비활성화하는 단계를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 다수의 광학 센서 중 제2 광학 센서가 상기 제1 방출기 사이클 동안 상기 광학 신호를 수신하지 않았다고 결정하는 단계;
    상기 제2 광학 센서가 상기 제1 방출기 사이클 동안 상기 광학 신호를 수신 한 제3 광학 센서에 인접해 있다고 결정하는 단계; 및
    상기 제2 광학 센서가 상기 제3 광학 센서에 인접해 있다는 결정에 응답하여, 상기 제2 방출기 사이클 동안 상기 제2 광학 센서를 활성화하는 단계를 더 포함하는, 방법.
  3. 제1항에 있어서, 각각의 방출기 사이클은,
    전방향 동기화 펄스; 및
    공간을 스위핑하는(sweep) 레이저 라인을 포함하는, 방법.
  4. 제1항에 있어서,
    각 방출기 사이클은 공간을 스위핑하는 레이저 라인을 포함하고;
    상기 레이저 라인은 상기 레이저 라인의 현재 투사 각도를 나타내도록 인코딩된, 방법.
  5. 제1항에 있어서,
    예상 성능에 관한 정보를 수신하는 단계; 및
    상기 제1 방출기 사이클 후 소정 수의 방출기 사이클 동안 상기 제1 광학 센서를 비활성화하는 단계를 더 포함하고, 상기 수는 상기 예상 성능에 적어도 부분적으로 기초하는, 방법.
  6. 제1항에 있어서, 상기 다수의 광학 센서는 이동 가능한 장치이고, 상기 방법은,
    상기 이동 가능한 장치가 움직이는지 여부를 결정하는 단계; 및
    상기 제1 방출기 사이클 후 소정 수의 방출기 사이클 동안 상기 제1 광학 센서를 비활성화하는 단계를 더 포함하고, 상기 수는 상기 이동 가능한 장치가 움직이는지 여부에 적어도 부분적으로 기초하는, 방법.
  7. 제1항에 있어서, 상기 광학 센서는 이동 가능한 장치이고, 상기 방법은,
    상기 이동 가능한 장치의 속도를 검출하는 단계; 및
    상기 제1 방출기 사이클 후 소정 수의 방출기 사이클 동안 상기 제1 광학 센서를 비활성화하는 단계를 더 포함하고, 상기 수는 상기 이동 가능한 장치의 속도에 적어도 부분적으로 기초하는, 방법.
  8. 제1항에 있어서,
    상기 제1 방출기 사이클 동안 상기 광학 신호의 관찰된 도달 시간에 적어도 부분적으로 기초하여 상기 광학 신호의 예상 도달 시간을 예측하는 단계;
    제2 방출기 사이클 내 제1 시간 범위를 지정하는 단계로서, 상기 제1 시간 범위는 상기 광학 신호의 예상 도달 시간을 포함하는, 상기 제1 시간 범위를 지정하는 단계; 및
    상기 제1 시간 범위 동안 상기 제1 광학 센서를 활성화하는 단계를 더 포함하는, 방법.
  9. 제8항에 있어서,
    상기 광학 신호의 예상 도달 시간을 포함하는 제2 시간 범위를 지정하는 단계;
    상기 다수의 광학 센서 중 제2 광학 센서가 상기 제1 방출기 사이클 동안 상기 광학 신호를 수신하지 않았다고 결정하는 단계; 및
    상기 제2 시간 범위 동안을 제외하고 상기 제2 방출기 사이클 동안 상기 제2 광학 센서를 비활성화하는 단계를 더 포함하고;
    상기 제2 시간 범위는 상기 제1 시간 범위보다 더 긴, 방법.
  10. 방법으로서,
    다수의 방출기 사이클 각각 동안, 다수의 광학 센서 중 적어도 하나를 사용하여 스위핑된 레이저 라인을 검출하는 단계;
    제1 방출기 사이클 동안 검출된 스위핑된 레이저 라인에 적어도 부분적으로 기초하여 위치 좌표를 결정하는 단계;
    상기 다수의 광학 센서 중 제1 광학 센서가 상기 제1 방출기 사이클 동안 스위핑된 레이저 라인을 검출하지 않았다고 결정하는 단계; 및
    상기 제1 광학 센서가 상기 제1 방출기 사이클 동안 스위핑된 레이저 라인을 검출하지 않았다는 결정에 응답하여, 전력 소비를 감소시키기 위해 제2 방출기 사이클의 적어도 제1 부분 동안 상기 제1 광학 센서를 비활성화하는 단계를 포함하는 방법.
  11. 제10항에 있어서,
    동기화 신호를 수신하는 단계; 및
    상기 동기화 신호를 수신하는 것과 스위핑된 레이저 라인을 검출하는 것 사이의 시간 차이를 결정하는 단계를 더 포함하되;
    상기 위치 좌표를 결정하는 것은 상기 시간 차이에 적어도 부분적으로 기초하는, 방법.
  12. 제10항에 있어서, 상기 스위핑된 레이저 라인을 검출하는 것은 상기 위치 좌표를 지정하도록 인코딩된 레이저 신호를 수신하는 것을 포함하는, 방법.
  13. 제10항에 있어서,
    스위핑된 레이저 라인이 상기 제1 방출기 사이클에서 검출된 시간에 적어도 부분적으로 기초하여 상기 제2 방출기 사이클 내 제1 시간 범위를 지정하는 단계; 및
    상기 제1 시간 기간 동안 상기 제1 광학 센서를 활성화하는 단계를 더 포함하는, 방법.
  14. 제13항에 있어서,
    상기 제2 방출기 사이클 내 제2 시간 범위를 지정하는 단계로서, 상기 제2 시간 범위는 상기 제1 시간 범위보다 더 길고, 상기 제2 시간 범위는 상기 제1 시간 범위를 포함하는, 상기 제2 시간 범위를 지정하는 단계;
    상기 다수의 광학 센서 중 제2 광학 센서가 상기 제1 방출기 사이클 동안 스위핑된 레이저 라인을 검출했다고 결정하는 단계; 및
    상기 제2 시간 범위 동안 상기 제2 광학 센서를 활성화하는 단계를 더 포함하는, 방법.
  15. 위치 추적 장치로서,
    다수의 방향으로부터 광학 신호를 수신하도록 장착된 다수의 광학 센서; 및
    제어 로직을 포함하고, 상기 제어 로직은,
    다수의 방출기 사이클 각각 동안, 적어도 하나의 상기 광학 센서를 사용하여 고정 방출기로부터 광학 신호를 수신하는 것;
    상기 고정 방출기에 대한 상기 위치 추적 장치의 위치 좌표를 결정하기 위해 제1 방출기 사이클 동안 수신된 상기 광학 신호를 분석하는 것;
    상기 다수의 광학 센서 중 제1 광학 센서가 상기 제1 방출기 사이클 동안 상기 광학 신호를 수신하지 않았다고 결정하는 것; 및
    상기 결정에 응답하여, 전력 소비를 감소시키기 위해 제2 방출기 사이클의 적어도 제1 부분 동안 상기 제1 광학 센서를 비활성화하는 것을 포함하는 동작을 수행하도록 구성된, 위치 추적 장치.
  16. 제15항에 있어서, 각각의 방출기 사이클은,
    전방향 동기화 펄스; 및
    공간을 스위핑하는 레이저 라인을 포함하는, 위치 추적 장치.
  17. 제15항에 있어서,
    각 방출기 사이클은 공간을 스위핑하는 레이저 라인을 포함하고;
    상기 레이저 라인은 상기 레이저 라인의 현재 투사 각도를 나타내도록 인코딩된, 위치 추적 장치.
  18. 제15항에 있어서, 상기 동작은,
    예상 성능에 관한 정보를 수신하는 것; 및
    상기 제1 방출기 사이클 후 소정 수의 방출기 사이클 동안 상기 제1 광학 센서를 비활성화하는 것을 더 포함하고, 상기 수는 상기 예상 성능에 적어도 부분적으로 기초하는, 위치 추적 장치.
  19. 제15항에 있어서, 상기 동작은,
    상기 위치 추적 장치의 속도를 결정하는 것; 및
    상기 제1 방출기 사이클 후 소정 수의 방출기 사이클 동안 상기 제1 광학 센서를 비활성화하는 것을 더 포함하고, 상기 수는 상기 위치 추적 장치의 속도에 적어도 부분적으로 기초하는, 위치 추적 장치.
  20. 제15항에 있어서, 관성 측정 유닛(IMU)을 더 포함하고, 상기 동작은,
    상기 다수의 광학 센서 중에서 제3 방출기 사이클 동안 상기 광학 신호를 수신하지 않은 제2 광학 센서를 식별하는 것;
    상기 위치 추적 장치가 움직이고 있다는 지시를 상기 IMU로부터 수신하는 것; 및
    상기 위치 추적 장치가 움직이고 있다는 지시를 수신한 것에 응답하여 제4 방출기 사이클 동안 상기 제2 광학 센서를 활성화된 상태로 유지하는 것을 더 포함하는, 위치 추적 장치.
KR1020207029453A 2018-05-18 2019-05-14 광학 위치 추적 장치를 위한 전력 관리 KR20210010437A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/984,130 US10554886B2 (en) 2018-05-18 2018-05-18 Power management for optical position tracking devices
US15/984,130 2018-05-18
PCT/US2019/032202 WO2019222203A1 (en) 2018-05-18 2019-05-14 Power management for optical position tracking devices

Publications (1)

Publication Number Publication Date
KR20210010437A true KR20210010437A (ko) 2021-01-27

Family

ID=68533242

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207029453A KR20210010437A (ko) 2018-05-18 2019-05-14 광학 위치 추적 장치를 위한 전력 관리

Country Status (6)

Country Link
US (2) US10554886B2 (ko)
EP (1) EP3765165A4 (ko)
JP (1) JP7326328B2 (ko)
KR (1) KR20210010437A (ko)
CN (1) CN112105426A (ko)
WO (1) WO2019222203A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220319520A1 (en) * 2019-06-03 2022-10-06 Tsinghua University Voice interaction wakeup electronic device, method and medium based on mouth-covering action recognition
WO2024029695A1 (ko) * 2022-08-05 2024-02-08 삼성전자주식회사 모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10554886B2 (en) 2018-05-18 2020-02-04 Valve Corporation Power management for optical position tracking devices
US11202006B2 (en) * 2018-05-18 2021-12-14 Samsung Electronics Co., Ltd. CMOS-assisted inside-out dynamic vision sensor tracking for low power mobile platforms
US11054638B2 (en) * 2018-06-13 2021-07-06 Reavire, Inc. Tracking pointing direction of device
CN109030374A (zh) 2018-08-16 2018-12-18 上海禾赛光电科技有限公司 用于激光气体检测仪的数据管理方法及数据管理终端
US11036284B2 (en) 2018-09-14 2021-06-15 Apple Inc. Tracking and drift correction
TWI745924B (zh) * 2020-04-10 2021-11-11 宏碁股份有限公司 虛擬實境定位裝置、虛擬實境定位系統以及虛擬實境定位裝置的製作方法
KR20210157708A (ko) 2020-06-22 2021-12-29 삼성전자주식회사 밝기 조절 방법 및 hmd 장치
KR20240068739A (ko) * 2021-09-28 2024-05-17 밸브 코포레이션 머리-장착형 디스플레이 시스템들에 대한 위치 추적 시스템들 및 방법들
US11683090B1 (en) 2022-01-18 2023-06-20 T-Mobile Usa, Inc. Laser-based enhancement of signal propagation path for mobile communications
US11947736B1 (en) * 2022-12-21 2024-04-02 Varjo Technologies Oy Utilising focussing of light sources in image for controller tracking
CN117761624B (zh) * 2024-02-22 2024-06-18 广州市大湾区虚拟现实研究院 一种基于激光编码定位的被动式可移动对象跟踪定位方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010038447A1 (en) * 2000-03-10 2001-11-08 Detweiler Philip L. Versatile transmitter and receiver for position measurement
JP2005227018A (ja) * 2004-02-10 2005-08-25 Hosiden Corp 物体検知センサ
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
EP2150866B1 (en) * 2007-05-30 2013-03-20 Trimble AB Method for target tracking, and associated target
WO2009008411A1 (ja) * 2007-07-09 2009-01-15 Sony Corporation 電子機器及びその制御方法
JP2009198916A (ja) * 2008-02-22 2009-09-03 Canon Inc 光走査装置及び該光走査装置を有する画像形成装置
US9704387B1 (en) * 2012-10-31 2017-07-11 Robert C. Goodman Self-illuminating remote controller
JP6459109B2 (ja) * 2014-03-13 2019-01-30 パナソニックIpマネジメント株式会社 位置情報システム
CN107850953B (zh) * 2014-11-05 2021-08-31 威尔乌集团 用于在虚拟现实环境中引导用户的感官反馈系统和方法
US10338186B2 (en) * 2014-11-10 2019-07-02 Valve Corporation Positional tracking systems and methods
US10286308B2 (en) 2014-11-10 2019-05-14 Valve Corporation Controller visualization in virtual and augmented reality environments
US9952652B2 (en) 2014-12-04 2018-04-24 Htc Corporation Virtual reality system and method for controlling operation modes of virtual reality system
US9746921B2 (en) 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
US9552098B2 (en) * 2015-03-05 2017-01-24 Htc Corporation Mobile device and proximity detection method
US10532277B2 (en) 2015-06-11 2020-01-14 Facebook Technologies, Llc Hand-held controllers with light-emitting diodes synchronized to an external camera
US10007108B2 (en) * 2015-08-07 2018-06-26 Sony Interactive Entertainment Inc. Systems and methods for using multiple MEMS projectors to determine a position of a photosensor of an HMD or another controller
US9813692B2 (en) * 2015-09-25 2017-11-07 Intel Corporation Online compensation of thermal distortions in a stereo depth camera
JP2018054504A (ja) * 2016-09-29 2018-04-05 フィールズ株式会社 位置推定システム、及び位置推定方法
US10307669B2 (en) 2016-10-11 2019-06-04 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
CN106959762B (zh) * 2017-04-24 2019-12-31 英华达(上海)科技有限公司 虚拟现实系统及方法
US10554886B2 (en) 2018-05-18 2020-02-04 Valve Corporation Power management for optical position tracking devices

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220319520A1 (en) * 2019-06-03 2022-10-06 Tsinghua University Voice interaction wakeup electronic device, method and medium based on mouth-covering action recognition
WO2024029695A1 (ko) * 2022-08-05 2024-02-08 삼성전자주식회사 모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법

Also Published As

Publication number Publication date
US10554886B2 (en) 2020-02-04
JP7326328B2 (ja) 2023-08-15
US20190356848A1 (en) 2019-11-21
EP3765165A4 (en) 2021-12-08
WO2019222203A1 (en) 2019-11-21
JP2021523432A (ja) 2021-09-02
US11044402B1 (en) 2021-06-22
CN112105426A (zh) 2020-12-18
EP3765165A1 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
US11044402B1 (en) Power management for optical position tracking devices
US10099122B2 (en) Head-mounted display tracking
TWI722280B (zh) 用於多個自由度之控制器追蹤
EP2697697B1 (en) Object tracking with projected reference patterns
JP6401841B1 (ja) 情報処理方法、コンピュータ、及びプログラム
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
US8971565B2 (en) Human interface electronic device
US20100201808A1 (en) Camera based motion sensing system
US11150318B2 (en) System and method of camera-less optical motion capture
JP6534011B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
KR102551686B1 (ko) 외부 전자 장치의 위치 및 움직임에 기반하여 외부 전자 장치와 관련된 객체를 표시하는 전자 장치 및 방법
JP6519075B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
US20160232404A1 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
KR101530340B1 (ko) 모션 트래커 시스템 및 자세방위 시스템을 통합하여 3차원 가상공간에서 손의 위치 및 자세 정보를 구현하는 움직임 감지 시스템
US10067576B2 (en) Handheld pointer device and tilt angle adjustment method thereof
JP2006323454A (ja) 三次元指示入力システム、三次元指示入力装置、三次元指示入力方法およびプログラム
US20210302587A1 (en) Power-efficient hand tracking with time-of-flight sensor
JP6500159B1 (ja) プログラム、情報処理装置、情報処理システム、情報処理方法及びヘッドマウントディスプレイ
US9824293B2 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
TWI522848B (zh) 手持式指向裝置以及其游標定位方法
JP2019051300A (ja) 情報処理方法、コンピュータ、及びプログラム
US9354706B2 (en) Storage medium having stored therein information processing program, information processing apparatus, information processing system, and method of calculating designated position
CN111766959B (zh) 虚拟现实交互方法和虚拟现实交互装置
JP2019179423A (ja) プログラム、情報処理装置、および方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal