JP7207809B2 - センサ集積回路を含むヘッドマウントディスプレイのためのポジショントラッキングシステム - Google Patents

センサ集積回路を含むヘッドマウントディスプレイのためのポジショントラッキングシステム Download PDF

Info

Publication number
JP7207809B2
JP7207809B2 JP2020534621A JP2020534621A JP7207809B2 JP 7207809 B2 JP7207809 B2 JP 7207809B2 JP 2020534621 A JP2020534621 A JP 2020534621A JP 2020534621 A JP2020534621 A JP 2020534621A JP 7207809 B2 JP7207809 B2 JP 7207809B2
Authority
JP
Japan
Prior art keywords
sensor data
view
image sensor
camera
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020534621A
Other languages
English (en)
Other versions
JP2021511699A (ja
Inventor
ハッドマン、ジョシュア、マーク
Original Assignee
バルブ コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バルブ コーポレーション filed Critical バルブ コーポレーション
Publication of JP2021511699A publication Critical patent/JP2021511699A/ja
Application granted granted Critical
Publication of JP7207809B2 publication Critical patent/JP7207809B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

本開示は、概して、ヘッドマウントディスプレイのためのポジショントラッキングに関する。
1つの現世代の仮想現実("VR")または拡張現実("AR")エクスペリエンスは、ヘッドマウントディスプレイ("HMD")を用いて生成され、それは、据え付け型のコンピュータ(パーソナルコンピュータ("PC")、ラップトップ、またはゲームコンソールなど)にテザリングされることができ、スマートフォンおよび/またはそれと関連付けられたディスプレイと組み合わされ、および/または、統合されることができ、または自己完結型であることができる。概して、HMDは、ユーザの頭部に装着され、一方の目(単眼HMD)またはそれぞれの目(双眼HMD)の前方に小さなディスプレイデバイスを有するディスプレイデバイスである。このディスプレイユニットは、典型的には小型であり、例えば、CRT、LCD、シリコン上液晶(LCos)、またはOLED技術を含んでよい。双眼HMDは、それぞれの目に対して異なる像を表示する可能性を有する。この機能は、立体画像を表示するために使用される。
スマートフォン、高精細テレビ、および、他の電子デバイスの発達により、より高性能なディスプレイの需要が高まっている。特にHMDを用いた仮想現実および拡張現実システムの普及の高まりは、このような需要をさらに増大させる。仮想現実システムは、一般的に、装着者の目を完全に包み込み、装着者の前における実際のまたは物理的なビュー(または実際の現実)を、"仮想"現実で置換する一方で、拡張現実システムは、一般的に、装着者の目の前における1または複数の画面の半透明または透明なオーバーレイを提供して、実際のビューが追加の情報とともに拡張されるようにし、媒介現実システムは、現実世界の要素を仮想要素と組み合わせた情報をビューアに同様に提示してよい。仮想現実および拡張現実システムの多くにおいて、このようなヘッドマウントディスプレイの装着者の動きは、表示されている画像がユーザの動きを反映できるように、例えば、ヘッドマウントディスプレイ内部、および/または、外部のセンサを介して様々なやり方でトラックされてよい。
ポジショントラッキングは、HMDが周囲の環境との相対的なポジションを推定できるようにする。ポジショントラッキングは、HMDの絶対的なポジションの検出を実現するために、ハードウェアおよびソフトウェアの組み合わせを用いてよい。ポジショントラッキングは、ARまたはVRシステムにとって重要な技術であり、6自由度(6DOF)でHMD(および/またはコントローラまたは他の周辺機器)の動きをトラックすることを可能とする。
ポジショントラッキング技術は、ジャンプまたはしゃがむ等の異なるアクションを反映するようにユーザの視点を変化させるために用いられてよく、仮想環境内におけるユーザの手や他のオブジェクトの正確な表現を可能としてよい。ポジショントラッキングは、また、例えば、手のポジションを用いて仮想オブジェクトをタッチにより移動することによって、物理および仮想環境との間のコネクションを増加してよい。ポジショントラッキングは、視差のためユーザの仮想環境の3次元認識を改善し、距離の認識を支援する。また、ポジショナルトラッキングは、目で見ているものと、ユーザの耳の前庭系により感じていることとの入力の不一致により引き起こされる乗り物酔いを最小減に抑えることを支援してよい。
ポジショナルトラッキングの異なる複数の方法が存在する。このような方法は、音響トラッキング、慣性トラッキング、磁気トラッキング、光トラッキング、それらの組み合わせ等を含んでよい。
ヘッドマウントディスプレイは、ユーザの頭に装着可能な支持構造と、支持構造により担持されるカメラであって、動作中にカメラは、カメラ視野におけるイメージセンサデータを第1フレームレートで撮像する、カメラと、支持構造により担持される複数のオプティカルフローセンサ集積回路(IC)であって、動作中に複数のオプティカルフローセンサICのそれぞれは、複数のセンサIC視野のそれぞれにおけるイメージセンサデータを第2フレームレートで撮像し、複数のセンサIC視野はカメラ視野より狭く、第2フレームレートは第1フレームレートより大きい、複数のオプティカルフローセンサICと、プロセッサ実行可能命令またはデータの少なくとも1つを格納する少なくとも1つの非一時的プロセッサ可読記録媒体と、カメラ、複数のオプティカルフローセンサIC、および、少なくとも1つの非一時的プロセッサ可読記録媒体に動作可能に結合される少なくとも1つのプロセッサであって、動作中に少なくとも1つのプロセッサは、カメラおよび複数のオプティカルフローセンサICからイメージセンサデータを受信し、受信したイメージセンサデータを処理し、受信したイメージセンサデータの処理に少なくとも部分的に基づいて、ヘッドマウントディスプレイのポジションをトラックする、少なくとも1つのプロセッサと、を含むように要約されてよい。少なくとも1つのプロセッサは、カメラおよび複数のオプティカルフローセンサICからのイメージセンサデータを結合して、ヘッドマウントディスプレイのポジションをトラックしてよい。
ヘッドマウントディスプレイは、少なくとも1つのプロセッサに動作可能に結合された慣性測定ユニット(IMU)センサをさらに含んでよく、動作中に少なくとも1つのプロセッサは、IMUセンサからIMUセンサデータを受信し、IMUセンサデータ、および、カメラおよび複数のオプティカルフローセンサICから受信したイメージセンサデータを処理し、受信したIMUセンサデータおよび受信したイメージセンサデータの処理に少なくとも部分的に基づいて、ヘッドマウントディスプレイのポジションをトラックする。複数のオプティカルフローセンサICのそれぞれは、イメージセンシング回路およびイメージ処理回路を有するシングルダイを含んでよい。第1フレームレートは、毎秒100フレーム以下であってよく、第2フレームレートは、毎秒1000フレーム以上であってよい。少なくとも1つのプロセッサは、受信したイメージセンサデータを処理して、ヘッドマウントディスプレイが動作する環境に存在する1または複数の特徴を検出してよい。複数のセンサIC視野のそれぞれは、カメラ視野の一部と重なってよい。少なくとも1つのプロセッサは、複数のセンサIC視野をカメラ視野に登録してよい。カメラ視野は100度より大きくてよい。
ヘッドマウントディスプレイは、それぞれがユーザの一方の目にディスプレイを提供する第1および第2ディスプレイサブシステムをさらに含んでよく、動作中に少なくとも1つのプロセッサは、カメラから得られた画像を第1および第2ディスプレイサブシステムを介して選択的に提示する。
ヘッドマウントディスプレイを動作させる方法であって、ヘッドマウントディスプレイは、ユーザの頭に装着可能な支持構造と、支持構造により担持されるカメラと、支持構造により担持される複数のオプティカルフローセンサ集積回路(IC)と、を含み、方法は、カメラを介して、カメラ視野におけるイメージセンサデータを第1フレームレートで撮像することと、複数のオプティカルフローセンサICを介して、複数のセンサIC視野のそれぞれにおけるイメージセンサデータを第2フレームレートで撮像することであって、複数のセンサIC視野はカメラ視野より狭く、第2フレームレートは第1フレームレートより大きい、撮像することと、少なくとも1つのプロセッサにより、カメラおよび複数のオプティカルフローセンサICからイメージセンサデータを受信することと、少なくとも1つのプロセッサにより、受信したイメージセンサデータを処理することと、少なくとも1つのプロセッサにより、受信したイメージセンサデータの処理に少なくとも部分的に基づいて、ヘッドマウントディスプレイのポジションをトラックすることと、を含むように要約されてよい。受信したイメージセンサデータを処理することは、カメラおよび複数のオプティカルフローセンサICからのイメージセンサデータを結合して、ヘッドマウントディスプレイのポジションをトラックすることを含んでよい。
ヘッドマウントディスプレイは、少なくとも1つのプロセッサに動作可能に結合された慣性測定ユニット(IMU)センサを含んでよく、方法はさらに、少なくとも1つのプロセッサにより、IMUセンサからIMUセンサデータを受信することと、少なくとも1つのプロセッサにより、IMUセンサデータ、および、カメラおよび複数のオプティカルフローセンサICから受信したイメージセンサデータを処理することと、少なくとも1つのプロセッサにより、受信したIMUセンサデータおよび受信したイメージセンサデータの処理に少なくとも部分的に基づいて、ヘッドマウントディスプレイのポジションをトラックすることと、含んでよい。
複数のオプティカルフローセンサICを介してイメージセンサデータを撮像することは、それぞれがイメージセンシング回路およびイメージ処理回路を有するシングルダイを含む複数のオプティカルフローセンサICを介して、イメージセンサデータを撮像することを含んでよい。カメラ視野におけるイメージセンサデータを第1フレームレートで撮像することは、カメラ視野におけるイメージセンサデータを、毎秒100フレーム以下である第1フレームレートで撮像することを含んでよく、複数のセンサIC視野におけるイメージセンサデータを第2フレームレートで撮像することは、複数のセンサIC視野におけるイメージセンサデータを、毎秒1000フレーム以上である第2フレームレートで撮像することを含んでよい。受信したイメージセンサデータを処理することは、受信したイメージセンサデータを処理して、ヘッドマウントディスプレイが動作する環境に存在する1または複数の特徴を検出することを含んでよい。複数のセンサIC視野のそれぞれは、カメラ視野の一部と重なってよい。受信したイメージセンサデータを処理することは、複数のセンサIC視野をカメラ視野に登録することを含んでよい。カメラ視野は100度より大きくてよい。
ヘッドマウントディスプレイはさらに、それぞれがユーザの一方の目にディスプレイを提供する第1および第2ディスプレイサブシステムを含んでよく、方法はさらに、カメラから得られた画像を第1および第2ディスプレイサブシステムを介して選択的に提示することを含んでよい。
複数の図面において、同一の複数の参照番号は、類似の複数の要素または動作を識別する。複数の図面における複数の要素の寸法および相対的位置は、縮尺通りに必ずしも描かれない。例えば、様々な要素の形状および角度は、必ずしも縮尺通りに描かれておらず、これらの要素のうちのいくつかは、図面の読みやすさを改善すべく、任意に拡大および配置されてよい。さらに、これらの要素の描かれている特定の形状は、それら特定の要素の実際の形状に関する何らかの情報を伝えることが必ずしも意図されるものではなく、図面中で認識されることを容易にするために選択されただけであってよい。
本開示の例示的な実施形態による、双眼ディスプレイサブシステム、前方カメラ、および、複数のセンサ集積回路を含むヘッドマウントディスプレイシステムの上面図を示す。 本開示の例示的な実施形態による、双眼ディスプレイサブシステム、前方カメラ、および、複数のセンサ集積回路を含むヘッドマウントディスプレイシステムの前面絵図を示す。 本開示の例示的な実施形態による、図2に示されるヘッドマウントディスプレイシステムの上面図である。 本開示の例示的な実施形態による、ヘッドマウントディスプレイシステムの概略ブロック図である。 本開示の例示的な実施形態による、使用中におけるヘッドマウントディスプレイシステムのポジション、向き、および/または、動きをトラックするためにヘッドマウントディスプレイシステムのポジショントラッキングシステムを動作させる方法のためのフロー図である。
以下の説明において、開示された様々な実装の完全な理解を提供するために、特定の具体的な詳細が述べられる。しかしながら、これらの具体的な詳細の1または複数が無くとも、もしくは、他の方法、コンポーネント、材料などによっても、これらの実装例が実施され得ることを当業者は認識するであろう。他の場合において、これらの実施例の記載を不必要に曖昧にすることを回避すべく、コンピュータシステム、サーバコンピュータ、および/または通信ネットワークに関連付けられた既知の構造は示されていない、または、詳細に記載されていない。
文脈が要求しない限り、下記の明細書および特許請求の範囲を通じて、"備える"という用語は"含む"と同義であり、包括的または制限がない(すなわち、追加の、列挙されていない要素または方法の動作を排除しない)。
本明細書全体にわたった"一実装"または"実装"への参照は、実装に関連して説明された特定の特徴、構造、または、特性が少なくとも1つの実装に含まれることを意味する。従って、本明細書を通して様々な箇所における"一実装例において"または"実装例において"という表現の出現は、必ずしも、全てが同じ実装例を参照するものではない。さらに、特定の特徴、構造、または特性は、1または複数の実装例において、任意の適切な態様で組み合わされてよい。
本明細書および添付の特許請求の範囲で使用されるように、単数形"a"、"an"、および"the"は、そうでないことを文脈が明確に規定していない限り、複数の指示対象を含む。 "または"という用語は、概して、そうでないことを文脈が明確に規定していない限り、その意味において"および/または"を含むように用いられることもまた、留意されるべきである。
本明細書で提供される見出しおよび開示の要約は、便宜上のものであり、実装の範囲または意味を解釈するものではない。
本開示の1または複数の実装例は、ヘッドマウントディスプレイ(HMD)のポジションを、HMDの装着者による使用中に、正確にトラックするためのシステムおよび方法を対象とする。少なくともいくつかの実装例において、HMDは、前方を向いたカメラ("前方カメラ"または"フロントカメラ")および複数のオプティカルフローセンサ集積回路(IC)または"センサIC"を担持する支持構造を含む。前方カメラは、前方カメラ視野におけるイメージセンサデータを第1フレームレート(例えば、30Hz、90Hz)で撮像する。複数のセンサICのそれぞれは、複数のセンサIC視野のそれぞれにおけるイメージセンサデータを第2フレームレート(例えば、1000Hz、2000Hz)で撮像する。少なくともいくつかの実装例において、複数のセンサIC視野は前方カメラ視野より狭くてよい。例えば、前方カメラは、90°、120°、または150°の比較的広い前方カメラ視野を有し、センサICのそれぞれは、15°、30°、45°等の比較的狭いセンサIC視野を有してよい。少なくともいくつかの実装例において、複数のセンサIC視野は、前方カメラ視野の異なる部分と重なるそれぞれのセンサIC視野により、前方カメラ視野の少なくとも実質的な部分を集合的にカバーしてよい。
動作中に、前方カメラおよび複数のセンサICに動作可能に結合される少なくとも1つのプロセッサは、カメラおよび複数のオプティカルフローセンサICからイメージセンサデータを受信してよい。少なくとも1つのプロセッサは、受信したイメージセンサデータを処理して、受信したイメージセンサデータの処理に少なくとも部分的に基づいて、ヘッドマウントディスプレイのポジションをトラックしてよい。例えば、少なくとも1つのプロセッサは、前方カメラおよび複数のセンサICからのセンサデータを結合して、環境に存在する1または複数の特徴をトラックしてよい。少なくともいくつかの実装例において、イメージセンサデータは、HMDの慣性測定ユニット(IMU)からのセンサデータのような他のセンサからのセンサデータと結合されてよい。本開示の実装の様々な特徴は、図を参照して以下で詳細に述べられる。
図1は、ニアツーアイディスプレイシステム102および104の組を含むHMDシステム100の簡略化された上面図である。ニアツーアイディスプレイシステム102および104は、それぞれ、ディスプレイ106および108(例えば、OLEDマイクロディスプレイ)、および、それぞれが1または複数の光学レンズを有するそれぞれの光学レンズシステム110および112を含む。ディスプレイシステム102および104は、支持構造またはフレーム114またはフロント部116、左テンプル118、および、右テンプル120を含む他のマウント構造に取り付けられてよい。2つのディスプレイシステム102および104は、装着者ユーザ124の頭122に装着可能な眼鏡構成でフレーム114に固定されてよい。左テンプル118および右テンプル120は、それぞれ、ユーザの耳126および128上に置かれてよく、一方、鼻用部品(図示されない)は、ユーザの鼻130上に置かれてよい。フレーム114は、2つの光学システム110および112のそれぞれを、ユーザの目132および134のうちの一方の前方にそれぞれ位置させるような形状およびサイズであってよい。フレーム114は説明のために眼鏡と同様に簡略化して示されているが、実際には、ディスプレイシステム102および104をユーザ124の頭122に支持および配置するために、より高度な構造(例えば、ゴーグル、統合ヘッドバンド、ヘルメット、ストラップ等)が用いられてよいことが理解されるべきである。
図1のHMDシステム100は、毎秒30フレーム(または画像)または毎秒90フレームのような表示レートで提示される対応するビデオを介するなどして、仮想現実ディスプレイをユーザ124に提示することができる一方、同様のシステムの他の実施形態は、拡張現実ディスプレイをユーザ124に提示してよい。ディスプレイ106および108のそれぞれは、それぞれの光学システム110および112により透過され、ユーザ124の目132および134にそれぞれ焦点を合わされる光を生成し得る。ここでは図示されていないが、それぞれの目は、そこから光が目に入る瞳孔の開口部を含み、典型的な瞳孔のサイズは、非常に明るい条件では直径2mm(ミリメータ)から暗い条件では最大8mmであり、瞳孔が含まれるより大きな虹彩はおよそ12mmのサイズを有してよく、瞳孔(およびそれを囲む虹彩)は一般的に、開いたまぶたの下で目の可視部分内で水平および/または垂直方向に数ミリメータ移動してよく、また、眼球がその中心の周りを旋回するときに、異なる水平および垂直位置のために、光学レンズまたはディスプレイの他の物理的な要素から異なる深度に瞳孔を移動する(瞳孔が移動できる3次元のボリュームをもたらす)。ユーザの瞳孔に入射する光は、ユーザ124により画像および/またはビデオとして見られる。いくつかの実装において、光学システム110および112のそれぞれとユーザの目132および134との間の距離は比較的短くてよく(例えば、30mm未満、20mm未満)、これにより、光学システムおよびディスプレイシステムの重量がユーザの顔に比較的近いため、HMDシステム100をユーザにより軽くみせ、また、ユーザにより大きな視野を提供し得る。
HMDシステム100は、また、外向きまたは前方カメラ136を含んでよい。前方カメラ136は、例えば、拡張現実アプリケーションにおいて、または仮想現実アプリケーションと併せて、ユーザ124に選択的に提示されてよい画像データを撮像するように動作可能であってよい。追加的にまたは代替的に、前方カメラ136は、以下でさらに述べられるように、使用中にHMDシステム100のポジションをトラックするために、HMDシステム100のポジショントラッキングシステムにより用いられてよい。一例として、前方カメラ136は、ビデオカメラ、および、比較的広いアングル(例えば、60°、90°、120°、150°)を有するフロントカメラ視野における画像をあるフレームレート(例えば、30Hz、60Hz、90Hz)で撮像する関連するレンズシステムを備えてよい。
HMDシステム100は、また、複数の(6つが示される)オプティカルフローセンサIC138a-138f(集合的に"オプティカルIC138")を含んでよい。センサIC138のそれぞれは、例えば、光学マウスで使用されるセンサICと同様または同一であってよい。概して、オプティカルフローは、観察者(例えば、センサIC)と場面との間の相対運動によって生じる視覚的な場面における、物体、表面、および縁部の明らかな運動のパターンである。センサIC138は、HMDシステム100にトラッキングを提供するために、オプティカルフローデータを用いてよい。
少なくともいくつかの実装例において、センサIC138のそれぞれは、オプティカルフローまたは視覚運動の計測、および、オプティカルフローに基づく計測値の出力が可能な視覚センサであり得る。センサIC138は、様々な構成を有してよい。1つの構成例は、オプティカルフローアルゴリズムを実行するようにプログラムされたプロセッサに接続されたイメージセンサチップである。他の構成例は、ビジョンチップを使用してよく、これは、同じダイ上にイメージセンサおよび処理回路の両方を有する集積回路であり得、コンパクトな実装を可能にする。少なくともいくつかの実装例において、処理回路は、最小限の電流消費により高速オプティカルフロー算出を可能にするために、アナログまたは混合信号回路を使用して実装されてよい。センサICのそれぞれは、16×16画素、32×32画素等のような画素のアレイを形成するために、光電子材料(例えば、相補的金属酸化半導体(CMOS))の光電子センサアレイを含んでよい。さらに、センサIC138のそれぞれは、所望の光学的特徴(例えば、FOV)を実現するために、関連するレンズシステムを含んでよい。上述のように、センサIC138のそれぞれは、前方カメラ136のフレームレート(例えば、30Hz、90Hz)と比較して、比較的高いフレームレート(例えば、1000Hzより大きい)を有してよい。
図1には図示されていないが、このようなHMDシステムのいくつかの実施形態は、例えば、目132および134ごとに別々に瞳孔トラッキングを実行して、頭の位置および向きを(例えば、ヘッドトラッキングの一部として)トラックし、ユーザの体の様々な他のタイプの動きおよびポジションをトラックするための様々な追加的な内部および/または外部センサ、外部の(例えば、環境の)画像を記録するための他のカメラ等を含んでよい。
さらに、記載される技術は、図1に示されるものと同様のディスプレイシステムを有するいくつかの実施形態において用いられてよく、他の実施形態においては、単一の光学レンズおよびディスプレイデバイスまたは複数のこのような光学レンズおよびディスプレイデバイスを含む他のタイプのディスプレイシステムが用いられてよい。他のこのようなデバイスの非排他的な例は、カメラ、望遠鏡、顕微鏡、双眼鏡、スポッティングスコープ、測量スコープ等を含む。さらに、記載される技術は、1または複数のユーザが1または複数の光学レンズを通して見る画像を形成するために光を放出する多種多様なディスプレイパネルまたは他のディスプレイデバイスとともに用いられてよい。他の実施形態において、ユーザは、他の光源からの光を部分的または全体的に反射する表面上など、ディスプレイパネルを介する以外の方法で生成される1または複数の画像を1または複数の光学レンズを通して見てよい。
図2は、ユーザ202の頭に装着されたときの例示的なHMDシステム200の前面図を示す。図3は、HMDシステム200の上面図を示し、HMDシステム200のいくつかのコンポーネントの例示的な視野210および212を示している。HMDシステム200は、前方を向いたまたは前方カメラ206および複数のセンサIC208a-208n(集合的に、208)を支持する支持構造204を含む。前方カメラ206およびセンサIC208は、それぞれ、図1を参照して上述した前方カメラ136およびセンサIC138と同様または同一であってよい。センサIC208の特定の数は、図に示されているセンサICの数より少なくても多くてもよい。
示されるように、前方カメラ206およびセンサIC208は、ユーザ202がHMDシステム200を動作させるシーンまたは環境214(図3)に向かって前方に向けられる。環境214は、その中に1または複数のオブジェクト213(1つが示されている)を含んでよく、それは、壁、天井、家具、階段、車、木、トラッキングマーカ、または、あらゆる他のタイプのオブジェクトを含んでよい。
説明の目的で、センサIC208a、208d、208jおよび208lのみが図3に示されている。示されるように、前方カメラ206は、FOVアングル207(例えば、60°、90°、120°、150°)を有する前方カメラFOV210を含む。示されるように、センサIC208a、208d、208jおよび208lのそれぞれは、それぞれのFOVアングル209a、209d、209jおよび209l(集合的に、209)を有するそれぞれのセンサIC FOV212a、212d、212jおよび212l(集合的に、212)を有する。少なくともいくつかの実装例において、センサICの208のFOVアングル209は、前方カメラ206のFOVアングル207より狭い。例えば、少なくともいくつかの実装例において、センサICの208のFOV212は、FOV210の異なる部分を覆うそれぞれのFOV212により、前方カメラ206のFOV210の少なくとも実質的な部分を集合的にカバーしてよい。
HMDシステム200はまた、支持構造204により担持される慣性測定ユニット(IMU)216を含んでよい。IMU216は、加速度計、ジャイロスコープ、および、任意で磁力計の組み合わせを用いて、HMDシステム200固有の力、角速度、および/またはHMDシステムを取り巻く磁場を測定および報告する電子デバイスであってよい。前方カメラ206と比較して、IMU216は、比較的高い更新または報告レート(例えば、毎秒500、毎秒1000)を有してよい。
動作中に、HMDシステム200は、前方カメラ206、センサIC208、および、任意でIMU216からのデータを結合またはそうでなければ組み合わせて、ユーザ202による動作中にHMDシステム200のポジションをトラックしてよい。一例として、前方カメラ200は、センサICの208の第2フレームレート(例えば、1000Hz、2000Hz)より実質的に低い第1フレームレート(例えば、60Hz)を有してよい。HMDシステム200は、光IC208のそれぞれのFOV212を前方カメラ206のより広いFOV210に登録して、前方カメラ206のFOV210のすべてまたは実質的にすべてにわたって高い帯域幅の特徴トラッキングを提供してよい。任意で、HMDシステム200はまた、IMU216からのセンサデータを結合して、HMDシステムのポジショントラッキングをさらに改善してよい。上記のように、センサICと同様に、IMU216はまた、比較的高い帯域幅または更新レートを有してよい。したがって、センサICまたはIMU216により、ポジションデータは、前方カメラ206からのイメージセンサデータのフレームの間において生成されてよく、より高精度なポジショントラッキングを提供する。
少なくともいくつかの実装例において、前方カメラ206、センサIC208、および/または、IMU216は、HMDシステム200のポジションをトラックするために、1または複数のベースステーションまたは他の技術(例えば、マーカ)と併せて用いられてよい。一例として、このようなコンポーネントは、Valve Corporationによって開発されたLighthouse(登録商標)ベースステーションと併せて用いられてよい。より一般的には、本明細書で述べた特徴は、次の米国特許で述べられているシステムおよび方法のうちのいずれかと、または組み合わせて用いられてよい。米国特許第2014/0267667号。米国特許第2016/0124502号。米国特許第2016/0131761号。米国特許第2016/0124502号。米国特許第2017/0249019号。これらの内容全体が参照により本明細書に組み込まれる。
前方カメラ206、センサIC208、および/または、IMU216は、HMDシステム200のポジションが環境に対してどのように変化するかを判断するために用いられてよい。HMDシステム200が移動すると、センサ206、208、および、216は、環境214におけるHMDシステム200のポジションを再調節し、仮想環境はリアルタイムで応答してよい。カメラ206およびセンサIC208は、周囲の環境214の特徴を観察する。マーカ(例えば、プリミティブ形状、コード、アクティブベースステーション)が用いられる場合、このようなマーカは、トラッキングシステムにより容易に検出され、特定の領域に置かれるように設計されてよい。マーカレストラッキングでは、HMDシステム200のポジション、向き、および、動きをリアルタイムに判断するために、環境214において標準的に存在する際立った特性または特徴はトラックされてよい。例えば、HMDシステム200は、特定の画像、形状、または、特徴を識別する1または複数のアルゴリズムを用いてよく、それらを用いて、空間内におけるHMDシステムのポジション、向き、および/または、動きを算出してよい。上記のように、IMU214または他のセンサからのデータはまた、HMDシステム200のポジショナルトラッキングの精度を高めるために用いられてよい。
図4は、本開示の1または複数の実装例によるHMDシステム400の概略ブロック図を示す。HMDシステム400は、上述のHMDシステム100および200と同様または同一であってよい。したがって、HMDシステム100および200に関する上記の議論は、HMDシステム400にも適用してよい。
HMDシステム400は、プロセッサ402、前方を向いたまたは前方カメラ404、複数のセンサIC406、および、任意でIMU407を含む。HMDシステム400は、ディスプレイサブシステム408(例えば、2つのディスプレイおよび対応する光学システム)を含んでよい。HMDシステム400はまた、ポジショントラッキング412のための命令またはデータ、ディスプレイ機能414(例えば、ゲーム)のための命令またはデータ、および/または、他のプログラム416を格納してよい非一時的データストレージ410を含んでよい。
HMDシステム400はまた、1または複数のユーザインタフェース(例えば、ボタン、タッチパッド、スピーカ)、1または複数の有線または無線通信インタフェース等を含んでよい様々なI/Oコンポーネント418を含んでよい。一例として、I/Oコンポーネント418は、HMDシステム400が有線または無線通信リンク422を介して外部デバイス420と通信することを可能とする通信インタフェースを含んでよい。非限定的な例として、外部デバイス420は、ホストコンピュータ、サーバ、モバイルデバイス(例えば、スマートフォン、ウェアラブルコンピュータ)等を含んでよい。HMDシステム400の様々なコンポーネントは、単一の筐体(例えば、図2および3の支持構造202)に収容されてよく、別個の筐体(例えば、ホストコンピュータ)、またはそれらの組み合わせに収容されてもよい。
示されたコンピューティングシステムおよびデバイスは単に例示的なものであり、本開示の範囲を制限することを意図されていないことが理解されるであろう。例えば、HMD400および/または外部デバイス420は、インターネットのような1または複数のネットワークを通して、またはウェブを介してなど、図示されていない他のデバイスに接続されてよい。より一般的には、このようなコンピューティングシステムまたはデバイスは、デスクトップコンピュータ、ラップトップコンピュータ、スレートコンピュータ、タブレットコンピュータ、または、他のコンピュータ、スマートフォンコンピューティングデバイス、および、他の携帯電話、インターネットアプライアンス、PDA、および、他の電子手帳、データベースサーバ、ネットワーク記憶デバイス、および、他のネットワークデバイス、ワイヤレス電話、ページャ、テレビベースシステム(例えば、セットトップボックス、および/または、パーソナル/デジタルビデオレコーダ、および/または、ゲームコンソール、および/または、メディアサーバの使用)、および、適切な相互通信機能を含む他の様々なコンシューマ製品を含むがこれらに限定されない適切なソフトウェアでプログラムされたまたはそうでなければ構成された場合など、記載されたタイプの機能を相互作用および実行できるハードウェアの任意の組み合わせを備えてよい。例えば、例示のシステム400および420は、特定のコンピューティングシステムまたはデバイスによりロードおよび/または実行されると、それらシステムまたはデバイスのプロセッサを構成するように、それらシステムまたはデバイスをプログラムまたはそうでなければ構成するために使用され得る、少なくともいくつかの実施形態における実行可能なソフトウェア命令および/またはデータ構造を含んでよい。代替的に、他の実施形態においては、ソフトウェアシステムのいくつかまたは全ては、他のデバイス上のメモリで実行され、コンピュータ間通信を介して、図示されたコンピューティングシステム/デバイスと通信してよい。さらに、様々なアイテムが様々な時間(例えば使用中)にメモリまたはストレージに格納されるように示されているが、これらアイテムまたはそれらの一部は、メモリ管理および/またはデータ統合性の目的で、メモリとストレージ間および/またはストレージデバイス間(例えば、異なる位置の)で転送されることができる。
したがって、少なくともいくつかの実施形態において、例示のシステムは、プロセッサおよび/または他のプロセッサ手段により実行されると、システムのための記載された動作を自動的に実行するようにプロセッサをプログラムするソフトウェア命令を含むソフトウェアベースシステムである。さらに、いくつかの実施形態において、システムのいくつかまたは全ては、1または複数の特定用途向け集積回路(ASIC)、標準の集積回路、コントローラ(例えば、適切な命令を実行し、マイクロコントローラおよび/または組み込まれたコントローラを含むことによって)、フィールドプログラマブルゲートアレイ(FPGA)、複雑なプログラマブルロジックデバイス(CPLD)等を含むがこれらに限定されない少なくとも部分的なファームウェアおよび/またはハードウェア手段のような、他の方法で実装または提供されてよい。システムまたはデータ構造のいくつかまたは全てはまた、ハードディスクまたはフラッシュドライブまたは他の不揮発性格納デバイス、揮発性または不揮発性メモリ(例えば、RAM)、ネットワーク記憶装置、または適切なドライブによりまたは適切な接続を介して読み取られるポータブルメディア製品(例えば、DVDディスク、CDディスク、光ディスク、フラッシュメモリデバイス等)のような非一時的コンピュータ可読記録媒体に(例えば、ソフトウェア命令コンテンツまたは構造化データコンテンツとして)格納されてよい。システム、モジュール、および、データ構造はまた、いくつかの実施形態において、無線ベースおよび有線/ケーブルベースの媒体を含み、様々な形式(例えば、単一のまたは多重化されたアナログ信号または複数の個別のデジタルパケットまたはフレームの一部として)をとることができる様々なコンピュータ可読送信媒体上で、生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)送信されてよい。このようなコンピュータプログラム製品はまた、他の実施形態において他の形式を取ってよい。したがって、本開示は、他のコンピュータシステム構成で実施されてよい。
図5は、HMDシステムを動作させてそれらの使用中におけるポジションをトラックする例示的な方法500のフロー図である。方法500は、例えば、図4に示されるHMDシステム400のポジショントラッキングシステムまたはモジュール412により実行されてよい。
方法500の図示された実装は、動作502で始まり、そこにおいて前方を向いたカメラおよび複数のセンサICを有するHMDシステムが提供される。フロントカメラは、フロントカメラ視野におけるイメージセンサデータを第1フレームレートで撮像してよい。複数のセンサICは、例えば、オプティカルフローを検出するように動作可能であってよい。動作中に、複数のセンサICのそれぞれは、複数のセンサIC視野のそれぞれにおけるイメージセンサデータを第2フレームレートで撮像する。少なくともいくつかの実装例において、複数のセンサIC視野はフロントカメラ視野より狭く、センサICの第2フレームレートはフロントカメラの第1フレームレートより大きい。例えば、少なくともいくつかの実装例において、第1フレームレートは毎秒100フレーム以下であり、第2フレームレートは毎秒1000フレーム以上である。少なくともいくつかの実装例において、複数のセンサIC視野がフロントカメラ視野の少なくとも実質的な部分(例えば、50%、80%、90%、100%)を集合的にカバーするように、複数のセンサIC視野のそれぞれは、フロントカメラ視野の一部と重なっている。少なくともいくつかの実装例において、センサICのそれぞれは、イメージセンシング回路およびイメージ処理回路を有するシングルダイを備えてよい。
504において、HMDシステムと関連付けられた少なくとも1つのプロセッサは、フロントカメラおよび複数のセンサICからセンサデータを受信してよい。一例として、少なくとも1つのプロセッサは、フロントカメラからより低い第1のレートでセンサデータを受信してよく、複数のセンサICからより高い第2のレートでセンサデータを受信してよい。
506において、HMDシステムに関連付けられた少なくとも1つのプロセッサは、慣性トラッキング機能を提供するように動作可能な慣性測定ユニット(IMU)からセンサデータを任意で受信してよい。
508において、HMDシステムに関連付けられた少なくとも1つのプロセッサは、受信したセンサデータを処理してよい。例えば、少なくとも1つのプロセッサは、センサデータのいくつかまたは全てをともに結合して、HMDシステムが動作する環境に存在する1または複数の特徴をトラックしてよい。センサデータは、フロントカメラからのセンサデータ、複数のセンサICのうちの少なくとも一つからのセンサデータ、および、任意でIMUからのセンサデータを含んでよい。
510において、HMDシステムに関連付けられた少なくとも1つのプロセッサは、環境内におけるユーザによるHMDシステムの使用中に、HMDシステムのポジション、向き、および/または、動きをリアルタイムにトラックしてよい。方法500は、上述のように、HMDの動作中に継続して、HMDシステムのポジション、向き、および/または、動きを連続的にトラックしてよい。
前述の詳細な説明は、ブロック図、概略図、および例を使用することにより、デバイスおよび/または処理の様々な実装を示してきた。そのような複数のブロック図、概略図、および例が1または複数の機能および/または動作を含む限りにおいて、当業者は、そのような複数のブロック図、フロー図、または例における各機能および/または動作が広範なハードウェア、ソフトウェア、ファームウェア、または事実上、それらのいずれかの組み合わせにより個別に、および/または集合的に実装され得ることを理解するであろう。一実装において、本主題は、特定用途向け集積回路(ASIC)を介して実装されてよい。しかしながら、当業者は、本明細書に開示された実装が、1または複数のコンピュータ上で動作する1または複数のコンピュータプログラムとして(例えば、1または複数のコンピュータシステム上で動作する1または複数のプログラムとして)、1または複数のコントローラ(例えば、マイクロコントローラ)上で動作する1または複数のプログラムとして、1または複数のプロセッサ(例えば、マイクロプロセッサ)上で動作する1または複数のプログラムとして、ファームウェアとして、または、回路の設計および/またはソフトウェアおよび/またはファームウェアのコードの記述が本開示に照らして当業者の技能の十分な範囲内である実質的にそれらの任意の組み合わせとして、全体的または部分的に、標準的な集積回路で同等に実装できることを認識するであろう。
当業者は、本明細書に記載された方法またはアルゴリズムセットの多くが、追加の動作を採用し得、いくつかの動作を省略し得、および/または規定とは異なる順序で動作を実行し得ることを認識するであろう。
さらに、当業者は、本明細書で教示される複数の機構が、様々な形式でプログラム製品として配布可能であり、例示的な実装は、実際に配布を実行するために用いられる信号担持媒体の特定のタイプにかかわらず等しく適用されることを理解するであろう。信号担持媒体の例としては、フロッピー(登録商標)、ハードディスクドライブ、CD-ROM、デジタルテープ、およびコンピュータメモリ等、記録可能なタイプの媒体が挙げられるが、これらに限定されない。
上記の様々な実装を組み合わせて、さらなる実装を提供することができる。本明細書で言及されている特定の教示および定義と矛盾しない範囲で、2018年1月18日に出願された米国仮出願62/618,928号を含む、本明細書で言及されているすべての米国特許、米国特許出願公開、米国特許出願、外国特許、外国特許出願、および、非特許公報の全体が参照により本明細書に組み込まれる。必要に応じて、実装の複数の態様を変更して、様々な特許、アプリケーション、および、公報のシステム、回路、および、概念を採用し、さらに別の実装を提供することができる。
上記の詳細な説明に照らして、これらおよび他の変更を実装に加えることができる。一般に、以下の請求項において、使用される用語は、請求項を明細書および請求項に開示された特定の実装に制限するものと解釈されるべきではなく、そのような請求の対象となる同等の範囲全体に沿って可能なすべての実装を含むものと解釈されるべきである。したがって、特許請求の範囲は、本開示によって限定されない。

Claims (20)

  1. ユーザの頭に装着可能な支持構造と、
    前記支持構造により担持されるカメラであって、動作中に前記カメラはカメラ視野におけるイメージセンサデータを第1フレームレートで撮像する、カメラと、
    前記支持構造により担持される複数のオプティカルフローセンサ集積回路(複数のオプティカルフローセンサIC)であって、動作中に前記複数のオプティカルフローセンサICのそれぞれは、複数のセンサIC視野のそれぞれにおけるイメージセンサデータを第2フレームレートで撮像し、前記複数のセンサIC視野は前記カメラ視野より狭く、前記第2フレームレートは前記第1フレームレートより大きい、複数のオプティカルフローセンサICと、
    プロセッサ実行可能命令またはデータの少なくとも1つを格納する少なくとも1つの非一時的プロセッサ可読記録媒体と、
    前記カメラ、前記複数のオプティカルフローセンサIC、および、前記少なくとも1つの非一時的プロセッサ可読記録媒体に動作可能に結合される少なくとも1つのプロセッサであって、動作中に前記少なくとも1つのプロセッサは、
    前記カメラおよび前記複数のオプティカルフローセンサICから前記イメージセンサデータを受信し、
    受信した前記イメージセンサデータを処理し、
    受信した前記イメージセンサデータの前記処理に少なくとも部分的に基づいて、ヘッドマウントディスプレイのポジションをトラックする、少なくとも1つのプロセッサと、
    を備える、ヘッドマウントディスプレイ。
  2. 前記少なくとも1つのプロセッサは、前記カメラおよび前記複数のオプティカルフローセンサICからの前記イメージセンサデータを結合して、前記ヘッドマウントディスプレイの前記ポジションをトラックする、請求項1に記載のヘッドマウントディスプレイ。
  3. 前記少なくとも1つのプロセッサに動作可能に結合された慣性測定ユニットセンサ(IMUセンサ)をさらに備え、
    動作中に前記少なくとも1つのプロセッサは、
    前記IMUセンサからIMUセンサデータを受信し、
    前記IMUセンサデータ、および、前記カメラおよび前記複数のオプティカルフローセンサICから受信した前記イメージセンサデータを処理し、
    受信した前記IMUセンサデータおよび受信した前記イメージセンサデータの前記処理に少なくとも部分的に基づいて、前記ヘッドマウントディスプレイの前記ポジションをトラックする、請求項1または2に記載のヘッドマウントディスプレイ。
  4. 前記複数のオプティカルフローセンサICのそれぞれは、イメージセンシング回路およびイメージ処理回路を有するシングルダイを備える、請求項1から3のいずれか一項に記載のヘッドマウントディスプレイ。
  5. 前記第1フレームレートは、毎秒100フレーム以下であり、前記第2フレームレートは、毎秒1000フレーム以上である、請求項1から4のいずれか一項に記載のヘッドマウントディスプレイ。
  6. 前記少なくとも1つのプロセッサは、受信した前記イメージセンサデータを処理して、前記ヘッドマウントディスプレイが動作する環境に存在する1または複数の特徴を検出する、請求項1から5のいずれか一項に記載のヘッドマウントディスプレイ。
  7. 前記複数のセンサIC視野のそれぞれは、前記カメラ視野の一部と重なる、請求項1から6のいずれか一項に記載のヘッドマウントディスプレイ。
  8. 前記少なくとも1つのプロセッサは、前記複数のセンサIC視野を前記カメラ視野に登録する、請求項1から7のいずれか一項に記載のヘッドマウントディスプレイ。
  9. 前記カメラ視野は100度より大きい、請求項1から8のいずれか一項に記載のヘッドマウントディスプレイ。
  10. それぞれがユーザの一方の目にディスプレイを提供する第1および第2ディスプレイサブシステムをさらに備え、動作中に前記少なくとも1つのプロセッサは、前記カメラから得られた画像を前記第1および第2ディスプレイサブシステムを介して選択的に提示する、請求項1から9のいずれか一項に記載のヘッドマウントディスプレイ。
  11. ヘッドマウントディスプレイを動作させる方法であって、前記ヘッドマウントディスプレイは、ユーザの頭に装着可能な支持構造と、前記支持構造により担持されるカメラと、前記支持構造により担持される複数のオプティカルフローセンサ集積回路(複数のオプティカルフローセンサIC)と、を備え、前記方法は、
    前記カメラを介して、カメラ視野におけるイメージセンサデータを第1フレームレートで撮像することと、
    前記複数のオプティカルフローセンサICを介して、複数のセンサIC視野のそれぞれにおけるイメージセンサデータを第2フレームレートで撮像することであって、前記複数のセンサIC視野は前記カメラ視野より狭く、前記第2フレームレートは前記第1フレームレートより大きい、撮像することと、
    少なくとも1つのプロセッサにより、前記カメラおよび前記複数のオプティカルフローセンサICから前記イメージセンサデータを受信することと、
    前記少なくとも1つのプロセッサにより、受信した前記イメージセンサデータを処理することと、
    前記少なくとも1つのプロセッサにより、受信した前記イメージセンサデータの前記処理に少なくとも部分的に基づいて、前記ヘッドマウントディスプレイのポジションをトラックすることと、
    を備える、方法。
  12. 受信した前記イメージセンサデータを処理することは、前記カメラおよび前記複数のオプティカルフローセンサICからの前記イメージセンサデータを結合して、前記ヘッドマウントディスプレイの前記ポジションをトラックすることを備える、請求項11に記載の方法。
  13. 前記ヘッドマウントディスプレイは、前記少なくとも1つのプロセッサに動作可能に結合された慣性測定ユニットセンサ(IMUセンサ)を備え、前記方法はさらに、
    前記少なくとも1つのプロセッサにより、前記IMUセンサからIMUセンサデータを受信することと、
    前記少なくとも1つのプロセッサにより、前記IMUセンサデータ、および、前記カメラおよび前記複数のオプティカルフローセンサICから受信した前記イメージセンサデータを処理することと、
    前記少なくとも1つのプロセッサにより、受信した前記IMUセンサデータおよび受信した前記イメージセンサデータの前記処理に少なくとも部分的に基づいて、前記ヘッドマウントディスプレイの前記ポジションをトラックすることと、を備える、請求項11または12に記載の方法。
  14. 前記複数のオプティカルフローセンサICを介してイメージセンサデータを撮像することは、それぞれがイメージセンシング回路およびイメージ処理回路を有するシングルダイを備える複数のオプティカルフローセンサICを介して、イメージセンサデータを撮像することを備える、請求項11から13のいずれか一項に記載の方法。
  15. カメラ視野におけるイメージセンサデータを第1フレームレートで撮像することは、カメラ視野におけるイメージセンサデータを、毎秒100フレーム以下である第1フレームレートで撮像することを備え、前記複数のセンサIC視野におけるイメージセンサデータを第2フレームレートで撮像することは、前記複数のセンサIC視野におけるイメージセンサデータを、毎秒1000フレーム以上である第2フレームレートで撮像することを備える、請求項11から14のいずれか一項に記載の方法。
  16. 受信した前記イメージセンサデータを処理することは、受信した前記イメージセンサデータを処理して、前記ヘッドマウントディスプレイが動作する環境に存在する1または複数の特徴を検出することを備える、請求項11から15のいずれか一項に記載の方法。
  17. 前記複数のセンサIC視野のそれぞれは、前記カメラ視野の一部と重なる、請求項11から16のいずれか一項に記載の方法。
  18. 受信した前記イメージセンサデータを処理することは、前記複数のセンサIC視野を前記カメラ視野に登録することを備える、請求項11から17のいずれか一項に記載の方法。
  19. 前記カメラ視野は100度より大きい、請求項11から18のいずれか一項に記載の方法。
  20. 前記ヘッドマウントディスプレイは、それぞれがユーザの一方の目にディスプレイを提供する第1および第2ディスプレイサブシステムをさらに備え、前記方法はさらに、
    前記カメラから得られた画像を前記第1および第2ディスプレイサブシステムを介して選択的に提示することを備える、請求項11から19のいずれか一項に記載の方法。
JP2020534621A 2018-01-18 2019-01-17 センサ集積回路を含むヘッドマウントディスプレイのためのポジショントラッキングシステム Active JP7207809B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862618928P 2018-01-18 2018-01-18
US62/618,928 2018-01-18
PCT/US2019/013971 WO2019143793A1 (en) 2018-01-18 2019-01-17 Position tracking system for head-mounted displays that includes sensor integrated circuits

Publications (2)

Publication Number Publication Date
JP2021511699A JP2021511699A (ja) 2021-05-06
JP7207809B2 true JP7207809B2 (ja) 2023-01-18

Family

ID=67213932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020534621A Active JP7207809B2 (ja) 2018-01-18 2019-01-17 センサ集積回路を含むヘッドマウントディスプレイのためのポジショントラッキングシステム

Country Status (6)

Country Link
US (2) US10921881B2 (ja)
EP (1) EP3714318B1 (ja)
JP (1) JP7207809B2 (ja)
KR (1) KR20200106547A (ja)
CN (2) CN111602082B (ja)
WO (1) WO2019143793A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014199338A2 (en) * 2013-06-13 2014-12-18 Corephotonics Ltd. Dual aperture zoom digital camera
US10554883B2 (en) * 2018-03-30 2020-02-04 Ricoh Company, Ltd. VR system, communication method, and non-transitory computer-readable medium
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
GB201819896D0 (en) 2018-12-06 2019-01-23 Bae Systems Plc Tracking system
US11070778B2 (en) * 2019-02-14 2021-07-20 Facebook Technologies, Llc Multi-projector display architecture
US11209657B2 (en) * 2020-01-24 2021-12-28 Valve Corporation Position tracking system for head-mounted display systems that includes angle sensitive detectors
EP4100784A4 (en) * 2020-02-06 2024-03-06 Valve Corp POSITION TRACKING SYSTEM FOR HEAD-MOUNTED DISPLAY SYSTEMS
TWI745924B (zh) * 2020-04-10 2021-11-11 宏碁股份有限公司 虛擬實境定位裝置、虛擬實境定位系統以及虛擬實境定位裝置的製作方法
CN112416125A (zh) * 2020-11-17 2021-02-26 青岛小鸟看看科技有限公司 Vr头戴式一体机

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003218338A (ja) 2002-01-25 2003-07-31 Handotai Rikougaku Kenkyu Center:Kk 半導体集積回路装置
JP2007504562A (ja) 2003-09-04 2007-03-01 サーノフ コーポレーション 1つの画像から虹彩認証を行う方法および装置
JP2009031295A (ja) 2008-08-05 2009-02-12 Olympus Corp 移動体姿勢検出装置
JP2015513662A (ja) 2012-02-08 2015-05-14 マイクロソフト コーポレーション 深度カメラを使用した頭部姿勢トラッキング
US20150356737A1 (en) 2014-06-09 2015-12-10 Technical Illusions, Inc. System and method for multiple sensor fiducial tracking
US20160364881A1 (en) 2015-06-14 2016-12-15 Sony Computer Entertainment Inc. Apparatus and method for hybrid eye tracking
JP2017055397A (ja) 2015-09-08 2017-03-16 キヤノン株式会社 画像処理装置、画像合成装置、画像処理システム、画像処理方法、及びプログラム
WO2017139871A1 (en) 2016-02-18 2017-08-24 Vrvana Inc. Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5856844A (en) * 1995-09-21 1999-01-05 Omniplanar, Inc. Method and apparatus for determining position and orientation
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
CN103620527B (zh) * 2011-05-10 2018-08-17 寇平公司 使用动作和语音命令来控制信息显示和远程设备的头戴式计算机
US8203605B1 (en) * 2011-05-11 2012-06-19 Google Inc. Point-of-view object selection
US8982471B1 (en) * 2012-01-04 2015-03-17 Google Inc. HMD image source as dual-purpose projector/near-eye display
JP2013148745A (ja) 2012-01-20 2013-08-01 Fujitsu Mobile Communications Ltd 電子機器、制御方法及び制御プログラム
US9495783B1 (en) * 2012-07-25 2016-11-15 Sri International Augmented reality vision system for tracking and geolocating objects of interest
US9041840B2 (en) 2012-08-21 2015-05-26 Semiconductor Components Industries, Llc Backside illuminated image sensors with stacked dies
KR102019124B1 (ko) * 2013-01-04 2019-09-06 엘지전자 주식회사 헤드 마운트 디스플레이 및 그 제어 방법
US9395543B2 (en) * 2013-01-12 2016-07-19 Microsoft Technology Licensing, Llc Wearable behavior-based vision system
WO2014160342A1 (en) * 2013-03-13 2014-10-02 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
US20140267667A1 (en) 2013-03-14 2014-09-18 Valve Corporation Outward facing camera system with identical camera and eye image picture perspective
KR20160068916A (ko) * 2013-10-11 2016-06-15 인터디지탈 패튼 홀딩스, 인크 시선 구동 증강 현실
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US10423222B2 (en) * 2014-09-26 2019-09-24 Digilens Inc. Holographic waveguide optical tracker
US10241566B2 (en) 2014-11-05 2019-03-26 Valve Corporation Sensory feedback systems and methods for guiding users in virtual reality environments
US10286308B2 (en) 2014-11-10 2019-05-14 Valve Corporation Controller visualization in virtual and augmented reality environments
JP6778205B2 (ja) 2014-11-10 2020-10-28 バルブ コーポレーション 位置追跡システム及び方法
US10805592B2 (en) * 2016-06-30 2020-10-13 Sony Interactive Entertainment Inc. Apparatus and method for gaze tracking
US10134192B2 (en) * 2016-10-17 2018-11-20 Microsoft Technology Licensing, Llc Generating and displaying a computer generated image on a future pose of a real world object
US20190204599A1 (en) * 2017-12-28 2019-07-04 Microsoft Technology Licensing, Llc Head-mounted display device with electromagnetic sensor

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003218338A (ja) 2002-01-25 2003-07-31 Handotai Rikougaku Kenkyu Center:Kk 半導体集積回路装置
JP2007504562A (ja) 2003-09-04 2007-03-01 サーノフ コーポレーション 1つの画像から虹彩認証を行う方法および装置
JP2009031295A (ja) 2008-08-05 2009-02-12 Olympus Corp 移動体姿勢検出装置
JP2015513662A (ja) 2012-02-08 2015-05-14 マイクロソフト コーポレーション 深度カメラを使用した頭部姿勢トラッキング
US20150356737A1 (en) 2014-06-09 2015-12-10 Technical Illusions, Inc. System and method for multiple sensor fiducial tracking
US20160364881A1 (en) 2015-06-14 2016-12-15 Sony Computer Entertainment Inc. Apparatus and method for hybrid eye tracking
JP2017055397A (ja) 2015-09-08 2017-03-16 キヤノン株式会社 画像処理装置、画像合成装置、画像処理システム、画像処理方法、及びプログラム
WO2017139871A1 (en) 2016-02-18 2017-08-24 Vrvana Inc. Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking

Also Published As

Publication number Publication date
KR20200106547A (ko) 2020-09-14
JP2021511699A (ja) 2021-05-06
EP3714318B1 (en) 2023-08-30
US10921881B2 (en) 2021-02-16
CN111602082B (zh) 2023-01-17
US11314323B2 (en) 2022-04-26
US20190220090A1 (en) 2019-07-18
EP3714318A4 (en) 2021-06-09
US20210149481A1 (en) 2021-05-20
CN111602082A (zh) 2020-08-28
EP3714318A1 (en) 2020-09-30
CN115857173A (zh) 2023-03-28
WO2019143793A1 (en) 2019-07-25

Similar Documents

Publication Publication Date Title
JP7207809B2 (ja) センサ集積回路を含むヘッドマウントディスプレイのためのポジショントラッキングシステム
CN110908503B (zh) 跟踪设备的位置的方法
US9288468B2 (en) Viewing windows for video streams
JP6860488B2 (ja) 複合現実システム
US10740971B2 (en) Augmented reality field of view object follower
KR102281026B1 (ko) 홀로그램 앵커링 및 동적 포지셔닝 기법
KR102460047B1 (ko) 유저 안경 특성을 결정하는 눈 추적용 디바이스를 갖는 헤드업 디스플레이
US10955665B2 (en) Concurrent optimal viewing of virtual objects
US20130326364A1 (en) Position relative hologram interactions
CN112655202B (zh) 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正
US20230050117A1 (en) Polarization compensation for wire grid polarizer of head-mounted display system
JP2023510455A (ja) 高感度角度検出器を含むヘッドマウントディスプレイシステムのための位置追跡システム
US20230393654A1 (en) Optical tracking including imaging-based angle sensitive detectors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7207809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150