JP7218376B2 - 視線追跡方法および装置 - Google Patents
視線追跡方法および装置 Download PDFInfo
- Publication number
- JP7218376B2 JP7218376B2 JP2020543583A JP2020543583A JP7218376B2 JP 7218376 B2 JP7218376 B2 JP 7218376B2 JP 2020543583 A JP2020543583 A JP 2020543583A JP 2020543583 A JP2020543583 A JP 2020543583A JP 7218376 B2 JP7218376 B2 JP 7218376B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- eye
- image
- deformation
- eyelid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 46
- 210000000744 eyelid Anatomy 0.000 claims description 65
- 238000001514 detection method Methods 0.000 claims description 49
- 238000009877 rendering Methods 0.000 claims description 25
- 230000004044 response Effects 0.000 claims description 14
- 230000004424 eye movement Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 2
- 230000004399 eye closure Effects 0.000 claims 1
- 230000033001 locomotion Effects 0.000 description 55
- 210000004087 cornea Anatomy 0.000 description 26
- 230000008569 process Effects 0.000 description 18
- 210000003128 head Anatomy 0.000 description 14
- 230000004397 blinking Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 238000006073 displacement reaction Methods 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0181—Adaptation to the pilot/driver
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B2027/0192—Supplementary details
- G02B2027/0198—System for aligning or maintaining alignment of an image in a predetermined direction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Optics & Photonics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Description
本開示は、例えば頭部装着型ディスプレイユニット(HMD)と共に使用するための視線追跡方法および装置に関する。
HMDが、映画、ゲーム、および他の仮想現実(VR)体験などの娯楽コンテンツを届けるためのディスプレイとして、近年においてますます一般的になってきている。これらの使用の事例においては、コンテンツを、ユーザへと、ユーザに自身が眺めている環境内に自身が存在していると信じ込ませる没入型の体験をもたらすようなやり方で、提供することが一般的である。これは、例えば、ユーザの頭部の動きに応じた視点を使用して表示をレンダリングすることによって実現できる。
そのようなコンテンツにおける制約の例は、高品質のコンテンツを提供するために、望ましくは広い帯域幅および大量の処理が必要とされることである。例えば、これらの要素は、ユーザの入力に応答した画像であって、観察者にとって本物のように見えるような充分に高い画像品質の画像を生成するために、必要とされ得る。生成されたコンテンツがこれらの特徴のいずれかを提供しない場合(例えば、低い応答性/高いレイテンシ、および/または低い画像品質)、不信を保留し、コンテンツに完全に没入することが、ユーザにとって困難になり得る。
考慮される1つの一般的な手法は、利用可能な帯域幅の使用を最適化することである。利用可能な帯域幅をより効率的に使用することにより、ハードウェアを変更することなく、より高品質の画像データをユーザに提供できる可能性があり、したがって没入感を高めることが可能である。
そのような方法の一例は、中心窩レンダリング技術である。そのような技術は、ユーザが注目している場所の高解像度の画像領域と、その他の場所の低解像度の画像領域とを提供する。表示のうちの観察者が注目している領域を、例えば、予測(例えば、ユーザが特定の表示されたオブジェクトを眺めると予想する)によって特定することができ、あるいは視線の追跡によって特定することができる。これらのうちの後者がより正確であるかもしれないが、ユーザが(例えば、まばたきの際に)眼を閉じ、眼を閉じている間に眼を動かすことで、不正確さに悩まされる可能性があり、結果として、生成された画像のうちの誤った領域が高い解像度とされ、ユーザは依然として低解像度のコンテンツを眺めることになりかねない。これにより、ユーザにとって没入感が失われ、ユーザによるVR体験の享受が損なわれる可能性がある。
この場合に生じる問題を軽減するために、いくつかの解決策が提案されている。例えば、まばたきの後のユーザの眼の位置の有用な近似であり得るという理由で、「最後の既知の注視位置」を使用することが可能である。あるいは、より高解像度の領域を、ユーザの眼が閉じられている期間におけるユーザの眼の考えられるすべての動きを先取りするように、動的に広げてもよい。第3の方法は、表示画像の中央に、ユーザの眼が閉じられたときに高解像度の領域として選択されるデフォルト領域を定義することである。
当然ながら、ユーザの眼を追跡するための正確なシステムおよび方法の使用は、中心窩レンダリングの使用を超えて広がり、視線追跡データは、娯楽システムなどへのハンズフリー入力など、いくつかの他の用途に利用可能である。中心窩レンダリングの状況におけるこのようなシステムおよび方法の応用の説明は、あくまでも典型的な使用の事例として提示されているにすぎない。
以上の問題を背景に、本発明が提供される。
本開示は、請求項1によって定められる。
本開示のさらなるそれぞれの態様および特徴が、添付の特許請求の範囲に定められる。
次に、本開示の実施形態を、添付の図面を参照して説明する。
本開示は、HMDの文脈においてシステムおよび方法を構成するが、HMDの使用は必須ではなく、したがって本開示の範囲をそのような実施形態に限定すべきではないことを、当業者であれば理解できるであろう。適切な精度を提供するために、ユーザの眼の近くに配置されたカメラの使用が望ましいかもしれないが、上述のように、視線の追跡は、頭部装着型の構成要素を一般的には備えないと考えられる娯楽システムなどへの入力として使用することも可能である。したがって、ディスプレイが必ずしも必要でないことは明らかであり、したがってディスプレイを備えない装置を提供することも可能である。例えば、視線追跡用のカメラを備えるが、ディスプレイユニットは備えない頭部装着型ユニットを提供することが可能である。
上述のように、本開示の実施形態は、HMDにおける使用に適しており、その趣旨で、一般的なHMDシステムの動作および構造を以下に示す。
頭部装着型ディスプレイは、観察者の頭部に取り付けられるフレームを有することができ、フレームは、使用時に観察者のそれぞれの眼の前方に位置する1つまたは2つの眼表示位置を定め、それぞれのディスプレイ要素が、眼表示位置の各々に対して取り付けられ、ディスプレイ要素は、観察者の該当の眼へと、ビデオ信号ソースからのビデオ信号のビデオ表示の仮想画像を提供する。他の例において、ディスプレイは、頭部装着型ディスプレイではない。いくつかの実施形態において、ディスプレイ(頭部装着型であるか否かにかかわらず)は、通常の使用においてユーザの視野の少なくともしきい値角度範囲(例えば、少なくとも40°)を占める点で、没入型ディスプレイと呼ばれることもある。例として、マルチプロジェクタディスプレイ、ラップアラウンド(湾曲型)ディスプレイ、などが挙げられる。
ここで図1を参照すると、ユーザ10が、ユーザの頭部30にHMD20を装着している。HMDは、この例においては後部ストラップおよび上部ストラップで形成されたフレーム40と、ディスプレイ部50とを備える。
図1のHMDは、周囲の環境をユーザにとって完全に見えなくする。ユーザは、HMD内に表示される1対の画像だけを見ることができる。
HMDには、ユーザの左右の耳70にはめ込まれるヘッドフォンイヤピース60が組み合わせられている。イヤピース60は、外部ソースからもたらされるオーディオ信号を再生し、外部ソースは、ユーザの眼へと表示されるビデオ信号をもたらすビデオ信号ソースと同じであってよい。
動作時に、HMDによる表示のためのビデオ信号がもたらされる。これを、ビデオゲーム機またはデータ処理装置(例えば、パーソナルコンピュータ)などの外部ビデオ信号ソース80によってもたらすことができ、その場合に、信号を、有線または無線接続によってHMDへと送信することができる。適切な無線接続の例として、Bluetooth(登録商標)接続が挙げられる。イヤピース60のためのオーディオ信号も、同じ接続によって伝送することができる。同様に、HMDからビデオ(オーディオ)信号ソースへと渡される制御信号があれば、同じ接続によって伝送することができる。
したがって、図1の構成は、観察者の頭部に取り付けられ、使用時に観察者のそれぞれの眼の前方に位置する1つまたは2つの眼表示位置を定めるフレームと、眼表示位置の各々に対して取り付けられ、ビデオ信号ソースからのビデオ信号のビデオ表示の仮想画像を観察者の該当の眼へと提供するディスプレイ要素とを備える頭部装着型ディスプレイシステムの一例を提供する。
図1は、HMDの一例を示しているにすぎない。他の形式も可能であり、例えば或るHMDは、従来からの眼鏡に関するフレームにさらによく似たフレームを使用することができ、すなわちディスプレイ部から後方へとユーザの耳の上部後方に延び、おそらくは耳の後ろを下方へと曲がる実質的に水平なレグを使用することができる。他の例においては、外部環境についてのユーザの視界が実際には完全には遮られていなくてもよく、表示画像を、外部環境に(ユーザの視点から)重なるように配置することができる。そのような構成の例は、図4を参照して以下で説明される。
図1の例においては、ユーザの眼ごとに別個のそれぞれのディスプレイが設けられる。これがどのように達成されるのかについての概略の平面図が、ユーザの眼の位置100およびユーザの鼻の相対位置110を示す図2として示されている。ディスプレイ部50は、概略の形態において、周辺光をユーザの眼から隠す外部シールド120と、一方の眼が他方の眼に向けられた表示を見ることを防止する内部シールド130とを備える。ユーザの顔、外部シールド120、および内部シールド130の組み合わせにより、各々の眼に1つずつ、2つのコンパートメント140が形成される。各々のコンパートメントに、ディスプレイ要素150および1つ以上の光学要素160が設けられる。ディスプレイ要素および光学要素が協働してユーザに表示を提供するやり方は、図3を参照して説明される。
さらに図2は、1対の内向きカメラ165を示しており、これらは、例えばRGB、IR、または深度カメラであってよく、あるいは本開示において説明される方法を実行するための任意の適切な代替物であってよい。
図3を参照すると、ディスプレイ要素150は、ユーザにとってディスプレイ要素150によって生成される実際の画像よりも大きくかつはるかに遠くに位置するように見える仮想画像170を生成するために、(この例においては)光学要素160(凸レンズとして概略的に示されているが、複合レンズまたは他の要素を含んでもよい)によって屈折させられる表示画像を生成する。一例として、仮想画像は、1mを超える見かけの画像サイズ(画像の対角線)を有することができ、ユーザの眼(または、HMDのフレーム)から1mを超える距離に配置されてよい。一般的には、HMDの目的に応じて、仮想画像をユーザからかなりの距離に配置することが望まれる。例えば、HMDが映画などを見るためのものである場合、そのような視聴の際にユーザの眼がリラックスした状態であることが望ましく、そのためには、少なくとも数メートルの距離(仮想画像まで)が必要である。図3においては、実線(線180など)が、実際の光線を示すために使用されている一方で、破線(線190など)が、仮想の光線を示すために使用されている。
別の構成が、図4に示されている。この構成は、外部環境についてのユーザの視界を完全には妨げないようにすることが望まれる場合に、使用することができる。しかしながら、ユーザにとって外部が完全に見えなくなるHMDにも適用可能である。図4の構成においては、ディスプレイ要素150および光学要素200が、ミラー210へと投影される画像をもたらすように協働し、ミラー210が、ユーザの眼の位置220へと画像を向ける。ユーザは、仮想画像を、ユーザの前方かつユーザから適切に離れた位置230に位置するように知覚する。
外部環境がユーザにとって完全に見えなくなるHMDの場合、ミラー210は、実質的に100%の反射ミラーであってよい。したがって、図4の構成は、ディスプレイ要素および光学要素を、ユーザの頭部の重心およびユーザの眼の側方のより近くに配置することができ、ユーザにとってより嵩張らずに装着することができるHMDを生み出すことができるという利点を有する。あるいは、HMDが外部環境についてのユーザの視界を完全には隠さないように設計される場合、ユーザが、ミラー210を通して外部環境を、現実の外部環境に仮想画像を重ねた状態で眺めるように、ミラー210を部分反射であるように製作することができる。
ユーザの眼ごとに個別のそれぞれのディスプレイが用意される場合、立体画像を表示することが可能である。左眼および右眼への表示用の1対の立体画像の例が、図5に示されている。画像は、お互いに対して横方向の変位を呈し、画像の特徴の変位は、画像をキャプチャしたカメラの(実際の、またはシミュレーションによる)横方向の隔たり、カメラの角度収束、およびカメラ位置からの画像の各特徴の(実際の、またはシミュレーションによる)距離に依存する。
図5における横方向の変位(および、後述される図15における横方向の変位)が、実際には逆であってよく、すなわち図示の左眼用の画像が、実際には右眼用の画像であってよく、図示の右眼用の画像が、実際には左眼用の画像であってよいことに、注意すべきである。これは、一部の立体ディスプレイが、ユーザが立体ウィンドウを通して向こうのシーンを見つめているという考え方をシミュレートするために、オブジェクトを右眼用の画像においては右方向に、左眼用の画像においては左方向に移動させる傾向を有するからである。しかしながら、一部のHMDは、図5に示した構成を、ユーザに双眼鏡を通してシーンを眺めているという印象を与えるがゆえに使用する。これら2つの構成の間の選択は、システム設計者の裁量に任される。
いくつかの状況においては、HMDを、単に映画などを見るために使用することができる。この場合、ユーザが自身の頭部を例えば左右に回すときに、表示画像の見かけの視点を変更する必要はない。しかしながら、仮想現実(VR)または拡張現実(AR)システムに関連する用途など、他の用途においては、ユーザの視点が、ユーザが位置する現実空間または仮想空間に対する動きを追跡する必要がある。
この追跡は、HMDの動きを検出し、表示画像の見かけの視点を、見かけの視点が動きを追跡するように変化させることによって実行される。
図6が、VRまたはARシステムにおけるユーザの頭部の動きの影響を概略的に示している。
図6を参照すると、仮想環境が、ユーザの周囲の(仮想の)球状シェル250によって表されている。この構成を2次元の紙の図面で表す必要があるため、シェルは、ユーザからの距離が表示された仮想画像のユーザからの隔たりと同等である円の一部によって表される。ユーザは、最初は第1の位置260にあり、仮想環境の一部分270の方を向いている。この部分270が、ユーザのHMDのディスプレイ要素150に表示される画像に表される。
次に、ユーザが頭部を新たな位置および/または向き280へと動かす状況を考える。仮想現実または拡張現実の表示の正しい感覚を維持するために、仮想環境のうちの表示部分も移動し、移動の終わりにおいて、新たな部分290がHMDによって表示される。
したがって、この構成においては、仮想環境内の見かけの視点が、頭部の動きとともに移動する。例えば、図6に示されるように、頭部が右側へと回転する場合、見かけの視点も、ユーザの視点から右側へと移動する。この状況を、表示されたオブジェクト300などの表示されたオブジェクトの見地から考慮すると、オブジェクトは、事実上、頭部の動きとは反対の方向に移動する。したがって、頭部が右側へと移動する場合、見かけの視点は右側へと移動するが、仮想環境内の静止している表示されたオブジェクト300などのオブジェクトは、仮想環境の表示部分が右側へと移動する一方で、表示されたオブジェクト300は仮想環境内で移動していないという単純な理由で、表示画像の左側へと移動し、最終的には表示画像の左側から消える。同様の考えが、動きの上下方向成分にも当てはまる。
図7Aおよび図7Bは、動き検出を備えたHMDを概略的に示している。これら2つの図は、図2に示した図と同様の形式である。すなわち、これらの図は、ディスプレイ要素150および光学要素160を単純な箱形で表したHMDの概略の平面図である。図を見やすくするために、図2の多くの特徴は図示されていない。両方の図は、観察者の頭部の動きを検出するための動き検出器を備えたHMDの例を示している。
図7Aにおいては、前方を向いたカメラ320が、HMDの前部に設けられている。これは、必ずしもユーザへの表示用の画像をもたらすわけではない(ただし、拡張現実の構成においては、そのようにしてもよい)。代わりに、本実施形態におけるその主たる目的は、動き検出を可能にすることである。カメラ320によってキャプチャされた画像を使用して動き検出を行う技術は、図8に関連して後述される。これらの構成において、動き検出器は、フレームと一緒に動くように取り付けられたカメラと、カメラによってキャプチャされた連続画像を比較して画像間の動きを検出するように動作することができる画像比較器とを備える。
図7Bは、ハードウェア動き検出器330を利用している。これは、HMD内またはHMD上の任意の場所に取り付け可能である。適切なハードウェア動き検出器の例は、圧電加速度計または光ファイバジャイロスコープである。当然ながら、ハードウェア動き検出およびカメラに基づく動き検出の両方を同じ装置において使用することができ、その場合は、一方の検出機構を他方が利用できない場合のバックアップとして使用することができ、あるいは一方の検出機構(カメラなど)が表示画像の見かけの視点を変更するためのデータを提供できる一方で、他方(加速度計など)が画像安定化のためのデータを提供できることを、理解できるであろう。
図8が、図7Aのカメラ320を使用する動き検出の一例を概略的に示している。
カメラ320は、ビデオカメラであり、例えば毎秒25枚の画像取り込み速度で画像を取り込む。各々の画像は、取り込まれると、保存のために画像格納部400に渡されるとともに、画像比較器410によって画像格納部から取り出された先行の画像と比較される。比較においては、既知のブロックマッチング技術(いわゆる「オプティカルフロー」検出)が使用され、カメラ320によってキャプチャされた画像の実質的に全体が、先行の画像のキャプチャの時点から移動したかどうかが確認される。局所的な動きは、カメラ320の視野内のオブジェクトの動きを示している可能性があるが、実質的に画像全体の全体的な動きは、キャプチャされたシーン内の個々の特徴の動きよりもむしろ、カメラの動きを示す傾向にあると考えられ、今回の場合には、カメラはHMDに取り付けられているため、カメラの動きはHMDの動きに対応し、したがってユーザの頭部の動きに対応する。
画像比較器410によって検出された或る画像と次の画像との間の変位は、動き検出器420によって、動きを表す信号に変換される。必要に応じて、動き信号は、積分器430によって位置信号に変換される。
上述のように、HMDに組み合わせられたビデオカメラによってキャプチャされた画像の間で画像間の動きを検出することによる動きの検出に代え、あるいはこれに加えて、HMDは、加速度計などの機械式または固体検出器330を使用して頭部の動きを検出することができる。これは、ビデオに基づくシステムの応答時間が最大でも画像取り込み速度の逆数であることを考えると、実際には動きの現れに関してより速い応答をもたらすことができる。したがって、場合によっては、検出器330は、より高頻度の動き検出における使用により適している可能性がある。しかしながら、他の事例において、例えば高画像レートのカメラ(取り込み速度が200Hzのカメラなど)が使用される場合、カメラに基づくシステムがより適切かもしれない。図8に関して、検出器330がカメラ320、画像格納部400、および比較器410に代わって、動き検出器420に直接入力をもたらすことができる。あるいは、検出器330は、さらに動き検出器420に代わって、物理的な動きを示す出力信号を直接もたらすことができる。
当然ながら、他の位置または動き検出技術も可能である。例えば、HMDを可動パンタグラフアームによって固定点(例えば、データ処理装置または家具)へと接続し、位置および方向センサによってパンタグラフアームのたわみの変化を検出する機械的な構成を使用することができる。他の実施形態においては、HMDおよび固定点に取り付けられた1つ以上の送信機および受信機のシステムを使用して、三角測量技術によるHMDの位置および向きの検出を可能にすることができる。例えば、HMDに1つ以上の指向性送信機を持たせることができ、既知の点または固定点に組み合わせられた受信機のアレイが、この1つ以上の送信機からの相対信号を検出することができる。あるいは、送信機が固定され、受信機がHMDに配置されてもよい。送信機および受信機の例として、赤外線トランスデューサ、超音波トランスデューサ、および無線周波数トランスデューサが挙げられる。無線周波数トランスデューサは、Bluetooth(登録商標)リンクなどのHMDとの間の無線周波数データリンクの一部も形成できるという点で、二重の目的を有してもよい。
図9は、検出されたHMDの位置または位置の変化に応答して実行される画像処理を概略的に示している。
図6に関連して上述したように、仮想現実および拡張現実の装置などの一部の用途においては、HMDのユーザへと表示されるビデオの見かけの視点が、ユーザの頭部の実際の位置または向きの変化に応じて変更される。
図9を参照すると、これは、動きおよび/または現在の位置を表すデータを必要画像位置検出器460へと供給する動きセンサ450(図8の構成および/または図7bの動き検出器330など)によって達成され、必要画像位置検出器460が、HMDの実際の位置を表示に必要な画像を定義するデータへと変換する。画像生成器480が、必要に応じて画像格納部470に保存された画像データにアクセスし、HMDによる表示のために必要な適切な視点からの画像を生成する。外部ビデオ信号ソースが、画像生成器480の機能を提供し、検出された動きの方向に観察者の見かけの視点を変更すべく、検出された動きの方向とは反対の方向に表示画像を移動させるように表示画像の視点を変更することにより、観察者の頭部の動きのより低い周波数の成分を補償するコントローラとして機能することができる。
画像生成器480は、後述されるやり方で、いわゆるビューマトリックスデータなどのメタデータに基づいて動作することができる。
図10Aおよび図10Bが、画像に適用される中心窩レンダリング技術の例を概略的に示している。
図10Aは、ディスプレイ1000を示しており、別個の領域へのディスプレイの分割を表現する図解が重ねられている。第1の領域1010は、ディスプレイ上のユーザの注視点を取り囲むと予想される中央焦点領域に対応し、第2の領域1020は、第1の領域1010の周囲の領域に対応する。中心窩レンダリングの適用においては、最高の画質が第1の領域1010で提供され、低品質のコンテンツが第2の領域1020で提供され、さらに低品質のコンテンツが第1および第2の領域のいずれにも対応しないディスプレイ1000のすべての領域について提供されると予想される。
いくつかの実施形態において、第1の領域1010は、最高解像度のコンテンツを含み、第2の領域1020は、この解像度の80%の解像度のコンテンツを含み、他の場所では、この解像度の50%の解像度のコンテンツがレンダリングされる。当然ながら、これらの数値は完全に例示であり、当業者であれば個々の用途に適した値を使用するように自由に選択することができる。
領域1010および1020は、円形であるものとして図示されているが、これは、本開示において必須ではない。領域は、長方形または正方形の領域を提供するなど、任意の適切な形状をとることができ、実際に、2つの領域1010および1020は、互いに異なる形状であってもよい。また、そのような形状は、正多角形である必要はないが、正多角形が使用される場合、中心窩レンダリングの実装を単純にすることができる。
いくつかの構成においては、ディスプレイの中央領域が常に焦点の領域であり、したがって第1の領域1010が常にディスプレイの中心にあると仮定することができるが、これらの構成は、ユーザがディスプレイの中心以外の領域を注視する場合に、不適当かもしれない。したがって、視線追跡(または、他の方法)を実行して、ディスプレイ1000上のどこをユーザが注視しているかを識別することができる。
図10Bが、同じディスプレイ1000の第2の図を示しており、ユーザの注視方向が、ディスプレイ1000の右上隅の方を見るように変化したと判断されている。この図において、第2の領域1020がディスプレイ1000の縁と交差していることが明らかであり、この場合、第2の領域1020について、変更された形状が使用される。
中心窩レンダリングの構成において発生する可能性がある1つの問題は、いつユーザの注視位置が変化するかという問題であるが、図10Aおよび図10Bの領域1010および1020は、これを反映していない。これにより、ユーザが注視している領域が、望ましい解像度よりも低い解像度でレンダリングされ、したがって観察者に提供される視聴体験が低品質になる可能性がある。
例えば、ユーザがディスプレイ1000の右上を眺めており、図10Aに示される中心窩レンダリングが表示用の画像の生成に使用されている場合、ユーザは、最高解像度のコンテンツはディスプレイ1000の中央にあるため、ほとんどの画像コンテンツを最低解像度で眺めることになると考えられる。
これらの問題の原因は、例えばユーザがまばたきし、あるいは他の事情で眼を閉じたときの視線追跡情報の喪失であり得る。まばたきの最中に、ユーザの眼は依然として動いている可能性があり、したがって、まばたきの終わりにおけるディスプレイ上の注視点が、まばたきの開始時の注視点とは異なる可能性がある。したがって、ユーザのまばたきが終了したときに、現在の視線方向に対応しない表示画像がもたらされ、結果として視聴体験が損なわれる可能性がある。
既存の構成は、これらの問題を軽減しようと努めてきたが、実装される技術に関連した多くの欠点が存在する。例えば、中心窩レンダリング技術を、まばたきの直後の時間において、誤った高解像度領域の生成を回避するために中断させることができるが、これは、代わりに画像全体を最高解像度で生成しなければならないため、画像生成装置のレンダリングの負担を増加させる。
したがって、ユーザの眼が閉じている間も視線追跡を実行することが、有利であると考えられる。
図11Aおよび図11Bが、2つのそれぞれの向きにある眼1100を概略的に示しており、まぶた1150が、それぞれの変形1160および1170を示している。
図11Aにおいて、ユーザは、実質的に前方の方向を見つめている。角膜1110が、眼1100の表面から突出し、眼1100に非球形の表面をもたらしている。この結果として、角膜は、まぶた1150のほぼ中央の領域に位置するまぶた1150の変形1160を引き起こす。この変形1160を測定することによって、角膜1110の位置、ひいては眼1100の位置/向きを推定することが可能である。この情報を使用して、眼が閉じられていないならばユーザが眺めているであろうディスプレイの部分を特定することができ、適切な画像レンダリングを実行することができる。
図11Bにおいては、ユーザの眼1100が、ユーザの前方のディスプレイの右側を見つめるように向きを変えている。ユーザの眼1100の向きの変化、したがって角膜1110の位置の変化が、図11Aに示した変形1160とは異なる領域に位置して異なる輪郭を有する異なる変形1170を引き起こす。したがって、変形1170の位置、変形1170の形状、または両者の組み合わせのいずれかから、角膜1110の位置を特定することが可能であり得る。
多数の方法を使用して、ユーザのまぶたの変形の位置および輪郭を明らかにすることができ、そのいくつかが以下で説明される。この検出は、用途に応じて、ユーザの片方または両方の眼について実行することができる。いくつかの実施形態においては、検出をただ1つの眼に関して実行することができ、予測モデルおよび/または表示画像に関する情報を使用して、ユーザの他方の眼の向きを予測することができる。
いくつかの実施形態において、この検出は、深度カメラを使用して実行される。そのようなカメラの例は、ユーザのまぶたについて1対の画像をキャプチャし、キャプチャされた画像間の視差を比較して、キャプチャされた画像内の特徴の深度を決定するように動作することができる立体視カメラである。
これに代え、あるいはこれに加えて、RGBカメラを使用して、この情報を決定するために使用することができるユーザのまぶたの画像をキャプチャすることができる。各々のまばたきの最中またはユーザが眼を閉じる他の期間の最中に充分な数の画像がキャプチャされることを保証するために、高速カメラ(例えば、毎秒100フレーム以上)を使用することが好都合かもしれない。
角膜によって引き起こされるユーザのまぶたの変形は、わずかであるかもしれず、角膜の厚さは、ほとんどの人々において0.5ミリメートル程度である。適度に高解像度なカメラなどが、そのような変形を検出できると考えられるが、そのような構成は、複雑さまたはコストの点で許されないかもしれない。したがって、上述の構成を、可能な変形の検出の精度を改善するために、他のやり方で改良することが好都合かもしれない。
図12が、検出の精度を改善することができる方法を概略的に示している。図12においては、ユーザのまぶた1200に、視線追跡を実行するカメラによって画像化することができるパターン1210が提供される。このようなパターンの提供は、ユーザの角膜の検出を実行するためのターゲット領域の目安として使用でき、まぶたの変形をパターンによって誇張できるため、いくつかの実施形態において有益であり得る。
いくつかの実施形態においては、パターンをユーザのまぶたに物理的に適用することができ、例えば、化粧、ペン、ステッカー、または一時的な入れ墨を使用して、ユーザのまぶたにパターンを適用することができる。いくつかの例において、適用されたパターンは、人間の眼には見えず、IRカメラなどによってのみ視認可能であってよい。これは、パターンが視線追跡の構成を使用していないときに他の人に見えず、したがってパターンを使用のたびごとに適用し、次いで除去する必要がないため、パターンの使用を促進することができる。
これに代え、あるいはこれに加えて、このようなパターンを、例えば構造化された光を生成するための装置を使用して、ユーザのまぶたへと投影することができる。この投影を、いくつかの実施形態においては、閉じているユーザの眼の検出に応答して実行することができる。これに代え、あるいはこれに加えて、投影をユーザの視覚に干渉することなくいつでも随意に実行できるように、可視スペクトルの外側の光周波数を使用することができる。当然ながら、これらの構成において設けられる検出器は、パターンを投影するために選択された光周波数を検出できなければならない。
図12において、ユーザのまぶた1200へともたらされるパターンは、交互の明るい色および暗い色(例えば、白および黒など)の正方形によるチェッカーボードパターン1210である。当然ながら、パターンの形状を、平面に適用されるのではないという事実を反映するように変更することができ、例えば、マッピングを使用して、パターンを検出するために使用されるカメラなどに対して平坦なパターンの見た目を与えることが可能である。
当然ながら、図12におけるチェッカーボードパターンの使用は、完全に例示であり、任意の適切なパターンを使用することが可能である。例えば、より詳細度の高いパターンが、ユーザのまぶたの変形のより正確な測定を可能にするうえで有用となり得る。パターンは、チェッカーボードの例のように自己反復的である必要はなく、代わりに、ARマーカーなどの非反復的パターンであってもよい。また、使用される色(または、単一の色とユーザの肌の色調と)の間のコントラストレベルが高いパターンが、検出プロセスにおいて有利となるかもしれない。
図13が、ユーザの眼の動きに応じた単純なパターンの変形の例を概略的に示している。
パターン1300は、正方形として示されており、内部の線によって4つの等しい部分に分割されている。実際には、等しい部分を別々の色で塗りつぶして、別々の部分を互いにより容易に区別することができる。
パターン1310は、パターン1300の変形版であり、この変形は、角膜、したがって変形がパターン1300の右下隅に位置するようにユーザが眼を動かした場合に、パターンがどのように見えるかの一例である。最初は直線であったパターン1300のいくつかの線が、今やパターン1310において湾曲しているように見え、湾曲の程度および/または線のうちの今や湾曲しているように見える部分の長さが、変形を表し、したがって角膜の位置を表す。例えば、変形の量/場所を角膜の位置に関連付けるために処理装置によって使用されるマッピングを提供してもよい。
したがって、ユーザの角膜の位置を、ユーザのまぶたに適用されたパターンについて検出された変形に応じて割り出すことができる。
これに代え、あるいはこれに加えて、変形の検出方法は、角膜によるユーザのまぶたの変形によって投じられる影を利用することができる。いくつかの実施形態においては、これらの影を、この目的のために特別に提供される光源を使用して生じさせることができるが、他の実施形態においては、HMDのディスプレイからの光またはユーザの物理的環境における周囲光を使用して影を生じさせることが、充分であるかもしれない。図14が、ユーザの眼の変形によって生じる影を生成する目的で光源が特別に供給される構成の例を概略的に示している。
図14において、ユーザのまぶた1400は、角膜1410によって変形している。光源1420は、ユーザのまぶた1400に対して斜めの角度に設けられ、この図に示されている位置は、完全に例示であり、光源1420は、ユーザの眼の周りの任意の適切な位置に位置することができる。光源1420によって発せられた光は、影となる領域1430を除くユーザのまぶた1400のすべて(または、少なくとも大部分)を照明する。この影1430は、光源1420からの光が、角膜1410の場所におけるまぶた1400の変形によって遮られることによって引き起こされる。
影1430を、ユーザのまぶた1400を視野に収めることができるように配置されたカメラによって検出することができ、特には影1430のサイズおよび形状を明らかにして、角膜1410の位置を特定することができる。影1430を、上述のとおりのパターンの一例であると考えることができる。
いくつかの実施形態において、光源1420は、スペクトルの可視部分の光を発するが、他の実施形態においては、他の波長(IRなど)が使用される。いくつかの実施形態において、光源1420は常に光を発するように動作してよいが、いくつかの実施形態において、光源1420はパルス状(例えば、ストロボ効果において所定の周波数でオン/オフに切り替えられる)であってよく、あるいは光源1420を、閉じているユーザの眼の検出に応答して作動させてもよい。
いくつかの実施形態においては、2つ以上の光源を設けてもよく、これは、複数の影が生成されるという効果を有することができる。各々の影は、検出がより難しくなる可能性があるが(単一の光源が使用される場合と比べて影が弱くなる可能性があるため)、参照用に複数の影を有することで、検出プロセスの精度または正確さを向上させることができる。
これに代え、あるいはこれに加えて、ユーザの眼の最後の既知の位置または予測される位置に応じて、光源のうちの1つ以上を選択的に作動させることが可能である。これにより、予想されるユーザの角膜の位置に適するように適切な斜めの角度の光源を選択することができ、したがって視線追跡の構成の精度を向上させることができる。
同様に、所与の角膜位置に調和した対応する影パターンを有する異なる位置の2つ以上の光を素早く交代させる(例えば、ビデオフレームごとに1つの光を使用する)ことができる。同様に、異なる位置の狭帯域の赤色、緑色、および青色LED(または、3つのうちのちょうど2つ)を使用する照明が、所与のビデオフレームのそれぞれのカラーチャネルに異なる相補的な影画像をもたらして、やはり角膜の位置、したがって視線方向の計算を補助することができる。当然ながら、任意の適切な波長の光を使用することができ、赤色、緑色、および青色の使用は、完全に例示である。
角膜を検出する目的のための可視光を、ユーザの眼の画像がもはや瞳孔を含まなくなった(ユーザがもはや眼で何かを見ることができないことを示している)後に、作動させることができる。同様に、これらの光を、まぶたがユーザの角膜の一部(すなわち、白眼だけでなくそれ以上)を露わにするように充分に開いたならば停止させることができ、なぜならば、瞳孔が次のビデオフレームによって露わにされる可能性が高く、ユーザの瞳孔が露わになる前に可視光を停止させることが好ましいからである。
ユーザのまぶたにおける影の検出を、図12および図13を参照して説明したパターンの検出と組み合わせることができる。これは、より正確な結果の生成において好都合であり得、あるいは必要な処理を少なくすることができる方法で角膜の位置を特定するために好都合であり得る。
一例においては、影が所定のパターンへと投じられるとき、影の検出が簡略化され得る。例えば、チェッカーボードパターン(図12のパターンなど)が使用されるならば、影がどこに存在するかが、より暗い正方形の検出から明らかになると考えられ、影のサイズおよび形状は、既知の参照点を有する均一な背景(パターンにおける正方形の分布およびサイズが既知であってよいという事実など)に照らして容易に割り出すことができる。
いくつかの実施形態においては、ユーザのまぶたの変形のサイズおよび/または位置の別個の決定を、ユーザのまぶたに事前に適用されたパターンおよび光源によって生成された影のそれぞれを使用して実行することができる。これらの決定の結果を比較および/または組み合わせて、ユーザの眼の位置の検出の精度を確認または改善することができる。
ユーザの眼が閉じている間のユーザの眼の位置のより効率的、精密、かつ/または正確な検出をもたらすことができるいくつかの変更を、上述の実施形態のいずれについても行うことができる。いくつかの変更は、精度を直接的には改善しないかもしれないが、検出処理の効率の向上により、検出プロセスに著しいレイテンシを導入することなく、より精密/正確な検出アルゴリズムの使用を可能にできる。そのようないくつかの変更が、以下で説明され、それらは、上述の実施形態のいずれにおいても利用可能であり、必要に応じて互いに組み合わせられてもよい。
人間の眼は、きわめて素早く動くことができ、眼の方向は、まばたきのような短い時間期間の間でもかなり大きく変化する可能性がある。しかしながら、この期間における向きの変化量には制限が存在し、このような制限を、ユーザの角膜が存在する領域を特定するために使用することができる。したがって、ユーザのまぶたの変形の位置を特定するための検出プロセスを、この領域に限定して、検出プロセスの処理負担を軽減することができる。これは、眼の動きの物理的な限界を使用して、まぶたのうちの変形が検出される可能性のある領域を予測する例である。
同様に、視線追跡装置に組み合わせられたディスプレイが完全には没入型ではない場合、ディスプレイの特定の領域を注視している観察者に対応しない眼の向きが存在する。例えば、視線追跡装置がテレビまたはコンピュータのディスプレイにおいて使用されている場合、ディスプレイから眼をそらしているユーザに対応する眼の位置が存在すると考えられる。そのような位置においては、中心窩レンダリングを適用する必要がないため、これらの眼の位置に関して閉じた眼の視線追跡を実行する必要はないと考えられる。したがって、これにより、検出プロセスにおいて考慮される領域をさらに限定して、効率を向上させることができる。
いくつかの実施形態においては、眼が開いているとき、および/または閉じているときに取得された視線追跡データを使用して、ユーザの角膜が見つかる可能性が最も高い領域を指定することができる。例えば、ユーザがまばたきの前にディスプレイの上部に向かって視線方向を変更している場合、まばたきの間も動きが続くと想定できる。したがって、検出プロセスを、この動きの後に角膜が存在すると予想される領域に限定することができる。これは、眼を閉じる動作が検出される前のユーザの眼の動きを使用して、まぶたのうちの変形が検出される可能性のある領域を予測する例である。
当然ながら、探索の領域を限定するのではなく、特定された領域において検出処理を始めることが可能であり(これは、上述の教示にも適用可能である)、これにより、変形が予想領域の外部に位置するがゆえに検出されないというリスクを冒すことなく、検出の効率を上げることがでる。
また、観察者へと表示されているコンテンツについての情報を使用して、ユーザがどこを見つめているかを予測することも可能であり、例えば、新たなキャラクタが画面上に現れ、あるいは特定のキャラクタが言葉を発している場合に、観察者はこのキャラクタを眺めるように視線を調節すると想定することができる。これは、ユーザの眼の位置を予測することができ、角膜が検出される可能性が最も高い領域を定義することができることを意味する。これは、ユーザへと表示されている画像コンテンツの分析を使用して、まぶたのうちの変形が検出される可能性のある領域を予測する例である。
さらに、検出プロセスの効率の向上において視線追跡装置を支援することができる使用データを記録することもできる。例えば、ユーザの眼がまばたきの際に特定の方向に動き、あるいは特定の量だけ動くことが多い場合、ユーザのまぶたの変形が検出されると予想される領域を、狭めることが可能である。最大移動速度の測定値、眼の動きのパターン、およびユーザが特に関心を持っている表示コンテンツの特定が、いずれも視線追跡プロセスを支援するために収集できる情報の例である。
まばたきの最中に、まばたきに関連する自動的な動作の一部として、眼が回転する可能性があることが認められている。このような動きは、例えば、まばたきが終了したときのユーザの眼の方向の予測に影響を与える可能性があるため、予測に織り込むことができる。
上述の構成の多くにおいて、検出の精度を高めるために較正プロセスを実行することが有益であり得る。このようなプロセスは、コンタクトレンズを使用しているか否か、通常は眼鏡をかけているか否か、あるいは検出に関して誤った結果の導出を引き起こしかねない他の何らかの視覚の異常を有するか否かなど、視覚に関する一連の質問をユーザに尋ねることを含むことができる。プロセスは、一連の所定の眼の動き(眼を開いた状態または閉じた状態で)を実行するユーザを追跡記録して、さらなる追跡の基礎となり得るデータセットを生成することをさらに含むことができる。視線追跡プロセスの精度は、角膜および/またはまぶたの厚さ、眼鏡の着用、ならびに/あるいは濃いメイクの使用など、ユーザに固有のいくつかの要因によって影響を受ける可能性があり、したがって較正データが、これらの問題の克服に役立ち得る。
さらに、較正データを使用して、本方法について予想される精度を判断することができる。例えば、眼の位置をXミリメートルの範囲内で特定できると判断することができ、これに応じて、中心窩レンダリングプロセスにおいて使用される1つ以上の領域のサイズを、わずかな誤差が存在しても適切な画像の生成が保証されるように適切に変更することができる。このサイズを、まばたきの最中および/またはまばたきの直後のいくつかのフレームについて使用することができ、あるいはサイズを、ビデオコンテンツ全体の表示に使用することができる。
レンダリング領域を、眼を閉じているときの視線追跡プロセスについて判断された精度に比例させることは、この方法によれば、高解像度の領域を、まばたきの最中の眼について考えられるすべての動きをカバーするように充分に大きくするのではなく、追跡プロセスにおける不確定性と同じ大きさにすればよいため、より大きな領域(例えば、画像の全体)を高解像度でレンダリングする以前の構成と比べて有利である。これにより、全画面の高解像度画像のデータレートがソースデバイス、送信方式、および/またはHMDの処理能力を超えると考えられるより高解像度のHMDのより一般的な使用が可能になる。
図15が、視線追跡および画像レンダリングシステムを概略的に示している。このシステムは、閉眼検出器1500と、視線追跡器1510と、画像レンダラ1520とを備える。
閉眼検出器1500は、ユーザが1つ以上の眼を閉じたときを検出するように動作可能である。これは、任意の適切なやり方で実行可能であり、例えば、標準的な視線追跡システムを閉眼検出器として使用することが可能であり、ユーザの瞳孔を追跡できないことが、眼が閉じていることを表すと考えられる。いくつかの実施形態においては、表面の反射率を割り出すように動作することができる単純な検出器を使用することができ、ユーザのまぶたは、ユーザの眼の反射とは異なる反射をもたらすであろう。ユーザの眼の開閉に関連する筋肉の動きを検出するために、電極などをユーザの顔に接続することも可能かもしれない。
視線追跡器1510は、閉じられていることが検出された眼に対応するまぶたの測定された変形に応じて眼の向きを検出するように動作可能である。典型的な視線追跡器1510の構成は、図16を参照して後述される。
画像レンダラ1520は、検出された眼の向きに応じて、表示用の中心窩画像をレンダリングするように動作可能である。いくつかの実施形態において、レンダリングされた画像は、図10Aおよび図10Bを参照して説明したように、より高い解像度の部分を有する。これらの実施形態のいくつかにおいて、より高い解像度の部分のサイズは、眼の向きの検出について判断された精度に依存する。
これらの各ユニットは、HMDまたはユーザが着用する他の頭部装着型の装置に配置されてよく、あるいは完全に別の装置に配置されてもよい。例えば、画像レンダラ1520は、代わりに、視線追跡器1510および/または閉眼検出器1500と通信するように動作可能であるゲームコンソールなどの処理装置に配置されてよい。
図16は、視線追跡器1510を概略的に示している。視線追跡器のこの例は、パターンプロジェクタ1600と、カメラ1610と、向き計算器1620とを備えるが、いくつかの実施形態においては、追加または代替の構成要素を、視線追跡器1510を形成するために使用することができる。
パターンプロジェクタ1600は、ユーザのまぶた上にパターンを生成するように動作可能である。上述のように、このパターンを、ユーザのまぶたへと投影される構造化された光を使用して生成することができ、あるいはパターンは、ユーザのまぶたの変形によって生じる影であってもよい(この場合、パターンプロジェクタは、斜めの角度からユーザのまぶたを照らすようにそれぞれ配置された1つ以上の光源であってよい)。
当然ながら、パターンプロジェクタ1600は、パターンがユーザのまぶたに貼り付けられる実施形態においては省略可能であり、上述のように、これは、化粧または一時的な入れ墨などを使用して達成することができる。さらに、パターンがまったく使用されない場合に、パターンプロジェクタ1600は省略されてよいが、パターンは、正確な検出の生成に必須ではないが、正確な検出の生成において助けとなり得る。
上述のように、いくつかの実施形態においては、上述の実装の組み合わせを使用することができ、例えば、両方のパターン(投影またはその他)を影と組み合わせて使用することができる。
カメラ1610は、ユーザのまぶたの変形を明らかにするための任意の適切な撮像デバイスであってよい。いくつかの実施形態において、これは、深度検出器または深度カメラであってよいが、他の実施形態においては、RGBまたはIRカメラなどを使用することができる。カメラ1610は、ユーザのまぶた、とりわけまぶたのうちのパターンを含む領域の画像を取得することができるように配置されるべきである。
向き計算器1620は、カメラ1610によって取得された画像および情報を使用して、ユーザのまぶたの変形を特定し、変形に関する情報を使用して、ユーザの眼の向きに関する情報を導出するように動作可能である。いくつかの実施形態において、これは、ユーザのまぶた上のパターンについて取得された画像を、パターンの参照画像と比較することを含むことができる。いくつかの実施形態では、これは、角膜の存在の結果としてのユーザのまぶたの変形を表す画像内の影を検出することを含むことができる。
図17が、ユーザの1つ以上の眼を追跡し、視線の追跡に応じてコンテンツをレンダリングするための視線追跡および画像レンダリング方法を概略的に示している。
ステップ1700は、ユーザが1つ以上の眼を閉じたときを検出することを含む。
ステップ1710は、閉じられていることが検出された眼に対応するまぶたについて測定された変形に応じて、眼の向きを検出することを含む。
ステップ1720は、例えば中心窩レンダリング技術を使用して、検出された眼の向きに応じて表示用の中心窩画像をレンダリングすることを含む。
図18は、例えば図17の方法のステップ1710に対応する眼の向きを検出するための方法を概略的に示している。
ステップ1800は、例えば、構造化された光を使用し、あるいは影を生じるように斜めの角度からまぶたを照明することによって、パターンをユーザのまぶたへと投影することを含む。当然ながら、このステップは、実施形態においては省略されてよい。
ステップ1810は、ユーザのまぶたの画像を取得し、特にはユーザのまぶたへと投影され、あるいはユーザのまぶたへと貼り付けられたパターンの画像を取得することを含む。
ステップ1820は、ユーザの角膜の位置に対応するユーザのまぶたの変形を検出し、次いで検出された変形に応じてユーザの眼の向きを検出するように、取得した画像について検出を実行することを含む。
上述の技術は、ハードウェア、ソフトウェア、または両者の組み合わせにて実施可能である。実施形態の1つ以上の特徴を実施するためにソフトウェアによって制御されるデータ処理装置が使用される場合、そのようなソフトウェア、ならびにそのようなソフトウェアを提供するための非一時的な機械可読記憶媒体などの記憶媒体または伝送媒体も、本開示の実施形態と見なされることを、理解できるであろう。
Claims (15)
- ユーザの1つ以上の眼を追跡するための視線追跡システムであって、
ユーザが1つ以上の眼を閉じたときを検出するように動作することができる閉眼検出器と、
閉じたと検出された眼に対応するまぶたについて測定された変形に基づいて、眼の向きを検出するように動作することができる視線追跡器と、
前記検出された眼の向きに応じて表示用の中心窩画像をレンダリングするように動作することができる画像レンダラと
を備えるシステム。 - 前記まぶたの変形は、深度検出器を使用して測定される、請求項1に記載のシステム。
- 前記まぶたの変形は、前記ユーザのまぶた上のパターンの変形を識別することによって検出される、請求項1に記載のシステム。
- 前記パターンは、前記ユーザのまぶたへと投影される構造化された光を使用して生成される、請求項3に記載のシステム。
- 前記パターンは、前記ユーザのまぶたの変形によって生じる影である、請求項3に記載のシステム。
- 前記影は、前記ユーザのまぶたを斜めの角度から照明する光によって生成される、請求項5に記載のシステム。
- 前記ユーザのまぶたを斜めの角度から照明するようにそれぞれが配置された1つ以上の光源を備える、請求項6に記載のシステム。
- 前記パターンは、前記ユーザのまぶたに貼り付けられる、請求項3に記載のシステム。
- 眼の動きの物理的な限界が、前記まぶたのうちの前記変形が検出され得る領域を予測するために使用される、請求項1に記載のシステム。
- 閉眼が検出される前の前記ユーザの眼の動きが、前記まぶたのうちの前記変形が検出され得る領域を予測するために使用される、請求項1に記載のシステム。
- ユーザへと表示される画像コンテンツの分析が、前記まぶたのうちの前記変形が検出され得る領域を予測するために使用される、請求項1に記載のシステム。
- 前記中心窩画像の高解像度部分のサイズが、前記眼の向きの検出について判断された精度に依存する、請求項1に記載のシステム。
- ユーザの1つ以上の眼を追跡するための視線追跡方法であって、
ユーザが1つ以上の眼を閉じたときを検出するステップと、
閉じたと検出された眼に対応するまぶたについて測定された変形に基づいて、眼の向きを検出するステップと、
前記検出された眼の向きに応じて表示用の中心窩画像をレンダリングするステップと
を含む方法。 - コンピュータによって実行されたときに前記コンピュータに請求項13に記載の方法を実行させるコンピュータソフトウェア。
- 請求項14に記載のコンピュータソフトウェアを格納する非一時的な機械可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1802928.0A GB2571300B (en) | 2018-02-23 | 2018-02-23 | Eye tracking method and apparatus |
GB1802928.0 | 2018-02-23 | ||
PCT/GB2019/050357 WO2019162645A1 (en) | 2018-02-23 | 2019-02-11 | Eye tracking method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021515302A JP2021515302A (ja) | 2021-06-17 |
JP7218376B2 true JP7218376B2 (ja) | 2023-02-06 |
Family
ID=61903189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020543583A Active JP7218376B2 (ja) | 2018-02-23 | 2019-02-11 | 視線追跡方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11557020B2 (ja) |
EP (1) | EP3756070B1 (ja) |
JP (1) | JP7218376B2 (ja) |
GB (1) | GB2571300B (ja) |
WO (1) | WO2019162645A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200067465A (ko) * | 2018-12-04 | 2020-06-12 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
CN111427150B (zh) * | 2020-03-12 | 2021-03-30 | 华南理工大学 | 用于虚拟现实头戴式显示下的眼动信号处理方法及可穿戴设备 |
US11244660B2 (en) | 2020-03-13 | 2022-02-08 | Apple Inc. | Recovery from eye-tracking loss in foveated displays |
CN112069993B (zh) * | 2020-09-04 | 2024-02-13 | 西安西图之光智能科技有限公司 | 基于五官掩膜约束的密集人脸检测方法及系统和存储介质 |
US11771374B2 (en) | 2020-11-30 | 2023-10-03 | Ceyeber Corp. | Cranial implant |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160353988A1 (en) | 2015-06-03 | 2016-12-08 | Microsoft Technology Licensing, Llc | Capacitive sensors for determining eye gaze direction |
JP2018049593A (ja) | 2016-07-19 | 2018-03-29 | スティヒティング・イメック・ネーデルラントStichting IMEC Nederland | 視線追跡のための方法およびシステム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005205024A (ja) * | 2004-01-23 | 2005-08-04 | Sumitomo Rubber Ind Ltd | 眼球運動測定方法および測定装置 |
JP2013046649A (ja) * | 2011-08-29 | 2013-03-07 | Topcon Corp | 眼科手術用顕微鏡 |
US10231614B2 (en) * | 2014-07-08 | 2019-03-19 | Wesley W. O. Krueger | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance |
JP5935849B2 (ja) * | 2013-10-04 | 2016-06-15 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
DE102013017264A1 (de) * | 2013-10-17 | 2015-04-23 | Dräger Medical GmbH | Verfahren für die Überwachung eines Patienten innerhalb eines medizinischen Überwachungsbereichs |
JP6463975B2 (ja) * | 2015-01-28 | 2019-02-06 | 京セラ株式会社 | 眼の開閉状態の判定方法、画像処理装置、および判定システム |
CN105139584B (zh) * | 2015-09-30 | 2017-12-12 | 宇龙计算机通信科技(深圳)有限公司 | 一种疲劳驾驶处理方法及装置 |
US9983709B2 (en) | 2015-11-02 | 2018-05-29 | Oculus Vr, Llc | Eye tracking using structured light |
US9703374B1 (en) * | 2015-12-16 | 2017-07-11 | Google, Inc. | In-cell gaze tracking for near-eye display |
US10229540B2 (en) * | 2015-12-22 | 2019-03-12 | Google Llc | Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image |
GB2548151B (en) * | 2016-03-11 | 2020-02-19 | Sony Interactive Entertainment Europe Ltd | Head-mountable display |
US10372205B2 (en) * | 2016-03-31 | 2019-08-06 | Sony Interactive Entertainment Inc. | Reducing rendering computation and power consumption by detecting saccades and blinks |
CN109640785A (zh) * | 2016-04-08 | 2019-04-16 | 维扎瑞尔股份公司 | 用于获得、聚集和分析视觉数据以评估人的视力性能的方法和系统 |
-
2018
- 2018-02-23 GB GB1802928.0A patent/GB2571300B/en active Active
-
2019
- 2019-02-11 JP JP2020543583A patent/JP7218376B2/ja active Active
- 2019-02-11 EP EP19705812.6A patent/EP3756070B1/en active Active
- 2019-02-11 US US16/970,487 patent/US11557020B2/en active Active
- 2019-02-11 WO PCT/GB2019/050357 patent/WO2019162645A1/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160353988A1 (en) | 2015-06-03 | 2016-12-08 | Microsoft Technology Licensing, Llc | Capacitive sensors for determining eye gaze direction |
JP2018049593A (ja) | 2016-07-19 | 2018-03-29 | スティヒティング・イメック・ネーデルラントStichting IMEC Nederland | 視線追跡のための方法およびシステム |
Also Published As
Publication number | Publication date |
---|---|
US20200410644A1 (en) | 2020-12-31 |
GB201802928D0 (en) | 2018-04-11 |
EP3756070A1 (en) | 2020-12-30 |
GB2571300A (en) | 2019-08-28 |
EP3756070B1 (en) | 2023-08-02 |
JP2021515302A (ja) | 2021-06-17 |
WO2019162645A1 (en) | 2019-08-29 |
US11557020B2 (en) | 2023-01-17 |
GB2571300B (en) | 2020-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7218376B2 (ja) | 視線追跡方法および装置 | |
US11277603B2 (en) | Head-mountable display system | |
US11983310B2 (en) | Gaze tracking apparatus and systems | |
US20210382316A1 (en) | Gaze tracking apparatus and systems | |
US11762459B2 (en) | Video processing | |
US11507184B2 (en) | Gaze tracking apparatus and systems | |
US20230015732A1 (en) | Head-mountable display systems and methods | |
US12028419B1 (en) | Systems and methods for predictively downloading volumetric data | |
US11743447B2 (en) | Gaze tracking apparatus and systems | |
US20220035449A1 (en) | Gaze tracking system and method | |
US20220350141A1 (en) | Head-mountable display apparatus and methods | |
GB2546983A (en) | Entertainment system | |
US20220068014A1 (en) | Image rendering system and method | |
JP2017079389A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
US11579690B2 (en) | Gaze tracking apparatus and systems | |
US12111463B2 (en) | Head-mounted display apparatus and operating method thereof | |
GB2598953A (en) | Head mounted display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7218376 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |