JP6576574B2 - 眼球モデルを生成するための角膜球追跡 - Google Patents

眼球モデルを生成するための角膜球追跡 Download PDF

Info

Publication number
JP6576574B2
JP6576574B2 JP2018545891A JP2018545891A JP6576574B2 JP 6576574 B2 JP6576574 B2 JP 6576574B2 JP 2018545891 A JP2018545891 A JP 2018545891A JP 2018545891 A JP2018545891 A JP 2018545891A JP 6576574 B2 JP6576574 B2 JP 6576574B2
Authority
JP
Japan
Prior art keywords
user
eyeball
eye
hmd
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018545891A
Other languages
English (en)
Other versions
JP2019512726A (ja
Inventor
アンドリュー ハント、ウォーレン
アンドリュー ハント、ウォーレン
デール キャビン、ロバート
デール キャビン、ロバート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of JP2019512726A publication Critical patent/JP2019512726A/ja
Application granted granted Critical
Publication of JP6576574B2 publication Critical patent/JP6576574B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、概して視線追跡に関し、具体的には眼球モデルを生成するための角膜球追跡に関する。
視線追跡は、仮想現実(VR)アプリケーションで使用されるシステムを含むヘッドマウントディスプレイ(HMD)システムにとって重要な機能である。従来の追跡システムは、人間の眼球の特徴を追跡し、典型的には、光路の質によって制限される。これらの従来のシステムは、HMDシステムにおける視線追跡に必要な十分な精度を提供しない。
眼球モデルを生成し、較正するための視線追跡システムを開示する。視線追跡システムは、VRシステム環境または拡張現実感(AR)システムのような他のシステム環境で使用することができる。視線追跡システムは、少なくとも2つの光源と、各眼球をモデル化するための光学センサとを含む。光学センサおよび少なくとも2つの光源は、光学センサが眼球の角膜からの反射(以下、「角膜反射」と呼ぶ)を使用して光源の画像を取り込むことができるように互いに対して位置決めされる。システムは、ユーザが眼を動かす際に(例えば、眼球モデルを生成する較正プロセス中および/または通常使用中に)データを収集する。システムは、収集されたデータに基づき各眼球の角膜球の半径および原点を特定することによって眼球をモデル化し、各眼球は、眼球全体(例えば、強膜表面部分)に近似する一方の球および角膜部分に近似する一部の他方の球(すなわち、角膜球)を有する2つの球に近似する。システムは、眼球モデルを使用して、ユーザの注視方向、輻輳角/輻輳深度、および調節深度の特定のような様々な光学的動作を実行する。
較正プロセスは、他のステップの中でも特に、各眼球について瞳孔軸を特定すること、および/または瞳孔軸と眼球の真の視線との間の角度のずれを特定することを含む。視線追跡システムは、各眼球の角膜球の半径および原点の情報を含む眼球モデルを(例えば、視線追跡システム自体で生成するか、または視線追跡システム外部から受信して)取得し、各眼球は眼球の強膜表面部分に近似する一方の球および角膜部分に近似する一部の他方の球(すなわち、角膜球)を有する2つの球に近似する。較正プロセスは、ユーザが1つまたは複数の既知のターゲット(例えば、VRヘッドセットの電子ディスプレイ上の特定点)を注視する間、または通常動作モードでHMDに表示されたコンテンツを見ている間に、ユーザの瞳孔の画像を取り込むことを含む。一実施形態において、ユーザが電子ディスプレイ上の1つの特定ターゲットを注視することのみを必要とする単一点較正が実行される。
視線追跡システムは、ユーザの眼球の取り込まれた画像のそれぞれにおいて瞳孔の形状を識別し、次いで、識別した瞳孔の形状と、取得した眼球モデル情報とを共に使用して、瞳孔が位置する三次元(3D)平面を特定する。その後、3D平面を起点とし、かつ角膜球の角膜表面に垂直な光線を識別する観察可能な軸が導出される。この軸は、本明細書では眼球の瞳孔軸と定義される。システムはまた、瞳孔軸と、眼球の真の視線(すなわち、中心窩の位置によって表される)との間の角度のずれを特定することができる。システムはさらに、特定された瞳孔軸および/または角度のずれと共にユーザの虹彩を追跡することによって、ユーザの眼球のねじれ状態を特定するか、またはユーザ識別を特定することができる。いくつかの実施形態において、瞳孔軸と、かつ/または瞳孔軸とユーザの真の視線との間の角度のずれと、を特定する較正プロセスは、ユーザの眼球の単一の画像に基づいており、かつ一回のみ実行される。例えば、較正プロセスは、ユーザがVRヘッドセットを装着した最初の時点で実行され、VRヘッドセットは、ユーザに対応する較正データを同一ユーザによる将来の使用に利用するためにメモリに保存する。
本発明による実施形態は、ヘッドマウントディスプレイを対象とする添付の請求項で特に開示される。添付の請求項の従属性または後方参照は、形式上の理由でのみ選択されている。しかし、任意の先行請求項への意図的な後方参照から生じる任意の主題(特に多数項従属)は同様に請求されることができるので、添付の請求項で選ばれた従属性に関係なく、請求項およびその特徴の任意の組合せが開示され、請求されることができる。請求することのできる主題は、添付の請求項に記載される特徴の組合せだけでなく、請求項の特徴の任意の他の組合せも含み、請求項で述べられる各特徴は請求項の任意の他の特徴または他の特徴の組合せと組み合わせることができる。さらに、本明細書で記述または示される実施形態および特徴のいずれも、個別の請求項で、および/または、本明細書で記述もしくは示される任意の実施形態もしくは特徴または添付の請求項の特徴のいずれかとの任意の組合せで請求することができる。
一実施形態において、視線追跡システムを備えるヘッドマウントディスプレイが提供される。視線追跡システムは、ユーザの眼球を照明するように構成された2つ以上の光源と、ユーザの眼球に関連する角膜から反射した光を画像として捕捉するように構成された検出器と、制御モジュールとを含むことができる。
制御モジュールは、2つ以上の光源からの光でユーザの眼球を照明し、ユーザの眼球の1つまたは複数の画像を検出器で取り込み、ユーザの眼球の取り込まれた1つまたは複数の画像に基づいて眼球モデルを生成し、生成された眼球のモデルに部分的に基づいて光学的動作を実行するように構成することができる。
ヘッドマウントディスプレイの実施形態において、2つ以上の光源のそれぞれは、異なる波長の光を放射するように構成されてもよい。
ヘッドマウントディスプレイの一実施形態において、2つ以上の光源のそれぞれによって放射される光は、異なる周波数および/または異なる振幅で変調されてもよい。
ヘッドマウントディスプレイの一実施形態において、2つ以上の光源は、リングパターンを形成してもよい。
ヘッドマウントディスプレイの一実施形態において、検出器は、ユーザの眼球の複数の画像を取り込むように適合された、および/または動作可能な光学センサとすることができる。
ヘッドマウントディスプレイの一実施形態において、生成されたモデルは、眼球の強膜表面部分に近似する第1の球および角膜に近似する第2の球を含むことができる。
ヘッドマウントディスプレイの一実施形態において、眼球のモデルを生成することは、1つまたは複数の角膜反射を含むユーザの眼球の1つまたは複数の取り込まれた画像を受信することと、第1の球に関連する半径および原点、ならびに第2の球に関連する半径および原点を含む眼球モデルを生成することと、生成されたモデルをヘッドマウントディスプレイに関連付けられたデータベースに保存することと、を含むことができる。
ヘッドマウントディスプレイの一実施形態において、制御モジュールは、第1の球に関連する原点を中心とする回旋として角膜の動きをモデル化するようにさらに構成されてもよい。
ヘッドマウントディスプレイの一実施形態において、眼球モデルを生成することは、基準眼球の1つまたは複数の動きと基準眼球に関連する角膜反射との間の関連を含む基準眼球の学習モデルを読み出すこと、角膜反射を含む1つまたは複数のユーザの眼球の画像を取り込むこと、および基準眼球の1つまたは複数の角膜反射と取り込まれた画像に関連する角膜反射との間の比較に基づいて眼球モデルに関連する1つまたは複数のパラメータ値を外挿すること、を含むことができる。
一実施形態において、ヘッドマウントディスプレイは、ユーザに画像を表示するように構成された電子ディスプレイと、電子ディスプレイから受信した光を拡大するように構成された光学ブロックと、視線追跡システムとを備えることができる。視線追跡システムは、ユーザの眼球の表面を照明するように構成された2つ以上の光源と、角膜から反射した光を画像として捕捉するように構成された検出器と、制御モジュールとを含むことができる。制御モジュールは、ユーザがヘッドマウントディスプレイ内の既知の位置を見ている間に2つ以上の光源からの光でユーザの眼球を照明し、ユーザの眼球の1つまたは複数の画像を検出器で取り込み、ユーザの眼球の取り込まれた1つまたは複数の画像に基づく一回限りの単一点較正を実行し、光学的動作を実行するように構成することができる。
ヘッドマウントディスプレイの実施形態において、2つ以上の光源は、検出器が角膜反射光に基づいて2つ以上の光源の1つまたは複数の画像を取り込むことができるように、互いに対して位置決めされてもよい。
ヘッドマウントディスプレイの実施形態において、2つ以上の光源は、電子ディスプレイの一部であってもよい。
ヘッドマウントディスプレイの実施形態において、一回限りの単一点較正を実行することは、眼球の角膜球の半径および角膜球の中心位置を含む、ユーザの眼球に対応する眼球モデル情報にアクセスすることと、ユーザが電子ディスプレイ上の既知の位置を見ている間にユーザの眼球の瞳孔の画像をカメラで取り込むことと、受信した画像を処理することによって瞳孔の形状を特定することと、受信した眼球モデル情報および特定された瞳孔の形状に基づいて眼球の瞳孔を含む平面を識別することと、平面を起点とし、かつ角膜球の表面に垂直な光線を識別することによって瞳孔の瞳孔軸を特定することと、を含むことができる。
ヘッドマウントディスプレイの実施形態において、瞳孔の形状を特定することは、検出器によって取り込まれた1つまたは複数の画像におけるユーザの眼球全体に亘る反射強度の変化を特定することを含んでもよい。
ヘッドマウントディスプレイの実施形態において、一回限りの単一点較正を実行することは、特定された瞳孔の形状を反復的に修正して、角膜の屈折による歪曲を補正することをさらに含んでもよい。
ヘッドマウントディスプレイの実施形態において、一回限りの単一点較正を実行することは、瞳孔軸と眼球に関連する真の視線との間のずれを特定することをさらに含んでもよい。
ヘッドマウントディスプレイの実施形態において、1つまたは複数の光学的動作を実行することは、ユーザの輻輳角の特定と、ユーザの調節深度の特定と、ユーザの識別と、眼球のねじれ状態の特定と、またはそれらのいくつかの組み合わせと、から成る群から選択された動作を実行することを含んでもよい。
一実施形態による、VRを含むシステム環境のブロック図である。 一実施形態による、VRヘッドセットの図である。 一実施形態による、図2AのVRヘッドセットの前部剛体の断面図である。 一実施形態による、眼球モデルを生成するための例示的な視線追跡システムを示す図である。 一実施形態による、視線追跡システムを使用して眼球モデルを生成するための例示的なプロセスのフロー図である。 一実施形態による、眼球モデルを使用してユーザの注視方向を特定するための例示的なプロセスのフロー図である。 一実施形態による、HMDシステムの例示的な一回限りの単一点較正を示す図である。 一実施形態による、HMDシステムの一回限りの単一点較正の例示的なプロセスのフロー図である。
図面は、例示のみの目的のために、本開示の実施形態を示す。当業者は、本明細書に例示の構造および方法の代替実施形態が、本明細書に記載の開示の原理または利点から逸脱することなく採用され得ることを、以下の説明から容易に認識するであろう。
システムの概要
図1は、VRコンソール110が動作するVRシステム環境100のブロック図である。図1に示すシステム環境100は、VRヘッドセット105、撮像デバイス135、およびVR入力インタフェース140を含み、それぞれVRコンソール110に結合される。図1は、1つのVRヘッドセット105、1つの撮像デバイス135、および1つのVR入力インタフェース140を含む例示的なシステム100を示すが、他の実施形態では、システム100に任意の数のこれらの構成要素が含まれ得る。例えば、複数のVRヘッドセット105が存在し、複数のVRヘッドセット105のそれぞれが関連するVR入力インタフェース140を有し、1つまたは複数の撮像デバイス135によって監視され、各VRヘッドセット105、VR入力インタフェース140、および撮像デバイス135は、VRコンソール110と通信する。代替的な構成では、異なる構成要素およびさらなる構成要素の両方または一方がシステム環境100に含まれ得る。
VRヘッドセット105は、ユーザにコンテンツを提示するHMDである。VRヘッドセットによって提示されるコンテンツの例としては、1つまたは複数の画像、映像、音声またはそれらの何らかの組合せが含まれる。いくつかの実施形態では、VRヘッドセット105、VRコンソール110、またはその両方からの音声情報を受信して、音声情報に基づいて音声データを提示する外部デバイス(例えば、スピーカおよびヘッドフォンの両方または一方)を介して音声が提供される。VRヘッドセット105の実施形態は、図2Aおよび図2Bと併せて以下にさらに説明する。VRヘッドセット105は、互いに対して堅固にまたは非堅固に結合される1つまたは複数の剛体を含み得る。剛体を堅固に結合することにより、結合された剛体は単一の剛性体として機能する。これに対して、剛体を非堅固に結合することにより、剛体は互いに対して可動となる。
VRヘッドセット105は、電子ディスプレイ115と、光学ブロック118と、1つまたは複数のロケータ120と、1つまたは複数の位置センサ125と、慣性測定ユニット(IMU)130と、視線追跡システム160と、を含む。電子ディスプレイ115は、VRコンソール110から受信したデータに従って、ユーザに画像を表示する。様々な実施形態において、電子ディスプレイ115は、単一の電子ディスプレイまたは複数の電子ディスプレイ(例えば、ユーザの各眼球用のディスプレイ)を備えることができる。電子ディスプレイ115の例は、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、アクティブマトリクス有機発光ダイオードディスプレイ(AMOLED)、何らかの他のディスプレイ、またはそれらのいくつかの組み合わせを含む。
光学ブロック118は、電子ディスプレイ115からの受信光を拡大し、画像光に関連する光学誤差を補正して、補正された画像光がVRヘッドセット105のユーザに提示される。光学要素は、アパーチャ、フレネルレンズ、凸レンズ、凹レンズ、フィルタ、または電子ディスプレイ115から放射される画像光に影響を及ぼす任意の他の適切な光学要素とすることができる。さらに、光学ブロック118は、異なる光学要素の組み合わせを含むことができる。いくつかの実施形態において、光学ブロック118内の1つまたは複数の光学要素は、反射防止コーティングのような1つまたは複数のコーティングを有することができる。
光学ブロック118による画像光の拡大により、電子ディスプレイ115を、より大きなディスプレイよりも小型化、軽量化、低消費電力化することが可能となる。さらに、拡大により、表示されるコンテンツの視野を拡大することができる。例えば、表示されたコンテンツの視野は、表示されたコンテンツがユーザの視野のほぼすべて(例えば、対角110度)を、場合によってはすべてを使用して提示される。いくつかの実施形態において、光学ブロック118は、光学ブロック118の有効焦点距離が電子ディスプレイ115までの間隔よりも大きくなるように設計され、電子ディスプレイ115によって投影される画像光を拡大する。さらに、いくつかの実施形態において、倍率は、光学要素を追加または除去することによって調整することができる。
光学ブロック118は、固定パターンノイズ(すなわち、スクリーンドア効果)に加えて、1つまたは複数のタイプの光学誤差を補正するように設計されてもよい。光学誤差の例は、二次元光学誤差、3D光学誤差、またはそれらのいくつかの組み合わせを含む。二次元誤差は、二次元で生じる光学収差である。二次元誤差の種類の例は、樽型歪曲、糸巻き型歪曲、軸上色収差、横色収差、または任意の他の種類の二次元光学誤差を含む。3D誤差は、三次元で生じる光学誤差である。3D誤差の種類の例は、球面収差、コマ収差、像面湾曲、非点収差、または任意の他の種類の3D光学誤差を含む。いくつかの実施形態において、表示のために電子ディスプレイ115に提供されるコンテンツは、あらかじめ歪曲収差を与えられ、光学ブロック118が、コンテンツに基づいて生成された電子ディスプレイ115からの画像光を受け取るときに歪曲を補正する。
ロケータ120は、互いに対して、およびVRヘッドセット105上の特定の基準点に対して、VRヘッドセット105上の特定の位置に配置された物体である。ロケータ120は、発光ダイオード(LED)、コーナーキューブリフレクタ、反射マーカー、VRヘッドセット105が動作する環境に対してコントラストをもたらすタイプの光源、またはそれらのいくつかの組合せであり得る。ロケータ120が能動的(すなわち、LEDまたは他のタイプの発光デバイス)である実施形態では、ロケータ120は、可視光域内(約380nmから750nm)、赤外(IR)域内(約750nmから1mm)、紫外域内(10nmから380nm)、電磁スペクトルの他の部分、またはそれらのいくつかの組合せの光を放射し得る。
いくつかの実施形態では、ロケータ120は、VRヘッドセット105の外面の下方に配置され、外面は、ロケータ120が放射もしくは反射した光の波長に対して透過性を有するか(transparent)、またはロケータ120が放射もしくは反射した光の波長を実質的に減衰しないのに十分な薄さである。さらに、いくつかの実施形態では、VRヘッドセット105の外面または他の部分は、光の波長の可視光域内で不透過性を有する(opaque)。したがって、ロケータ120は、IR域内では透過性を有するが可視光域内では不透過性を有する外面下方にIR光域内の光を放射し得る。
IMU130は、1つまたは複数の位置センサ125から受信した測定信号に基づいて高速較正データを生成する電子デバイスである。位置センサ125は、VRヘッドセット105の動きに応答して1つまたは複数の測定信号を生成する。位置センサ125の例としては、1つまたは複数の加速度計、1つまたは複数のジャイロスコープ、1つまたは複数の磁力計、動きを検出する他の適切なタイプのセンサ、IMU130の誤差補正に使用されるタイプのセンサ、またはそれらのいくつかの組合せが含まれる。位置センサ125は、IMU130の外側、IMU130の内側、またはそれらのいくつかの組合せに配置され得る。
1つまたは複数の位置センサ125からの1つまたは複数の測定信号に基づいて、IMU130は、VRヘッドセット105の初期位置に対するVRヘッドセット105の推定位置を示す高速較正データを生成する。例えば、位置センサ125は、並進運動(前方/後方、上方/下方、左方/右方)を測定するための複数の加速度計および回転運動(例えば、ピッチ、ヨー、ロール)を測定するための複数のジャイロスコープを含む。いくつかの実施形態では、IMU130は、測定信号を迅速にサンプリングし、サンプリングしたデータからVRヘッドセット105の推定位置を計算する。例えば、IMU130は、速度ベクトルを推定するために一定期間、加速度計から受信した測定信号を積分し、VRヘッドセット105上の基準点の推定位置を判定するために一定期間、速度ベクトルを積分する。あるいは、IMU130は、サンプリングした測定信号をVRコンソール110に提供し、それにより高速較正データを判定する。基準点は、VRヘッドセット105の位置を示すために使用される点である。基準点は、一般的に空間内の点として画定されるが、実際には、基準点はVRヘッドセット105内の点(例えば、IMU130の中心)として画定される。
IMU130は、VRコンソール110から1つまたは複数の較正パラメータを受信する。以下にさらに説明するように、1つまたは複数の較正パラメータは、VRヘッドセット105のトラッキングを維持するために使用される。受信した較正パラメータに基づいて、IMU130は、1つまたは複数のIMUパラメータ(例えば、サンプルレート)を調整し得る。いくつかの実施形態において、特定の較正パラメータは、IMU130に、基準点の次の較正点に対応するように、基準点の初期位置を更新させる。基準点の次の較正点として基準点の初期位置を更新することは、判定された推定位置に関連する蓄積された誤差の削減に役立つ。ドリフト誤差とも称される蓄積された誤差は、基準点の推定位置を、基準点の実際の位置から経時的に「ドリフト」させる。
視線追跡システム160は、例示的な較正プロセスを使用して眼球モデルを生成する。視線追跡システム160は、視線追跡ユニットおよび制御モジュールを含む。視線追跡ユニットは、VRヘッドセット105内に配置され、他のコンポーネントの中でも特に、光源および光学センサを含む。視線追跡ユニットの光源(例えば、点光源)および光学センサ(例えば、カメラ)は、角膜球の追跡に使用されて、ユーザがVRヘッドセット105を装着している間にユーザの眼球モデルを特定する。光源および光学センサは、眼球モデルを生成して光学的動作を実行するために必要なデータ処理を行う制御モジュールに結合される。制御モジュールは、VRヘッドセット105および/またはVRコンソール110内に配置される。
撮像デバイス135は、VRコンソール110から受信した較正パラメータに従って低速較正データを生成する。低速較正データは、撮像デバイス135によって検出可能なロケータ120の観測位置を示す1つまたは複数の画像を含む。撮像デバイス135は、1つまたは複数のカメラ、1つまたは複数のビデオカメラ、1つまたは複数のロケータ120を含む画像を取り込み可能な任意の他のデバイス、またはそれらのいくつかの組合せを含み得る。さらに、撮像デバイス135は、(例えば、信号対雑音比を増加させるために使用される)1つまたは複数のフィルタを含み得る。撮像デバイス135は、撮像デバイス135の視野内のロケータ120から放射または反射された光を検出するように構成されている。ロケータ120が受動要素(例えば、再帰反射器)を含む実施形態では、撮像デバイス135は、いくつかのまたはすべてのロケータ120を照らす光源を含み、それにより光を撮像デバイス135内の光源に向けて再帰反射する。低速較正データは、撮像デバイス135からVRコンソール110へ通信され、撮像デバイス135は、VRコンソール110から1つまたは複数の較正パラメータを受信して、1つまたは複数の撮像パラメータ(例えば、焦点距離、焦点、フレームレート、ISO、センサ温度、シャッタ速度、アパーチャなど)を調整する。
VR入力インタフェース140は、ユーザがアクション要求をVRコンソール110に送信することを可能にするデバイスである。アクション要求は、アクションを実施するための要求である。例えば、アクション要求は、アプリケーションの開始または終了を行うこと、またはアプリケーション内のアクションを実施することであり得る。VR入力インタフェース140は、1つまたは複数の入力デバイスを含み得る。入力デバイスの例としては、キーボード、マウス、ゲームコントローラ、またはアクション要求を受信して、受信したアクション要求をVRコンソール110に通信するのに適した任意の他のデバイスが含まれ得る。VR入力インタフェース140によって受信されたアクション要求は、VRコンソール110に通信され、それによりアクション要求に対応するアクションを実施する。いくつかの実施形態において、VR入力インタフェース140は、VRコンソール110から受信された命令に従ってユーザに触覚フィードバックを提供し得る。例えば、触覚フィードバックは、アクション要求を受信したときに提供されるか、あるいはVRコンソール110は、VRコンソール110がアクションを実施するときに、VR入力インタフェース140に触覚フィードバックを生成させる命令をVR入力インタフェース140に通信する。
VRコンソール110は、VRヘッドセット105に、撮像デバイス135、VRヘッドセット105、およびVR入力インタフェース140のうちの1つまたは複数から受信した情報に従ってユーザに提示するためのコンテンツを提供する。図1に示す例では、VRコンソール110は、アプリケーションストア145、トラッキングモジュール150、およびVRエンジン155を含む。VRコンソール110のいくつかの実施形態は、図1に関連して説明するものとは異なるモジュールを有している。同様に、以下にさらに説明する機能は、VRコンソール110の複数の構成要素の間で、本明細書で説明するものとは異なる方法で分散され得る。
アプリケーションストア145は、VRコンソール110によって実行される1つまたは複数のアプリケーションを記憶している。アプリケーションは、プロセッサによって実行されたときにユーザに提示するためのコンテンツを生成する命令群である。アプリケーションによって生成されたコンテンツは、VRヘッドセット105またはVR入力インタフェース140の動きを介してユーザから受信した入力に応答し得る。アプリケーションの例としては、ゲームアプリケーション、会議アプリケーション、ビデオ再生アプリケーション、または他の適切なアプリケーションが含まれる。
トラッキングモジュール150は、1つまたは複数の較正パラメータを使用してVRシステム100を較正し、VRヘッドセット105の位置の判定の誤差を削減するために1つまたは複数の較正パラメータを調整し得る。例えば、トラッキングモジュール150は、撮像デバイス135の焦点を調節して、VRヘッドセット105上の観測されたロケータのより正確な位置を得る。さらに、トラッキングモジュール150によって実施される較正は、IMU130から受信した情報も考慮に入れる。また、VRヘッドセット105のトラッキングが失われた場合は(例えば、撮像デバイス135が少なくとも閾値数のロケータ120の視線を失う場合)、トラッキングモジュール140は、一部または全体のシステム環境100を再較正する。
トラッキングモジュール150は、撮像デバイス135からの低速較正情報を使用してVRヘッドセット105の動きをトラッキングする。トラッキングモジュール150は、低速較正情報からの観測されたロケータおよびVRヘッドセット105のモデルを使用して、VRヘッドセット105の基準点の位置を判定する。トラッキングモジュール150はまた、高速較正情報からの位置情報を使用してVRヘッドセット105の基準点の位置を判定する。さらに、いくつかの実施形態では、トラッキングモジュール150は、高速較正情報、低速較正情報、またはそれらのいくつかの組合せ、の一部を使用して、ヘッドセット105の将来の位置を予測し得る。トラッキングモジュール150は、VRヘッドセット105の推定または予測された将来の位置をVRエンジン155に提供する。
VRエンジン155は、システム環境100内でアプリケーションを実行し、トラッキングモジュール150から、VRヘッドセット105の位置情報、加速度情報、速度情報、予測された将来の位置、またはそれらのいくつかの組合せを受信する。受信した情報に基づいて、VRエンジン155は、ユーザへの提示用にVRヘッドセット105に提供するコンテンツを決定する。例えば、受信した情報が、ユーザが左を見たことを示す場合、VRエンジン155は、仮想環境でユーザの動きをミラーリングする、VRヘッドセット105のためのコンテンツを生成する。また、VRエンジン155は、VR入力インタフェース140から受信したアクション要求に応答してVRコンソール110上で実行するアプリケーション内でアクションを実施し、アクションが実施されたというフィードバックをユーザに提供する。提供されるフィードバックは、VRヘッドセット105を介した視覚的もしくは聴覚的フィードバック、またはVR入力インタフェース140を介した触覚フィードバックであり得る。
図2Aは、一実施形態による、VRヘッドセットの図である。VRヘッドセット200は、VRヘッドセット105の一実施形態であり、前部剛体205およびバンド210を含む。前部剛体205は、電子ディスプレイ115(図2Aには図示せず)、IMU130、1つまたは複数の位置センサ125、およびロケータ120を含む。図2Aに示す実施形態では、位置センサ125は、IMU130内に配置され、IMU130も位置センサ125もユーザには見えない。
ロケータ120は、互いに対しておよび基準点215に対して前部剛体205上の固定位置に配置されている。図2Aの例では、基準点215は、IMU130の中心に配置されている。ロケータ120はそれぞれ、撮像デバイス135によって検出可能な光を放射する。ロケータ120、またはロケータ120の一部は、図2Aの例の前部剛体205の前方側220A、上面側220B、底面側220C、右側220D、および左側220Eに配置されている。
図2Bは、図2Aに示すVRヘッドセット200の実施形態の前部剛体205の断面図225である。図2Bに示すように、前部剛体205は、変更された画像光を射出瞳250に提供する光学ブロック230を含む。射出瞳250は、ユーザの眼245が配置された前部剛体205の位置である。説明の目的のために、図2Bは、片方の眼245に関する断面図225を示しているが、光学ブロック230とは別個の、もう1つの光学ブロックが、ユーザのもう片方の眼に、変更された画像光を提供する。
光学系ブロック230は、電子ディスプレイ115の電子ディスプレイ要素235、光学ブロック118、および視線追跡ユニット260を含む。電子ディスプレイ要素235は、光学ブロック118に向けて画像光を放射する。光学ブロック118は、画像光を拡大し、いくつかの実施形態においては、1つまたは複数の付加的な光学誤差(例えば、歪曲、非点収差等)も補正する。光学ブロック118は、画像光をユーザに提示するために射出瞳250に導く。
VRヘッドセット200は、視線追跡ユニット260(例えば、図1の視線追跡システム160の視線追跡ユニット)を含む。視線追跡ユニット260は、光源および光学センサを含む。一実施形態において、図2Bに示すように、視線追跡ユニット260は、2つの光源262および264と、各眼球用の光学センサ266とを含む。視線追跡ユニット260の光源および光学センサは、眼球モデルを生成するために必要なデータ処理を行う制御モジュール(図2Bには図示せず)に結合される。制御モジュールは、VRヘッドセット105および/またはVRコンソール110内に配置される。また、いくつかの実施形態において、ユーザの左眼用の少なくとも1つの視線追跡ユニット260と、ユーザの右眼用の少なくとも1つの視線追跡ユニット260と、がある。
光源262および264ならびに光学センサ266は、ユーザの眼球の角膜球追跡に使用される。視線追跡ユニット260は、光学センサ266(例えば、カメラ)が眼球の動きの範囲にわたってユーザの眼球(および特に眼球の角膜)の画像を取り込むことができるように、光学系ブロック230内に配置される。光源262および264は光を放射し、放射された光をユーザが見ている間に、放射された光がユーザの眼球から反射すると、光学センサ266がユーザの眼球の1つまたは複数の画像を取り込む。視線追跡ユニット260は、光源262および264から放射された光が光学ブロック118を介してユーザの眼球に到達するように、光学系ブロック230内に配置される。視線追跡ユニット260は、ユーザの視野に沿って軸上に(例えば、図2Bに示すように)配置されてもよいし、またはユーザの視野から軸外に(例えば、光学ブロック118の左側に)配置することもできる。例示的な角膜球追跡システムは、図3に関連してさらに後述する。
眼球モデル生成のための視線追跡システム
図3は、一実施形態による、例示的な視線追跡システム300を示す。いくつかの実施形態において、視線追跡システム300は、VRヘッドセット105の視線追跡システム160の一部である。代替の実施形態において、視線追跡システム300は、何らかの他のデバイス(例えば、ARシステムのヘッドアップディスプレイ、または視線追跡を利用する何らかの他のシステム)の一部である。視線追跡システム300は、他のコンポーネントの中でも特に、視線追跡ユニット360および制御モジュール370を含む。簡略化のために、視線追跡システム300についての説明は、ユーザの単一の眼球に関したものである。しかし、いくつかの実施形態においては、対応する視線追跡ユニット360がユーザの眼球のそれぞれに対して使用されてもよい。そのような実施形態においては、単一の制御モジュール370が複数の視線追跡ユニット360を制御してもよい。
視線追跡ユニット360は、他のコンポーネントの中でも特に、2つ以上の光源(例えば、光源362および364)ならびに1つまたは複数の光学センサ(例えば、光学センサ366)を含む。視線追跡ユニットの光源(例えば、点光源)および光学センサ(例えば、カメラ)は、角膜球追跡に、およびユーザがVRヘッドセット105を装着している間にユーザの眼球モデルを特定するために使用される。光源362および364は、理想的な点光源のような周知の発光特性を有する。一実施形態において、2つの光源が使用される。あるいは、3つ以上の光源、例えばリング状の光源が使用される。例えば、リング状の光源は、基準点(例えば、HMDの入射瞳の位置または基準点215)に対して同一の二次元平面に、または任意の位置に配置することができる。一実施形態において、光源はユーザの視線の外側に配置することができる。基準点から任意に配置された光源は、視線追跡の精度を向上させるために、基準点から様々な深度で、および/または光源間の不均一な間隔で配置することができる。
いくつかの実施形態において、2つ以上の光源は、いずれかの光源か、すべての光源か、または光源間で異なる特性を備える。例えば、2つ以上の光源を起点とする光は、異なる波長か、異なる周波数または振幅(すなわち、強度が変化する)で変調されるか、異なる時点において2つの光波間の相関を表す異なる時間的コヒーレンスを有するか、時間領域または周波数領域のいずれかで多重化されるかのうちの、1つまたは複数を含むことができる。
光学センサ366は、ユーザの眼球の画像を取り込んで角膜反射を捕捉する。例えば、光学センサ366は、静止画像または動画を取り込むことができるカメラである。光学センサ366は、焦点距離、焦点、フレームレート、ISO、センサ温度、シャッタ速度、アパーチャ、解像度等のような複数のパラメータを有する。いくつかの実施形態において、光学センサ366は、高フレームレートおよび高解像度を有する。光学センサ366は、二次元画像または3D画像のいずれかを取り込むことができる。光学センサ366は、眼球に入射する光源からの光に応答する角膜反射を眼球運動の範囲(例えば、最大可動範囲)にわたって捕捉することができるように配置される。例えば、リング状の光源が眼球周辺に配置される場合、光学センサ366は、眼球に向けてリングの中心の周り(例えば、ユーザの視線内)に配置される。あるいは、光学センサ366は、ユーザの主な視線の外側に存在するように軸外に配置される。一実施形態において、複数の光学センサ366を眼球ごとに使用して、光源からの光が眼球に入射している間に眼球の角膜反射を捕捉することができる。光学センサ366は、カラムセンサ、導波路等のような、角膜反射の方向を測定することができる検出器であってもよい。
光源362および364から放射された光は角膜で反射され、その後、光学センサ366で(例えば、画像として)捕捉される。例えば、光源362および364を起点とする矢印362−Iおよび364−Iによって表される光線は、眼球に入射する。光が人間の眼球に入射すると、眼球は角膜外表面からの反射および角膜内表面からの別の反射のような複数の反射を生じる。一実施形態において、光学センサ366は、取りこまれた画像における角膜外表面からの反射光を捕捉する。例えば、矢印362−Rおよび364−Rによって表される反射光は、光学センサ366によって取り込まれた画像において捕捉される。光学センサ366は、角膜内表面からの反射光を捕捉することができる。角膜からの反射(例えば、内表面および/または外表面からの反射)は、本明細書では、角膜反射と呼ばれる。角膜球視線追跡を使用して眼球モデルを生成する例示的なプロセスを、図4に関連してさらに後述する。
制御モジュール370は、眼球モデルを生成し、光学的動作を実行する。例えば、制御モジュール370は、ユーザの一方または両方の眼球の眼球モデルを生成するために較正を行う。いくつかの実施形態において、単一の制御モジュール370は、左眼用の1つの視線追跡ユニット360および右眼用の別の視線追跡ユニット360のような複数の視線追跡ユニット360を制御することができる。
図4に関連して後述する例示的な較正プロセスは、光源362および364を点灯するステップと、ユーザがVRヘッドセット105上の既知の位置を見ている間に光学センサ366で角膜反射を含む画像を取り込むステップと、取り込まれた画像をさらに処理して眼球モデルを生成するステップと、を含む。図5に関連して後述する例示的な通常動作モードは、ユーザが通常動作モードでVRヘッドセット105上のコンテンツを見ている間に光学センサ366で角膜反射を捕捉すること、および取り込まれた画像を処理して、ユーザの注視方向を決定することのような1つまたは複数の光学的動作を実行することを含む。制御モジュール370は、VRヘッドセット105および/またはVRコンソール110に配置される。制御モジュール370は、光源362および364、ならびに光学センサ366が制御モジュール370と通信できるように、視線追跡ユニット360と結合される。
視線追跡システム300は、ユーザの眼球モデルを生成する。一実施形態において、ユーザの眼球は半径の異なる2つの球305および310としてモデル化され、球305は眼球全体(例えば、眼球の強膜表面部分)に近似する。球310の一部は、眼球の角膜に近似する。球305の中心(または原点)は点306によって表され、角膜球310の中心は点311によって表される。要素315は眼球のレンズを表す。他の実施形態において、角膜は複雑表面としてモデル化してもよい。
人間の眼球は、眼球の表面部分を表す大きな球(すなわち、球305)および眼球の角膜部分を概ね表す小さな球(すなわち、球310)を有する2つの球を使用してモデル化することができ、2つの球は異なる半径を有し、それらの中心は互いに一致しない。角膜が眼球の小さな湾曲部分のみを形成し、それ自体球ではないことは知られているが、角膜を一部の球として近似させることができる。一実施形態において、球305は約25mmの半径を有し、角膜球310は約8mmの半径を有する。球305と球310の中心は、図3に示すように互いに一致しない。ヘッドマウントディスプレイ(例えば、VRヘッドセット105)上のコンテンツを見ている時に眼球が回旋すると、眼球回旋は角膜球310の中心(すなわち点311)の対応する変位をもたらす。追跡システム300は、眼球回旋中の角膜球310の中心の動きを追跡する。いくつかの実施形態において、視線追跡システム300は、図4に関連して後述するように、ユーザの単一の眼球のモデルを生成する。生成された眼球モデルは、角膜球310の半径および原点の情報を含むが、これに限定されない眼球情報を含み、本明細書では「眼球モデル情報」と呼ばれる。眼球モデル情報は、眼球の強膜表面部分に近似する球(すなわち、球305)の半径および原点の情報を含むことができる。一実施形態において、角膜の動きは、球305の固定中心306を中心とする回旋としてモデル化することができる。他の実施形態において、球305の中心306は、角膜位置(非球面眼球形状のモデリング、眼球運動筋肉の制御、回旋下の変形等)の関数である。生成された眼球モデル情報は、システム環境100内またはシステム環境100の外部に位置するデータベースに保存される。
制御モジュール370は、保存された眼球モデルを使用して、ユーザがコンテンツを見ている間に、通常動作モードで1つまたは複数の光学的動作(例えば、ユーザの片眼または両眼の注視方向の推定)を実行する。制御モジュール370は、眼球追跡情報を眼球追跡ユニット360から眼球モデル情報とともに受信して、ユーザの注視方向、ユーザの輻輳角(または輻輳深度)、ユーザの調節深度、ユーザの識別、眼球のねじれ状態、またはそれらのいくつかの組合せ、を特定することのような光学的動作を実行する。制御モジュール370は、ハードウェア、ソフトウェア、またはそれらのいくつかの組み合わせのいずれかで実施することができる。
図4は、一実施形態による、視線追跡システム(例えば、図3の視線追跡システム300)を使用して眼球モデルを生成するための例示的な較正プロセス400のフロー図である。図4の例示的な較正プロセス400は、例えば、VRヘッドセット105および/またはVRコンソール110、あるいは何らかの他のシステム(例えば、ARシステム)の一部としての視線追跡システム300によって実行されてもよい。他の実施形態において、他のエンティティがプロセスの一部または全部のステップを実行してもよい。同様に、実施形態は、異なるステップおよび/または付加的なステップを含むことができるか、または異なる順序でステップを実行することができる。図4の例示的なプロセスは、ユーザの眼球の一方の眼球モデルを生成するものであり、ユーザの他方の眼球の眼球モデルを特定するために(同時にまたは逐次に)実施されることも可能である。例示的なプロセスは、眼球モデリングのための2つの光源および1つの光学センサを使用して説明される。眼球モデルは、3つ以上の光源および/または2つ以上の光学センサを使用して生成することができる。
視線追跡システム300は、例えば光学センサ(例えば、光学センサ366)に対して既知の位置に配置された2つの光源(例えば、光源362および364)を点灯することによってユーザの眼球を照明する(410)。これらの光源は、眼球の角膜が光を反射するようにユーザの眼球に入射する光を放射する。
視線追跡システム300は、ユーザの眼球に入射する光の角膜反射を、1つまたは複数の画像として捕捉する(420)。一実施形態において、視線追跡システム300は、角膜反射の単一の画像を取り込む。あるいは、視線追跡システム300は、ユーザが一連の既知のターゲット(例えば、電子ディスプレイ235上の特定点)を注視する際に、角膜反射の複数の画像を取り込む。
視線追跡システム300は眼球モデルを生成し、眼球モデルは、角膜球310の半径および原点の情報を含む。既知の位置にある2つの光源を起点とする光の角膜反射を含む、取り込まれた1つまたは複数の画像によって、取り込まれた画像のデータに適合する単一の角膜半径および角膜球の原点がもたらされる。一実施形態において、視線追跡システム300は、基準眼球を利用する学習モデルの使用によって眼球モデルを生成する。本明細書で言及される基準眼球は、角膜球(例えば、球310)および眼球の強膜表面部分を表す球(例えば、球305)のそれぞれについて既知の半径および原点の情報を含む基準眼球モデルによる眼球である。学習モデルは、人間の眼球運動の範囲を模倣するために基準眼球を回旋させながら基準眼球の角膜反射を捕捉することを含む。学習モデルは、基準眼球の様々な動きと基準眼球の角膜反射との関連を含み、このような関連は、ユーザの眼球の眼球モデルを生成するために使用される。例えば、ステップ420で捕捉されたユーザの眼球の角膜反射は、基準眼球の角膜反射と比較されて、眼球モデルのためのさまざまなパラメータ(例えば、半径および原点)をユーザの眼球の角膜球310に外挿する。このような例においては、ユーザの眼球モデルの半径および原点の情報を推定するために、学習モデルの基準眼球モデルの半径および原点の情報が外挿される。眼球モデルの半径および原点を推定する例示的な方法を後述する。
視線追跡システム300は、少なくとも2つの光源の角膜反射を含む取り込まれた画像に基づいて、角膜球310の半径を特定する(430)。各画像は、角膜半径および角膜位置の推定値を導出するための十分な情報を提供する。いくつかの実施形態において、眼球モデルは、固定された半径の角膜球のみを含むことができる。次いで、適切な統計モデルを使用して一連のフレームにわたる推定値を結合することによって、角膜半径推定値を精緻化することができる。例えば、角膜半径のサンプルは、一連の画像にわたる平均値について正規分布を形成することができる。一連の画像が、平均値付近の分散が小さく外れ値が少ない一組の推定値を提供する場合、角膜半径は、これらのサンプルの平均値であると仮定することができる。3つ以上の光源を用いる実施形態において、2つの光源の各セットによって予測された角膜半径の差を使用して、角膜表面の非球面モデル(例、b−スプライン面、多項式面等)の情報を提供することができる。さらに他の実施形態において、一連のフレームで予測された角膜半径の差が、フレームごとの予測された注視方向と結合されて、複雑な角膜モデルの情報を提供することができる。これらのシステムにおいて、角膜は、基準原点311および方向によって定義される。
視線追跡システム300は、眼球回旋の実効中心306および、眼球回旋中心と角膜中心とを隔てる距離(例えば、中心306と中心311との間の距離)を特定する。一実施例において、眼球中心306は固定点であると仮定することができる。このシステムにおいて、ユーザには基準位置から既知の角度オフセットで提示される電子ディスプレイ要素235上の視覚ターゲットが提示されてもよい。例えば、ターゲットは、歪曲補正されたHMDの仮想レンダリング空間において、所望の角度偏差で無限遠に近づく距離に配置されてもよい。歪曲補正された仮想レンダリング空間は、HMDのユーザに対する電子ディスプレイ要素235上のコンテンツのコンピュータが生成した3D表現であり、表示されたコンテンツは歪曲に基づく光学誤差が補正される。視線追跡システム300は、ユーザがこれらの較正ターゲットのそれぞれの方を注視する間に、角膜球の位置を特定し記録する(440)。このシステムは、眼球中心306から角膜中心311を通るベクトルに沿って位置するようにユーザの視線をモデル化することができる。眼球中心306の位置およびHMDの仮想レンダリング空間に対する眼球の向きは、306から311までの距離が変化しないという仮定を最もよく満足し、かつ306から記録された角膜中心311への視線ベクトルが、提示されたターゲットの角度オフセットと最も一致する点306および向きとして推測することができる。正確な眼球中心306は、角膜位置(および/またはより複雑なモデルにおける角膜の向き)の関数としてモデル化することができる。さらに他の実施形態において、眼球中心306を使用して、注視方向が特定され、かつ球面眼球モデルから生理学的偏位がモデル化される。
眼球モデルを使用したユーザの注視方向の特定
図5は、一実施形態による、既知の眼球モデルを使用してユーザの注視方向を特定する例示的なプロセスのフロー図である。図5の例示的なプロセス500は、例えば、VRヘッドセット105および/またはVRコンソール110あるいは何らかの他のシステム(例えば、ARシステム)の一部としての視線追跡システム300によって実行されてもよい。他の実施形態において、他のエンティティがプロセスの一部または全部のステップを実行してもよい。同様に、実施形態は、異なるステップおよび/または付加的なステップを含むことができるか、または異なる順序でステップを実行することができる。例示的なプロセス500は、システムが1つまたは複数の眼球モデルに部分的に基づいてユーザの眼球の動きを追跡する、視線追跡システム300の通常動作モードを説明する。
視線追跡システム300は、角膜球310の半径および原点の情報を含む眼球モデル情報を取得する(510)。一実施形態において、視線追跡システム300は、視線追跡システム300内から眼球モデル情報を取得する(例えば、図4に関連して上述したように、視線追跡システム300は眼球モデルを生成する)。あるいは、視線追跡システム300は、視線追跡システム300の外部の眼球モデル情報を取得する(例えば、VRコンソール110またはシステム環境100の外部)。
視線追跡システム300は、例えば光学センサ(例えば、光学センサ366)に対して既知の位置に配置された2つの光源(例えば、光源362および364)を点灯することによって、ユーザの眼球を照明する(520)。これらの光源は、眼球の角膜が光を反射するようにユーザの眼球に入射する光を放射する。
視線追跡システム300は、視聴者がHMD(例えば、VRヘッドセット105、ARヘッドセット、または視線追跡を使用する何らかの他のシステム)上のコンテンツを見ている間に、ユーザの角膜(すなわち角膜反射)の1つまたは複数の画像を取り込む(530)。一実施形態において、視線追跡システム300は角膜反射の単一の画像を取り込み、角膜反射は2つ以上の光源からの光の反射を含む。あるいは、視線追跡システム300は角膜反射の複数の画像を取り込み、角膜反射は2つ以上の光源からの光の反射を含む。
視線追跡システム300は、取り込まれた画像の角膜反射データを使用してユーザの注視方向を特定する(540)。一実施形態において、視線追跡システム300は、角膜半径および原点の情報を含む取得した眼球モデル情報を使用して角膜反射データを外挿する。例えば、視線追跡システム300は、導出された眼球中心306から角膜球310の中心311を通る光線を投射することによって、ユーザが電子ディスプレイ235上で注視している特定点の位置データを特定する。この光線の原点および方向は、導出された眼球の向きを使用して、HMDの歪曲補正された仮想レンダリング空間の3D座標空間に変換される。
いくつかの実施形態において、視線追跡システム300は、ユーザの注視方向を特定することに加えて、またはそれに代えて、他の光学的動作を実行する。他の光学的動作は、例えば、ユーザの輻輳角(または輻輳深度)、ユーザの調節深度、ユーザの識別、眼球のねじれ状態、またはそれらのいくつかの組み合わせを特定することを含む。例示的な光学的動作のいくつかには、光学的動作を実行するためにユーザの眼球両方の捕捉された角膜反射データを必要とする場合があり、例示的なプロセス500の1つまたは複数のステップは、そのような光学的動作を実行するために、ユーザの他方の眼球に対して(同時にまたは逐次に)さらに実行されてもよい。
一回限りの単一点較正
図6は、一実施形態による、視線追跡システム(例えば、視線追跡システム600)によって実行されるHMDシステム(例えば、VRヘッドセット105を含むVRシステム100)のための例示的な一回限りの単一点較正を示す。図6に示され説明された視線追跡システム600は、図3に関連して上述した視線追跡システム300の実施形態である。図6において、視線追跡システム600は、視線追跡ユニット360および制御モジュール670を含む。ここで、制御モジュール670は、図3に関連して上述した制御モジュール370の実施形態である。図6の例示的な較正システムは、ユーザの眼球の1つの較正について説明する。1つまたは複数の他の実施形態において、図6の例示的な較正システムは、ユーザの他方の眼球を(同時にまたは逐次に)較正することも可能である。いくつかの実施形態において、較正プロセスは、各眼球の瞳孔軸を特定すること、および/または瞳孔軸と眼球の真の視線との間の角度のずれを特定することを含む。いくつかの実施形態において、HMDシステムの較正は、単一のユーザの眼球の画像に基づいており、1回のみ実行される。例えば、較正は、ユーザがVRヘッドセット105を装着した最初の時点で実行され、VRヘッドセット105は、ユーザに対応する較正データを同一ユーザによる将来の使用のためにメモリに保存する。
図6は、異なる半径の2つの球305および310としてモデル化されたユーザの眼球を示す。球305は眼球の強膜表面部分に近似し、球310の一部は眼球の角膜に近似する。球305の中心は点306によって表され、角膜球310の中心は点311によって表される。図6において、要素315は眼球のレンズを表し、要素616は眼球の瞳孔を表す。すなわち、要素616は、光が網膜に当たることを可能にする眼球の虹彩中央の円形開口部を表す。図6はまた、要素616が存在する3D平面615と、角膜球310の角膜表面610に垂直であって3D平面615を起点とする光線620とを示す。光線620は、眼球の瞳孔軸を表し、図6に関連して後述する較正プロセスによって特定される。
制御モジュール670は、HMDシステムの較正を実行する。較正は、瞳孔が存在する3D平面および眼球の瞳孔軸を特定することを含む。本明細書で説明される3D平面は、瞳孔が存在する3D空間の平面である。3D空間は、例えば光学センサ366の位置のような基準点に対して定義される。較正は、角膜反射を有する眼球の画像を取り込むことと、取り込まれた画像を処理して、カメラから軸外に回旋した眼球の屈折力のある角膜を通して瞳孔を見る場合に、(眼球の軸上の観察位置における)円から複雑な形状までに及び得る瞳孔の形状を識別することとを含む。例えば、瞳孔の形状は、眼球の瞳孔および虹彩に関連する、1つまたは複数の光波長における反射強度の変化を調べることによって、瞳孔(典型的には黒色)と虹彩(典型的には、茶色、ヘーゼル、緑色、灰色、または青色のいずれか、あるいはそれらのいくつかの組み合わせ)との間の境界を特定することによって識別することができる。識別された瞳孔の形状および眼球モデル情報を使用して3D平面が特定される。
一実施形態において、瞳孔の3D平面は、眼球の軸上の観察位置からの眼球回旋の予測量に基づいて識別された瞳孔の形状を修正することによって識別される。図2Bに関連して上述したように、瞳孔の形状は、眼球の軸上の観察位置において円である。眼球回旋の予測量を特定する例示的な方法は、瞳孔の学習モデルに基づいており、基準眼球モデルによる基準眼球(すなわち、図3に関連して上述した基準眼球および基準眼球モデル)の瞳孔の形状は、人間の眼球運動の範囲を模倣するために眼球を回旋させながら捕捉される。基準眼球の様々な動きと識別された瞳孔の形状(例えば、様々な種類の楕円)との間の関連を学習することによって、ユーザの瞳孔の3D平面により、ユーザがVRヘッドセット105のコンテンツを見ている間に捕捉される任意の瞳孔の形状について推定することができる。一実施形態において、識別された3D平面は、瞳孔の学習モデルで使用される基準眼球モデルと、取得されたユーザの眼球の眼球モデルとの間の差を考慮するように修正される。例えば、瞳孔学習モデルで使用される基準眼球モデルの角膜球の半径および原点と、取得されたユーザの眼球モデルの角膜球の半径および原点とを比較して、瞳孔の識別された3D平面の位置を修正する。
いくつかの実施形態において、制御モジュール670は、特定された瞳孔軸(すなわち、光線620によって識別された瞳孔軸)と、眼球の中心窩領域の位置によって表されるユーザの真の視線との間の角度のずれを特定する。図6において、眼球の中心視の中心位置(例えば、中心窩領域)は点630で表され、眼球の真の視線は中心窩630の中心と要素616とを結ぶ線635で表される。眼球の中心窩は、眼球の真の視線(高精細な中心視覚または中心視とも呼ばれる)に関与する。中心窩は、眼球内の小さな、密集した錐体で構成された中心部のくぼみであり、網膜上に位置する。瞳孔軸620と眼球の真の視線との間に角度のずれがあるのは、瞳孔軸620を網膜まで後方に延長した場合、中心窩の位置が瞳孔軸620と一致しないためである。
瞳孔軸620および補正角度は、HMDシステムの較正中に特定することができる。一実施形態において、ユーザは、VRヘッドセット105のディスプレイを介して既知の方向でユーザに提示されるターゲットを注視するように求められる。ユーザがターゲットを注視している間に、瞳孔の形状を捕捉するために、ユーザの眼球の1つまたは複数の画像が取り込まれる。ユーザの眼球の位置が既知であり(例えば、角膜球の半径および原点を有する眼球モデル情報、ならびに/または瞳孔位置を提供する3D平面および瞳孔軸)、かつ提示されたターゲットの方向も既知であることから、ターゲットを見ている間のユーザの視線は特定される。例えば、ユーザの視線は、ターゲット方向に平行な線、およびHMDの座標系を基準とする光学センサ366の位置のような基準点に対する3D空間における既知の瞳孔位置とによって特定される。
制御モジュール670は、瞳孔学習モデルおよびユーザの眼球モデル情報(例えば、図4に関連して上述したように生成されたユーザの眼球モデル)を使用することによって、ユーザの眼球が行うであろう、軸上の位置(すなわち、光学センサ366の所与の位置の光学センサ366で円形の瞳孔の形状となる眼球位置)からディスプレイ上のターゲットを見る位置への予測回旋量を推定する。ユーザがターゲットを注視する間に取り込まれた瞳孔の1つまたは複数の画像から、瞳孔の形状が識別される(例えば、楕円形)。基準眼球の瞳孔学習モデルを使用して、制御モジュール670は、識別された瞳孔の形状について基準眼球の予測回旋量を推定する。次いで、制御モジュールは、基準眼球モデルとユーザの眼球モデルとの間の差を組み入れるために予測回旋量に補正係数を適用する。次いで、補正された予測眼球回旋量をユーザの眼球の瞳孔軸620に適用し、ユーザがターゲットを注視しているときの状況に対応する修正された瞳孔軸の位置を特定する。ユーザがターゲット位置を注視しているときの修正された瞳孔軸とユーザの視線との間の角度デルタは、瞳孔軸620と眼球の真の視線との間の角度のずれを表す。瞳孔軸および/または瞳孔軸とユーザの真の視線との間の角度のずれの特定を含む、HMDシステムを較正する例示的なプロセスを、図6を参照して後述する。
図7は、一実施形態による、HMDシステム(例えば、VRヘッドセット105を含むVRシステム環境100またはARヘッドセットを含むARシステム)の一回限りの単一点較正の例示的なプロセス700のフロー図である。図7の例示的な較正プロセス700は、例えば、VRヘッドセット105および/またはVRコンソール110、あるいは何らかの他のシステム(例えば、ARシステム)の一部としての視線追跡システム600によって実行されてもよい。他の実施形態において、他のエンティティがプロセスのステップの一部または全部を実行してもよい。同様に、実施形態は、異なるステップおよび/または付加的なステップを含むことができるか、または異なる順序でステップを実行することができる。図7の較正プロセスは、ユーザの眼球の一方に関してHMDシステムを較正するためのものであり、ユーザの他方の眼球に関してHMDシステムを較正するために(同時にまたは逐次に)実施することもできる。いくつかの実施形態において、較正プロセス700は1回のみ実行される。例えば、較正プロセス700は、ユーザがVRヘッドセット105を装着した最初の時点で実行され、VRヘッドセット105は、ユーザに対応する較正データを同一ユーザによる将来の使用に利用するためにメモリに保存する。
視線追跡システム600は、ユーザの眼球の角膜球310の半径および原点の情報を含む眼球モデル情報を取得する(710)。一実施形態において、視線追跡システム600は、視線追跡システム600内から眼球モデル情報を取得する(例えば、図4に関連して上述したように、視線追跡システム300は眼球モデルを生成する)。あるいは、視線追跡システム600は、視線追跡システム600の外部(例えば、VRコンソール110またはシステム環境100の外部)から眼球モデル情報を取得する。
視線追跡システム600は、例えば光学センサ(例えば、光学センサ366)に対して既知の位置に配置された2つの光源(例えば、光源362および364)を点灯することによってユーザの眼球を照明する(720)。これらの光源は、眼球の角膜が光を反射するようにユーザの眼球に入射する光を放射する。
視線追跡システム600は、ユーザの角膜(すなわち、角膜反射)の1つまたは複数の画像を取り込む(730)。角膜反射を捕捉した画像は、図4に関連して上述した画像と極めて類似する。一実施形態において、視線追跡システム600は、1つまたは複数の画像を取り込む(730)。1つまたは複数の実施形態において、画像は、ユーザが1つまたは複数の既知のターゲット(例えば、電子ディスプレイ235上の特定点)を注視している間に取り込まれる。例えば、単一点較正の実行は、ユーザが電子ディスプレイ235上の1つの特定ターゲットを注視するだけでよい。あるいは、システム600は、ユーザが通常動作モードでVRヘッドセット105に表示されたコンテンツを見ているときに画像を取り込む。
視線追跡システム600は、取り込まれた1つまたは複数の画像に基づいて、眼球の要素616の形状を識別する(740)。眼球がコンテンツを視聴しており光学センサ366が軸上にある(すなわち、眼球の瞳孔軸620に沿う)とき、瞳孔の形状は光学センサ366によって取り込まれた画像において円として捕捉される。眼球がコンテンツを視聴しており光学センサ366が軸外にある(すなわち、眼球の瞳孔軸620に沿わない)とき、瞳孔の形状は楕円に近似する。一実施形態において、瞳孔の形状は、単一の取り込まれた画像を処理することによって識別される。例えば、眼球の瞳孔および虹彩に関連する様々な波長の光の反射強度の変化を調べることにより、瞳孔と虹彩との間の境界を特定することによって、瞳孔の形状を識別することができる。瞳孔は典型的には黒色であり、虹彩は、典型的には、茶色、ヘーゼル、緑色、灰色、または青色のうちの1つである。瞳孔が虹彩領域内の開口部であることから、瞳孔の形状は、黒い瞳孔と、虹彩領域に関連する1つまたは複数の光波長における異なる反射強度との間の境界を観察することによって識別することができる。あるいは、瞳孔の形状は、複数の取り込まれた画像に対応する拡散光を処理することによって識別される。
一実施形態において、識別された瞳孔の形状は、角膜の屈折による歪曲を補正するように修正される。例えば、角膜の屈折による歪曲の補正は、最初は典型的な人間の眼球に基づいて(例えば、経験的データに基づいて)実施することができ、その後、特定のユーザの眼球についてより正確に学習することができる。いくつかの実施形態において、角膜は、人間の角膜の典型的な屈折率(例えば、1.377)を有する球に近似することができる。瞳孔の3D平面615は、角膜表面610の後方の典型的な距離(例えば、3mm)に位置すると仮定することができる。角膜球310の半径および角膜球310までの距離は、図3、図4および図5に関連して上述したプロセスを介して知ることができる。要素616のエッジ上にあると特定された画像平面の所与の点に関して、既知の形状、距離、および仮定された屈折率の角膜によって屈折されたときに、この点を通過する光線を検出することができる。屈折された光線は、その後、実際の瞳孔境界の位置で平面615によって示される瞳孔に当たるまで、さらに仮定された距離を進む。他の実施形態において、角膜屈折率および瞳孔平面までの距離は、較正中に測定されるか、または使用経過にわたって学習されてもよい。
視線追跡システム600は、カメラの歪曲および角膜の屈折によって引き起こされる画像センサ空間内の瞳孔エッジ形状の収差をまず補正すること、次いで静止時の瞳孔の形状(例、円)を得るための平面上の最良の投影を検出することによって、瞳孔が存在する平面615を識別する(750)。
視線追跡システム600は、眼球の瞳孔軸(例えば、瞳孔軸620)を特定し、瞳孔軸620は、平面615を起点とし、かつ眼球の角膜球310の表面に垂直である光線を識別することによって導出される(760)。瞳孔の3D平面(例えば、線615によって表される平面)は、角膜球の中心(例えば、点311)からずれているため、瞳孔の3D平面を起点とし、かつ眼球の角膜球310の表面に垂直である単一の光線が存在する。
一実施形態において、特定された瞳孔軸620は、瞳孔軸620と、眼球の中心窩領域の中心630の位置によって表される眼球の真の視線との間の角度のずれを特定するために使用される。角度のずれを特定する1つの例示的な方法は、ユーザにVRヘッドセット105のディスプレイ上の既知の位置に配置されたターゲットを注視するように求め、その後、瞳孔軸(すなわち、提示されたターゲットを注視するときにユーザの眼球が受ける予測回旋量を調整した瞳孔軸620)と提示されたターゲットへの視線との間の角度デルタを測定するものである。測定された角度デルタは、瞳孔軸620と眼球の真の視線との間の角度のずれを表す。
視線追跡システム600は、特定された瞳孔軸620および/または角度のずれに部分的に基づいて、1つまたは複数の光学的動作を実行する(770)。例示的な光学的動作は、ユーザの注視方向、ユーザの輻輳角(または輻輳深度)、ユーザの調節深度、ユーザの識別、および眼球のねじれ状態、またはそれらのいくつかの組み合わせを特定することを含む。例えば、ユーザが注視している場所(すなわち、ユーザの視線)の特定は、ユーザが特定方向を見ている間の瞳孔の画像を取り込むことによって行うことができる。上述したように、視線追跡システム600は、取り込まれた瞳孔画像と瞳孔学習モデルの画像の瞳孔とを比較することができ、取得した眼球モデル情報を使用してユーザの視線を推定することができる。ユーザの識別および眼球のねじれ状態のような他の例示的な動作は、眼球の虹彩を追跡することによって、特定することができる。例えば、ユーザの虹彩を(例えば、1つまたは複数の眼球について)画像に取り込むことができ、(例えば、VRヘッドセット105、VRコンソール110、またはクラウドの)メモリに保存することができる。保存された虹彩画像は、その後、取り込まれた虹彩画像と比較することによってユーザを識別するために、将来使用することができる。例示的な光学的動作のいくつかは、光学的動作を実行するために、ユーザの眼球両方の捕捉された角膜反射のデータおよび/または較正データ(例えば、瞳孔軸および/または真の視線に対する角度のずれ)を必要とする場合があり、そのような光学的動作を実行するために、例示的なプロセス400、500および/または700の1つまたは複数のステップをユーザの他方の眼球に対して(同時にまたは逐次に)実施することができる。
追加構成情報
実施形態の前述の説明は、例示の目的のために提示されており、網羅的であること、または、開示された正確な形態に特許権を限定することを意図するものではない。関連技術の当業者は、上記の開示に照らして多くの修正および変形が可能であることを理解することができる。
本明細書で使用される言語は、主として読みやすさおよび説明を目的として選択されており、本発明の主題を線引きまたは画定するように選択されていない可能性がある。したがって、特許権の範囲は、この詳細な説明によってではなく、むしろ、これに基づいて本願について発行される任意の特許請求の範囲によって限定されるものである。したがって、実施形態の開示は、特許権の範囲を例示することを意図しているが、以下の特許請求の範囲に規定される特許権の範囲を限定するものではない。

Claims (29)

  1. HMD(ヘッドマウントディスプレイ)であって、
    視線追跡システムを備え、該視線追跡システムは、
    ユーザの眼球を照明するように構成された2つ以上の光源と、
    前記ユーザの眼球の角膜から反射した光を含むユーザの眼球の1つまたは複数の画像を捕捉するように構成された検出器と、
    制御モジュールと、を含み、該制御モジュールは、
    前記ユーザの眼球の捕捉された1つまたは複数の画像に基づいて前記ユーザの眼球のモデルを生成し、生成されたモデルが、前記ユーザの眼球の強膜表面部分に近似する第1の球と、前記ユーザの角膜に近似する第2の球とを含み、
    生成された前記ユーザの眼球のモデルに部分的に基づいて光学的動作を実行するように構成されている、HMD。
  2. 前記検出器が前記角膜から反射した光に基づいて前記2つ以上の光源の1つまたは複数の画像を捕捉することができるように、前記2つ以上の光源が互いに対して位置決めされる、請求項1に記載のHMD。
  3. 前記2つ以上の光源が電子ディスプレイの一部である、請求項1に記載のHMD。
  4. 前記2つ以上の光源のそれぞれが、異なる波長の光を放射するように構成される、請求項1に記載のHMD。
  5. 前記2つ以上の光源のそれぞれによって放射される光が、異なる周波数および異なる振幅で変調される、請求項1に記載のHMD。
  6. 前記2つ以上の光源がリングパターンを形成する、請求項1に記載のHMD。
  7. 前記検出器が、前記ユーザの眼球の複数の画像を捕捉することができる光学センサである、請求項1に記載のHMD。
  8. 前記制御モジュールが、
    前記ユーザの眼球の前記1つまたは複数の捕捉された画像を受信し、該画像は1つまたは複数の角膜反射を含み、
    前記第1の球に関連する半径および原点、ならびに前記第2の球に関連する半径および原点を含む前記眼球のモデルを生成し、
    生成されたモデルを前記HMDに関連付けられたデータベースに保存するようにさらに構成されている、請求項1に記載のHMD。
  9. 前記制御モジュールが、前記第1の球に関連する前記原点を中心とする回旋として角膜の動きをモデル化するようにさらに構成される、請求項8に記載のHMD。
  10. 前記制御モジュールが、
    基準眼球の学習モデルを読み込み、前記学習モデルは、前記基準眼球の1つまたは複数の動きと前記基準眼球に関連する角膜反射との間の関連を含み、
    前記ユーザの眼球の画像を捕捉し、1つまたは複数の画像は、1つまたは複数の角膜反射を含み、
    前記基準眼球の前記1つまたは複数の角膜反射と捕捉された画像に関連する前記角膜反射との間の比較に基づいて、前記眼球のモデルに関連する1つまたは複数のパラメータ値を外挿するようにさらに構成されている、請求項1に記載のHMD。
  11. 光学的動作が、ユーザの輻輳角を特定することと、ユーザの調節深度を特定することと、前記ユーザを識別することと、眼球のねじれ状態を特定することと、またはそれらのいくつかの組み合わせとから成る群から選択される、請求項1に記載のHMD。
  12. HMD(ヘッドマウントディスプレイ)であって、
    ユーザに画像を表示するように構成された電子ディスプレイと、
    前記電子ディスプレイから受信した光を拡大するように構成された光学ブロックと、
    視線追跡システムと、を備え、該視線追跡システムは、
    前記ユーザの眼球の表面を照明するように構成された2つ以上の光源と、
    前記ユーザの眼球の角膜から反射した光を含むユーザの眼球の1つまたは複数の画像を捕捉するように構成された検出器と、
    制御モジュールと、を含み、該制御モジュールは、
    前記ユーザの眼球の捕捉された1つまたは複数の画像に基づいて前記ユーザの眼球のモデルを生成し、生成されたモデルが、前記ユーザの眼球の強膜表面部分に近似する第1の球と、前記ユーザの角膜に近似する第2の球とを含み、
    生成された前記ユーザの眼球のモデルに部分的に基づいて光学的動作を実行することを決定するように構成されている、HMD。
  13. 前記検出器が前記角膜から反射した光に基づいて前記2つ以上の光源の1つまたは複数の画像を捕捉することができるように、前記2つ以上の光源が互いに対して位置決めされる、請求項12に記載のHMD。
  14. 前記2つ以上の光源が前記電子ディスプレイの一部である、請求項12に記載のHMD。
  15. 前記制御モジュールが、
    前記ユーザの眼球の捕捉された1つまたは複数の捕捉された画像を受信し、該画像は1つまたは複数の角膜反射を含み、
    前記第1の球に関連する半径および原点、ならびに前記第2の球に関連する半径および原点を含む前記眼球のモデルを生成し、
    生成されたモデルを前記HMDに関連付けられたデータベースに保存するように構成されている、請求項12に記載のHMD。
  16. 前記制御モジュールが、前記第1の球に関連する前記原点を中心とする回旋として角膜の動きをモデル化するようにさらに構成される、請求項15に記載のHMD。
  17. 前記制御モジュールが、
    基準眼球の学習モデルを読み込み、前記学習モデルは、前記基準眼球の1つまたは複数の動きと前記基準眼球に関連する角膜反射との間の関連を含み、
    前記ユーザの眼球の画像を捕捉し、1つまたは複数の画像は、1つまたは複数の角膜反射を含み、
    前記基準眼球の前記1つまたは複数の角膜反射と捕捉された画像に関連する前記角膜反射との間の比較に基づいて、前記眼球のモデルに関連する1つまたは複数のパラメータ値を外挿するようにさらに構成されている、請求項12に記載のHMD。
  18. 光学的動作が、ユーザの輻輳角を特定することと、ユーザの調節深度を特定することと、前記ユーザを識別することと、眼球のねじれ状態を特定することと、またはそれらのいくつかの組み合わせとから成る群から選択される、請求項12に記載のHMD。
  19. 方法であって、
    ユーザの眼球を2つ以上の光源からの光で照明するステップと、
    検出器において反射したユーザの眼球の1つまたは複数の画像を捕捉するステップと、1つまたは複数の画像は、前記ユーザの眼球の角膜から反射した光を含み、
    前記ユーザの眼球の捕捉された1つまたは複数の画像に基づいて前記ユーザの眼球のモデルを生成するステップと、生成されたモデルが、前記ユーザの眼球の強膜表面部分に近似する第1の球と、前記ユーザの角膜に近似する第2の球とを含み、
    生成された前記ユーザの眼球のモデルに部分的に基づいて光学的動作を実行するステップとを含む、方法。
  20. 前記検出器が前記角膜から反射した光に基づいて前記2つ以上の光源の1つまたは複数の画像を捕捉することができるように、前記2つ以上の光源が互いに対して位置決めされる、請求項19に記載の方法。
  21. 前記2つ以上の光源が電子ディスプレイの一部である、請求項19に記載の方法。
  22. ユーザの眼球を2つ以上の光源からの光で照明するステップは、ユーザの眼球を少なくとも2つの異なる波長の光で照明することを含む、請求項19に記載の方法。
  23. 前記2つ以上の光源のそれぞれによって放射される光が、異なる周波数および異なる振幅で変調される、請求項19に記載の方法。
  24. 前記2つ以上の光源がリングパターンを形成する、請求項19に記載の方法。
  25. 前記検出器が、前記ユーザの眼球の複数の画像を捕捉することができる光学センサである、請求項19に記載の方法。
  26. 前記ユーザの眼球の前記1つまたは複数の捕捉された画像を受信するステップと、該画像は1つまたは複数の角膜反射を含み、
    前記第1の球に関連する半径および原点、ならびに前記第2の球に関連する半径および原点を含む前記眼球のモデルを生成するステップと、
    生成されたモデルをHMD(ヘッドマウントディスプレイ)に関連付けられたデータベースに保存するステップとをさらに含む、請求項19に記載の方法。
  27. 前記第1の球に関連する前記原点を中心とする回旋として角膜の動きをモデル化するステップをさらに含む、請求項26に記載の方法。
  28. 基準眼球の学習モデルを読み込むステップと、前記学習モデルは、前記基準眼球の1つまたは複数の動きと前記基準眼球に関連する角膜反射との間の関連を含み、
    前記ユーザの眼球の画像を捕捉するステップと、1つまたは複数の画像は、角膜反射を含み、
    前記基準眼球の前記1つまたは複数の角膜反射と捕捉された画像に関連する前記角膜反射との間の比較に基づいて、前記眼球のモデルに関連する1つまたは複数のパラメータ値を外挿するステップとをさらに含む、請求項19に記載の方法。
  29. 光学的動作が、ユーザの輻輳角を特定することと、ユーザの調節深度を特定することと、前記ユーザを識別することと、眼球のねじれ状態を特定することと、またはそれらのいくつかの組み合わせとから成る群から選択される、請求項19に記載の方法。
JP2018545891A 2016-03-11 2017-03-10 眼球モデルを生成するための角膜球追跡 Expired - Fee Related JP6576574B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662306777P 2016-03-11 2016-03-11
US201662306758P 2016-03-11 2016-03-11
US62/306,777 2016-03-11
US62/306,758 2016-03-11
PCT/US2017/021956 WO2017156486A1 (en) 2016-03-11 2017-03-10 Corneal sphere tracking for generating an eye model

Publications (2)

Publication Number Publication Date
JP2019512726A JP2019512726A (ja) 2019-05-16
JP6576574B2 true JP6576574B2 (ja) 2019-09-18

Family

ID=59790858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018545891A Expired - Fee Related JP6576574B2 (ja) 2016-03-11 2017-03-10 眼球モデルを生成するための角膜球追跡

Country Status (5)

Country Link
EP (1) EP3329316B1 (ja)
JP (1) JP6576574B2 (ja)
KR (1) KR102062658B1 (ja)
CN (1) CN108780223B (ja)
WO (1) WO2017156486A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10424103B2 (en) * 2014-04-29 2019-09-24 Microsoft Technology Licensing, Llc Display device viewer gaze attraction
EP3540574B1 (en) * 2018-03-15 2021-08-11 HTC Corporation Eye tracking method, electronic device, and non-transitory computer readable storage medium
EP3823518B1 (en) 2018-07-16 2024-03-06 Bosch Car Multimedia Portugal, S.A. Artificial eye for calibration of an eye-tracker, eye tracking calibration system and method thereof
WO2020104027A1 (en) * 2018-11-21 2020-05-28 Telefonaktiebolaget Lm Ericsson (Publ) Calibration of mobile electronic devices connected to headsets wearable by users
EP3667462B1 (en) * 2018-12-11 2022-07-13 Tobii AB Screen position estimation
KR102187260B1 (ko) * 2018-12-18 2020-12-04 상명대학교산학협력단 영상멀미 민감도 측정 방법 및 장치
ES2926361T3 (es) * 2018-12-21 2022-10-25 Tobii Ab Calibración continua basada en características de la pupila
SE543240C2 (en) 2018-12-21 2020-10-27 Tobii Ab Classification of glints using an eye tracking system
US11042034B2 (en) * 2018-12-27 2021-06-22 Facebook Technologies, Llc Head mounted display calibration using portable docking station with calibration target
EP3906669B1 (en) 2019-03-13 2024-06-05 Hewlett-Packard Development Company, L.P. Detecting eye tracking calibration errors
CN111752383A (zh) * 2019-03-29 2020-10-09 托比股份公司 更新角膜模型
CN111757089A (zh) * 2019-03-29 2020-10-09 托比股份公司 利用眼睛的瞳孔增强调节来渲染图像的方法和系统
US10948729B2 (en) * 2019-04-16 2021-03-16 Facebook Technologies, Llc Keep-out zone for in-field light sources of a head mounted display
US11376733B2 (en) * 2019-06-11 2022-07-05 Facebook Technologies, Llc Mechanical eyeball for animatronic devices
CN112148119A (zh) * 2019-06-26 2020-12-29 托比股份公司 用于在数字图像数据中确定眼睛位置的方法、眼睛追踪器和计算机程序
US11726560B2 (en) * 2019-09-18 2023-08-15 Apple Inc. Eye tracking using eye odometers
CN112578556B (zh) * 2019-09-27 2023-02-21 托比股份公司 用于减少来自光学装置的不合需的反射的眼睛跟踪系统
TWI761930B (zh) * 2019-11-07 2022-04-21 宏達國際電子股份有限公司 頭戴式顯示裝置以及距離量測器
KR102240190B1 (ko) * 2019-11-29 2021-04-14 한국표준과학연구원 Vr 또는 ar 기기용 렌즈와 광학계 광학특성 측정시스템
CN113010125B (zh) * 2019-12-20 2024-03-19 托比股份公司 方法、计算机程序产品和双目式头戴装置控制器
KR102359602B1 (ko) * 2020-03-10 2022-02-08 한국과학기술원 디스플레이를 위한 시선 입력 방법 및 이를 수행하는 장치들
CN111738967B (zh) * 2020-05-21 2022-01-04 完美世界(北京)软件科技发展有限公司 模型生成方法和装置、存储介质和电子装置
US11940630B2 (en) 2020-05-27 2024-03-26 Sony Group Corporation Display apparatus and display method
CN111812857B (zh) * 2020-07-20 2022-01-11 上海青研科技有限公司 显示装置、方法与应用
WO2022079585A1 (en) * 2020-10-12 2022-04-21 Fove, Inc Calibration for gaze detection
US11523095B2 (en) * 2020-12-21 2022-12-06 Infineon Technologies Ag Mems mirror-based extended reality projection with eye-tracking
US20240053822A1 (en) * 2021-01-14 2024-02-15 Sony Group Corporation Image display device and image display system
KR102483010B1 (ko) * 2021-01-29 2022-12-30 원텍 주식회사 안구미세운동 측정장치
CN115128802A (zh) * 2021-03-24 2022-09-30 群创光电股份有限公司 影像的显示方法
US11815689B2 (en) 2021-04-30 2023-11-14 Semiconductor Energy Laboratory Co., Ltd. Electronic device
KR20240020960A (ko) * 2022-08-09 2024-02-16 삼성전자주식회사 시선 방향을 식별하는 전자 장치 및 그 작동 방법

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06319701A (ja) * 1993-05-11 1994-11-22 Fuji Xerox Co Ltd 視線認識装置
JP3453911B2 (ja) * 1995-03-02 2003-10-06 富士ゼロックス株式会社 視線認識装置
US5808802A (en) * 1996-11-15 1998-09-15 Daewoo Electronics Co. Ltd. Head-mounted display apparatus with a single image display device
JP2002143094A (ja) * 2000-11-07 2002-05-21 Nac Image Technology Inc 視線検出装置
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
WO2007113975A1 (ja) * 2006-03-31 2007-10-11 National University Corporation Shizuoka University 視点検出装置
US7542210B2 (en) * 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
JP5030595B2 (ja) * 2007-01-09 2012-09-19 スカラ株式会社 ヘッドマウントディスプレイ
WO2009001558A1 (ja) * 2007-06-27 2008-12-31 Panasonic Corporation ヒト状態推定装置およびその方法
JP5163982B2 (ja) * 2008-06-16 2013-03-13 国立大学法人神戸大学 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ
US8752963B2 (en) * 2011-11-04 2014-06-17 Microsoft Corporation See-through display brightness control
JP5966510B2 (ja) 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
WO2014021169A1 (ja) * 2012-07-31 2014-02-06 独立行政法人科学技術振興機構 注視点検出装置、注視点検出方法、個人パラメータ算出装置、個人パラメータ算出方法、プログラム、及びコンピュータ読み取り可能な記録媒体
US20140152558A1 (en) * 2012-11-30 2014-06-05 Tom Salter Direct hologram manipulation using imu
US9908048B2 (en) * 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
GB201310368D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
EP2821839A1 (de) * 2013-07-03 2015-01-07 Airbus Defence and Space GmbH HMD-Vorrichtung mit einstellbarer Eye-Tracking-Einrichtung
JP6138634B2 (ja) 2013-08-29 2017-05-31 アイシン・エィ・ダブリュ株式会社 ヘッドアップディスプレイ装置
KR102309257B1 (ko) * 2013-09-04 2021-10-06 에씰로 앙터나시오날 증강 현실을 위한 방법 및 시스템
EP3129849B1 (en) * 2014-04-11 2020-02-12 Facebook Technologies, LLC Systems and methods of eye tracking calibration
CN107087431B (zh) * 2014-05-09 2021-02-05 谷歌有限责任公司 用于辨别眼睛信号和连续生物识别的系统和方法
US10373592B2 (en) * 2016-08-01 2019-08-06 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information

Also Published As

Publication number Publication date
EP3329316A4 (en) 2019-03-27
WO2017156486A1 (en) 2017-09-14
CN108780223B (zh) 2019-12-20
EP3329316B1 (en) 2023-09-20
JP2019512726A (ja) 2019-05-16
EP3329316A1 (en) 2018-06-06
CN108780223A (zh) 2018-11-09
KR102062658B1 (ko) 2020-01-06
KR20180115285A (ko) 2018-10-22

Similar Documents

Publication Publication Date Title
JP6576574B2 (ja) 眼球モデルを生成するための角膜球追跡
US10614577B1 (en) Eye tracking system with single point calibration
JP6902075B2 (ja) 構造化光を用いた視線追跡
US11016301B1 (en) Accommodation based optical correction
US10257507B1 (en) Time-of-flight depth sensing for eye tracking
US10401625B2 (en) Determining interpupillary distance and eye relief of a user wearing a head-mounted display
KR102543341B1 (ko) 눈 추적 정보에 기반하는 이미지 영역에서의 적응형 파라미터
US9959678B2 (en) Face and eye tracking using facial sensors within a head-mounted display
US10109067B2 (en) Corneal sphere tracking for generating an eye model
JP2019507363A (ja) 焦点調整するバーチャルリアリティヘッドセット
JP6560463B1 (ja) ヘッドマウントディスプレイ内の顔センサを使用する顔および目のトラッキングおよび顔アニメーション
WO2019028152A1 (en) OCULAR TRACKING USING TEMPORAL MULTIPLEXING
US10430988B2 (en) Facial animation using facial sensors within a head-mounted display
US20170308160A1 (en) Off-Axis Eye Tracker
US11624907B2 (en) Method and device for eye metric acquisition
US10859832B1 (en) Mitigating light exposure to elements of a focus adjusting head mounted display
US10963046B1 (en) Drift corrected eye tracking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181203

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181203

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190507

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190820

R150 Certificate of patent or registration of utility model

Ref document number: 6576574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees