JP6586523B2 - 構造化光を用いた視線追跡 - Google Patents

構造化光を用いた視線追跡 Download PDF

Info

Publication number
JP6586523B2
JP6586523B2 JP2018516698A JP2018516698A JP6586523B2 JP 6586523 B2 JP6586523 B2 JP 6586523B2 JP 2018516698 A JP2018516698 A JP 2018516698A JP 2018516698 A JP2018516698 A JP 2018516698A JP 6586523 B2 JP6586523 B2 JP 6586523B2
Authority
JP
Japan
Prior art keywords
eyeball
structured light
light pattern
tracking unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018516698A
Other languages
English (en)
Other versions
JP2019500660A (ja
Inventor
ダニエル トレイル、ニコラス
ダニエル トレイル、ニコラス
デール キャビン、ロバート
デール キャビン、ロバート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of JP2019500660A publication Critical patent/JP2019500660A/ja
Priority to JP2019163757A priority Critical patent/JP6902075B2/ja
Application granted granted Critical
Publication of JP6586523B2 publication Critical patent/JP6586523B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Animal Behavior & Ethology (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Description

本開示は一般に、視線追跡に関し、具体的には、仮想現実及び/又は拡張現実の分野における視線追跡のための構造化光の使用に関する。
視線追跡とは、使用者の注視方向を検出するプロセスを指し、これは3次元(3D)空間内における眼球の角度方位の検出を含んでいてもよい。視線追跡は、眼球の位置(例えば、眼球の中心)、眼球の回旋(すなわち、瞳孔軸の周囲での眼球のロール)、眼球の形状、眼球の現在の焦点距離、瞳孔拡張、眼球の状態のその他の特徴、又はこれらの何れかの組合せの検出をさらに含んでいてもよい。1つの既知の視線追跡技術は、使用者のビデオ画像を撮影し、マシンビジョンアルゴリズムを使って使用者の瞳孔の方位を特定することである。しかしながら、この技術は、実質的な演算リソースを必要とし、睫毛と瞼により眼が塞がることによる影響を受けやすい。さらに、この方法は、虹彩と瞳孔との間のコントラストに依存し、これは異なる使用者間で不変ではない。それゆえ、ビデオに基づく瞳孔追跡は、特定の使用者の視線を正確に追跡することができないかもしれない。仮想現実ヘッドセット等の頭部装着型ディスプレイ(HMD : head-mounted display)に関して、この技術にはまた別の欠点もある。この追跡方法に必要な画像の撮影に使用される種類のカメラは、比較的高価で、大きい。同様に、この技術では、使用者の眼までのカメラの近さについて制約が設けられるかもしれない。さらに、この技術は、カメラが使用者の注視軸からずれた位置に置かれると、性能が低下するかもしれない。しかしながら、視線追跡がHMDで使用される場合、視線追跡システムの検出素子は小さく、眼に近く、使用者の注視軸からずれていることが好ましいかもしれない。
使用者の眼球の方位及び/又は位置を追跡するための視線追跡ユニットが記載される。視線追跡ユニットは、1つ又は複数の構造化光発光器と、1つ又は複数のカメラと、を含む。いくつかの実施形態において、視線追跡システム又はその素子は、頭部装着型ディスプレイの一部、例えば仮想現実システムの一部であってもよい。1つ又は複数の構造化光発光器は、眼を構造化光パターン(例えば、赤外線パターン)で照明する。1つ又は複数のカメラは、構造化光パターンで照明された眼の画像を撮影する(例えば、画像をビデオストリームとして撮影する)。発光器とカメラとの間の視差により、照明パターンの画像(例えば、ビデオストリームのフレーム)において歪みが生じるかもしれない。いくつかの実施形態において、視線追跡ユニットは、眼球表面のうち、構造化光が入射する部分の形状を、撮影された画像の中に見られる歪曲に基づいて検出する。検出された眼球形状をモデルと比較することに基づいて、視線追跡ユニットは眼球の方位を推定する。眼球の方位の推定は、例えば、眼球のヨー、ピッチ、及びロール回転及び眼球の並進ベクトルの測定を含んでいてもよい。いくつかの実施形態において、眼球の方位の推定は、眼球の中心窩軸の方向の推定を含む。眼球の瞳孔軸の方向を推定し、瞳孔及び中心窩軸間のずれを利用することにより、中心窩軸の方向を間接的に推定してもよい。推定された方位は、例えば注視方向、瞳孔間距離、その他の判断に使用されてもよい。
いくつかの実施形態において、視線追跡を始める前に、システムは使用者の眼球のモデルのトレーニングによって校正されてもよい。モデルのトレーニングは、電子ディスプレイを制御して、電子ディスプレイ上のある位置に視覚インディケータを表示することと、カメラによって、発光器により眼へと投射された第二の歪曲照明パターンの第二の画像を撮影すること、及び撮影された第二の画像に基づいて、及び視覚インディケータの位置に基づいてモデルをトレーニングすることを含んでいてもよい。
ある実施形態による、仮想現実システムを含むシステム環境の略図である。 ある実施形態によるHMDの略図である。 ある実施形態による、構造化光発光器とカメラを含む構造化光システムの略図である。 ある実施形態による視線追跡ユニットのブロック図である。 いくつかの実施形態による、眼球運動を追跡するためのプロセスを示すブロック図である。 いくつかの実施形態による、眼球の方位を推定するプロセスを示すブロック図である。 いくつかの実施形態による、歪曲されていない構造化光投射の1例と、構造化光パターンの5例である。
図面は、本開示の実施形態を例示の目的でのみ示している。当業者であれば以下の説明から容易にわかるように、本明細書で例示される構造と方法の代替的な実施形態も、本明細書に記載の開示の原理、又は得られる利点から逸脱せずに利用してよい。
システムの概要
図1は、仮想現実(VR : virtual reality)システム環境100のブロック図であり、その中でVRコンソール110が動作する。図1に示されるシステム環境100は、HMD 105と、イメージングデバイス135と、VR入力インタフェース140と、を含み、これらは各々、VRコンソール110に連結されている。図1は、1つのHMD 105、1つのイメージングデバイス135、及び1つのVR入力インタフェース140を含む例示的なシステム環境100を示しているが、他の実施形態では、システム環境100の中にこれらのコンポーネントがいくつ含められていてもよい。例えば、各々がそれに関連付けられるVR入力インタフェース140を有し、1つ又は複数のイメージングデバイス135によりモニタされる複数のHMD 105があってもよく、各HMD 105、VR入力インタフェース140、及びイメージングデバイス135はVRコンソール110と通信する。代替的な構成において、異なる、及び/又は追加のコンポーネントがシステム環境100内に含められてもよい。同様に、コンポーネントの1つ又は複数の機能は、本明細書に記載されているものとは異なる方法にてコンポーネント間で分散させることができる。例えば、VRコンソール110の機能の一部又は全部はHMD 105の中に含められてもよい。
HMD 105は頭部装着型ディスプレイであり、それが使用者に対してメディアを提供する。HMD 105により提供されるメディアの例には、1つ又は複数の画像、ビデオ、オーディオ、又はこれらの何れかの組合せが含まれる。いくつかの実施形態において、オーディオは、HMD 105、VRコンソール110、又はその両方から音声情報を受け取ってこの音声情報に基づいて音声データを提供する外部機器(例えば、スピーカ及び/又はヘッドフォン)を介して提供される。HMD 105のいくつかの実施形態について、図2及び3に関して後でさらに説明する。HMD 105は、1つ又は複数の硬質本体(rigid body)を含んでいてもよく、これは相互に剛体的に、又は非剛体的に結合されていてもよい。硬質本体間の剛体的結合によれば、結合された硬質本体は1つの硬質物体として機能する。これに対して、硬質本体間の非剛体的結合によれば、硬質本体は相互に関して移動できる。いくつかの実施形態において、HMD 105はまた、拡張現実(AR : augmented reality)HMDとして機能してもよい。これらの実施形態において、HMD 105は、物理的な実世界の環境の表示をコンピュータ生成要素(例えば、ビデオ、音声等)で拡張する。
HMD 105は、電子ディスプレイ115と、光学系ブロック118と、1つ又は複数のロケータ120(locator)と、1つ又は複数の位置センサ125と、慣性計測ユニット(IMU : inertial measurement unit)130と、視線追跡ユニット160と、を含む。HMD 105のいくつかの実施形態は、本明細書に記載のものとは異なるコンポーネントを有する。同様に、機能はVRシステム環境100の中の他のコンポーネント間で、本明細書に記載のものとは異なる方法で分散させることができる。例えば、視線追跡ユニット160の機能のいくつかは、VRコンソール110により実行されてもよい。電子ディスプレイ115は、VRコンソール110から受け取ったデータに従って使用者に対して画像を表示する。
光学系ブロック118は、電子ディスプレイ115から受け取った光を拡大し、画像光に関連する光学的エラーを補正し、補正された画像光がHMD 105の使用者に対して提供される。光学素子は、開口、フレネルレンズ、凸レンズ、凹レンズ、フィルタ、又は電子ディスプレイ115から発せられた画像光に影響を与える他のあらゆる適当な光学素子等の光学素子である。さらに、光学系ブロック118は、異なる光学素子の組合せを含んでいてもよい。いくつかの実施形態において、光学系ブロック118の中の光学素子の1つ又は複数は、部分的反射リフレクタ又は反射防止コーティング等の1つ又は複数のコーティングを有していてもよい。
光学系ブロック118による画像光の拡大により、電子ディスプレイ115を物理的に小型化、軽量化し、より大型のディスプレイよる消費電力を小さくすることができる。これに加えて、拡大によって、表示メディアの視野が拡大されるかもしれない。例えば、表示メディアの視野は、表示メディアが使用者の瞬間視野のほとんど全部(例えば、対角110°)、及び場合によって全部を使って提供されるというものである。いくつかの実施形態において、光学系ブロック118は、その有効焦点距離が電子ディスプレイ115までの空間より大きくなるように構成され、それによって電子ディスプレイ115により投射される画像光が拡大される。それに加えて、いくつかの実施形態において、拡大量は、光学素子を追加し、又は取り除くことによって調整されてもよい。
光学系ブロック118は、1種類又は複数種類の光学エラーを補正するように構成されてもよい。光学エラーの例としては、2次元光学エラー、3次元光学エラー、又はそれらの何れかの組合せが含まれる。2次元エラーは、2次元で発生する光学収差である。2次元エラーの種類の例には、樽型歪曲、糸巻型歪曲、縦コマ収差、横コマ収差、又は他のあらゆる種類の2次元光学エラーが含まれる。3次元エラーは、3次元で発生する光学エラーである。3次元エラーの種類の例には、球面収差、色収差、像面歪曲、非点収差、又は他のあらゆる種類の3次元光学エラーが含まれる。いくつかの実施形態におい、表示のために電子ディスプレイ115に提供されるコンテンツは事前に歪曲され、光学系ブロック118は、それがコンテンツに基づき生成される電子ディスプレイ115からの画像光を受け取った時にこの歪曲(distortion)を補正する。
ロケータ120は、HMD 105上の特定の位置に、相互に関して、及びHMD 105上の具体的な基準位置に関して位置付けられるオブジェクトである。ロケータ120は、発光ダイオード(LED)、コーナキューブリフレクタ、反射マーカ、HMD 105が動作する環境と対照的な種類の光源、又はこれらの何れかの組合せであってもよい。ロケータ120がアクティブである(すなわち、LED又はその他の種類の発光デバイス)である実施形態において、ロケータ120は、可視バンド(約380nm〜750nm)、赤外(IR)バンド(約750nm〜1700nm)、紫外バンド(10nm〜380nm)、電磁スペクトルの他の何れかの部分、又はこれらの何れかの組合せの光を発してもよい。
いくつかの実施形態において、ロケータ120は、HMD 105の、ロケータ120により発せられ、もしくは反射される光の波長に対して透過性であるか、又はロケータ120により発せられ、もしくは反射される光の波長を実質的に減衰させないように薄い外面の下に位置付けられる。それに加えて、いくつかの実施形態において、HMD 105の外面又はその他の部分は、光の可視波長バンドにおいて不透過性である。それゆえ、ロケータ120は、IRバンドでは透過性であるが、可視バンドにおいては不透過性の外面の下で、IRバンドの光を発してもよい。
IMU 130は、位置センサ125の1つ又は複数から受け取った測定信号に基づいて高速校正データを生成する電子デバイスである。位置センサ125は、HMD 105の動きに応答して1つ又は複数の測定信号を生成する。位置センサ125の例には、1つ又は複数の加速度計、1つ又は複数のジャイロスコープ、1つ又は複数の磁力計、動きを検出する他の適当な種類のセンサ、IMU 130のエラー補正に使用されるある種のセンサ、又はこれらの何れかの組合せが含まれる。位置センサ125は、IMU 130の外、IMU 130の中、又はこれらの何れかの組合せに位置付けられてもよい。
1つ又は複数の位置センサ125からの1つ又は複数の測定信号に基づき、IMU 130は、HMD 105の初期位置に関するHMD 105の推定位置を示す高速校正データを生成する。例えば、位置センサ125は、並進運動(translational motion)(前/後、上/下、左/右)を測定する複数の加速度計と、回転運動(例えば、ピッチ、ヨー、ロール)を測定する複数のジャイロスコープを含む。いくつかの実施形態において、IMU 130は、測定信号を高速サンプリングし、HMD 105の推定位置をサンプリングデータから計算する。例えば、IMU 130はある時間にわたり加速度計から受け取った測定信号を積分して速度ベクトルを推定し、ある時間わたる速度ベクトルを積分して、HMD 105上の基準点の推定位置を判断する。あるいは、IMU 130は、サンプリングされた測定信号をVRコンソール110に提供し、これが高速校正データを判断する。基準点は、HMD 105の位置を説明するために使用されてもよい点である。基準点は一般に、空間内のある点として定義されてもよいが、実際には、基準点はHMD 105内のある点(例えば、IMU 130の中心)として定義される。
IMU 130は、VRコンソール110から1つ又は複数の校正パラメータを受け取る。後でさらに説明するように、1つ又は複数の校正パラメータは、HMD 105の追跡を保持するために使用される。IMU 130は、受け取った校正パラメータに基づいて、1つ又は複数のIMUパラメータ(例えば、サンプルレート)を調整してもよい。いくつかの実施形態において、特定の校正パラメータにより、IMU 130は基準点の初期位置を更新し、そのため、これは基準点の次の校正位置に対応する。基準点の初期位置を基準点の次の校正位置として更新することは、判断された推定点に関連する累積エラーを軽減させるのに役立つ。累積エラーは、ドリフトエラーとも呼ばれ、時間が経つと基準点の推定位置が基準点の実際の位置から「ドリフト」する原因となる。
視線追跡ユニット160は、使用者の眼球の角度方位(angular orientation)を推定する。眼球の方位は、HMD 105内での使用者の注視方向に対応する。使用者の眼球の方位は、本明細書において、中心窩(眼の網膜の光受容体の密度が最も高い領域)と眼球の瞳孔の中心との間の軸である中心窩軸の方向と定義される。一般に、使用者の眼がある点に固定されると、使用者の眼球の中心窩軸はその点と交差する。瞳孔軸は眼球のまた別の軸であり、これは瞳孔の中心を通る、角膜表面に垂直な軸と定義される。瞳孔軸は一般に、中心窩軸と直接的に整列しない。両方の軸は瞳孔の中心で交差するが、中心窩軸の方位は瞳孔軸から横方向に約−1°〜8°、縦方向に±4°だけずれる。中心窩軸は、眼球後方にある中心窩に応じて定義されるため、中心窩軸は、いくつかの視線追跡の実施形態においては直接検出することが困難又は不可能でありうる。したがって、いくつかの実施形態において、瞳孔軸の方位が検出され、中心窩軸は検出された瞳孔軸に基づいて推定される。
一般に、眼球の運動は眼球の角回転だけでなく、眼球の並進、眼球の回旋の変化、及び/又は眼球の形状の変化にも対応する。視線追跡ユニット160はまた、眼球の並進、すなわち眼窩に関する眼球の位置の変化も検出してよい。いくつかの実施形態において、眼球の並進は直接検出されないが、検出された角度方位からのマッピングに基づいて近似される。視線追跡ユニットの検出コンポーネントに関する眼球の位置の変化に対応する眼球の並進もまた検出されてよい。この種の並進は、例えば、使用者の頭部でのHMD 105の位置のシフトにより発生するかもしれない。視線追跡ユニット160はまた、眼球回旋、すなわち瞳孔軸の周囲での眼球回転も検出してよい。視線追跡ユニット160は、検出された眼球回旋を用いて、瞳孔軸からの中心窩軸の方位を推定してもよい。視線追跡ユニット160はまた、眼球の形状の変化も追跡してよく、これは、傾斜もしくは拡大縮小線形変換又は捻り歪み(例えば、捩れ変形による)として近似されてもよい。視線追跡ユニット160は、瞳孔軸の角度方位、眼球の並進、眼球の回旋、及び眼球の現在の形状の何れかの組合せに基づいて中心窩を推定してもよい。
視線追跡ユニット160は少なくとも1つの発光器を含み、これは構造化光パターン(structured light pattern)を眼球の全体または一部に投射する。すると、このパターンは、眼球の形状に投射され、これはオフセット角度から見たときに構造化光パターンの認識可能な歪曲を発生させるかもしれない。視線追跡ユニット160はまた、少なくとも1つのカメラを含み、これは眼球に投射された光パターンの歪曲(もしあれば)を検出する。カメラは、発光器とは異なる軸上で方向付けられ、眼球の上の照明パターンを撮影する。このプロセスは、本明細書において、眼球の「スキャン(scanning)」と呼ぶ。眼球表面上の照明パターンの変形を検出することにより、視線追跡ユニット160は眼球のスキャン部分の形状を判断できる。したがって、撮影された歪曲光パターンは、眼球の照明部分の3D形状を示している。眼球の、発光器により照明された部分の3D形状を導き出すことにより、眼球の方位を導き出すことができる。視線追跡ユニットはまた、カメラにより撮影された照明パターンの画像に基づいて、瞳孔軸、眼球の並進、眼球の回旋、及び眼球の現在の形状も推定できる。
方位は使用者の両眼について判断されてもよいため、視線追跡ユニット160は、使用者がどこを見ているか判断できる。HMD 105は、例えば使用者の瞳孔間距離(IPD : inter-pupillary distance)を判断するため、注視方向を判断するため、奥行きの手がかり(例えば、使用者の主視線の外のぼやけた画像)を導入するため、VRメディア内の使用者のインタラクションに関する経験則(例えば、受けた刺激に応じた何れかの特定の主題、物体、又はフレームについて費やされた時間)を収集するため、一部に使用者の眼球のうちの少なくとも一方の方位に基づく他の何れかの機能のため、又はこれらの何れかの組合せのために眼球の方位を使用できる。使用者の注視方向の判断は、使用者の左右の眼の判断された方位に基づくコンバージェンスポイント(point of convergence)の判断を含んでいてもよい。コンバージェンスポイントは、使用者の両眼の2つの中心窩軸が交差する点(又はこれら2軸間の最も近い点)であってもよい。使用者の注視方向は、コンバージェンスポイントを通り、使用者の両眼の瞳孔間の中間点を通る線の方向であってもよい。視線追跡ユニット160について、図3及び図4に関して以下にさらに説明する。
イメージングデバイス135は、VRコンソール110から受け取った校正パラメータにしたがって低速校正データを生成する。低速校正データには、イメージングデバイス135により検出可能なロケータ120の観察位置を示す1つ又は複数の画像が含まれる。イメージングデバイス135は、1つ又は複数のカメラ、1つ又は複数のビデオカメラ、1つ又は複数のロケータ120を含む画像を撮影可能な他のあらゆる機器、又はそれらの何れかの組合せが含まれる。それに加えて、イメージングデバイス135は、1つ又は複数のハードウェア及びソフトウェアフィルタを含んでいてもよい(例えば、信号対ノイズ比を高めるために使用される)。イメージングデバイス135は、イメージングデバイス135の視野内で、ロケータ120から発せられた、又は反射された光を検出するように構成される。ロケータ120がパッシブ要素(例えば、再帰反射器)を含む実施形態において、イメージングデバイス135は、ロケータ120のいくつか又は全部を照明する光源を含んでいてもよく、これは光をイメージングデバイス135の光源に向かって再帰反射させる。低速校正データは、イメージングデバイス135からVRコンソール110へと伝えられ、イメージングデバイス135はVRコンソール110から1つ又は複数の校正パラメータを受け取って、1つ又は複数のイメージングパラメータ(例えば、焦点距離、焦点、フレームレート、ISO、センサ温度、シャッタスピード、開口等)を調整する。
VR入力インタフェース140は、使用者が動作要求をVRコンソール110に送信できるようにするためのデバイスである。動作要求は、特定の動作を実行させる要求である。例えば、動作要求は、アプリケーションを開始もしくは終了するため、又はアプリケーション内の特定の動作を実行するためのものであってもよい。VR入力インタフェース140は、1つ又は複数の入力デバイスを含んでいてもよい。入力デバイスの例には、キーボード、マウス、ゲームコントローラ、又は動作要求を受け取り、受け取った動作要求をVRコンソール110に伝えるのに適した他のあらゆる適当なデバイスが含まれる。VR入力インタフェース140が受け取った動作要求はVRコンソール110に伝えられ、これが動作要求に対応する動作を実行する。いくつかの実施形態において、VR入力インタフェース140は、VRコンソール110から受け取った命令にしたがって、使用者に対して触覚フィードバックを提供してもよい。例えば、触覚フィードバックは、動作要求を受け取ったときに提供され、又は、VRコンソール110は、VR入力インタフェース140に命令を伝えて、VRコンソール110がある動作を実行するとVR入力インタフェース140に触覚フィードバックを発生させる。
VRコンソール110は、イメージングデバイス135、HMD 105、及びVR入力インタフェース140のうちの1つ又は複数から受け取った情報にしたがって、使用者に対して提示されるようにHMD 105にメディアを提供する。図1に示される例では、VRコンソール110は、アプリケーションストア145と、追跡モジュール150と、仮想現実(VR)エンジン155と、を含む。VRコンソール110のいくつかの実施形態は、図1に関して説明されたものとは異なるモジュールを有する。同様に、以下にさらに説明する機能は、VRコンソール110のコンポーネント間で、上述のものとは異なる方法で分散されてもよい。
アプリケーションストア145は、VRコンソール110により実行されるための1つ又は複数のアプリケーションを保存する。アプリケーションは、プロセッサにより実行されると使用者に提示されるためのコンテンツを生成する命令群である。あるアプリケーションにより生成されるコンテンツは、HMD 105の動き又はVR入力インタフェース140を介して使用者から受け取った入力に応答していてもよい。アプリケーションの例には、ゲームアプリケーション、会議アプリケーション、ビデオ再生アプリーション、又は他の適当なアプリケーションが含まれる。
追跡モジュール150は、1つ又は複数の校正パラメータを使ってVRシステム環境100のセンサを校正し、1つ又は複数の校正パラメータを調整して、HMD 105の位置の判断におけるエラーを減らしてもよい。例えば、追跡モジュール150は、イメージングデバイス135の焦点を調整して、HMD 105上の観察されたロケータに関するより正確な位置を得る。さらに、追跡モジュール150により実行される校正はまた、IMU 130から受け取った情報も考慮する。それに加えて、HMD 105の追跡が失われると(例えば、イメージングデバイス135が少なくとも閾値の数のロケータ120の視線を見失うと)、追跡モジュール150はシステム環境100の一部又は全部を再校正する。
追跡モジュール150は、イメージングデバイス135からの低速校正情報を使ってHMD 105の運動を追跡する。追跡モジュール150は、低速校正情報とHMD 105のモデルからの観察されたロケータを使ってHMD 105の基準点の位置を判断する。追跡モジュール150はまた、高速校正情報からの位置情報も使ってHMD 105の基準点の位置を判断する。それに加えて、いくつかの実施形態において、追跡モジュール150は、高速校正情報、低速校正情報、又はそれらの何れかの組合せの一部を使って、HMD 105の未来の位置を予想してもよい。追跡モジュール150は、HMD 105の推定又は予想された未来の位置をVRエンジン155に提供する。
VRエンジン155は、システム環境100内でアプリケーションを実行し、追跡モジュール150からHMD 105の位置情報、加速度譲情報、速度情報、予想された未来の位置、又はこれらの何れかの組合せを受け取る。VRエンジン155は、受け取った情報に基づいて、使用者に対して提示されるためにHMD 105に提供されるべきコンテンツを判断する。例えば、受け取った情報が、使用者が左を見たことを示している場合、VRエンジン155は、仮想環境内で使用者の運動をそのまま映すHMD 105のためのコンテンツを生成する。それに加えて、VRエンジン155は、VR入力インタフェース140から受け取った動作要求に応答してVRコンソール110上で実行されるアプリケーションの中のある動作を実行し、その動作が実行されたというフィードバックを使用者に提供する。提供されたフィードバックは、HMD 105を介した視覚又は聴覚フィードバックか、VR入力インタフェース140を介した触覚フィードバックであってもよい。
図2は、ある実施形態によるHMDの略図である。HMD 200はHMD 105のある実施形態であり、前側硬質本体205と、バンド210と、を含む。前側硬質本体205は、電子ディスプレイ115(図2では図示せず)の電子ディスプレイ素子と、光学系ブロック118(図2では図示せず)と、IMU 130と、1つ又は複数の位置センサ125と、視線追跡ユニット160と、ロケータ120と、を含む。図2により示される実施形態において、位置センサ125はIMU 130の中に位置付けられ、IMU 130も位置センサ125も使用者には見えない。
ロケータ120は、前側硬質本体205上の、相互に関する、及び基準点215に関する固定位置に位置付けられる。図2の例では、基準点215はIMU 130の中心に位置付けられている。ロケータ120の各々は光を発し、これはイメージングデバイス135により検出可能である。ロケータ120又はロケータ120の一部は、図2の例において、前面220A、上面220B、下面220C、右面220D、及び左面220E上にある。
HMD 200は、視線追跡ユニット160を含む。視線追跡ユニット160は、構造化光パターンを使用者の眼に投射する構造化光発光器と、眼の照明部分を検出するためのカメラと、を含んでいてもよい。発光器とカメラは、使用者の注視軸から外して位置付けられてもよい。図2において、視線追跡ユニット160は、使用者の注視軸より下に位置付けられているが、視線追跡ユニット160は、その代わりに別の箇所に設置することもできる。また、いくつかの実施形態において、使用者の左眼のための少なくとも1つの視線追跡ユニットと使用者の右眼のための少なくとも1つの追跡ユニットがある。
図3は、眼球330を繰り返しスキャンすることによって使用者の眼球330の位置を追跡する構造化光視線追跡システム300を示している。図3は、眼球330の断面を含む。いくつかの実施形態において、構造化光視線追跡システム300は、HMD(例えば、HMD 105又はHMD 200)の視線追跡ユニット160のコンポーネントである。代替的な実施形態において、構造化光視線追跡システム300は、AR HMD、HMDではないVR/ARシステム、又は視線追跡を利用する他の何れかのシステムの一部である。構造化光視線追跡システム300は、構造化光発光器310と、カメラ320と、を含む。図3は、1つの構造化光発光器310と、片眼330の方位を検出する1つのカメラ320を示している。しかしながら、代替的な実施形態においては、複数の構造化光発光器又は複数のカメラが片眼について利用されてもよい。同様に、使用者の眼の各々について、対応する構造化光発光器とカメラが利用されてもよい。
構造化光発光器310は、使用者の眼の一部に対して構造化光パターンPを発する。構造化光発光器310は、赤外(IR)光源と構造化光素子を含む。IR光源(例えば、レーザダイオード、発光ダイオード等)はIR光(例えば、850nm)を構造化光素子に向けて発し、それがIR光を(角度座標内で)構造化されたIR光に変換する。いくつかの実施形態において、構造化光発光器310のIR光源は連続的スペクトルのIR光を発して、光源のコヒーレンスを低下させる。いくつかの実施形態において、構造化光発光器310は1つの周波数又は狭帯域スペクトル光を出力する。代替的実施形態において、構造化光発光器310は、N個の単独周波数又は、中心周波数の異なるN個の狭帯域を出力する。
構造化光素子は、IR光源により照明されると構造化光を出力する光学素子である。構造化光素子は、例えばアポダイゼーション(apodization)及び/又は位相マスク、回折素子、複屈折板、IR光源により照明されると構造化光を出力する他の何れかの光学素子、又はこれらの何れかの組合せであってもよい。それに加えて、いくつかの実施形態において、IR光源は、時間、周波数、又はその両方において変調されてもよい。構造化光発光器310は、本明細書においてはIRスペクトル内の構造化光を発するものと記載されているが、代替的実施形態は、可視スペクトル(約390nm〜700nm)等、非IR波長の光を発する構造化光発光器310を含む。
使用者の片眼に関して、構造化光パターンPは、眼球330の一部の表面に入射する。構造化光パターンは、一部に、例えば照明された表面の幾何学形状及び発光器からカメラの幾何学配置に基づいて歪み、歪曲照明パターンを形成する。歪曲照明パターンの変化は、眼球330の表面の一部の3D構造を示している。いくつかの実施形態において、眼のその部分は強膜345、角膜340、又はその両方をカバーする。いくつかの実施形態において、複数の構造化光発光器が構造化光パターンを片眼330に投射する。いくつかの実施形態において、第一の構造化光発光器は第一の構造化光パターンを使用者の眼の一方に投射し、第二の構造化光発光器がもう一方の眼に第二の構造化光パターンを投射する。
カメラ320は、眼球330の、構造化光発光器310により照明された部分の上の歪曲光パターンを検出する。カメラ320は、赤外線カメラ(すなわち、赤外周波数の画像を撮影するように設計されたカメラ)であってもよい。カメラは、構造化光発光器310により発せられた光のバンド幅に対して感受性を有するデジタルイメージセンサを備える近赤外線カメラであってもよい。カメラ320は、CCD又はCMOSデジタルイメージセンサと光学素子を含む。光学素子は、1つ又は複数のレンズ、ハイパス、ローパス、もしくはバンドパスフィルタ、偏光板、開口絞り、ダイアフラム、IR光の加工に適した他の何れかの光学素子、又はこれらの何れかの組合せであってもよい。光学素子は光を出力し、これはCCD又はCMOSデジタルセンサによって捕捉され、デジタル信号に変換される。
カメラ320は、歪曲照明パターンを検出して、捕捉した光をデジタル画像Iに変換する。デジタル画像Iは、二値画像(すなわち、各画素が二値を有する画像)、又はシングルチャネル画像(各画素が1つの浮動小数点又は整数の値にマッピングされる画像)であってもよい。構造化光発光器310がN個の異なる周波数又はN個の異なる中心周波数の光パターンを発する実施形態において、IはNチャネル画像であってもよい。
カメラ320は、構造化光発光器310が投射するバンド内の電磁放射を検出するように特に構成されていてもよい。カメラ320は、狭帯域バンドパスフィルタを利用してもよく、これは構造化光発光器310により発せられるスペクトル外の光をフィルタにより除去する。このバンドか比較的小さい場合、信号対ノイズ比(SNR)は大きく、これによって画像はカメラ 320により高速で撮影されることが可能となる。いくつかの実施形態において、カメラ320は高周波数カメラであるが、高い周波数が不要であれば、カメラ320は最大周波数より低い周波数で画像を撮影してもよい。画像がカメラ320により撮影されるときのフレームレートは一般に、60Hz以上であるが、いくつかの実施形態では、より低いレートで画像を撮影してもよい。構造化光発光器310は、カメラ320が画像を撮影しているときにのみ光を発するように構成されてもよい。
カメラ320は、通常の動作条件では第一の周波数で画像を撮影してもよいが、特定の条件で、カメラ320がより高い周波数で画像を撮影するようにトリガしてもよい。例えば、視線追跡ユニット160が眼球330の方位を検出できない場合、そのスキャンは「不良スキャン」と考えられてもよい。「不良スキャン」は、使用者の瞬きによりトリガされるかもしれない。「不良スキャン」の場合、このスキャンは考慮されなくてもよく、カメラ320は、成功したスキャンが記録されるまで、眼球330の別のスキャンを直ちに捕捉するようにトリガすることができる。このようにして、視線追跡ユニット160は、確実に眼球の方位の追跡が可能なかぎり正確で最新の状態であるようにすることができ、不要な計算や電力消費を必要としない。
眼球330は、角膜340、瞳孔342、水晶体343、虹彩344、強膜345、及び中心窩346を含む。強膜345は、眼球330の比較的不透明な(通常、目に見えるように白い)外側部分であり、これは「白目」と呼ばれることが多い。角膜340は、眼の虹彩と瞳孔をカバーする湾曲面である。角膜340は基本的に、電磁スペクトルの可視バンド(約380nm〜750nm)及び近赤外線領域(最高約1,400ナノメートル)において透過性である。水晶体343は、網膜(眼球330の後方)に光を収束させる役割を果たす透明な構造である。虹彩344は、瞳孔342と同心の、薄い、色の着いた円形の膜である。虹彩344は眼球の色の着いた部分であり、これは収縮して、光が眼球330に入るときに通る円形の穴である瞳孔342の大きさを変化させる。中心窩346は網膜内の窪みである。中心窩346は、視力の最も高い領域に対応する。
眼球330の回転と運動により、眼球表面のうち、構造化光発光器310により照明される部分は可変的であるかもしれない。いくつかの実施形態において、構造化光発光器310は、角膜340がほぼ透過性であるスペクトル(例えば、近IR又は可視スペクトル)の光を投射する。構造化光パターンの一部が角膜340を通り、虹彩344を照明する場合、その結果として得られる、虹彩の略平坦な界面上の照明パターンは、角膜340の表面の何れかの光学的パワーに応じて歪曲する。虹彩344の瞳孔342内の領域では、照明パターンの強度は著しく低下する。いくつかの実施形態において、瞳孔342への照明パターンは無視できると考えられる。視線追跡ユニット160はカメラ320により撮影された画像の歪曲した円形の照明されていない部分を瞳孔342として特定し、瞳孔342の位置に基づいて眼球330の角度方位を判断してもよい。
いくつかの実施形態において、構造化光発光器310は、角膜340がほぼ不透過性のスペクトル(例えば、波長が1.5μmより大きいIR光)を投射し、カメラ320(例えば、遠赤外線カメラ)がその結果として得られる照明パターンを検出する。角膜340が構造化光パターンにより照明されると、視線追跡ユニット160は、眼球の角度方位及び/又は並進を角膜340の曲率に基づいて推定してもよい。角膜340はほぼ楕円体の強膜345から外側に突出しているため、視線追跡ユニット160は、角膜340の曲率を検出することによって眼球330の方位を推定してもよい。視線追跡ユニット160はまた、角膜−強膜界面、すなわち角膜340の表面と強膜345の表面が交差する概して円形の輪郭を検出することによって、眼球の方位を推定してもよい。視線追跡ユニット160はまた、角膜340の頂点、すなわち角膜340のうち眼球330の中心から最も遠くまで延びる部分を検出することによって、眼球の方位を推定してもよい。
眼球の瞳孔軸335と中心窩軸338が図3に示されている。瞳孔軸335と中心窩軸338は、眼球330が動くと変化する。図3において、眼球330は、瞳孔軸335が水平な状態で描かれている。したがって、図3の中心窩軸338は、水平面の約6°下向きである。図3はまた、発光器315の軸とカメラ325の軸も示している。図3は、構造化光発光器310とカメラ320が瞳孔軸335上にも中心窩軸338上にもない実施形態を示している。構造化光発光310とカメラ320は、眼球330の視野の外にあってもよい。
図4は、1つの実施形態による視線追跡ユニット400の詳細図を示す高レベルブロック図である。視線追跡ユニット400のいくつかの実施形態は、本明細書に記載されているものとは異なるコンポーネントを有する。同様に、機能は、本明細書に記載されているものとは異なる方法にてコンポーネント間で分散させることができる。視線追跡ユニット400は、モデルストア410と、校正モジュール420と、構造化光発光器430と、カメラ440と、構造化光パターンコントローラ450と、眼球方位推定モジュール460と、を含む。いくつかの実施形態において、視線追跡ユニット400は、HMD 105の視線追跡ユニット160である。他の実施形態において、視線追跡ユニット400は、ARシステム等、使用者の眼球運動を追跡する他の何れかのシステムの一部である。視線追跡ユニット400は、使用者の両眼を追跡してもよく、複数の構造化光発光器と複数のカメラを含んでいてもよい。しかしながら、図3と同様に、視線追跡ユニット400は本明細書では片眼、1つの構造化光発光器430、及び1つのカメラ440に関して説明されている。
モデルストア410は、使用者の眼球のモデルMを保存するメモリであり、これは、画像Iと比較して眼球の現在の方位を推定するために使用される。モデルストア410は、ROM、DRAM、SRAM、又はこれらの何れかの組合せ等のメモリである。モデルストア410は、仮想現実(VR)システム環境100のより大きなデジタルメモリの一部であってもよい。モデルストア410の中に保存されているモデルMは、眼球表面の3Dモデルとすることができる。使用者の両眼がスキャンされる実施形態において、モデルストア410は、各眼につき1つの2つのモデル、M1及びM2を含んでいてもよい。
いくつかの実施形態において、Mは眼球の表面幾何学形状を近似する3Dモデルである。3Dモデルは、画定された2つの直交軸を有していてもよく、その周囲でその眼球モデルが回転する。それゆえ、3Dモデルは、2つの角度α(ヨー)及びβ(ピッチ)を含んでいてもよく、これらは眼球の中心に合わせられた方位に関する眼球の方位を特定する(すなわち、α=β=0°はまっすぐ前を見ている眼球に対応する)。α及びβは、中心窩軸の角方向に対応してもよい。Mはまた、ロール角γを含んでいてもよく、これは眼球のロール(すなわち、回旋)に対応する。Mにはさらに、並進ベクトル[x,y,zを取り入れてもよく、これはデカルト座標系内の3Dモデルの並進を特定する。いくつかの実施形態において、瞳孔軸の角度、すなわち(α,β)は並進ベクトル[x,y,zにマッピングされる。眼球の方位の検出が瞳孔の検出を含む実施形態において、Mには瞳孔径dを取り入れていてもよい。いくつかの実施形態において、中心窩軸は、瞳孔軸の角度、[x,y,z、γ、及びMに記憶された中心窩の位置に対応するパラメータに基づいて計算される。いくつかの実施形態において、視線追跡は、眼球の3Dモデルが眼球のスキャン部分に最も密接に適合するものになるようなα及びβの値を見つけることからなっていてもよい。いくつかの実施形態において、視線追跡は、αとβ、瞳孔軸の角度、[x,y,z、γ、及びdの何れかの組合せを用いて、眼球のスキャン部分をMにマッチさせることを含む。
モデルMは、3D空間内に埋め込まれた眼球の2D表面の数学的モデルであってもよい。Mは、連続的であっても、離散点から構成されてもよい。例えば、デカルト空間内で、x、y、及びz軸はそれぞれ眼球の中心軸、眼球の中心軸と直交する水平軸、及び垂直軸に対応する。モデルは関数X(y,z,α,β)を含んでいてもよく、その中で(α,β)の各組は、y−z平面からx軸に突出する表面を生成する。いくつかの実施形態において、αとβは、
の表面に適用される回転変形の角度に対応する。例えば、(x,y,z)=(0,0,0)が眼球モデルの回転中心に対応する場合、この回転は回転マトリクスR(α)R(β)により表されてもよく、R(α)とR(β)は、従来定義されているようにヨー及びピッチマトリクスである。モデルMはまた、眼球の並進と眼球の回旋に対応するパラメータも含んでいてよい。
同様に、Mは極座標の関数を含んでいてもよく、関数の形態はR(θ,Φ)である。極座標の原点が、眼球がその周囲で回転する点と定義されている場合、眼球表面のモデルは、R(θ−α,Φ−β)により与えられてもよい。
いくつかの実施形態において、Mは3D表面の数学的モデルではなく、画像生成関数である。眼球モデルMは、画像生成関数I(α,β)とすることができ、これはα及びβの各値に関する2D画像を戻す。I(α,β)はまた、並進ベクトルとロール角(γ)等の追加の入力も含んでいてよく、それによってα、β、γ、及び[x,y,zの何れかの組合せが画像にマッピングされる。画像生成関数I(α,β)は、モデルストア410の中に保存された画像の有限集合から1つの画像を選択してもよい。あるいは、I(α,β)は、連続関数(すなわち、これは整数、浮動小数点、またその他のコンピュータ実装数値方式を介して実装されるため、ほぼ連続的)であってもよい。
いくつかの実施形態において、Mは画像集合からなり、各画像がα及びβの値にマッピングされる。代替的実施形態において、画像生成関数I(α,β)にα及びβの正確な値に関する画像がない場合、α及びβに近い方位に対応する画像を合わせて補間し、合成画像を作ることができ、これはI(α,β)により戻される。視線追跡ユニット400によって複数の構造化光パターンが使用される場合、モデルMは各構造化光パターンについて画像生成関数を有するべきである。
Mは、眼球の3Dモデルを含んでいてもよく、これは、入力構造化光パターンPと共に、画像の生成に使用される。この画像生成関数I(α,β,P)は、眼球の3Dモデル上に構造化光パターンの数学的モデル(例えば、光線モデル)をレンダリングすることにより具体化されてもよい。I(α,β,P)により出力された画像は、α、β、及びPの所与の値についてカメラ320により撮影されると予想される画像の近似であってもよい。
いくつかの実施形態において、全体的表面ではなく、モデルMは眼球の形状を近似的に特定する多数のパラメータからなる。例えば、これらのパラメータは、眼球の平均半径、眼球の強膜の平均半径、強膜の形状を楕円体として近似する3つのパラメータからなる集合、眼球の角膜半径、強膜からの角膜の突出の測定値、角膜の形状を特定するパラメータ集合、及び眼球の回転中心に対応しうる。追加のパラメータを使って、パラメータにより特定される理想モデルからの偏差を考慮してもよい。例えば、血管に起因する眼球表面上の出っ張りは、Mの中でこれらの追加のパラメータにより考慮されてもよい。
校正モジュール420は、校正シーケンス中に視線追跡の前のモデルMを生成し、又はトレーニングする。校正モジュール420は、1つ又は複数のプロセッサ上に実装されるソフトウェアモジュール、専用のハードウェアユニット、又はこれらの何れかの組合せである。校正モジュール420により実行される校正シーケンスは、カメラ440と構造化光発光器430を用いた眼球の反復的スキャンを含んでいてもよい。1つの実施形態において、使用者は、HMD 105の電子ディスプレイ115の上に表示される特定の仮想物体又は視覚的インディケータを見るように指示される。使用者がその仮想インディケータを見ている間に眼球の一部をスキャンできる。このようにして、視線追跡ユニット400は、眼球の既知の方位で眼球のサンプルスキャンを捕捉できる。これらのサンプルスキャンは、補間によりモデルMとすることができ、これがモデルストア410の中に保存される。校正モジュール420がMを生成したところで、視線追跡を始めてもよい。一般に、モデルMを特定の使用者の眼球についてトレーニングした状態での視線追跡は、このようなモデルを用いない場合の視線追跡より正確である。いくつかの実施形態において、校正モジュール420は、追跡中にMの更新を続ける。いくつかの実施形態において、システムは、人の眼球の統計的基準に基づく名目モデルMで追跡を開始してもよく、420は追跡中にMを更新する。
校正シーケンス中に収集された眼球330の複数のスキャンを複合して1つの3Dモデル、3Dモデル生成関数、又は画像生成関数I(α,β)としてもよい。3Dモデル又は3Dモデル生成関数は、校正中にカメラ320により撮影された画像集合を3D表面の集合{S,...,S}に変換することによって計算されてもよく、これはヨー値{α,...,α}及びピッチ値{β,...,β}の集合に対応し、{α,...,α}と{β,...,β}は、ディスプレイ上に表示される視覚的物体の位置に対応する。{S,...,S}、{α,...,α}、及び{β,...,β}は、補間によって1つの3D表面モデル生成関数にしてもよい。いくつかの実施形態において、エラーパラメータ{E,...,E}もまた、Mの生成に使用されてよい。各Eは、Sでの表面上の各点の信頼性を示す関数であってもよい。あるいは、Eは、全体としてのSの信頼性を示す1つの値であってもよい。Eは、Sがモデルに与える影響の度合いがEに基づくように、Sに重み付けするために使用できる。
校正中、眼球モデルMを作ることに加えて、校正モジュール420はまた、複数の候補パターンの中から、眼球の方位を検出するのに最も適した光パターンを決定してもよい。いくつかの実施形態において、最善の構造化光パターンは眼球の方位のある範囲について決定されてもよい。視線追跡中、最適な構造化光パターンは、以前検出された眼球の方位に応答して眼球に投射されてもよい。
構造化光発光器430は、構造化光のパターンPを発し、これは眼球の一部に入射する。眼球の表面の幾何学形状は、構造化光パターンを歪曲して、歪曲照明パターン形成する。構造化光発光器430は、図3に示される構造化光発光器310と同じ構造化光発光器430であってもよい。
カメラ440は、歪曲照明パターンを検出する。カメラ440は、撮影した光をデジタル画像Iに変換する。いくつかの実施形態において、カメラ440はカメラ320である。眼球モデルMが画像生成関数I(α,β)である場合、I(α,β)により生成される画像は、Iと同じ種類の画像であってもよい(例えば、二値画像、シングルチャネル画像、又はマルチチャネル画像)。I(α,β)により出力される画像はまた、カメラ440により出力される画像Iと(例えば、画素単位で)同じ大きさであってもよい。
いくつかの実施形態において、構造化光パターンコントローラ450は、構造化光発光器430を制御する。構造化光パターンコントローラ450は、1つ又は複数のプロセッサ上に実装されるソフトウェアモジュール、専用のハードウェアユニット、又はこれらの何れかの組合せである。構造化光パターンコントローラ450は、発光される構造化光パターンPを決定する。いくつかの実施形態において、構造化光発光器430は常に同じパターンを投射し、構造化光パターンコントローラ450は単に、構造化光発光器430が光を発するか否かを制御する。いくつかの実施形態において、構造化光パターンコントローラ450は、「不良スキャン」の報告に応答して構造化光パターンを異なるパターンに変える。いくつかの実施形態において、構造化光パターンコントローラ450は、視線追跡ユニット400により報告された、以前報告された眼球方位に基づいて構造化光パターンを選択する。
眼球方位推定モジュール460は、入力として画像Iを受け取り、モデルストア410からのモデルMに基づいて、眼球の方位の推定を生成する。眼球方位推定モジュール460は、1つ又は複数のプロセッサ上に実装されるソフトウェアモジュール、専用のハードウェアユニット、又はこれらの何れかの組合せである。
いくつかの実施形態において、眼球方位推定モジュール460は、眼球のうち、構造化光発光器430により照明された領域に対応する眼球表面Sの3D近似を生成する。眼球方位推定モジュール460は、構造化光パターンコントローラ450から受け取ることのできる投射構造化光パターンの既知の構造を利用して、眼球表面の形状とカメラの幾何学配置により生じる光の歪曲を判断する。この歪曲から、眼球方位推定モジュール460は、奥行き情報を画像の様々な部分に帰属させる。眼球方位推定モジュール460は、奥行き情報を利用して、眼球の3D表面Sの近似を生成する。Sは例えば、デカルト空間内の3次元点の有限集合、極座標内の点の有限集合、又は
で表面を定義する数学的関数を含んでいてもよい。眼球方位推定モジュール460はまた、エラー関数Eも出力してよく、それによって表面Sの上の所与の点の精度を示す推定が提供される。Eは例えば、2次元座標を取り入れ、平面(デカルト座標系)又は半径(極座標系)からのその点の延長の標準偏差の推定を戻す関数であってもよい。
Sの説明的な計算例として、疑似ランダム位置のドットのアレイを含む構造化光パターン考える。構造化光パターンがN個のドットからなり、各ドットが無視できる程度に小さい面積を有すると仮定すると、各ドットを生成する光は光線により表すことができる。γがi番目の光線(i∈{1,...,N}の場合)を表す場合、γは以下のように表現できる:
式中、
であり、γは媒介変数方程式の従属変数である。各光線は眼球表面に入射し、この表面と点
において交差する。この点は、光の光線により照明され、この照明はK個のカメラのうちの1つにより検出される。K個のカメラのうちのk番目は、点pから発せられた光の光線を捕捉することによってこれを検出する。この光の光線は、yikとして表現でき、それによって:
となり、
式中、
であり、δikは媒介変数方程式の従属変数である。rは先験的に既知であり、yikは、受け取ったk番目のカメラ上の画素位置をベクトルc,dにマッピングするマッピングアルゴリズムにより見つけることができる。それゆえ、すべてのk∈{1,...,K}についてpはr=yikの点であるため、以下の系を解いて、pを見つけることができる:
しかしながら、上の系は過剰決定系である。その結果、測定及び先験的仮定における非理想性によって正確な解が存在しない可能性がある。それでもなお、近似を見つけることができる。pに関するこのような近似の1つは、最小二乗誤差近似平均
である。
は、以下のように計算できる:
ただし、
であり、
である。
すべてのi∈{1,...,N}に関する
を導き出すことにより、この系は、ある程度の粒度で、構造化光のパターンが入射する物体の形状を計算できる。それゆえ、Sは点の集合
により表現されてもよく、又は点の集合から導き出されてもよい。この例は、Sを生成する説明的な例とすることのみ意図される。異なる近似方式や異なる代数的手法が使用されてもよい。また、異なる構造化光のパターンや、これらの構造化光パターンに適したアルゴリズムを使用できる。各構造化光パターンでの3Dマッピングに適したアルゴリズムが知られている。
眼球の表面近似Sは、眼球方位推定モジュール460によって、モデルストア410から読み出された眼球モデルMと比較するために使用できる。前述のように、モデルMは眼球表面の3Dモデルとすることができる。眼球方位推定モジュール460は、2次元相関を実行してもよく、これはS(眼球のスキャンにより生成される3D表面)を、従属変数として眼球のヨーα、ピッチβを変化させることによってMに相関させる。この説明の解釈のために、αは眼球の水平角度と定義され、βは眼球の垂直角度と定義され、α=β=0°は使用者がまっすぐ前を見ていることに対応する。眼球の正確な方位は、眼球モデルMが表面近似Sに最も密接に一致するαとβの数となるように判断されてよい。
一例として、Sは、極座標系の中の点の集合であってもよく、S={p,...,P}であり、ただし、p=[θ Φである。モデルMは、極座標の関数R(θ,Φ)の形態をとってもよく、これは2つの角度θとΦの関数として半径を戻し、それによって、座標系の原点は眼球の回転の原点に対応する。眼球の方位は、α及びβの値の有限集合について繰り返し、以下が最大となる(α,β)の値を見つけることにより判断できる:
式中、μはSの平均半径(すなわち、
)であり、μは関数R(θ,Φ)により定義される表面の平均半径である。眼球方位推定モジュール460が、M及びSが最も密接に一致するα及びβの値を判断するために使用してもよい別の方法が数多くある。このような方法は当業者の間で知られている。
いくつかの実施形態において、集合{(α,β),...,(α,β)}からの値は、SとMとの間の相関を判断するための入力として使用される。この集合の値は、特定の有界領域に限定されるかもしれない。この領域は、眼球の運動範囲と定義されてもよい。いくつかの実施形態において、この領域は、以前に計算されたヨー及びピッチからの特定の角度距離内の値に限定される。この領域は、眼球の最大速度に関する上限値に基づいて判断されてもよい。例えば、人間の眼球の最大衝動性眼球運動角速度は毎秒約900°であるため、この領域は以前に検出された眼球の方位の1000°/F内に限定されてもよく、Fはカメラ440のフレームレート(ヘルツ)である。
いくつかの実施形態において、眼球の表面Sの推定は生成されず、カメラ440により撮影された画像Iは、眼球方位推定モジュール460によりモデルMと直接比較される。Mは、画像をヨー及びピッチ(α及びβ)の値にマッピングしたものである。いくつかの実施形態において、(α,β)の値は、αとβを入力としてとる画像生成関数によりモデル画像にマッピングされる。各々が異なる(α,β)ペアに対応する複数のモデル画像は、カメラ440により撮影された画像Iと比較されてもよい。Iに最も密接に一致するモデル画像に対応する(α,β)ペアが眼球の方位であると判断されてもよい。いくつかの実施形態において、最も密接に一致するモデル画像にマッピングされる(α,β)ペアの判断は2次元相関器により行われてもよく、この相関は(α,β)を従属変数として行われる。
視線追跡ユニット400は、図1に示されるVRシステム環境100の視線追跡ユニットのように、VRシステムの一部とすることができる。視線追跡ユニット400は、HMD 105の一部とすることができるが、視線追跡ユニット400のうち、構造化光発光器430の制御とカメラ440から受け取った画像の処理を担当するジュールは、HMD 105の一部でなくてもよい。これらのコンポーネントは、仮想現実コンソール110に配置することができる。いくつかの実施形態において、視線追跡ユニット400により出力されたデータの処理は、仮想現実コンソール110の上の1つ又は複数の汎用プロセッサにより実行される。いくつかの実施形態において、視線追跡アルゴリズムは専用のハードウェア上に実装される。いくつかの実施形態において、視線追跡ユニット400の制御及び処理モジュールのいくつかは、HMD 105の一部であり、それ以外は仮想現実コンソール110の一部である。
図5Aは、いくつかの実施形態による、眼球運動を追跡するためのプロセスを説明するブロック図である。図5Aのプロセスは、視線追跡ユニット400により実行されてもよい。他の実施形態では、他のエンティティがプロセスステップの一部又は全部を実行してもよい。同様に、実施形態は、異なる、及び/又は追加のステップを含んでいてもよく、又はこれらのステップを異なる順序で実行してもよい。
視線追跡ユニット400は、校正シーケンスを実行する(510)。校正シーケンスは、校正モジュール420により制御され、これは構造化光発光器430とカメラ440を使って眼球を繰り返しスキャンする。眼球のスキャンにより眼球モデルMが生成又はトレーニングされ、これはモデルストア410に保存される。
次に、視線追跡ユニット400は、構造化バターンPで眼球をスキャンする(530)。眼球をスキャンするステップ530は、構造化光発光器310から構造化光パターンPを眼球へと投射するステップと、眼球の一部に投射された歪曲照明パターンをカメラ320で検出するステップと、を含む。カメラ320は、照明パターンの画像Iを撮影する。
すると、眼球の方位が眼球方位推定モジュール460によって推定される(540)。眼球方位推定モジュール460は、眼球をスキャンするステップから受け取った画像Iをモデルストア410により保存されたモデルMと比較する。眼球方位推定モジュール460は次に、眼球の方位の推定を出力する。眼球の方位の推定は、それぞれ眼球のヨー及びピッチに対応するαとβの値であってもよい。眼球の方位が推定された(540)後、眼球は再び構造化光パターンでスキャンされる(530)。それゆえ、眼球をスキャンするステップ530と眼球の方位を推定するステップ540は、視線追跡ループ520を構成する。視線追跡ループ520を介して、眼球の方位を継続的に追跡できる。
いくつかの実施形態において、眼球330の方位を正確に推定できない場合、視線追跡ユニット400は、方位の推定ではなく、「不良スキャン」のエラーコードを出力してもよい。「不良スキャン」は、使用者が瞬きした時、又は視線追跡システムの非理想性によって発生するかもしれない。「不良スキャン」は、眼球モデルMが眼球のスキャン(例えば、S又はI)とどれだけ一致するかを判断するために使用される測定値が特定の閾値内にないと判断することによって、確率的に検出できる。いくつか実施形態において、特定の時間枠内での特定の数の「不良スキャン」は、視線追跡ループ520の停止をトリガしてもよく、校正シーケンスが再び実行されてもよい。
図5Bは、いくつかの実施形態による、眼球の方位を推定するプロセスを説明するブロック図である。いくつかの実施形態において、図5に示されるプロセスは、より大きな視線追跡プロセスの一部である。例えば、図5Aに示されるような眼球の方位を推定するステップ550は、図5Bのプロセスを構成してもよい。図5Bのプロセスは、視線追跡ユニット400により実行されてもよい。他の実施形態では、他のエンティティがプロセスのステップの一部又は全部を実行してもよい。同様に、実施形態は、異なる、及び/又は追加のステップを含んでいてもよく、又はこれらのステップを異なる順序で実行してもよい。
視線追跡ユニット400は、画像Iの中のパターンP’を特定する。Iは、眼球に投射された構造化光パターンPにより生じる照明パターンをカメラ440が撮影した画像である。Iの中のP’を特定するステップ560は、Pの中の特徴に対応する、画像Iの中に存在する特徴を特定するステップを構成してもよい。例えば、眼球方位推定モジュール460は、エッジ検出アルゴリズム等のマシンビジョンアルゴリズムを通じて、照明パターンの境界線を特定してもよい。眼球方位推定モジュール460はまた、Pの中の特定の極大値及び極小値に対応するIの強度の極大値又は極小値を特定してもよい。眼球方位推定モジュール460はまた、Pの中の特定の特徴に対応するものとして、Iの中のドット、線、グリッド、又はその他の特徴を特定してもよい。
次に、P’とPの特徴間の空間変化が推定される(570)。各特徴の空間変化を推定するステップ570は、表面S、すなわち
に埋め込まれた2D表面を生成するために使用されてもよい。Sの生成は、発光器からカメラまでの幾何学配置及びP’とPの特徴間の空間変化に基づいていてもよい。構造化光発光器430から発せられたパターンPと、カメラ440により撮影された画像Iに基づいて特定されたパターンP’との間の空間変化に基づいて表面の形状を近似するための技術は、当業者の間で知られている。
Sは、眼球モデルMと比較され580、眼球の方位が推定される。Sは、Sが最も密接にMと一致する眼球のピッチ及びヨー角度(α及びβ)を見つけることにより、Mと比較されてもよい(580)。いくつかの実施形態において、MをSと比較するステップ580は、MをSに最も密接に一致させるロール角(γ)の値、並進、又はこれらの何れかの組合せを見つけるステップをさらに含む。いくつかの実施形態において、P’とPとの間の空間変化は、モデルMに直接フィットされる。眼球の方位を推定することによって、α、β、γ、及び並進ベクトルの何れかの組合せの推定値が生成されてもよい。
図6は、ある実施形態による、構造化光を投射して、構造化光の投射610を形成する構造化光発光器600を示している。構造化光の投射610は、照明を目的として、構造化光発光器600の軸に直交する平坦な表面に投射されているように示されている。構造化光発光器600は、図3に示されている構造化光発光器310又は図4に示される構造化光発光器430であってもよい。図6はまた、5つの構造化光パターン、すなわちドットマトリクス620、1本線630、正弦波状640、マルチトーンパターン650、及び格子660も示している。例示を目的として、これらの構造化光パターンもまた、平坦な直交面に投射されているように示されている。構造化光発光器600は、例えば1つ又は複数のバー、1つ又は複数の長方形、又は疑似ランダムドット等、他の構造化光パターンも出力してよい。
マルチトーンパターン650は、複数の正弦波状パターンの組合せである。図6のマルチトーンパターン650は、フォームA[cos(ωx)+cos(2ωx)]の強度の構造化光パターンを示しており、xは空間次元([例えば、デカルト座標系又は極座標系)の位置を表す変数である。図6は、この関数の4つの周期(すなわち、0<x<8π/ω)を示しているが、現実化された関数は、異なる数の周期を含んでいてもよい。いくつかの実施形態において、マルチトーンパターン650の周期は1ミリラジアンである。
一般に、マルチトーンパターン650は、異なる波長、位相、及び振幅を有していてもよい複数の正弦波状の構造化光パターンの重畳であってもよい(例えば、
、及び
について
)。正弦波状パターンは、1つの波長又は1つの波長バンドの光からなっていてもよい。あるいは、正弦波状パターンは、異なる波長の光からなっていてもよい。マルチトーンパターン650は、1つの構造化光発光器600又は複数の構造化光発光器により発せられてもよい。マルチトーンパターン650は、図6に示されるように水平である必要はないことに留意されたい。いくつかの実施形態において、マルチトーンパターン650は楕円体パターンである(例えば、
、及び
について
であり、yはxが対応する方向に直交する空間次元のある点を表す変数である)。
構造化光パターンが眼球のような曲面に入射すると、照明パターンは、構造化光発光器600の軸上以外から見ると歪曲しているように見えるかもしれない。視線追跡ユニット400は、歪曲した光を利用して、奥行き情報を画像に帰属させる。いくつかの実施形態において、構造化光パターンは、以前の眼球の方位に基づいてシフトされる。例えば、構造化光パターンは、構造化光パターンの中心が前回のスキャンにおいて検出された眼球の方位における強膜と角膜の境界線に対応する位置にあるようにシフトされてもよい。いくつかの実施形態において、追跡が失敗すると(例えば、「不良スキャン」)、光の構造化パターンはより大きな面積のパターンに設定される。これによって、角膜のある部分が構造化光パターンにより照明される確率が高まるかもしれない。眼球の方位が再び検出されると、構造化光パターンはより小さい面積のパターンにリセットすることができる。
構成に関する追加情報
本開示の実施形態の上記の説明は、例示を目的として提示されており、これは網羅的である、又は実施形態を開示されている正確な形態に限定すると意図されたものではない。当業者であれば、上記の開示を参照して、数多くの改造や変更が可能であることがわかる。
この説明のある部分には、開示の実施形態が情報に対する演算のアルゴリズム及び記号表現によって記載されている。これらのアルゴリズムの説明や表現は、データ処理技術の当業者によって、作業の内容を他の当業者に伝えるために一般的に使用されている。これらの演算は、機能的、計算的、又は論理的に示されているが、コンピュータプログラム又はこれと同様の電気回路、マイクロコード、又はその他により実行されると理解される。さらに、一般性を損なうことなく、これらに演算の配置をモジュールとして言及することも、時には好都合であることも分かっている。説明されている演算とそれに関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、又はこれらの何れかの組合せにより具現化されてもよい。
本明細書に記載されているステップ、演算、処理の何れかが、1つ又は複数のハードウェア又はソフトウェアモジュールで、単独又は他の機器との組合せにより実行又は実装されてもよい。1つの実施形態において、ソフトウェアモジュールは、本明細書に記載されているステップ、演算、又はプロセスの何れか又は全部を実行するためにコンピュータプロセッサにより実行可能なコンピュータプログラムコードを含むコンピュータ読取可能媒体を含むコンピュータプログラム製品で実装される。
開示の実施形態はまた、本明細書における演算を実行するための装置に関していてもよい。この装置は、必要な目的のために特に構築されていてもよく、及び/又は、コンピュータ内に保存されたコンピュータプログラムにより選択的にアクティベートされ、又は再構成される汎用コンピューティングデバイスを含んでいてもよい。このようなコンピュータプログラムは、非一時的な有形のコンピュータ読取可能記憶媒体、又は電子命令を保存するのに適したあらゆる種類の媒体に保存されてもよく、これらはコンピュータシステムバスに連結されてもよい。さらに、本明細書中で言及されている何れのコンピューティングシステムも、1つのプロセッサを含んでいてもよく、又はコンピューティング能力を高めるために複数のプロセッサ設計を採用したアーキテクチャであってもよい。
本開示の実施形態はまた、本明細書に記載されているコンピューティングプロセスにより生成される製品にも関していてよい。このような製品は、コンピューティングプロセスから得られる情報を含んでいてもよく、情報は、非一時的な有形のコンピュータ読取可能記憶媒体に保存され、コンピューティングプログラム製品又は、本明細書に記載されているその他のデータの組合せの何れの実施形態を含んでいてもよい。
最後に、本明細書中で使用されている文言は、原則として読みやすさと説明を目的として選択されており、本発明の主旨を限定し、又は制限するために選択されていない。したがって、実施形態の範囲は、この詳細な説明によってではなく、本明細書に基づく出願で発行される何れかの特許請求項により限定されることが意図される。したがって、実施形態の開示は、以下の特許請求の範囲に記載されている詳細な説明の範囲を限定ではなく例示することが意図されている。

Claims (26)

  1. 視線追跡ユニットであって、
    使用者の眼球を構造化光パターンで照明するように構成された構造化光発光器であって、該構造化光発光器は、光源と、光源からの光を前記構造化光パターンに変換する構造化光素子と、を含み、前記構造化光パターンで照明された前記眼球の表面の一部分によって前記構造化光パターンが歪曲されて歪曲構造化光パターンを形成する、前記構造化光発光器と、
    前記眼球の表面の一部分に関連する前記歪曲構造化光パターンの画像を撮像するように構成されたカメラと、
    前記カメラにより撮像された画像と眼球のモデルに基づいて、前記眼球の方位を推定するように構成された眼球方位推定モジュールと、を含み、
    前記眼球の方位を推定することは、
    前記眼球の瞳孔軸の方向を推定すること、
    前記瞳孔軸の推定された方向を予め設定された角度だけずらして、前記眼球の中心窩軸の方向を推定すること、を含む、視線追跡ユニット。
  2. 前記視線追跡ユニットは、頭部装着型ディスプレイ(HMD)のコンポーネントであり、
    前記頭部装着型ディスプレイは、
    前記頭部装着型ディスプレイを装用する使用者に対してコンテンツを表示するように構成された表示素子と、
    前記表示素子からの光を前記頭部装着型ディスプレイの射出瞳へと方向付けるように構成された光学系ブロックと、を含む、請求項1に記載の視線追跡ユニット。
  3. 校正モジュールをさらに含み、
    前記校正モジュールは、
    表示素子を制御して、前記表示素子上のある位置に視覚インディケータを表示し、
    前記カメラから、前記構造化光発光器により前記眼球に投射された第二の歪曲構造化光パターンの第二の画像を受け取り、
    前記使用者の眼球のモデルを、撮影された第二の画像に基づいて、前記視覚インディケータの位置に基づいてトレーニングするように構成されている、請求項1に記載の視線追跡ユニット。
  4. 前記眼球方位推定モジュールは、
    前記眼球の表面の一部分の形状を、前記画像において撮像された構造化光パターンの歪曲に基づいて判断し、
    前記眼球のモデルを、前記眼球の表面の一部分の判断された形状と比較するように構成されている、請求項1に記載の視線追跡ユニット。
  5. 前記眼球方位推定モジュールは、
    撮影された画像において複数の照明点の各々に関する位置を検出し、
    前記歪曲構造化光パターンの撮影された画像における位置を前記構造化光パターンにおける前記照明点の発光器からの対応する角度と比較することに基づいて、各照明点の3次元位置を判断し、
    前記眼球のモデルを前記照明点の判断された3次元位置と比較するように構成されている、請求項1に記載の視線追跡ユニット。
  6. 前記眼球方位推定モジュールは、
    前記眼球の方位を、撮影された画像と前記眼球のモデルに基づく前記眼球のある特徴の位置を検出することに部分的に基づいて推定するように構成され、
    前記特徴は、角膜の曲率、角膜−強膜界面、角膜の下の虹彩の特徴、及び角膜の頂点からなる群より選択される、請求項1に記載の視線追跡ユニット。
  7. 前記眼球方位推定モジュールは、前記眼球の方位を、前記眼球のヨー、ピッチ、ロール回転と、前記眼球の3次元並進ベクトルを判断することに部分的に基づいて推定するように構成されている、請求項1に記載の視線追跡ユニット。
  8. 前記構造化光パターンは、ドットマトリクス、正弦波状、1本又は複数の線分、及びマルチトーンパターンからなる群より選択される、請求項1に記載の視線追跡ユニット。
  9. 前記構造化光パターンは赤外光を含み、前記カメラは赤外線カメラである、請求項1に記載の視線追跡ユニット。
  10. 視線追跡ユニットであって、
    使用者の第一の眼球を第一の構造化光パターンで照明するように構成された第一の構造化光発光器であって、該第一の構造化光発光器は、第一の光源と、光源からの光を前記第一の構造化光パターンに変換する第一の構造化光素子と、を含み、前記第一の構造化光パターンで照明された前記第一の眼球の表面の一部分によって前記第一の構造化光パターンが歪曲されて第一の歪曲構造化光パターンを形成する、前記第一の構造化光発光器と、
    前記使用者の第二の眼球を第二の構造化光パターンで照明するように構成された第二の構造化光発光器であって、該第二の構造化光発光器は、第二の光源と、光源からの光を前記第二の構造化光パターンに変換する第二の構造化光素子と、を含み、前記第二の構造化光パターンで照明された前記第二の眼球の表面の一部分によって前記第二の構造化光パターンが歪曲されて第二の歪曲構造化光パターンを形成する、前記第二の構造化光発光器と、
    前記第一の眼球の表面の一部分に関連する前記第一の歪曲構造化光パターンの第一の画像を撮像するように構成された第一のカメラと、
    前記第二の眼球の表面の一部分に関連する前記第二の歪曲構造化光パターンの第二の画像を撮像するように構成された第二のカメラと、
    眼球方位推定モジュールであって、
    前記第一の眼球の第一の方位を、前記第一のカメラにより撮影された前記第一の画像とモデルに基づいて推定し、
    前記第二の眼球の第二の方位を、前記第二のカメラにより撮影された前記第二の画像と前記モデルに基づいて推定し、
    前記第一の眼球の瞳孔軸の方向を推定し、
    前記第一の眼球の瞳孔軸の推定された方向を予め設定された角度だけずらして、前記第一の眼球の中心窩軸の方向を推定するように構成された前記眼球方位推定モジュールと、を含む視線追跡ユニット。
  11. 前記視線追跡ユニットは、頭部装着型ディスプレイ(HMD)のコンポーネントであり、
    前記頭部装着型ディスプレイは、前記第一の方位と前記第二の方位を用いて前記使用者の瞳孔間距離を判断するように構成されている、請求項10に記載の視線追跡ユニット。
  12. 前記視線追跡ユニットは、頭部装着型ディスプレイ(HMD)のコンポーネントであり、
    前記頭部装着型ディスプレイは、前記第一の方位と前記第二の方位を用いて前記使用者の注視方向を判断するように構成されている、請求項10に記載の視線追跡ユニット。
  13. 校正モジュールをさらに含み、
    前記校正モジュールは、
    表示素子を制御して、前記表示素子上のある位置に視覚インディケータを表示し、
    前記第一のカメラから、前記第一の構造化光発光器により前記第一の眼球に投射された第三の歪曲構造化光パターンの第三の画像を受け取り、
    前記モデルを、撮影された前記第三の画像に基づいて、前記視覚インディケータの前記位置に基づいてトレーニングするように構成されている、請求項10に記載の視線追跡ユニット。
  14. 前記眼球方位推定モジュールは、
    前記第一の眼球の表面の一部分の形状を、前記第一の撮影された画像における捕捉された第一の歪曲構造化光パターンにおける歪曲に基づいて判断し、
    前記モデルを前記第一の眼球の表面の一部分の判断された形状と比較するように構成されている、請求項10に記載の視線追跡ユニット。
  15. 前記眼球方位推定モジュールは、
    前記第一の撮影された画像の中の複数の照明点の各々の位置を検出し、
    前記照明点の第一の捕捉された画像における位置を、前記第一の構造化光パターンにおける前記照明点の発光器からの対応する角度と比較することに部分的に基づいて、各々の照明点の3次元位置を判断し、
    前記モデルを前記照明点の判断された3次元位置と比較するように構成されている、請求項10に記載の視線追跡ユニット。
  16. 前記眼球方位推定モジュールは、
    前記第一の眼球の方位を、前記第一の撮影された画像と前記モデルに基づく前記第一の眼球のある特徴の位置の検出に部分的に基づいて推定するように構成され、
    前記特徴は、角膜の曲率、角膜−強膜界面、角膜の下の虹彩の特徴、及び角膜の頂点からなる群より選択される、請求項10に記載の視線追跡ユニット。
  17. 前記眼球方位推定モジュールは、前記第一の方位と前記第二の方位を、前記第一の眼球と前記第二の眼球の各々について、前記第一および第二の眼球のそれぞれのヨー、ピッチ、及びロール回転とそれぞれの並進ベクトルの判断に部分的に基づいて推定するように構成されている、請求項10に記載の視線追跡ユニット。
  18. 前記第一の構造化光パターンと前記第二の構造化光パターンは各々、ドットマトリクス、正弦波状、1本又は複数の線分、及びマルチトーンパターンからなる群より選択される、請求項10に記載の視線追跡ユニット。
  19. 方法であって、
    構造化光素子を用いて光を構造化光パターンに変換すること、
    使用者の眼球を前記構造化光パターンで照明することであって、前記構造化光パターンで照明された前記眼球の表面の一部分によって前記構造化光パターンが歪曲されて歪曲構造化光パターンを形成する、前記照明すること、
    前記眼球の表面の一部分上で前記歪曲構造化光パターンの画像を撮像すること、
    撮像された前記画像と眼球のモデルに基づいて、前記眼球の方位を推定すること、を含み、
    前記眼球の方位を推定することは、
    前記眼球の瞳孔軸の方向を推定すること、
    前記瞳孔軸の推定された方向を予め設定された角度だけずらして、前記眼球の中心窩軸の方向を推定すること、を含む、方法。
  20. 表示素子を制御して、前記表示素子上のある位置に視覚インディケータを表示すること、
    前記眼球の表面の一部分に関する第二の歪曲構造化光パターンの第二の画像を撮像すること、
    前記使用者の眼球のモデルを、撮影された第二の画像に基づいて、前記視覚インディケータの位置に基づいてトレーニングすること、をさらに備える請求項19に記載の方法。
  21. 前記眼球の方位を推定することは、
    前記眼球の表面の一部分の形状を、前記撮像された画像における構造化光パターンの歪曲に基づいて判断すること、
    前記眼球のモデルを、前記眼球の表面の一部分の判断された形状と比較すること、をさらに含む、請求項19に記載の方法。
  22. 前記眼球の方位を推定することは、
    撮影された画像において複数の照明点の各々に関する位置を検出すること、
    前記歪曲構造化光パターンの撮影された画像における位置を前記構造化光パターンにおける前記照明点の発光器からの対応する角度と比較することに基づいて、各照明点の3次元位置を判断すること、
    前記眼球のモデルを前記照明点の判断された3次元位置と比較すること、をさらに含む、請求項19に記載の方法。
  23. 前記眼球の方位は、撮影された画像と前記眼球のモデルに基づく前記眼球のある特徴の位置を検出することに部分的に基づいて推定され、
    前記特徴は、角膜の曲率、角膜−強膜界面、角膜の下の虹彩の特徴、及び角膜の頂点からなる群より選択される、請求項19に記載の方法。
  24. 前記眼球の方位は、前記眼球のヨー、ピッチ、ロール回転と、前記眼球の3次元並進ベクトルを判断することに部分的に基づいて推定される、請求項19に記載の方法。
  25. 前記構造化光パターンは、ドットマトリクス、正弦波状、1本又は複数の線分、及びマルチトーンパターンからなる群より選択される、請求項19に記載の方法。
  26. 前記構造化光パターンは赤外光を含み、
    前記画像は、赤外線カメラにより撮像される、請求項19に記載の方法。
JP2018516698A 2015-11-02 2016-11-01 構造化光を用いた視線追跡 Expired - Fee Related JP6586523B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019163757A JP6902075B2 (ja) 2015-11-02 2019-09-09 構造化光を用いた視線追跡

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562249852P 2015-11-02 2015-11-02
US62/249,852 2015-11-02
US15/335,634 US9983709B2 (en) 2015-11-02 2016-10-27 Eye tracking using structured light
US15/335,634 2016-10-27
PCT/US2016/059938 WO2017079172A1 (en) 2015-11-02 2016-11-01 Eye tracking using structured light

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019163757A Division JP6902075B2 (ja) 2015-11-02 2019-09-09 構造化光を用いた視線追跡

Publications (2)

Publication Number Publication Date
JP2019500660A JP2019500660A (ja) 2019-01-10
JP6586523B2 true JP6586523B2 (ja) 2019-10-02

Family

ID=58635627

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018516698A Expired - Fee Related JP6586523B2 (ja) 2015-11-02 2016-11-01 構造化光を用いた視線追跡
JP2019163757A Active JP6902075B2 (ja) 2015-11-02 2019-09-09 構造化光を用いた視線追跡

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019163757A Active JP6902075B2 (ja) 2015-11-02 2019-09-09 構造化光を用いた視線追跡

Country Status (6)

Country Link
US (2) US9983709B2 (ja)
EP (1) EP3341783A4 (ja)
JP (2) JP6586523B2 (ja)
KR (2) KR101962302B1 (ja)
CN (1) CN108351514B (ja)
WO (1) WO2017079172A1 (ja)

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
DE102015204281A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt
CN108135469B (zh) * 2015-08-21 2021-03-09 奇跃公司 使用眼睛姿态测量的眼睑形状估计
AU2016340222B2 (en) 2015-10-16 2021-07-01 Magic Leap, Inc. Eye pose identification using eye features
CN105913487B (zh) * 2016-04-09 2018-07-06 北京航空航天大学 一种基于人眼图像中虹膜轮廓分析匹配的视线方向计算方法
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US10154254B2 (en) 2017-01-17 2018-12-11 Facebook Technologies, Llc Time-of-flight depth sensing for eye tracking
US10485420B2 (en) * 2017-02-17 2019-11-26 Analog Devices Global Unlimited Company Eye gaze tracking
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US10061352B1 (en) * 2017-08-14 2018-08-28 Oculus Vr, Llc Distributed augmented reality system
KR102495234B1 (ko) 2017-09-06 2023-03-07 삼성전자주식회사 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
US10712579B1 (en) * 2017-09-20 2020-07-14 Facebook Technologies, Llc Vortex linearization of micro-LED polarization
EP3462382A1 (en) * 2017-10-02 2019-04-03 Facebook Technologies, LLC Eye tracking system using dense structured light patterns
US10725537B2 (en) * 2017-10-02 2020-07-28 Facebook Technologies, Llc Eye tracking system using dense structured light patterns
US11237628B1 (en) * 2017-10-16 2022-02-01 Facebook Technologies, Llc Efficient eye illumination using reflection of structured light pattern for eye tracking
CN116990888A (zh) 2017-12-10 2023-11-03 奇跃公司 光波导上的抗反射涂层
US11187923B2 (en) 2017-12-20 2021-11-30 Magic Leap, Inc. Insert for augmented reality viewing device
EP3501375A1 (en) * 2017-12-22 2019-06-26 Nokia Technologies Oy An eye monitoring apparatus
US10523930B2 (en) 2017-12-29 2019-12-31 Microsoft Technology Licensing, Llc Mitigating binocular rivalry in near-eye displays
US10477186B2 (en) * 2018-01-17 2019-11-12 Nextvr Inc. Methods and apparatus for calibrating and/or adjusting the arrangement of cameras in a camera pair
KR20200110367A (ko) * 2018-01-17 2020-09-23 매직 립, 인코포레이티드 디스플레이 시스템들에서의 눈 회전 중심 결정, 깊이 평면 선택, 및 렌더 카메라 포지셔닝
GB2571300B (en) 2018-02-23 2020-05-27 Sony Interactive Entertainment Inc Eye tracking method and apparatus
WO2019178567A1 (en) * 2018-03-15 2019-09-19 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
WO2019231850A1 (en) 2018-05-31 2019-12-05 Magic Leap, Inc. Radar head pose localization
WO2019236495A1 (en) 2018-06-05 2019-12-12 Magic Leap, Inc. Homography transformation matrices based temperature calibration of a viewing system
CN108985172A (zh) * 2018-06-15 2018-12-11 北京七鑫易维信息技术有限公司 一种基于结构光的视线追踪方法、装置、设备及存储介质
WO2020010097A1 (en) 2018-07-02 2020-01-09 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
WO2020010226A1 (en) 2018-07-03 2020-01-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US10747009B1 (en) * 2018-07-20 2020-08-18 Facebook Technologies, Llc Symmetrical facet Fresnel combiner
EP3827426A4 (en) 2018-07-24 2022-07-27 Magic Leap, Inc. AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES
EP4270016A3 (en) 2018-07-24 2024-02-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
US11112862B2 (en) 2018-08-02 2021-09-07 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
WO2020028191A1 (en) 2018-08-03 2020-02-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
CN112955073A (zh) 2018-08-22 2021-06-11 奇跃公司 患者观察系统
WO2020042843A1 (en) * 2018-08-27 2020-03-05 Shenzhen GOODIX Technology Co., Ltd. Eye tracking based on imaging eye features and assistance of structured illumination probe light
CN110603513B (zh) * 2018-08-27 2023-08-29 深圳市汇顶科技股份有限公司 一种眼睛跟踪设备及利用光学成像跟踪眼睛的方法
EP3656285B1 (en) * 2018-11-15 2023-04-19 Tobii AB Method and device for calibrating an eye tracker
JP7472127B2 (ja) 2018-11-16 2024-04-22 マジック リープ, インコーポレイテッド 画像鮮明度を維持するための画像サイズによってトリガされる明確化
US11256213B2 (en) 2018-12-17 2022-02-22 Facebook Technologies, Llc Holographic pattern generation for head-mounted display (HMD) eye tracking using an array of parabolic mirrors
US11281160B2 (en) 2018-12-17 2022-03-22 Facebook Technologies, Llc Holographic pattern generation for head-mounted display (HMD) eye tracking using a fiber exposure
US10948873B2 (en) 2018-12-17 2021-03-16 Facebook Technologies, Llc Holographic pattern generation for head-mounted display (HMD) eye tracking using a lens array
US10838362B2 (en) 2018-12-17 2020-11-17 Facebook Technologies, Llc Holographic pattern generation for head-mounted display (HMD) eye tracking using a prism array
US11409240B2 (en) 2018-12-17 2022-08-09 Meta Platforms Technologies, Llc Holographic pattern generation for head-mounted display (HMD) eye tracking using a diffractive optical element
US10816809B2 (en) 2018-12-17 2020-10-27 Facebook Technologies, Llc Holographic in-field illuminator
US10942489B2 (en) 2018-12-17 2021-03-09 Facebook Technologies, Llc Wide-field holographic pattern generation for head-mounted display (HMD) eye tracking
CN109711302B (zh) * 2018-12-18 2019-10-18 北京诺亦腾科技有限公司 模型参数校准方法、装置、计算机设备和存储介质
US10996751B2 (en) * 2018-12-21 2021-05-04 Tobii Ab Training of a gaze tracking model
US10963103B1 (en) 2018-12-24 2021-03-30 Facebook Technologies, Llc Display system with integrated depth detection
CN111435069B (zh) * 2019-01-14 2022-07-08 顺丰科技有限公司 测量体积的方法和装置
US11458040B2 (en) * 2019-01-23 2022-10-04 Meta Platforms Technologies, Llc Corneal topography mapping with dense illumination
US11686935B2 (en) * 2019-01-29 2023-06-27 Meta Platforms Technologies, Llc Interferometric structured illumination for depth determination
US11861941B1 (en) * 2019-02-06 2024-01-02 Apple Inc. Eye camera systems with polarized light
US11326763B1 (en) 2019-02-06 2022-05-10 Apple Inc. Light-emitting diodes with optical filters
JP2022523852A (ja) 2019-03-12 2022-04-26 マジック リープ, インコーポレイテッド 第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ
EP3944059A4 (en) * 2019-03-18 2022-12-21 Sony Interactive Entertainment Inc. INPUT DEVICE
TWI726445B (zh) * 2019-04-08 2021-05-01 宏達國際電子股份有限公司 頭戴式顯示裝置
US11176367B1 (en) * 2019-05-01 2021-11-16 Facebook Technologies, Llc Apparatuses, systems, and methods for mapping a surface of an eye via an event camera
WO2021006903A1 (en) * 2019-07-11 2021-01-14 Hewlett-Packard Development Company, L.P. Eye-tracking for displays
JP2022540675A (ja) 2019-07-16 2022-09-16 マジック リープ, インコーポレイテッド 1つ以上の眼追跡カメラを用いた眼回転中心の決定
JP2022542363A (ja) 2019-07-26 2022-10-03 マジック リープ, インコーポレイテッド 拡張現実のためのシステムおよび方法
CN114175629A (zh) * 2019-07-26 2022-03-11 惠普发展公司, 有限责任合伙企业 基于捕捉的图像内的被识别的点来修改投射的结构光
CN112394515B (zh) * 2019-08-13 2022-06-07 宏达国际电子股份有限公司 头戴式显示器
CN112684604A (zh) 2019-10-18 2021-04-20 宏达国际电子股份有限公司 头戴式显示装置及调整方法
JP2023502927A (ja) 2019-11-15 2023-01-26 マジック リープ, インコーポレイテッド 外科手術環境において使用するための視認システム
KR20210117062A (ko) 2020-03-18 2021-09-28 한국전자통신연구원 시선 추적 방법 및 장치
KR102460821B1 (ko) * 2020-10-28 2022-10-28 재단법인대구경북과학기술원 증강 현실 장치 및 증강 현실 장치의 동작 방법
WO2022158795A1 (ko) * 2021-01-21 2022-07-28 삼성전자 주식회사 사용자의 시선을 검출하는 증강 현실 장치 및 방법
KR20220111144A (ko) * 2021-02-01 2022-08-09 삼성전자주식회사 HMD(head mounted display)의 영상 처리 방법 및 이 방법을 실행하는 HMD
CN112926523B (zh) * 2021-03-30 2022-07-26 青岛小鸟看看科技有限公司 基于虚拟现实的眼球追踪方法、系统
CN113251951B (zh) * 2021-04-26 2024-03-01 湖北汽车工业学院 基于单标定面映射的线结构光视觉测量系统的标定方法
US12019240B2 (en) 2021-08-06 2024-06-25 Hong Kong Applied Science and Technology Research Institute Company Limited Imaging apparatus integrated with display for head-mounted display
SE2151198A1 (en) * 2021-09-30 2023-03-31 Tobii Ab Gaze defect compensation
US11900845B2 (en) 2021-10-28 2024-02-13 Samsung Electronics Co., Ltd. System and method for optical calibration of a head-mounted display
DE102021128135A1 (de) 2021-10-28 2023-05-04 Robert Bosch Gesellschaft mit beschränkter Haftung Laservorrichtung, Scanvorrichtung und ein Verfahren zum Herstellen einer Laservorrichtung
CN114360043B (zh) * 2022-03-18 2022-06-17 南昌虚拟现实研究院股份有限公司 模型参数标定方法、视线追踪方法、装置、介质及设备
WO2023211792A1 (en) * 2022-04-25 2023-11-02 Twenty Twenty Therapeutics Llc Mapping of corneal topography using a vr headset
CN114972613A (zh) * 2022-04-28 2022-08-30 广州时秤信息技术有限公司 虚拟角色的瞳孔处理方法、装置、设备及存储介质
US12022182B2 (en) * 2022-05-26 2024-06-25 Motorola Mobility Llc Visual feature based video effects
KR20240020960A (ko) * 2022-08-09 2024-02-16 삼성전자주식회사 시선 방향을 식별하는 전자 장치 및 그 작동 방법
US11950000B2 (en) 2022-09-07 2024-04-02 Microsoft Technology Licensing, Llc Resolution enhancement in spatial-frequency space
US20240094533A1 (en) * 2022-09-20 2024-03-21 Meta Platforms Technologies, Llc Optically powered lens assembly for head-mounted devices

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3298081B2 (ja) 1994-12-06 2002-07-02 日本電信電話株式会社 ヘッドマウントディスプレイ装置
US6659611B2 (en) * 2001-12-28 2003-12-09 International Business Machines Corporation System and method for eye gaze tracking using corneal image mapping
WO2006013901A1 (ja) 2004-08-04 2006-02-09 Asahi Glass Company, Limited 液晶レンズ素子および光ヘッド装置
US20060210111A1 (en) 2005-03-16 2006-09-21 Dixon Cleveland Systems and methods for eye-operated three-dimensional object location
KR20130011692A (ko) 2011-07-22 2013-01-30 삼성전자주식회사 깊이 영상과 컬러 영상을 획득하는 픽셀 구조를 가진 이미지 센서
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US8955973B2 (en) 2012-01-06 2015-02-17 Google Inc. Method and system for input detection using structured light projection
US20130241805A1 (en) 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
EP2893388B1 (en) * 2012-09-03 2016-08-03 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Head mounted system and method to compute and render a stream of digital images using a head mounted system
US20140085426A1 (en) 2012-09-24 2014-03-27 Alces Technology, Inc. Structured light systems with static spatial light modulators
US9123142B2 (en) * 2012-10-02 2015-09-01 At&T Intellectual Property I, L.P. Adjusting content display orientation on a screen based on user orientation
TWI481901B (zh) 2012-12-03 2015-04-21 Wistron Corp 頭戴式顯示裝置
RU2012154657A (ru) 2012-12-17 2014-06-27 ЭлЭсАй Корпорейшн Способы и устройство для объединения изображений с глубиной, генерированных с использованием разных способов формирования изображений с глубиной
JP2014219621A (ja) 2013-05-10 2014-11-20 株式会社タイトー 表示装置、表示制御プログラム
KR102098277B1 (ko) 2013-06-11 2020-04-07 삼성전자주식회사 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US9498114B2 (en) * 2013-06-18 2016-11-22 Avedro, Inc. Systems and methods for determining biomechanical properties of the eye for applying treatment
US10061028B2 (en) 2013-09-05 2018-08-28 Texas Instruments Incorporated Time-of-flight (TOF) assisted structured light imaging
US20150102981A1 (en) 2013-10-11 2015-04-16 Microsoft Corporation Eye tracking
JP6146293B2 (ja) 2013-12-25 2017-06-14 ソニー株式会社 制御装置、制御方法および制御システム
US9671612B2 (en) 2014-01-29 2017-06-06 Google Inc. Dynamic lens for head mounted display
US9898865B2 (en) * 2015-06-22 2018-02-20 Microsoft Technology Licensing, Llc System and method for spawning drawing surfaces
US10241569B2 (en) 2015-12-08 2019-03-26 Facebook Technologies, Llc Focus adjustment method for a virtual reality headset

Also Published As

Publication number Publication date
JP6902075B2 (ja) 2021-07-14
US10268290B2 (en) 2019-04-23
KR20180064413A (ko) 2018-06-14
KR20190031599A (ko) 2019-03-26
JP2019500660A (ja) 2019-01-10
EP3341783A4 (en) 2019-11-20
CN108351514B (zh) 2019-11-22
EP3341783A1 (en) 2018-07-04
JP2020034919A (ja) 2020-03-05
CN108351514A (zh) 2018-07-31
KR101962302B1 (ko) 2019-03-26
US9983709B2 (en) 2018-05-29
WO2017079172A1 (en) 2017-05-11
US20180246590A1 (en) 2018-08-30
US20170123526A1 (en) 2017-05-04

Similar Documents

Publication Publication Date Title
JP6586523B2 (ja) 構造化光を用いた視線追跡
US10257507B1 (en) Time-of-flight depth sensing for eye tracking
US11016301B1 (en) Accommodation based optical correction
JP6576574B2 (ja) 眼球モデルを生成するための角膜球追跡
JP6886510B2 (ja) 視線追跡情報に基づく画像領域内の適応パラメータ
US10614577B1 (en) Eye tracking system with single point calibration
US10878236B2 (en) Eye tracking using time multiplexing
US10025384B1 (en) Eye tracking architecture for common structured light and time-of-flight framework
CN108352075B (zh) 使用光流的眼睛跟踪
US10725537B2 (en) Eye tracking system using dense structured light patterns
US11238340B1 (en) Predictive eyetracking using recurrent neural networks
JP6560463B1 (ja) ヘッドマウントディスプレイ内の顔センサを使用する顔および目のトラッキングおよび顔アニメーション
JP7030317B2 (ja) 瞳孔検出装置及び瞳孔検出方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180709

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180919

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180919

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180919

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190909

R150 Certificate of patent or registration of utility model

Ref document number: 6586523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees