JP2017012746A - 視線追跡デバイスおよび前記視線追跡デバイスを埋め込む頭部装着型デバイス - Google Patents

視線追跡デバイスおよび前記視線追跡デバイスを埋め込む頭部装着型デバイス Download PDF

Info

Publication number
JP2017012746A
JP2017012746A JP2016124627A JP2016124627A JP2017012746A JP 2017012746 A JP2017012746 A JP 2017012746A JP 2016124627 A JP2016124627 A JP 2016124627A JP 2016124627 A JP2016124627 A JP 2016124627A JP 2017012746 A JP2017012746 A JP 2017012746A
Authority
JP
Japan
Prior art keywords
light
eye
tracking device
user
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016124627A
Other languages
English (en)
Other versions
JP2017012746A5 (ja
JP6850557B6 (ja
JP6850557B2 (ja
Inventor
ドレ ルノー
Renaud Dore
ドレ ルノー
ギャルピン フランク
Galpin Franck
ギャルピン フランク
ヴァンダーメ ブノア
Vandame Benoit
ヴァンダーメ ブノア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2017012746A publication Critical patent/JP2017012746A/ja
Publication of JP2017012746A5 publication Critical patent/JP2017012746A5/ja
Application granted granted Critical
Publication of JP6850557B2 publication Critical patent/JP6850557B2/ja
Publication of JP6850557B6 publication Critical patent/JP6850557B6/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules

Abstract

【課題】使用者の視線の確実かつ正確な追跡が可能な視線追跡デバイスを提供する。【解決手段】視線追跡デバイスを備える頭部装着型デバイスであって、使用者の目103の表面上に赤外光108を投影するように構成された複数の光源101と、使用者の目の表面から反射された赤外光108を捕捉するライトフィールドカメラ104を備え、ライトフィールドカメラ104は、複数のマイクロレンズ106からなるマイクロレンズアレイ105が装備される。【選択図】図1

Description

本開示は、一般に、とりわけ目の開きが狭い使用者向けの、使用者の視線の確実かつ正確な追跡を提供することが可能な視線追跡デバイスに関する。
視線追跡は、人間の頭部に対する注視点または目の動きを測定するプロセスである。視線追跡デバイスは、眼位および眼球運動を測定することが可能なデバイスである。
国際公開第2013/167864号に開示されているように、視線追跡は、頭部装着型デバイスまたはHMDの主要な特徴である。なぜならそれは、頭部の移動度の限界を超えたところに配置された物体を視るように、そのようなHMDの使用者の能力を拡張することができるからである。1つの視線追跡技術は、HMDの使用者の目の位置を決定するために、使用者の目の中に赤外光を投影し、1次プルキンエ反射および瞳孔がマスクされた反射を利用することからなる。この方法は、使用者の目の前に配置されたビームスプリッタを用いて使用者の注視点を特徴付けるベクトルを設定するために、反射された画像の相対的な動きを追跡することからなる。この結果得られる視線追跡デバイスは、大きくて扱いにくく、HMD内に埋め込むのが困難である。この方法の別の制限は、照明方式と反射された画像の幾何学図形的配列との組合せのために制限された視野である。
本発明は、上記を考慮に入れて考案した。
本発明の第1の特徴は、視線追跡デバイスにかかわり、視線追跡デバイスは、
− 前記視線追跡デバイスの使用者の目の表面上に赤外光を投影するように構成された複数の光源と、
− 上記使用者の上記目の上記表面から反射された上記赤外光を捕捉するライトフィールドカメラと、
を備える。
本発明による視線追跡デバイスの実施形態では、上記光源は、上記使用者の上記目の視野の周辺部に配置される。
本発明による視線追跡デバイスの実施形態では、上記ライトフィールドカメラは、上記使用者の上記目の視野の周辺部に配置される。
本発明による視線追跡デバイスの実施形態では、上記光源は、偏光された赤外光を放出する。
本発明による視線追跡デバイスの実施形態では、少なくとも上記ライトフィールドカメラのマイクロレンズアレイのマイクロレンズに、偏光フィルターが装備される。
本発明の第2の特徴は、少なくとも1つの視線追跡デバイスを備える頭部装着型デバイスにかかわり、視線追跡デバイスは、
− 前記視線追跡デバイスの使用者の目の表面上に赤外光を投影するように構成された複数の光源と、
− 上記使用者の上記目の上記表面から反射された上記赤外光を捕捉するライトフィールドカメラと、
を備える。
本発明による頭部装着型デバイスの実施形態によると、上記光源は、上記頭部装着型デバイスのフレームの縁上に配置される。
本発明による頭部装着型デバイスの実施形態によると、上記ライトフィールドカメラは、上記頭部装着型デバイスの上記フレームの上記縁上に配置される。
本発明による頭部装着型デバイスの実施形態によると、上記ライトフィールドカメラは、上記頭部装着型デバイスの上記フレームの側部上に埋め込まれる。
本発明の要素によって実施されるいくつかのプロセスは、コンピュータで実施することができる。したがって、そのような要素は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、またはソフトウェアとハードウェアの特徴を組み合わせた実施形態の形をとることができ、本明細書ではすべてを全体として、「回路」、「モジュール」、または「システム」と呼ぶことができる。さらに、そのような要素は、任意の有形表現媒体内で実施されるコンピュータプログラム製品の形をとることができ、媒体内で実施されるコンピュータ使用可能プログラムコードを有する。
本発明の要素は、ソフトウェアで実施することができるため、本発明は、任意の適したキャリア媒体上のプログラム可能装置に提供するためのコンピュータ可読コードとして実施することができる。有形のキャリア媒体は、フロッピーディスク、CD−ROM、ハードディスクドライブ、磁気テープデバイス、または固体状態メモリデバイスなどの記憶媒体を含むことができる。一時的なキャリア媒体は、電気信号、電子信号、光信号、音響信号、磁気信号、または電磁信号、たとえばマイクロ波またはRF信号などの信号を含むことができる。
本発明の実施形態について、例示のみを目的として、以下の図面を参照しながら、次に説明する。
本発明の実施形態による視線追跡デバイスを表す図である。 本発明の実施形態による視線追跡デバイスのライトフィールドカメラのマイクロレンズアレイのマイクロレンズを表す図である。 本発明の実施形態による視線追跡デバイスのライトフィールドカメラによって取得されるライトフィールドデータを処理する装置を示す概略ブロック図である。 本発明の実施形態による視線追跡デバイスを埋め込む頭部装着型デバイスを表す図である。
当業者には理解されるように、本原理の特徴は、システム、方法、またはコンピュータ可読媒体として実施することができる。したがって、本原理の特徴は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、またはソフトウェアとハードウェアの特徴を組み合わせた実施形態の形をとることができ、本明細書ではすべてを全体として、「回路」、「モジュール」、または「システム」と呼ぶことができる。さらに、本原理の特徴は、コンピュータ可読記憶媒体の形をとることができる。1つまたは複数のコンピュータ可読記憶媒体の任意の組合せを利用することができる。
図1は、本発明の実施形態による視線追跡デバイス100を表す。そのような視線追跡デバイス100は、たとえばあご当てを備える固定の支持体上に装着することができ、または持ち運びできるデバイスとして実施することができる。本説明では以下、視線追跡デバイス100は、持ち運びできるタイプであると仮定するが、以下に記載する本発明の実施形態は、固定の支持体上に装着される視線追跡デバイス上でも同様に実施することができる。
図1に表す視線追跡デバイス100は、使用者の左目向けに設計される。使用者の右目向けに適合された視線追跡デバイスは、図1に示す視線追跡デバイス100に対して対称である。
視線追跡デバイス100は、複数の光源101を備える。光源101は、赤外光源またはIR光源101である。IR光源101は、視線追跡デバイス100のフレーム102上に配置される。このようにして、IR光源101は目103の視野の周辺部に配置されるため、IR光源101は、視線追跡デバイス100の使用者の目103の視野内に位置しない。本発明の実施形態では、IR光源101は、円板、長方形などの開口とすることができる。
視線追跡デバイス100のフレーム102内に、ライトフィールドカメラ104が埋め込まれる。したがって、IR光源101と同様に、ライトフィールドカメラ104も、目103の視野の周辺部に配置される。ライトフィールドカメラ104は、複数のマイクロレンズ106を備えるマイクロレンズアレイ105を備える。
円板部分107aは、右側を見ている目103を表す。IR光源101によって放出されるIR光108aは、右側を見ている目107aに当たって入射角θ1で反射する。反射したIR光108bは、マイクロレンズ106を通ってライトフィールドカメラ104によって捕捉される。
円板部分107bは、左側を見ている目103を表す。IR光源101によって放出されるIR光109aは、左側を見ている目107bに当たって入射角θ2で反射する。反射したIR光109bは、マイクロレンズ106を通ってライトフィールドカメラ104によって捕捉される。
ライトフィールドカメラ104によって捕捉される画像内の信号対雑音比を増大させ、したがって得られる視線追跡情報の精度の増大を与えるため、目に当たるIR光の反射を可能な限り多く生成することが重要である。この目標を実現するために、IR光源101は、IR光源101によって放出されるIR光がライトフィールドカメラ104のセンサの少なくとも1つの画素によって捕捉されるようなパターンで、視線追跡デバイス100のフレームの周囲全体にわたって配置することができる。
本発明の別の実施形態では、使用者の視線の測定の感度を増大させるために、IR光が目103の表面に当たって反射する際に目103の表面に対して法線方向のベクトルに関係する追加情報が使用される。実際には、目103の表面に対して法線方向のベクトルに関する知識は、目103の向きを計算することを有効にする。
目103の表面に対して法線方向のベクトルに関係するそのような情報は、IR光を偏光させることによって得られる。
本発明の第1の実施形態では、IR光源101は、偏光されたIR光を放出する。IR光の偏光は、IR光源101に偏光フィルターを装備することによって実現することができる。
図2に表す本発明の第2の実施形態では、ライトフィールドカメラ200のマイクロレンズアレイ202のマイクロレンズ201に偏光フィルターが装備される。たとえば、マイクロレンズ201には、2つの異なるタイプの偏光フィルター203、204が装備される。たとえば、偏光フィルター203、204は、直線偏光タイプとすることができ、偏光フィルター203、204の偏光は互いに直交している。偏光フィルター203、204はまた、円偏光タイプとすることができ、偏光フィルター203、204の偏光は互いに逆向きである。
IR光源101によって放出された偏光されていないIR光が眼球の表面に当たる反射は、自然偏光を提供することができる。実際には、放出されたIR光の入射角がブルースター角に等しくなることが標的とされるとき、反射したIR光の偏光は、平行偏光に近くなり、すなわち反射したIR光の偏光は、入射するIR光および反射したIR光によって画定される平面に直交する。ブルースター角は、眼球に当たるIR光の反射が生じる位置で眼球の表面に対する法線ベクトルによって画定され、他の媒体が空気であることを考慮して、眼球の透明媒体材料の屈折率にのみ依存する。ブルースター角の値は、それ自体が測定されるのではなく、偏光効果を通じて光に与えられる効果だけが検出される。
したがって、本発明の別の実施形態では、IR光源101のいくつかは、偏光されたIR光を放出するのに対して、他のIR光源101は、偏光されていないIR光を放出する。偏光されていないIR光を放出するIR光源は、放出されるIR光の入射角と、この入射角に応じて眼球に入射するIR光の反射が反射したIR光の自然偏光をもたらすという知識とに基づいて選択される。
本発明の別の実施形態では、偏光されたIR光を放出するIR光源101の選択は動的であり、使用者の目の現在の位置に基づく。したがって、使用者の目の現在の位置に応じて、所与のIR光源101は、偏光されたIR光を放出し、または偏光されたIR光を放出しない。
使用者の目の位置を決定するために、ライトフィールドカメラ104、200によって捕捉されるIR光に関係する情報は、画像処理デバイスへ送信される。本発明の実施形態では、画像処理デバイスおよび視線追跡デバイス100は、頭部装着型デバイスまたはHMDなどの同じ装置内に埋め込まれる。本発明の別の実施形態では、画像処理デバイスおよび視線追跡デバイス100は、互いから離れた2つの別個のデバイスである。視線追跡デバイス100のライトフィールドカメラ104によって捕捉されるIR光に関係する情報は、ケーブルまたは無線通信を介して画像処理デバイスへ送信される。本発明のそのような実施形態では、視線追跡デバイス100は、頭部装着型デバイス内に埋め込まれるのに対して、画像処理デバイスは、たとえばコンピュータ内に埋め込まれる。
図3は、本発明の実施形態による視線追跡デバイス100のライトフィールドカメラ104によって取得されたライトフィールドデータを処理する装置の例を示す概略ブロック図である。
装置300は、バス306によって接続されたプロセッサー301、記憶ユニット302、入力デバイス303、ディスプレイデバイス304、およびインターフェースユニット305を備える。当然ながら、コンピュータ装置300の構成要素は、バス接続以外の接続によって接続することもできる。
プロセッサー301は、装置300の動作を制御する。記憶ユニット302は、プロセッサー301によって実行されるべき少なくとも1つのプログラムと、ライトフィールドカメラ104によって取得されまたは視線追跡デバイス100によって提供されるライトフィールドデータ、プロセッサー301によって実行される演算によって使用されるパラメータ、プロセッサー301によって実行される演算の中間データなどを含む様々なデータとを記憶する。プロセッサー301は、任意の知られている適したハードウェアもしくはソフトウェア、またはハードウェアおよびソフトウェアの組合せによって形成することができる。たとえば、プロセッサー301は、処理回路などの専用のハードウェアによって、またはそのメモリ内に記憶されたプログラムを実行するCPU(中央処理ユニット)などのプログラム可能処理ユニットによって、形成することができる。
記憶ユニット302は、プログラム、データなどをコンピュータ可読に記憶することが可能な任意の適した記憶部または手段によって形成することができる。記憶ユニット302の例は、半導体メモリデバイスなどの非一時的コンピュータ可読記憶媒体、および読み書きユニット内へロードされる磁気、光、または光磁気記録媒体を含む。プログラムは、プロセッサー301に学習プロセスおよび分類プロセスを実行させる。
入力デバイス303は、使用者によってコマンドを入力するために使用されるキーボード、マウスなどのポインティングデバイスなどによって形成することができる。出力デバイス304は、たとえばグラフィカルユーザインターフェース(GUI)を表示するためのディスプレイデバイスによって形成することができる。入力デバイス303および出力デバイス304は、たとえばタッチスクリーンパネルによって一体形成することができる。
インターフェースユニット305は、装置300と外部装置との間のインターフェースを提供する。インターフェースユニット305は、ケーブルまたは無線通信を介して外部装置に通信可能とすることができる。実施形態では、外部装置は、視線追跡デバイス100を埋め込む頭部装着型デバイスまたは視線追跡デバイス100自体とすることができる。この場合、視線追跡デバイス100のライトフィールドカメラ104によって取得されるライトフィールドデータは、インターフェースユニット305を通って視線追跡デバイス100から装置300へ入力することができ、次いで記憶ユニット302内に記憶することができる。
この実施形態では、装置300について、それは視線追跡デバイス100から分離されるがそれらはケーブルまたは無線通信を介して互いに通信可能であるものとして、例示的に論じる。
学習プロセスは、複数の眼位が検索される訓練期間からなり、学習プロセスの例は、効率的かつ正確なニューラルネットワークまたは任意の他の機械学習プロセスの使用に依拠することができる。したがって、訓練期間中、IR光が目によって反射された後にライトフィールドカメラ104によって捕捉されるIR光源101によって放出されたIR光に関係するデータは、複数の眼位に対して装置300の記憶ユニット302内に記憶される。これらの記憶された位置は、たとえば動いている制御された標的または任意の他の較正手段の使用を通じて決定することができる。パターンは、ライトフィールドカメラ104によって捕捉される複数の画像内の複数の反射光点として画定され、捕捉された画像内の位置ならびにそれぞれの反射光点の強度は、装置300の記憶ユニット302内に記憶される。
次いで、プロセッサー301は、目の推定位置を決定する識別プロセスを走らせる。識別プロセスは、訓練期間後、プロセッサー301によってリアルタイムで実行される。学習プロセスの結果、すなわち記憶ユニット302によって記憶されるIR光源101によって放出されたIR光の反射パターンを使用して、使用者の目の位置をリアルタイムで決定することが可能である。
本発明の異なる実施形態による視線追跡デバイス100は、捕捉されたIR光に関係する情報を与え、この情報は、処理された後、特にアジア人の目などの狭い開きを有する目向けの、正確かつ確実な視線の追跡を有効にする。これは、空間的な相違を導入するライトフィールドカメラ104の使用のために可能になる。視線追跡の精度は、空間的な相違に加えて偏光に相違を導入することによって増大される。
図4は、頭部装着型デバイス400の使用者の左目401aおよび右目401bの位置をそれぞれ決定するための2つの視線追跡デバイスを埋め込む頭部装着型デバイス400を表す。
視線追跡デバイスは、複数の光源402aおよび402bを備える。光源402a、402bはIR光源である。IR光源402a、402bは、頭部装着型デバイス400のフレーム403上に配置される。本発明による頭部装着型デバイス400の実施形態で、IR光源402a、402bは、頭部装着型デバイス400のフレーム403の縁404内に埋め込まれる。このようにして、IR光源402a、402bは、頭部装着型デバイス400の使用者の目401a、401bの視野内に位置しない。本発明の別の実施形態では、IR光源402a、402bはまた、頭部装着型デバイス400のフレーム403の側部405a、405b内に埋め込まれる。
本発明の実施形態では、視線追跡デバイスの空間的なサンプリングを改善するために、頭部装着型デバイス400内に2次IR光源(図示せず)が埋め込まれる。2次IR光源によって放出されるIR光は、まず、頭部装着型デバイス400の主レンズまたは主ディスプレイに当たって反射する。本発明の実施形態では、2次IR光源は、卵形の幾何学図形的配列を呈する開口とすることができ、または格子とすることができる。
頭部装着型デバイス400のフレーム403内に、ライトフィールドカメラ406a、406bが埋め込まれる。したがって、IR光源402a、402bと同様に、ライトフィールドカメラ406a、406bも、目401a、401bの視野の周辺部に配置される。ライトフィールドカメラ406a、406bは、複数のマイクロレンズを備えるマイクロレンズアレイを備える。
頭部装着型デバイス400の別の実施形態では、ライトフィールドカメラ406a、406bは、頭部装着型デバイス400のフレーム403の側部405a、405b上に埋め込まれる。
使用者の視線の測定の感度を増大させるために、頭部装着型デバイス400の第1の実施形態では、IR光源402a、402bは、偏光されたIR光を放出する。IR光の偏光は、IR光源402a、402bに偏光フィルターを装備することによって実現することができる。
頭部装着型デバイス400の第2の実施形態では、ライトフィールドカメラ406a、406bのマイクロレンズアレイのマイクロレンズに偏光フィルターが装備される。
IR光源101によって放出された偏光されていないIR光が眼球の表面に当たる反射は、自然偏光を提供することができる。したがって、頭部装着型デバイス400の第3の実施形態では、IR光源402a、402bのいくつかは、偏光されたIR光を放出するのに対して、他のIR光源402a、402bは、偏光されていないIR光を放出する。偏光されていないIR光を放出するIR光源は、放出されるIR光の入射角と、この入射角に応じて眼球に当たる入射するIR光の反射が反射したIR光の自然偏光をもたらすという知識とに基づいて選択される。
頭部装着型デバイス400の別の実施形態では、偏光されたIR光を放出するIR光源402a、402bの選択は動的であり、使用者の目の現在の位置に基づく。したがって、使用者の目の現在の位置に応じて、所与のIR光源402a、402bは、偏光されたIR光を放出し、または偏光されたIR光を放出しない。
使用者の目の位置を決定するために、ライトフィールドカメラ406a、406bによって捕捉されるIR光に関係する情報は、画像処理デバイスへ送信される。本発明の実施形態では、画像処理デバイスは、頭部装着型デバイス400内に埋め込まれる。本発明の別の実施形態では、画像処理デバイスおよび頭部装着型デバイス400は、互いから離れた2つの別個のデバイスである。ライトフィールドカメラ406a、406bによって捕捉されるIR光に関係する情報は、ケーブルまたは無線通信を介して画像処理デバイスへ送信される。
本発明について特有の実施形態を参照して上記で記載したが、本発明は、特有の実施形態に限定されるものではなく、本発明の範囲内の当業者には修正形態が明らかであろう。
多くのさらなる修正形態および変形形態は、本発明の範囲を限定しようとするものではなく例示のみを目的として与えられる説明に役立つ上記の実施形態を参照すれば当業者には想到されよう。本発明の範囲は、添付の特許請求の範囲のみによって決定される。特に、異なる実施形態からの異なる特徴は、適宜入れ替えられる。

Claims (9)

  1. 視線追跡デバイスであって、
    − 前記視線追跡デバイスの使用者の目の表面上に赤外光を投影するように構成された複数の光源と、
    − 前記使用者の前記目の前記表面から反射された前記赤外光を捕捉するライトフィールドカメラと、
    を備える、前記視線追跡デバイス。
  2. 前記光源は、前記使用者の前記目の視野の周辺部に配置される、請求項1に記載の視線追跡デバイス。
  3. 前記ライトフィールドカメラは、前記使用者の前記目の視野の周辺部に配置される、請求項1または2に記載の視線追跡デバイス。
  4. 前記光源は、偏光された赤外光を放出する、請求項1乃至3のいずれか一項に記載の視線追跡デバイス。
  5. 少なくとも前記ライトフィールドカメラのマイクロレンズアレイのマイクロレンズに、偏光フィルターが装備される、請求項1乃至3のいずれか一項に記載の視線追跡デバイス。
  6. 少なくとも1つの視線追跡デバイスを備える頭部装着型デバイスであって、
    − 前記視線追跡デバイスの使用者の目の表面上に赤外光を投影するように構成された複数の光源と、
    − 前記使用者の前記目の前記表面から反射された前記赤外光を捕捉するライトフィールドカメラと、
    を備える、前記頭部装着型デバイス。
  7. 前記光源は、前記頭部装着型デバイスのフレームの縁上に配置される、請求項6に記載の頭部装着型デバイス。
  8. 前記ライトフィールドカメラは、前記頭部装着型デバイスの前記フレームの前記縁上に配置される、請求項6または7に記載の頭部装着型デバイス。
  9. 前記ライトフィールドカメラは、前記頭部装着型デバイスの前記フレームの側部上に埋め込まれる、請求項8に記載の頭部装着型デバイス。
JP2016124627A 2015-06-30 2016-06-23 視線追跡デバイスおよび前記視線追跡デバイスを埋め込む頭部装着型デバイス Active JP6850557B6 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15306047.0 2015-06-30
EP15306047.0A EP3112922A1 (en) 2015-06-30 2015-06-30 A gaze tracking device and a head mounted device embedding said gaze tracking device

Publications (4)

Publication Number Publication Date
JP2017012746A true JP2017012746A (ja) 2017-01-19
JP2017012746A5 JP2017012746A5 (ja) 2019-07-25
JP6850557B2 JP6850557B2 (ja) 2021-03-31
JP6850557B6 JP6850557B6 (ja) 2021-05-26

Family

ID=53524700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016124627A Active JP6850557B6 (ja) 2015-06-30 2016-06-23 視線追跡デバイスおよび前記視線追跡デバイスを埋め込む頭部装着型デバイス

Country Status (5)

Country Link
US (1) US20170004363A1 (ja)
EP (1) EP3112922A1 (ja)
JP (1) JP6850557B6 (ja)
KR (1) KR20170003442A (ja)
CN (1) CN106324831A (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10120442B2 (en) * 2016-12-21 2018-11-06 Oculus Vr, Llc Eye tracking using a light field camera on a head-mounted display
US10108261B1 (en) * 2017-07-05 2018-10-23 Oculus Vr, Llc Eye tracking based on light polarization
CN107661086A (zh) * 2017-08-04 2018-02-06 上海志听医疗科技有限公司 一种使用移动视觉记录设备收集眼睛运动数据的系统
CN107661085A (zh) * 2017-08-04 2018-02-06 上海志听医疗科技有限公司 一种实时收集眼动和头部位置及稳定性数据的方法
CN107595291A (zh) * 2017-08-04 2018-01-19 上海志听医疗科技有限公司 一种安装到移动视觉记录设备的计算机可读介质
CN107515466B (zh) 2017-08-14 2019-11-26 华为技术有限公司 一种眼球追踪系统和眼球追踪方法
US20190129174A1 (en) * 2017-10-31 2019-05-02 Google Llc Multi-perspective eye-tracking for vr/ar systems
US10311584B1 (en) 2017-11-09 2019-06-04 Facebook Technologies, Llc Estimation of absolute depth from polarization measurements
US10725292B2 (en) * 2018-02-01 2020-07-28 Varjo Technologies Oy Gaze-tracking system and aperture device
WO2019154511A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2019154509A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
CN110596889A (zh) * 2018-06-13 2019-12-20 托比股份公司 眼睛跟踪装置和制造眼睛跟踪装置的方法
EP3627194A1 (en) * 2018-09-20 2020-03-25 Essilor International An optical device with reduced reflection in deep red, near infrared and visible ranges
US11537202B2 (en) 2019-01-16 2022-12-27 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
CN112578556B (zh) * 2019-09-27 2023-02-21 托比股份公司 用于减少来自光学装置的不合需的反射的眼睛跟踪系统
CN113138664A (zh) * 2021-03-30 2021-07-20 青岛小鸟看看科技有限公司 基于光场感知的眼球追踪系统、方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08278134A (ja) * 1995-03-24 1996-10-22 Commiss Energ Atom 目標物上の眼の固定点の位置を測定するための装置、眼の照明方法、及び眼の動きにより変化する画像を表示するための応用
JP2012085747A (ja) * 2010-10-18 2012-05-10 Panasonic Corp 注意状態判別システム、方法、コンピュータプログラムおよび注意状態判別装置
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体
WO2014030158A1 (en) * 2012-08-24 2014-02-27 Ic Inside Ltd Visual aid projector
JP2015061595A (ja) * 2013-09-19 2015-04-02 ジーエヌ オトメトリックス エー/エスGN Otometrics A/S 目の動きを観察するためのヘッドギア
WO2015130849A1 (en) * 2014-02-25 2015-09-03 Eyeverify Eye gaze tracking
WO2016149416A1 (en) * 2015-03-16 2016-09-22 Magic Leap, Inc. Methods and systems for diagnosing and treating health ailments
JP2016539717A (ja) * 2013-12-09 2016-12-22 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH 目追跡のロバスト性を改善するアクティブ照明制御を行う目追跡装置動作方法及び目追跡装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6871951B2 (en) * 2000-06-23 2005-03-29 E-Vision, Llc Electro-optic lens with integrated components
US8228417B1 (en) * 2009-07-15 2012-07-24 Adobe Systems Incorporated Focused plenoptic camera employing different apertures or filtering at different microlenses
US20110170061A1 (en) * 2010-01-08 2011-07-14 Gordon Gary B Gaze Point Tracking Using Polarized Light
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
RU2612500C2 (ru) * 2011-07-14 2017-03-09 Конинклейке Филипс Н.В. Система и способ для удаленного измерения оптического фокуса
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8878749B1 (en) * 2012-01-06 2014-11-04 Google Inc. Systems and methods for position estimation
US9116337B1 (en) * 2012-03-21 2015-08-25 Google Inc. Increasing effective eyebox size of an HMD
WO2013167864A1 (en) 2012-05-11 2013-11-14 Milan Momcilo Popovich Apparatus for eye tracking
JP5949319B2 (ja) * 2012-08-21 2016-07-06 富士通株式会社 視線検出装置及び視線検出方法
EP2720464B1 (en) * 2012-10-11 2018-01-10 Sony Mobile Communications Inc. Generating image information
US9110503B2 (en) * 2012-11-30 2015-08-18 WorldViz LLC Precision position tracking device
US9665171B1 (en) * 2013-03-04 2017-05-30 Tobii Ab Gaze and saccade based graphical manipulation
US9060710B2 (en) * 2013-03-14 2015-06-23 Amo Wavefront Sciences, Llc. System and method for ocular tomography using plenoptic imaging
CN104113680B (zh) * 2013-04-19 2019-06-28 北京三星通信技术研究有限公司 视线跟踪系统及方法
WO2014186620A1 (en) * 2013-05-15 2014-11-20 The Johns Hopkins University Eye tracking and gaze fixation detection systems, components and methods using polarized light
CN108209857B (zh) * 2013-09-03 2020-09-11 托比股份公司 便携式眼睛追踪设备
EP2886041A1 (en) * 2013-12-17 2015-06-24 ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) Method for calibrating a head-mounted eye tracking device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08278134A (ja) * 1995-03-24 1996-10-22 Commiss Energ Atom 目標物上の眼の固定点の位置を測定するための装置、眼の照明方法、及び眼の動きにより変化する画像を表示するための応用
JP2012085747A (ja) * 2010-10-18 2012-05-10 Panasonic Corp 注意状態判別システム、方法、コンピュータプログラムおよび注意状態判別装置
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体
WO2014030158A1 (en) * 2012-08-24 2014-02-27 Ic Inside Ltd Visual aid projector
JP2015526187A (ja) * 2012-08-24 2015-09-10 アイシー インサイド リミテッド 視覚補助プロジェクタ
JP2015061595A (ja) * 2013-09-19 2015-04-02 ジーエヌ オトメトリックス エー/エスGN Otometrics A/S 目の動きを観察するためのヘッドギア
JP2016539717A (ja) * 2013-12-09 2016-12-22 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH 目追跡のロバスト性を改善するアクティブ照明制御を行う目追跡装置動作方法及び目追跡装置
WO2015130849A1 (en) * 2014-02-25 2015-09-03 Eyeverify Eye gaze tracking
JP2017515182A (ja) * 2014-02-25 2017-06-08 アイベリファイ インコーポレイテッド 視線追跡
WO2016149416A1 (en) * 2015-03-16 2016-09-22 Magic Leap, Inc. Methods and systems for diagnosing and treating health ailments

Also Published As

Publication number Publication date
JP6850557B6 (ja) 2021-05-26
EP3112922A1 (en) 2017-01-04
KR20170003442A (ko) 2017-01-09
JP6850557B2 (ja) 2021-03-31
CN106324831A (zh) 2017-01-11
US20170004363A1 (en) 2017-01-05

Similar Documents

Publication Publication Date Title
JP6850557B6 (ja) 視線追跡デバイスおよび前記視線追跡デバイスを埋め込む頭部装着型デバイス
US10878236B2 (en) Eye tracking using time multiplexing
US10013055B2 (en) Eye tracking using optical flow
US9560345B2 (en) Camera calibration
US9916502B2 (en) Handling glare in eye tracking
US10429927B1 (en) Eye tracking for a head mounted display including a pancake lens block
CN105917292B (zh) 利用多个光源和传感器的眼睛注视检测
US9285893B2 (en) Object detection and tracking with variable-field illumination devices
CN108027881A (zh) 使用多种捕捉技术的用户认证
CN106133649B (zh) 使用双目注视约束的眼睛凝视跟踪
EP2889733A1 (en) Information input device
US11585937B2 (en) Autonomous gating selection to reduce noise in direct time-of-flight depth sensing
US10429657B1 (en) Eye tracking for a head mounted display including a pancake lens block
US20150160725A1 (en) Method of acquiring gaze information irrespective of whether user wears vision aid and moves
US10712561B2 (en) Interference mitigation via adaptive depth imaging
US10521662B2 (en) Unguided passive biometric enrollment
US20170185145A1 (en) Analysis of ambient light for gaze tracking
US11747626B1 (en) Display system with extended display area
US10567732B2 (en) Method and device for stereoscopic vision
CN107743628A (zh) Led面发光的结构化光
US20180136470A1 (en) Feature balancing
EP3139586B1 (en) Image shooting processing method and device
FI20215098A1 (en) EYE TRACKING LIGHTING
Dopico et al. Distributed Real-Time Computation of the Point of Gaze

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190618

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190618

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210308

R150 Certificate of patent or registration of utility model

Ref document number: 6850557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150