JP6560748B2 - アイウェアを通じた視線追跡 - Google Patents

アイウェアを通じた視線追跡 Download PDF

Info

Publication number
JP6560748B2
JP6560748B2 JP2017515108A JP2017515108A JP6560748B2 JP 6560748 B2 JP6560748 B2 JP 6560748B2 JP 2017515108 A JP2017515108 A JP 2017515108A JP 2017515108 A JP2017515108 A JP 2017515108A JP 6560748 B2 JP6560748 B2 JP 6560748B2
Authority
JP
Japan
Prior art keywords
eye
image
illumination
reflection
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017515108A
Other languages
English (en)
Other versions
JP2017537366A5 (ja
JP2017537366A (ja
Inventor
グオ,フイミン
エデン,イブラヒム
トゥクラール,バイブハブ
ザクリス ニスター,デイビッド
ザクリス ニスター,デイビッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2017537366A publication Critical patent/JP2017537366A/ja
Publication of JP2017537366A5 publication Critical patent/JP2017537366A5/ja
Application granted granted Critical
Publication of JP6560748B2 publication Critical patent/JP6560748B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Eyeglasses (AREA)
  • Position Input By Displaying (AREA)

Description

[0001] 最近のハードウェアおよびソフトウェアの進歩は、コンピューターシステムのための新たな方式の自然なユーザー入力(NUI)を可能にした。ジェスチャー認識、音声認識、および視線追跡は、例示的なNUIモードであり、ユーザーが、様々な目的で、様々な環境において、コンピューターシステムと直観的にインタラクトすることを可能にする。
[0002] 視線追跡システムにおいて、眼からの反射と、アイウェアからの反射とを区別することに関する実施形態が開示される。1つの開示される実施形態は、視覚システムに動作可能に結合されたコンピューターシステムにおける視線方向を表す入力を供給する方法を提供する。この実施形態では、第1のレベルの照明における眼の第1の画像が、視覚システムのカメラによって取得される。第1の画像はカメラから得られ、第2の異なるレベルの照明に対応する眼の第2の画像も得られる。第1の画像および第2の画像の対応するピクセルの明るさは、眼による照明の反射を、アイウェアによる照明の反射と区別するために比較される。次に、眼による照明の反射に基づいて入力が供給される。
[0003] この発明の概要は、詳細な説明において以下で更に説明される概念の抜粋を単純化された形態で紹介するように提供される。この発明の概要は、特許請求される主題の主要な特徴または重要な特徴を特定するように意図されたものでもなければ、特許請求される主題の範囲を限定するように用いられることを意図されたものでもない。更に、特許請求される主題は、本開示の任意の部分におけるありとあらゆる不利な点を解決する実装形態に限定されない。
[0004]ユーザーの視線が追跡され、コンピューターシステムにおける入力として用いられる例示的な環境の態様を示す。 [0005]視覚システムに連動したNUIシステムを有する例示的なコンピューターシステムの態様を示す。 [0006]視線検出のために構成された例示的な視覚システムの態様を示す。 [0007]高レベルの照明において得られるユーザーの眼の例示的な画像を示す。 [0008]低レベルの照明において得られるユーザーの眼の例示的な画像を示す。 [0009]図4Aの画像から、ユーザーのアイウェアからの反射を除いた例示的な結果を示す。 [0010]ユーザーの視線が追跡され、コンピューターシステムにおける入力として用いられる更なる例示的な環境の態様を示す。 [0011]視線検出のために構成される別の例示的な視覚システムの態様を示す。 [0012]コンピューターシステムにおける視線方向に応答して入力を供給する例示的な方法を示す。
[0013] 視線追跡は、ユーザーの視線の方向に基づくNUIの一形態である。この手法において、ユーザーの眼の画像はカメラによって取得される。取得された画像において、瞳孔または角膜輪部等の眼の特徴が位置特定され、そのような特徴のロケーションに基づいて視線方向が計算される。このように計算された視線方向を用いて、グラフィカルユーザーインターフェースをナビゲートし、プログラムを起動し、選択を行い、ゲーム内でキャラクターを移動させること等を行うことができる。所望の眼の特徴は、裸眼の画像において特定することができるが、アイウェアからの迷光反射が干渉源となる場合がある。そのような干渉は、アイウェアを装着したユーザーの視線追跡入力精度を低減させる場合がある。本明細書において用いられるとき、「アイウェア」という用語は、眼と、眼の視野の少なくとも一部分との間にシースルー構造を配置する、任意のタイプの装着される機器を含む。例は、限定ではないが、眼鏡、サングラス、バイザー、マスク、ゴーグル、コンタクトレンズシステム、および他の眼に装着するデバイス、装着者の視野内に仮想のイメージを投影する、眼の付近の表示システム等を含む。
[0014] 本明細書において、裸眼からの光の反射と、アイウェアからの光の反射とを区別するのに役立つことができ、このため、眼の追跡を容易にすることができる例が開示される。図1は、ユーザーの視線が追跡され、コンピューターシステムにおける入力として用いられる例示的な環境10の態様を示す。示される環境は、個人の住宅のリビングルームまたはファミリールームである。一方、本明細書において開示されるシステムおよび方法は、職場、小売りおよびサービス環境等の他の環境に等しく適用可能である。環境10は、ユーザー14が享受するためのホームエンターテイメントシステム12を備えている。ホームエンターテイメントシステムは、大きなフォーマットのディスプレイ16およびラウドスピーカー18を含み、これらは共に、コンピューターシステム20に連動される。コンピューターシステム20の特性は、様々な実施態様において異なる場合がある。いくつかの例において、コンピューターシステムは、ビデオゲームシステム、または音楽および/またはビデオを再生するように構成されたビデオゲームシステムまたはマルチメディアシステムとすることができる。他の例において、コンピューターシステムは、インターネットアクセスおよび生産性用途のための汎用コンピューターシステムとすることができる。コンピューターシステム20は、本開示の範囲から逸脱することなく、上記の目的のうちの任意のものまたはすべてのために、および/または任意の他の適切な目的で構成することができる。
[0015] コンピューターシステム20は、1つまたは複数のユーザー14から様々な形態の入力を受け取るように構成することができる。したがって、キーボード、マウス、タッチスクリーン、ゲームパッドまたはジョイスティックコントローラー等のユーザー入力デバイスを、コンピューターシステム20に連動させることができる。コンピューターシステム20は、1つまたは複数のユーザーから自然なユーザー入力(NUI)を受け取るように構成することもできる。NUIを仲介するために、示されるコンピューターシステムはNUIシステム22を含む。NUIシステムは、NUIの様々な態様を捕捉し、対応する実行可能な入力をコンピューターシステム内の他の構造体に提供するように構成される。このために、NUIシステムは、視覚システム24および任意選択のリスニングシステム26を含む、コンピューターシステムの様々なセンサーコンポーネントから低レベルの入力を受信する。
[0016] リスニングシステム26は、含まれる場合、ユーザー14からの発声および他の可聴入力をピックアップするための1つまたは複数のマイクロフォンを含むことができる。視覚システム24は、視線ベクトルVおよび焦点P等の様々な形態のユーザー入力、ならびに手および身体のジェスチャー、顔面特徴等を検出するように構成することができる。示される例では、視覚システムおよびリスニングシステムは、共通のエンクロージャーを共有し、他の例では、それらは別個とすることができる。更に他の例では、視覚システム、リスニングシステムおよびNUIシステムは、コンピューターシステム20内に統合することができる。コンピューターシステムおよびその周辺コンポーネントは、図面に示すように、有線通信リンクを介して、または任意の他の適切な方式で結合することができる。
[0017] 図2は、コンピューターシステム20、NUIシステム22、視覚システム24およびリスニングシステム26の一例の態様を示す高レベルの概略図である。示されるコンピューターシステムは、ソフトウェアおよび/またはファームウェアにインスタンス化することができるオペレーティングシステム(OS)28を含む。コンピューターシステムは、例えば、ビデオゲームアプリケーション、デジタルメディアプレーヤー、インターネットブラウザー、フォトエディター、ワードプロセッサ、および/またはスプレッドシートアプリケーション等の1つまたは複数のアプリケーション30も含む。コンピューターシステム20、NUIシステム22、視覚システム24、およびリスニングシステム26は、以下で更に説明されるように、それぞれの機能をサポートするのに必要とされる適切なデータストレージ、命令ストレージ、および論理ハードウェアを含むことができる。
[0018] 図2の例において、視覚システム24は、1つまたは複数のフラットイメージカメラ32を含み、1つまたは複数の深度カメラ34も含むことができる。各深度カメラは、含まれる場合、ユーザー14の深度マップの時間分解シーケンスおよび環境10の他の態様を取得するように構成することができる。視覚システムは、軸上のランプ36Aおよび軸外のランプ36Bも含み、これらはユーザー14および環境10を照明して、フラットイメージカメラおよび/または深度カメラによる撮像をサポートする。視覚システムの各ランプおよびカメラは、マイクロコントローラー38に連動される。マイクロコントローラーは、カメラによる画像取得を制御およびトリガーし、視覚システムの各ランプの照明出力を制御するように構成することができる。
[0019] フラットイメージカメラ32は、フィールド角度の範囲にわたって光を検出し、そのような角度を長方形のピクセルアレイ上にマッピングする。1つの例において、フラットイメージカメラは、アレイのピクセルのサブセットに関連付けられた、複数の波長のチャネル、例えば、赤、緑、青等の光を検出することができる。代替的に、モノクロのフラットイメージカメラを用いて、可視光、近赤外光(NIR)、赤外光(IR)および/または紫外光(UV)をグレースケールで撮像することができる。フラットイメージカメラにおいて露出されるピクセルのすべての色値または輝度値が、集合的にデジタルイメージを構成する。いくつかの例において、フラットイメージカメラのピクセルを、深度カメラのピクセルに登録することができる。
[0020] 上述したように、NUIシステム22は、仮想システム24および任意選択のリスニングシステム26から低レベルの入力(すなわち、信号)を処理して、コンピューターシステム20において動作可能な高レベルの入力を提供する。例えば、NUIシステムは、リスニングシステム26からの音声信号に対しサウンド認識または音声認識を行うことができる。音声認識は、コンピューターシステムのOS28において受信される、対応するテキストベースのまたは他の高レベルのコマンドを生成することができる。図2に示される例において、センサーデータから特定の形態のNUIを導き出すタスクが特定のNUIエンジン、発話認識エンジン40、ジェスチャー認識エンジン42、顔認識エンジン44および視線検出エンジン46に割り当てられる。これらのエンジンの各々を、その関連付けられた形態の入力をコンピューターシステムのOSおよび/またはアプリケーションに供給するように構成することができる。
[0021] ここで、図3を参照すると、視覚システム24の各ランプ36は、発光ダイオード(LED)、ダイオードレーザー、放電ランプ、および/または他の適切な光源を含むことができる。環境10において、ランプ36Aは、眼48の軸上の照明を提供し、ランプ36Bは軸外の照明を提供する。「軸上」および「軸外」という用語は、フラットイメージカメラ32の光軸Aに対する照明の方向を指す。
[0022] 軸上および軸外の照明は、環境10内の環境追跡に対して異なる目的を果たすことができる。図3に示されるように、軸外照明は、ユーザーの眼の角膜52から反射する鏡面反射光(specular glint)50を生成することができる。軸外照明は、「暗瞳孔」の効果のために眼を照明するように用いることもできる。ここで、瞳孔54は、周囲の虹彩56よりも暗く見える。対照的に、IRまたはNIR源からの軸上照明を用いて、「明瞳孔」効果を生成することができ、ここで、瞳孔は周囲の虹彩よりも明るく見える。より詳細には、軸上ランプ36AからのIRまたはNIR照明は、眼の網膜58の再帰性反射組織を照明することができ、これは瞳孔を通じて照明を反射して戻し、フラットイメージカメラ32によって撮像されるように、瞳孔の明るい画像60を形成する。いくつかの例では、フラットイメージカメラは、強い周囲光の存在における明瞳孔のコントラストを改善するために、軸上ランプ36AのIR帯域またはNIR帯域の外側の伝送をブロックする波長フィルターを含むことができる。図3は、概略的に点光源として軸上ランプおよび軸外ランプを示しているが、これらのランプは任意の適切な形態をとることができることが理解されよう。例えば、いくつかの例では、軸上ランプ36Aは、フラットイメージカメラ32の開口を取り囲む「LEDリング」の形態で構成することができる。換言すれば、軸上ランプは、フラットイメージカメラの光軸を取り囲む複数のLEDを含むことができる。
[0023] 視線検出エンジン46は、フラットイメージカメラからの画像データを処理して、瞳孔中心、瞳孔の輪郭、および/または角膜反射光等の特徴を位置特定するように構成することができる。画像データ内のそのような特徴のロケーションを、眼の視線ベクトルVに特徴位置を関係付けるモデル、例えば多項式モデルにおける入力パラメーターとして用いることができる。眼が右眼および左眼の双方について同時に検出される例では、右視線ベクトルおよび左視線ベクトルの交点により、3次元におけるユーザーの焦点Pを定義することができる。
[0024] 図1に簡単に戻ると、図は、ユーザー14が視線方向に基づいてディスプレイ16上に提示されるUIをナビゲートしているシナリオを示す。このシナリオでは、視線検出エンジン46は、ユーザーが注視している点Pに対応する表示スクリーン座標(X,Y)を計算した。視線を表示スクリーン上の他の点にシフトすることによって、ユーザーは、コンピューターシステム20上で実行しているアプリケーションまたはOSの様々なUIエレメント62間でナビゲートすることができる。
[0025] 上記で紹介した視線検出手法は、ユーザー14が、サングラス、矯正レンズ、遠近両用レンズ、サングラス、バイザー、コンタクトレンズ、眼の付近の表示システムおよび/または他のアイウェア等のアイウェアを装着している場合がある事例における精度を改善するように更に精緻化することができる。眼の近くに位置するとき、そのようなアイウェアは、視覚システム24のランプ36Aおよび36Bからの照明を反射する場合がある。そのような反射は、視覚システムによって取得される画像データにおけるノイズを生成する。増大するノイズにより、視線検出エンジン46が、瞳孔および/または角膜の反射光を明確に位置特定することが困難になる場合があり、これによって、決定された視線方向における誤差が増大する場合がある。より詳細には、アイウェアからの反射は、軸上照明により生成された明瞳孔画像に類似して見える場合があり、それによって、視線検出エンジンは、これらを明瞳孔と誤る。この影響が図4Aに示されている。図4Aにおいて、明瞳孔54は、アイウェアによる多数の反射と共に現れる。同様の影響は、軸外ランプ36Bからのより高い角度の照明が眼鏡によって反射され、角膜反射光と誤られるときに生じ得る。通常、ユーザーの眼鏡からの反射の直径が比較的小さくかつ明るいとき、それらは、視線検出エンジンに対する角膜の反射光と同様に見える場合がある。
[0026] 眼鏡の反射から所望の眼の反射を明確にする1つの手法は、取得された画像の後処理によって、眼鏡の反射を除去することである。妥当な識別判断基準は、候補反射の輝度、サイズ、幾何学形状(形状)を含む。一方、任意の後処理手法は、画像品質および他のノイズ問題に対し敏感である場合があり、過大な計算時間を必要とする場合がある。更に、ノイズ反射の幾何学的識別に基づくノイズ除去は、予期される使用シナリオ、例えば、様々なレンズ曲率、フレーム形状等を含み得る、ユーザーによって装着される様々なスタイルのアイウェア間で一般化するのに失敗する場合がある。
[0027] このため、開示される例は、様々な照明レベル(すなわち、輝度、パワー)において得られるユーザーの眼の一連の画像を利用することによって、アイウェアの反射から所望の眼の反射を明確にすることができる。このために、以下で更に説明されるように、比較的短い時間間隔にわたって、視覚システム24のうちの1つ、いくつか、またはすべてのランプ36を、第1のレベルの照明を提供することから、第2の異なるレベルの照明を提供することまで遷移するように構成することができる。
[0028] 1つの例において、視覚システム24のマイクロコントローラー38は、パルス幅変調(PWM)を介して軸上ランプ36Aおよび/または軸外ランプ36Bをストローブするように構成することができる。各フレームに異なるPWM値を割り当てることによって、様々な輝度レベルにおいて2つ以上の画像フレームが取得される。他の例において、マイクロコントローラーは、ランプに提供される電圧もしくは電流を変更するか、電力を受信するランプ要素(例えば、LED)の数を変更するか、または、光電気減衰器を変調して照明レベルを変更する。いくつかの例において、複数の明るさレベル(高+低、高+中+低等)における眼の画像が、非常に短い間隔、例えば、60ミリ秒(ms)以下、または30ms以下の非常に短い間隔にわたって捕捉される。この間隔は、例えば、第1の画像および最後の画像を取得する間の眼の可能な動きによって生じる運動のぼやけの範囲を制限するように選択することができる。この間隔中、瞳孔および反射光等の、対象の眼の特徴からの反射は、照明の減少に起因して輝度に比例して減少する場合がある。一方、ユーザーの眼鏡からの鏡面反射または近鏡面反射は、低または中の明るさレベルであっても、フラットイメージカメラ32の受信ピクセルを飽和させる場合がある。したがって、明るさにおける比例的減少は、高から中または低の明るさへの遷移時の眼鏡反射について観察されない場合がある。比例して暗くならないピクセルは、後続の視線追跡計算に対する影響を制限するために、任意の適した方式で検討から除くことができる。
[0029] 図4Aおよび図4Bの横並びの比較は、上記の手法を更に示す。図4Aは、高の明るさにおいて取得された画像を示し、図4Bは、低の明るさにおいて取得された画像を示す。ユーザーの明るい瞳孔54からの反射は、図4Aにおける反射よりも図4Bにおいて弱いが、ユーザーの眼鏡からの反射は同程度に強いことを見て取ることができる。
[0030] 視線検出エンジン46は、いくつかの例において、60ms以下等の適切に短い間隔にわたって捕捉された、異なる明るさレベルの2つ以上の画像のバッファを管理するように構成することができる。視線検出エンジンは、ピクセルごとに測定して、第1の(より明るい)画像および第2の(より暗い)画像の明るさをチェックする。画像が、同様の飽和した明るさを有し、例えば、閾値量未満で異なるか、または双方の画像において飽和したままである場合、ピクセルは、いくつかの例において、(それぞれ、図4Aおよび図4Bの)画像全体にわたって明るさの平均値と交換することができる一方、残りのすべてのピクセル(眼鏡の反射によって影響を受けないピクセル)は、それらのオリジナルの値を保持することができる。他の例では、ピクセルは交換されない場合があるが、別の方式で追跡または補償することができる。
[0031] 図4Aにおける画像がより明るいため、瞳孔は、虹彩に対しより良好なコントラストを有し、より容易に検出可能であることに留意されたい。対照的に、図4Bはより暗く、反射光は、瞳孔に対してより良好なコントラストを有し、より容易に検出可能である。眼鏡の反射を補償した後の図4Aおよび図4Bの結果として処理された画像が、それぞれ、瞳孔検出および反射光検出のための入力として用いられる。図4Cは、図4Aおよび図4Bの高および低の輝度にこの手順が適用された結果を示す。ここで、白い円は、瞳孔54の検出された輪郭を示す。
[0032] 上記の図面および説明は、限定の意味で解釈されるべきではなく、多数の他の例および使用シナリオも考慮される。特に、図1のものに加えて、他の環境および形状因子が、本開示の趣旨および範囲内にある。例えば、図5に示すように、ディスプレイのベゼルの下に適切な視覚システム24Aが搭載された状態で、類似の視線追跡を、スマートフォン66またはデスクトップコンピューター68において成立させることができる。他の例において、統合された視覚システムを有するタブレットまたはラップトップコンピューターにおいて、類似の視線追跡を成立させることができる。
[0033] 更に他の例において、視覚システムは、ユーザーによって装着されているアクティブなヘッドウェアまたはアイウェアに統合されてもよい(ユーザーは、従来の眼鏡も装着している場合がある)。そのようなヘッドウェアまたはアイウェアは、眼の付近の立体表示システムを更にサポートすることができる。図6は、統合された視線追跡を有する、眼の付近の表示システムの光学システム70を示す。この例において、ユーザーは、追加の補正レンズ71を装着している。フラットイメージカメラ32は、装着者の眼から反射された軸上IRまたはNIRランプ36Aからの光を撮像する。軸外ランプ36Bは、眼の相対的に高い角度の照明を提供し、眼の角膜上の鏡面反射光の生成、暗瞳孔効果の刺激等を行う。光学システム70に統合されるビーム転向光学は、光学システムの周辺部におけるそれらの配置にかかわらず、カメラおよび軸上ランプが共通の光軸Aを共有することを可能にする。
[0034] 本明細書に説明される手法は、アイウェアからの反射以外のタイプの鏡面反射に拡張することができる。通常、仮想的に、ユーザーと視覚システムとの間に配置される任意の表面が、本明細書において説明される方式で区別可能な明るい鏡面反射を引き起こし得る。例えば、2つ以上の異なる照明レベルにおいて検出される不変の明るさに基づいて、例えば、保護ウィンドウ(ガラス、アクリル、またはポリカーボネートシート、危険物シールド等)からの視覚システム照明の鏡面反射は、眼の反射と区別することができる。
[0035] 上記で説明された構成は、視覚システムに動作可能に結合されたコンピューターシステムにおいて視線検出が行使されるための様々な方法を可能にする。次に、そのようないくつかの方法を、上記で説明した例示した構成を継続的に参照して説明する。一方、ここで説明される方法、および本開示の範囲内の他の方法も、異なる構成によって可能にされ得ることが理解されよう。
[0036] 図7は、視覚システムに動作可能に結合されたコンピューターシステムにおける視線方向に応答して入力を供給するための例示的な方法74を示す。方法74の76において、例えば、上記で説明した方法のうちの1つまたは複数を用いて、眼の第1の画像を取得する前に、視覚システムの軸上ランプの出力が、第1のレベルの照明をユーザーの眼に提供するように調整される。1つの例において、第1のレベルの照明は、比較的高レベルの照明とすることができる。
[0037] 78において、眼の第1の画像が視覚システムのカメラから得られる。第1の画像は、第1のレベルの照明が眼に提供される間隔中にカメラによって取得される。80において、第2の異なるレベルの照明に対応する眼の第2の画像が得られる。第2のレベルの照明は、第1のレベルの照明よりも低くするかまたは高くすることができ、第2の画像は、様々な例において様々な方法で得ることができる。
[0038] 1つの例において、軸上ランプの出力を、カメラによる第2の画像の取得のための第2のレベルの照明を提供するように再び調整することができる。次に、第2の画像がカメラから得られる。別の例において、第1の画像の各非飽和ピクセルの明るさを乗算係数と乗算して、第2の画像の対応するピクセルを得ることによって、眼の第2の画像が得られる。
[0039] 乗算係数は、より明るい第2の全体画像を構築するように2よりも大きくしてもよいし、またはより暗い第2の全体画像を構築するように1未満としてもよい。1つの変形形態では、第2の画像の乗算された明るさ値を、カメラによって用いられる画像符号化のタイプに有効な最大の明るさにクリップすることができる。更に、第1の画像において既に飽和したピクセルは、異なる係数(例えば、係数1)と乗算してもよいし、または他の形でマスキングしてもよい。このようにして、(ユーザーの眼鏡からの鏡面反射に対応し得る)飽和したピクセルは、視線方向を求めるための後続の計算から除外される。
[0040] 第1の画像および第2の画像は、異なる飽和していない明るさレベルにおける眼の反射(例えば、明瞳孔)を明らかにするように構成することができる。この特徴は、眼鏡反射から(およびいくつかのシナリオでは、通常、比較的低いレベルの照明においても飽和したままである軸外照明に起因した角膜の反射光から)眼の特徴を区別するために用いられる。一方、未知の使用シナリオの前に、適切な第1のレベルおよび第2のレベルの照明を予測することは常に可能であるわけではない。例えば、異なるタイプのアイウェアは異なる反射率の反射を呈する。更に、異なる個人の眼は、明瞳孔反応をもたらすために、異なるレベルの軸上照明を必要とする場合がある。図7における82に示されるように、すべてのユーザーについて2つの同じ照明レベルを適用する代わりに、視線検出エンジン46を、異なる照明レベルにおいて取得された一連の3つ以上の画像を解析するように、次に、第1のレベルおよび第2のレベルの照明を精緻化するために、適切な第1の画像および第2の画像を選択するように構成することができる。選択される画像は、例えば、飽和した眼鏡反射、および強力であるが飽和していない(例えば、例として、30%を超える飽和強度、50%を超える飽和強度)明瞳孔反射を呈する画像とすることができる。このようにして、方法74における第1のレベルおよび第2のレベルの照明は、撮像される眼における明瞳孔効果を誘起して区別する機能に基づいて選択することができ、そのようなレベルは、異なるユーザーの眼毎に異なる。
[0041] 3つ以上の取得された画像にわたってある範囲の照明レベルを提供する別の理由は、システムが軸上ランプの波長帯域における周囲光のレベルの変化に応答することを可能にすることであり得る。このようにして、第1のレベルおよび第2のレベルの照明を、周囲光条件に基づいて選択することができる。ある範囲の照明レベルを提供することは、明瞳孔反応を、軸外照明から導出された角膜の反射光と区別するのに役立つこともできる。2つ、3つ、4つ等の、眼の任意の適切な数の得られた画像および対応する照明レベルを得ることができる。この数は、利用されるフレームレート等の係数に依拠することができる。換言すれば、より高速な画像取得は、眼の動きに起因する運動のぼやけの負の影響を受けることなく、より多くの数の画像が取得されることを可能にすることができる。
[0042] 画像/照明レベル選択の代替的なモードを、方法のこの段階において用いることにより、上記で示した課題に対処することもできる。例えば、得られた画像の解析によって適切な照明レベルが明らかになると、この情報を、方法の前の段階にフィードバックして、第1の画像を取得し、第2の画像を得るときに(繰り返しの画像取得によってであっても、または第1の画像の処理によってであっても)、いずれの照明レベルが実際に用いられるかを制御することができる。このタイプのフィードバックを用いて、方法の各通過時に得られる冗長画像の数を低減することができ、これによって視線追跡レイテンシを減少させることができる。2つの画像が得られる場合であっても、得られた画像の解析に基づくフィードバックを用いて、後続の第1の画像および第2の画像のために用いられる高および低レベルの照明を精緻化することができる。
[0043] 図7において継続すると、方法74の84において、ユーザーの眼による照明の反射が、ユーザーのアイウェアによる照明の反射と区別される。上記で示したように、眼による照明の所望の反射は、明瞳孔反応、すなわち、ユーザーの眼の網膜からの再帰性反射を構成することができ、この反射は瞳孔を通って戻り、瞳孔が周囲の虹彩に対して明るく見えるようにする。代替的に、かつ等しく重要に、眼による反射は、虹彩自体の反射を含む場合があり、この反射により、瞳孔が虹彩に対して暗く見える。
[0044] 1つの例示的な実施形態において、眼の反射をアイウェアの反射から区別することは、第1の画像および第2の画像の対応するピクセルの明るさを比較することを含むことができる。1つの例において、第1の画像および第2の画像の対応するピクセルは、そのようなピクセルの明るさが閾値量を超えて(例えば、5%を超える、10%を超える、飽和の10%を超える、最大明るさの10%を超える等で)異なる場合、眼による照明の反射に関連付けることができる。逆に、対応するピクセルは、それらの明るさが閾値量未満で(例えば、5%未満、1%未満等で)異なる場合、アイウェアによる照明の反射に関連付けることができる。そのようなピクセルは、後続の計算からマスキングすることができる。別の例において、第1の画像および第2の画像の対応するピクセルは、双方のピクセルが飽和している場合、アイウェアによる反射に関連付けることができる。また別の例では、機械学習アルゴリズムを用いて、眼による照明の反射を、アイウェアによる照明の反射と区別することができる。
[0045] 86において、アイウェアによる照明の反射に関連付けられたピクセルを除外しながら、第1の画像または第2の画像において、眼による照明の反射のロケーションに基づいて視線方向入力が計算される。1つの例において、計算された入力は、眼を通じた視線の方向を定義する方位角AA(図3)および仰角EAを含む。任意の適切な参照フレームを、そのような角度を定義するために用いることができる。1つの例において、参照フレームは、フラットイメージカメラの34の入力瞳孔に原点を有し、1つの軸が光軸Aと位置合わせされている。当然ながら、方法74の上記の動作は、適切に構成された視覚システムにおいて、ユーザーの眼の双方において行使することができる。視線ベクトルが双方の眼に利用可能であるとき、ユーザーの焦点Pの座標も決定し、入力として含めることができる。
[0046] いくつかの例では、ユーザーのアイウェアの軸上または軸外照明は、第1の画像または第2の画像における所望の眼の特徴に重なる反射を生成する。これが生じるとき、アイウェアの反射に関連付けられたピクセルの除外により、眼の特徴、またはその何らかの部分がマスキングされる可能性があり、潜在的に、影響を受けた眼の視線検出の中断が生じる。一方、視線入力の可用性における長い中断であっても、誤った視線入力を送達するよりもユーザー体験に対する妨害を少なくすることができることが理解されよう。これは、視線が眼毎に独立して検出される例において特に真であり得る。
[0047] 任意選択のステップ88において、計算された視線方向が、動きのぼやけ、すなわち、第1の画像および第2の画像を取得する間の短い時間間隔中の眼の動きを補償する運動モデルに基づいて補正される。運動モデルは、例えば、光フローモデルとすることができる。
[0048] 90において、検出された視線方向(および利用可能な場合、決定された焦点)を含む入力が、眼による視覚システム照明の反射に基づいて、コンピューターシステムにおける適切な消費者構造体、例えば、コンピューターシステムのOSまたはアプリケーションに供給される。開示される方法の反射識別効果を考慮すると、供給される入力は、ユーザーのアイウェアによる照明の反射と大きく独立することができる。本明細書に記載される例は、様々な異なる方法において実施することができることが理解されよう。例えば、ユーザーの眼の画像は、各画像における非HDR技法よりも広い動的範囲の明度を達成するために、ハイダイナミックレンジ(HDR)撮像技法等を利用することによって、複数の露出を介して捕捉することができる。
[0049] 更に、いくつかの実施態様は、所望のフレームレートに影響を及ぼすことを回避するのに役立つ、あるフレーム間隔(例えば、30msごと)で2つ以上の連続フレームを取得するように構成された画像検知システムを利用することができる。非限定的な例として、1つまたは複数のレーザーを含む照明システムを照明のために用いることができ、それによって、ある期間(例えば、2ms)にわたって第1の強度で照明が提供され、その後、別の期間(例えば、別の2ms)にわたって第2のより高い強度で照明が提供される。この照明プロセス中、第1のフレームを第1の期間に取得することができ、第2のフレームを第2の期間中に取得することができ、それによって、眼の双方の画像が、画像データが読み出される前に取得される。同様にして、任意の追加の連続フレームを取得することができる。照明プロセスの後、取得された2つ以上の画像フレームを、フレーム間隔の残りの持続時間にわたって読み出すことができる。このようにして、任意の適切なハードウェア構成を用いて画像を取得することができる。例えば、システムは、同じダイを共有するように内部的に構築されている場合もされていない場合もある2つの並置されたカメラの形態をとることができる。
[0050] 上記の説明から明らかとなるように、本明細書において説明される方法およびプロセスは、1つまたは複数のコンピューティングマシンのコンピューターシステムに関連することができる。そのような方法およびプロセスは、コンピューターアプリケーションプログラムもしくはサービス、アプリケーションプログラミングインターフェース(API)、ライブラリ、および/または他のコンピュータープログラム製品として実施することができる。読み手は再び図2を参照されたい。図2は、本明細書において記載される方法およびプロセスをサポートするのに用いられるコンピューターシステム20の非限定的な例を示す。コンピューターシステムは、論理マシン92および命令ストレージマシン94を含む。コンピューターシステムは、ディスプレイ16、通信システム96、および図に示されていない様々なコンポーネントも含む。
[0051] 各論理マシン92は、命令を実行するように構成される1つまたは複数の物理的論理デバイスを含む。論理マシンは、1つまたは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造または他の論理構造体の一部である命令を実行するように構成することができる。そのような命令は、タスクを実行し、データタイプを実装し、1つまたは複数のコンポーネントの状態を変形し、技術的効果を達成し、または他の形で所望の結果に到達するように実施することができる。
[0052] 各論理マシン92は、ソフトウェア命令を実行するように構成された1つまたは複数のプロセッサを含むことができる。付加的にまたは代替的に、論理マシンは、ハードウェアまたはファームウェア命令を実行するように構成された1つまたは複数のハードウェアまたはファームウェア論理マシンを含むことができる。論理マシンのプロセッサは、シングルコアまたはマルチコアとすることができ、これらの上で実行される命令は、直列、並列、および/または分散処理のために構成することができる。論理マシンの個々のコンポーネントは、任意選択で、2つ以上の別個のデバイス間で分散させることができ、これらは、遠隔に位置し、および/または協調処理のために構成することができる。論理マシンの態様は、クラウドコンピューティング構成において構成される、リモートでアクセス可能なネットワーク化されたコンピューティングデバイスによって仮想化および実行することができる。
[0053] 各データストレージマシン94は、本明細書において記載される方法およびプロセスを実施するように関連論理マシン92によって実行可能な命令を保持するように構成された、1つまたは複数の物理的コンピューターメモリデバイスを含む。そのような方法およびプロセスが実施されるとき、データストレージマシンの状態は、例えば、異なるデータを保持するように変換することができる。データストレージマシンは、リムーバブルおよび/または内蔵デバイスを含むことができ、中でも、光メモリ(例えば、CD、DVD、HD-DVD、ブルーレイディスク等)、半導体メモリ(例えば、RAM、EPROM、EEPROM等)および/または磁気メモリ(例えば、ハードディスクドライブ、フロッピーディスクドライブ、テープドライブ、MRAM等)を含むことができる。データストレージマシンは、揮発性デバイス、不揮発性デバイス、ダイナミックデバイス、スタティックデバイス、リード/ライトデバイス、リードオンリーデバイス、ランダムアクセスデバイス、連続アクセスデバイス、ロケーションアドレス指定可能デバイス、ファイルアドレス指定可能デバイス、および/またはコンテンツアドレス指定可能デバイスを含むことができる。
[0054] 各データストレージマシン94は、1つまたは複数の物理デバイスを含むことができることが理解されよう。一方、本明細書において記載される命令の態様は、代替的に、ストレージ媒体を介して記憶されるのとは対照的に、通信媒体(例えば、電磁信号、光信号等)によって伝播することができる。
[0055] 論理マシンおよびデータストレージマシンの態様は、共に、1つまたは複数のハードウェア論理コンポーネントに統合することができる。そのようなハードウェア論理コンポーネントは、例えば、フィールドプログラマブルゲートアレイ(FPGA)、特定プログラムおよび特定用途向け集積回路(PASIC/ASIC)、特定プログラムおよび特定用途向け標準製品(PSSP/ASSP)、システムオンチップ(SOC)、および複雑なプログラム可能論理デバイス(CPLD)を含むことができる。
[0056] 「エンジン」という用語は、特定の機能を実行するように実施されるコンピューターシステムの態様を説明するように用いることができる。いくつかの場合、エンジンは、データストレージマシンによって保持される命令を実行する論理マシンを介してインスタンス化することができる。異なるエンジンは、同じアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、機能等からインスタンス化することができることが理解されよう。同様に、異なるアプリケーション、サービス、コードブロック、オブジェクト、ルーチン、API、機能等によって同じエンジンをインスタンス化することができる。「エンジン」という用語は、個々の実行可能なファイル、データファイル、ライブラリ、ドライバー、スクリプト、データベースレコード等、またはそれらのグループを包含することができる。
[0057] 通信システム96は、コンピューターシステムを1つまたは複数の他のマシンに通信可能に結合するように構成することができる。通信システムは、1つまたは複数の異なる通信プロトコルと互換性がある有線および/または無線通信デバイスを含むことができる。非限定的な例として、通信システムは、無線電話網、または有線もしくは無線のローカルエリアネットワークもしくは広域ネットワークを介した通信のために構成することができる。いくつかの例では、通信システムは、コンピューティングマシンが、インターネット等のネットワークを介して他のデバイスとの間でメッセージを送受信することを可能にすることができる。
[0058] 本明細書において説明される構成および/または手法は本質的に例示的なものであり、多数の変形が可能であるため、これらの特定の1つまたは複数の例は、限定の意味とみなされない。本明細書において説明された特定のルーチンまたは方法は、任意の数の処理戦略のうちの1つまたは複数を表すことができる。したがって、例示および/または説明される様々な動作は、例示および/または説明された順番で実行されてもよく、他のシーケンスで実行されてもよく、並列に実行されてもよく、または省かれてもよい。同様に上記で説明したプロセスの順序は変更することができる。
[0059] 本開示の主題は、様々なプロセス、システムおよび構成、ならびに本明細書において開示される他の特徴、機能、動作および/または特性のすべて、ならびにそのありとあらゆる等価物の新規のおよび非明示的組み合わせおよび部分的組み合わせを含む。

Claims (15)

  1. 眼を照明するように構成されたエミッタを含む照明システムと、
    前記眼の1つまたは複数の画像を取得するように構成されたカメラと、
    前記カメラおよび前記照明システムに動作可能に結合されたプロセッサおよび関連付けられたコンピューターメモリであって、前記コンピューターメモリは、前記プロセッサによって、
    前記カメラから、第1のパワーレベルでの前記エミッタによる前記眼の照明下で前記眼の第1の画像を取得するように実行可能な命令と、
    前記カメラから、前記エミッタによる前記眼の照明下で取得された前記眼の第2の画像を得るように実行可能な命令であって、前記エミッタは、第2の異なるパワーレベルで動作する、命令と、
    前記第1の画像および前記第2の画像の対応するピクセルの明度を比較して、前記眼による前記照明の反射を、アイウェアによる前記照明の反射と区別するように実行可能な命令であって、前記眼からの不飽和の再帰性反射明瞳孔反応を明らかにするように、前記カメラによって取得された3つ以上の前記眼の画像のうちの前記第1の画像および第2の画像を、前記エミッタの互いに異なるパワーレベルで選択することを含む、命令と、
    前記眼による前記照明の前記反射に基づいて、かつ前記アイウェアによる前記照明の前記反射から独立して、入力をコンピューターシステムに供給するように実行可能な命令と、
    を保持する、コンピューターメモリと、
    を備える、システム。
  2. 前記眼の前記第1の画像および前記眼の前記第2の画像のうちの1つまたは複数を、複数の露出において捕捉するように実行可能な命令を更に含む、請求項1に記載のシステム。
  3. 前記命令は、前記カメラから前記眼の前記第1の画像および前記眼の前記第2の画像を読み出す前に、前記眼の前記第1の画像および前記眼の前記第2の画像を連続して取得するように実行可能である、請求項1に記載のシステム。
  4. 前記照明システムは、30ミリ秒以下で、前記エミッタの前記第1のパワーレベルを提供することから、前記エミッタの前記第2のパワーレベルを提供することへ遷移するように構成される、請求項1に記載のシステム。
  5. 視覚システムに動作可能に結合されたコンピューターシステムにおいて実施される、視線方向を表す入力を供給する方法であって、
    前記視覚システムのカメラから、第1のパワーレベルで動作するエミッタによる眼の照明下で取得された前記眼の第1の画像を得ることと、
    前記視覚システムの前記カメラから、前記エミッタによる前記眼の照明下で取得された前記眼の第2の画像を得ることであって、前記エミッタは、第2の異なるパワーレベルで動作する、ことと、
    前記第1の画像および前記第2の画像の対応するピクセルの明度を比較して、前記眼による前記照明の反射を、アイウェアによる前記照明の反射と区別することであって、前記眼からの不飽和の再帰性反射明瞳孔反応を明らかにするように、前記カメラによって取得された3つ以上の前記眼の画像のうちの前記第1の画像および第2の画像を、前記エミッタの互いに異なるパワーレベルで選択することを含む、ことと、
    前記眼による前記照明の前記反射に基づいて、前記入力を供給することと、
    を含む、方法。
  6. 前記眼による前記照明の前記反射は、前記眼の網膜からの反射を含み、前記反射は前記眼の瞳孔を通過して戻り、前記第1の画像において、前記瞳孔が周囲の虹彩に対して明るく見えるようにする、請求項5に記載の方法。
  7. 前記眼による前記反射は、前記眼の虹彩による反射を含み、前記第1の画像において、前記眼の瞳孔が前記虹彩に対して暗く見えるようにする、請求項5に記載の方法。
  8. 前記第1の画像において、前記アイウェアによる前記照明の前記反射に関連付けられたピクセルを除外しながら、前記眼の前記照明の前記反射のロケーションに基づいて前記入力を計算することを更に含む、請求項5に記載の方法。
  9. 前記第1の画像を得ることと前記第2の画像を得ることとの間での前記眼の動きを補償するための運動モデルに基づいて前記入力を補正することを更に含む、請求項8に記載の方法。
  10. 前記眼の前記第2の画像を得ることは、前記第1の画像の各非飽和ピクセルの明るさを乗算係数と乗算して前記第2の画像の対応するピクセルを得ることを含む、請求項5に記載の方法。
  11. 前記供給された入力は、前記眼の視線方向を定義する方位角および仰角を含む、請求項5に記載の方法。
  12. 前記第1の画像および前記第2の画像の前記対応するピクセルを、そのようなピクセルの前記明度が閾値量を超えて異なる場合に、前記眼による前記照明の前記反射と関連付けることと、
    前記第1の画像および前記第2の画像の前記対応するピクセルを、そのようなピクセルの前記明度が閾値未満で異なる場合に、前記アイウェアによる前記照明の前記反射と関連付けることと、
    を更に含む、請求項5に記載の方法。
  13. 前記第1の画像および前記第2の画像の前記対応するピクセルを、前記第1および第2の画像の対応するピクセルが双方飽和している場合に、前記アイウェアによる前記照明の前記反射と関連付けることを更に含む、請求項5に記載の方法。
  14. 前記第1のパワーレベルは、前記眼から明瞳孔反応を刺激して区別する機能に基づいて選択される、請求項5に記載の方法。
  15. 前記第1のパワーレベルは、周囲光条件に基づいて選択される、請求項5に記載の方法。
JP2017515108A 2014-10-08 2015-10-06 アイウェアを通じた視線追跡 Active JP6560748B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/509,976 2014-10-08
US14/509,976 US9946339B2 (en) 2014-10-08 2014-10-08 Gaze tracking through eyewear
PCT/US2015/054102 WO2016057435A1 (en) 2014-10-08 2015-10-06 Gaze tracking through eyewear

Publications (3)

Publication Number Publication Date
JP2017537366A JP2017537366A (ja) 2017-12-14
JP2017537366A5 JP2017537366A5 (ja) 2018-10-18
JP6560748B2 true JP6560748B2 (ja) 2019-08-14

Family

ID=54360538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017515108A Active JP6560748B2 (ja) 2014-10-08 2015-10-06 アイウェアを通じた視線追跡

Country Status (11)

Country Link
US (1) US9946339B2 (ja)
EP (1) EP3204891B1 (ja)
JP (1) JP6560748B2 (ja)
KR (1) KR102455734B1 (ja)
CN (1) CN107209551B (ja)
AU (1) AU2015328317B2 (ja)
BR (1) BR112017005648A2 (ja)
CA (1) CA2964099C (ja)
MX (1) MX2017004450A (ja)
RU (1) RU2705432C2 (ja)
WO (1) WO2016057435A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016093750A1 (en) * 2014-12-10 2016-06-16 Telefonaktiebolaget Lm Ericsson (Publ) Device for and method of corneal imaging
US20160300108A1 (en) * 2015-04-08 2016-10-13 Motorola Mobility Llc Iris acquisition using visible light imaging
EP3308188A4 (en) * 2015-06-09 2019-01-23 Nokia Technologies Oy TRIGGERING ACTIVE SCAN
US9785234B2 (en) * 2015-12-26 2017-10-10 Intel Corporation Analysis of ambient light for gaze tracking
CN111629653A (zh) 2017-08-23 2020-09-04 神经股份有限公司 具有高速眼睛跟踪特征的大脑-计算机接口
KR102410834B1 (ko) * 2017-10-27 2022-06-20 삼성전자주식회사 반사 영역을 제거하는 방법, 사용자의 눈을 추적하는 방법 및 그 장치
US10725292B2 (en) * 2018-02-01 2020-07-28 Varjo Technologies Oy Gaze-tracking system and aperture device
US10324529B1 (en) 2018-05-31 2019-06-18 Tobii Ab Method and system for glint/reflection identification
ES2921299T3 (es) * 2018-05-31 2022-08-23 Tobii Ab Método y sistema para la identificación de reflejos/reflexiones
US10288879B1 (en) 2018-05-31 2019-05-14 Tobii Ab Method and system for glint/reflection identification
EP3627194A1 (en) * 2018-09-20 2020-03-25 Essilor International An optical device with reduced reflection in deep red, near infrared and visible ranges
US10664050B2 (en) * 2018-09-21 2020-05-26 Neurable Inc. Human-computer interface using high-speed and accurate tracking of user interactions
KR102608471B1 (ko) 2018-11-06 2023-12-01 삼성전자주식회사 눈 추적 방법 및 장치
KR102349087B1 (ko) * 2019-10-10 2022-01-12 한국과학기술연구원 뇌-컴퓨터 인터페이스에 기반하여 로봇을 제어하는 방법 및 그에 따른 식사 보조 로봇의 제어 장치
CN113132643B (zh) * 2019-12-30 2023-02-07 Oppo广东移动通信有限公司 图像处理方法及相关产品
US11205069B1 (en) * 2020-02-20 2021-12-21 Facebook Technologies, Llc Hybrid cornea and pupil tracking
CN116507949A (zh) * 2020-09-22 2023-07-28 苹果公司 使用多区透镜的闪光分析
GB2618078A (en) * 2022-04-25 2023-11-01 Continental Automotive Tech Gmbh An image processing method for removal of glare spots and system for the same

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5471542A (en) * 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
JP3465336B2 (ja) * 1994-02-04 2003-11-10 三菱電機株式会社 顔画像撮影装置
AUPP048097A0 (en) 1997-11-21 1997-12-18 Xenotech Research Pty Ltd Eye tracking apparatus
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6134339A (en) * 1998-09-17 2000-10-17 Eastman Kodak Company Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame
SE0004741D0 (sv) 2000-12-21 2000-12-21 Smart Eye Ab Image capturing device with reflex reduction
US7809160B2 (en) 2003-11-14 2010-10-05 Queen's University At Kingston Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections
EP1755441B1 (en) * 2004-04-01 2015-11-04 Eyefluence, Inc. Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US7773111B2 (en) 2005-03-16 2010-08-10 Lc Technologies, Inc. System and method for perceived image processing in a gaze tracking system
CA2685976C (en) 2007-05-23 2013-02-19 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
PL2242419T3 (pl) * 2008-02-14 2016-05-31 Nokia Technologies Oy Urządzenie i sposób określania kierunku spojrzenia
US10178290B2 (en) 2010-02-17 2019-01-08 Sri International Method and apparatus for automatically acquiring facial, ocular, and iris images from moving subjects at long-range
US8408706B2 (en) * 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US8888287B2 (en) * 2010-12-13 2014-11-18 Microsoft Corporation Human-computer interface system having a 3D gaze tracker
FR2970576B1 (fr) * 2011-01-19 2013-02-08 Matchic Labs Procede de determination de la direction du regard et dispositif pour sa mise en oeuvre
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US8928585B2 (en) * 2011-09-09 2015-01-06 Thales Avionics, Inc. Eye tracking control of vehicle entertainment systems
US8971570B1 (en) * 2011-11-04 2015-03-03 Google Inc. Dual LED usage for glint detection
KR20130121303A (ko) * 2012-04-27 2013-11-06 한국전자통신연구원 원거리 시선 추적 시스템 및 방법
JP6011173B2 (ja) * 2012-09-06 2016-10-19 株式会社Jvcケンウッド 瞳孔検出装置および瞳孔検出方法
JP6327753B2 (ja) * 2013-05-08 2018-05-23 国立大学法人静岡大学 瞳孔検出用光源装置、瞳孔検出装置及び瞳孔検出方法
KR20140147748A (ko) * 2013-06-19 2014-12-30 한국전자통신연구원 시력 보조 기구 착용시에도 안정적인 시선 추적 방법
WO2015048026A1 (en) * 2013-09-24 2015-04-02 Sony Computer Entertainment Inc. Gaze tracking variations using dynamic lighting position
CN106132284B (zh) * 2013-11-09 2019-03-22 深圳市汇顶科技股份有限公司 光学眼动追踪
US9552064B2 (en) * 2013-11-27 2017-01-24 Shenzhen Huiding Technology Co., Ltd. Eye tracking and user reaction detection
US9454699B2 (en) * 2014-04-29 2016-09-27 Microsoft Technology Licensing, Llc Handling glare in eye tracking

Also Published As

Publication number Publication date
RU2017111831A (ru) 2018-10-09
US9946339B2 (en) 2018-04-17
BR112017005648A2 (pt) 2017-12-12
US20160103484A1 (en) 2016-04-14
KR102455734B1 (ko) 2022-10-17
MX2017004450A (es) 2017-11-16
EP3204891B1 (en) 2021-08-18
EP3204891A1 (en) 2017-08-16
AU2015328317A1 (en) 2017-04-13
KR20170070110A (ko) 2017-06-21
WO2016057435A1 (en) 2016-04-14
CA2964099A1 (en) 2016-04-14
RU2017111831A3 (ja) 2019-04-25
CN107209551B (zh) 2020-08-25
AU2015328317B2 (en) 2020-07-02
JP2017537366A (ja) 2017-12-14
RU2705432C2 (ru) 2019-11-07
CN107209551A (zh) 2017-09-26
CA2964099C (en) 2023-01-24

Similar Documents

Publication Publication Date Title
JP6560748B2 (ja) アイウェアを通じた視線追跡
JP6845295B2 (ja) 目追跡でのグレアに対処すること
KR102231910B1 (ko) 초점 이동에 반응하는 입체적 디스플레이
US9773170B2 (en) Pupil detection
KR102366110B1 (ko) 번쩍임의 광원에의 매핑
RU2627131C2 (ru) Отображение теней с помощью прозрачного устройства отображения
JP2017534957A (ja) 眼の不快感を軽減させるディスプレイ
CN105339868A (zh) 基于眼睛跟踪的视觉增强
JP2017513093A (ja) 注視の検出を介した遠隔デバイスの制御
TW201533613A (zh) 偏極化凝視追蹤
JP2017079883A (ja) 視線検出システム、視線検出方法、および視線検出プログラム
CN116583885A (zh) 生物识别认证系统中的姿态优化
CN116569221A (zh) 用于成像系统的灵活照明
CN116529787A (zh) 多波长生物识别成像系统
US11156831B2 (en) Eye-tracking system and method for pupil detection, associated systems and computer programs
CN116472564A (zh) 基于所获取图像的质量自动选择生物识别
CN116529786A (zh) 多相机生物识别成像系统

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190719

R150 Certificate of patent or registration of utility model

Ref document number: 6560748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250