JP6374107B2 - アイトラッキングシステムのための改良されたキャリブレーション - Google Patents

アイトラッキングシステムのための改良されたキャリブレーション Download PDF

Info

Publication number
JP6374107B2
JP6374107B2 JP2017523820A JP2017523820A JP6374107B2 JP 6374107 B2 JP6374107 B2 JP 6374107B2 JP 2017523820 A JP2017523820 A JP 2017523820A JP 2017523820 A JP2017523820 A JP 2017523820A JP 6374107 B2 JP6374107 B2 JP 6374107B2
Authority
JP
Japan
Prior art keywords
moving object
calibration
tracking
facing camera
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017523820A
Other languages
English (en)
Other versions
JP2018505457A (ja
Inventor
ホレシ,ニザン
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2018505457A publication Critical patent/JP2018505457A/ja
Application granted granted Critical
Publication of JP6374107B2 publication Critical patent/JP6374107B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Description

本開示は、アイトラッキングシステムに関し、より詳細には、アイトラッキングシステムのための改良されたキャリブレーションに関する。
ユーザの注視をトラッキングするシステム(すなわち、キャリブレーションシステム)は、ますます普及しつつある。ユーザの眼の動き及び注視点をトラッキングする能力は、より洗練されたユーザインタフェースの可能性を許す。しかしながら、これらのアイトラッキングシステムは、一般に、人によって眼の解剖学的構造が生理学的に異なるために、各ユーザに対してキャリブレーションする必要がある。キャリブレーションプロセスは、典型的には、そのユーザに対して(1つずつの)セットポイントをプリセットすること、及び、視覚注視ポイントが推定される間、既知のポイントにユーザが視線を固定するよう要求することにより実行される。このプロセスは面倒であり、ユーザの協力が必要であり、一般にロバストではない。さらに、このプロセスは、(例えば、トラッキングキャリブレーションシステムによって制御可能な)アクティブな表示要素及び比較的大きな視野を必要とするが、これらは、例えば、いくつかのウェアラブル装置及び自動車環境を含むいくつかのプラットフォームには存在しない。
特許請求の範囲に記載された主題の実施形態の特徴及び利点は、後述される詳細な説明により、及び、図面を参照することにより、明らかになるであろう。図面では、同様の符号は同様の部分を示す。
本開示と一致する例示的な実施形態の最上位層のシステム図を示す図である。 本開示の例示的な実施形態と一致する眼の断面図に関してキャリブレーション角度を示す図である。 本開示の例示的な実施形態と一致するオブジェクトトラッキングを示す図である。 本開示に一致する例示的な一実施形態のブロック図を示す図である。 本開示と一致する例示的な一実施形態の工程のフローチャートを示す図である。 本開示と一致する別の例示的な実施形態のプラットフォームのシステム図を示す図である。
以下の詳細な説明は、例示的な実施形態を参照しながら進められるが、多くの代替形態、修正形態、及び変形形態が当業者には明らかであろう。
原則的に、本開示は、アイトラッキングシステムの改良されたキャリブレーションのためのシステム、装置、方法及びコンピュータ読み出し可能媒体を提供する。シーン(又はワールド)フェイシングカメラは、システムのユーザが見ることができる周囲環境の視界を包含するビデオストリームを提供するように構成されてもよい。このビデオストリームは、シーンを通して移動し、ユーザの眼によって反射的に追跡される条件のオブジェクトを含むことができる。移動するオブジェクト又は移動オブジェクトは、キャリブレーションプロセスへの使用のためのそれらの適合性が決定され、それらの視軸又は視線を推定するために、検出及び解析されうる。アイトラッキングカメラは、ユーザの眼の動きをトラッキングし、それを、例えばシーンフェイシングカメラのビデオデータから決定されたオブジェクトの動きに相関させるために使用される画像を提供するように構成されていてもよい。相関が見出されると(例えば、統計的有意性閾値を超えるもの)、光軸又は瞳軸の推定が、オブジェクトへの眼の注視と関連して計算され得る。視軸推定値と光軸推定値との間の差異は、以下により詳細に説明されるように、視線トラッキングシステムのキャリブレーションの基礎として使用されてもよい。
図1は、本開示と一致する1つの例示的な実施形態の最上位層のシステム図100を示す。シーンフェイシングカメラ104は、ビジュアルデータ、例えば、システムのユーザが見ることができる周囲環境の視界を包含するビデオストリームを提供するように構成され得る。アイトラッキングカメラ106は、以下に説明するように、ビジュアルデータ、例えば、眼の動き、特に眼の光軸のトラッキングに用いられるユーザの眼108の画像を提供するように構成され得る。シーンフェイシングカメラ104及びアイトラッキングカメラ106からのデータは、キャリブレーションパラメータを生成するとともに、これらのパラメータをアイトラッキングシステム110に提供するように構成されたアイトラッキングキャリブレーションシステム102に提供されてもよい。アイトラッキングシステム110は、キャリブレーションパラメータに基づく補正又は調整によって、アイトラッキングカメラ106によって提供される後続のデータに基づいて、ユーザの眼の動き又は注視ポイントをトラッキングし得る。
図2は、キャリブレーション角度を、本開示の一実施形態と一致する眼の断面図200に関して示す。眼108は、例えば凝視点206におけるオブジェクトの、画像を眼の後ろ側にある受容体上に集束するレンズ214を含む。中心窩204は、視覚受容体の密度が最も高い領域であり、したがって、最高解像度で画像を知覚することができる。視軸(又は視線)212は、中心窩と固定点との間に描かれ、ユーザが注視している実際の経路を表す。対照的に、光(又は瞳孔)軸208は、瞳孔の中心を通り、レンズ214の表面に直交するように描かれることができる。光軸208は、ユーザが注視している経路を示すように見えるが、真の視覚軸212から角度カッパ(Κ)210だけずれている。
アイトラッキング装置は、原則的に、眼108の視覚検査に依拠して光軸208を推定する。光軸208は、(レンズ214の中心における)瞳孔が向いている方向を測定することによって推定することができる。換言すれば、光軸は、瞳孔の中心においてレンズ214の表面に対して直交している。しかしながら、カッパ角度210は人によって異なり、視軸を計算する必要があるので、各ユーザに対するキャリブレーションプロセスによって推定されなければならない。カッパ角度210は、水平方向及び垂直方向にそれぞれ対応する、相対的に直交する2つの成分ファイ(φ)及びシータ(θ)の合成として表すことができる。
カッパ角度210に加えて、2つの他の解剖学的パラメータ:角膜曲率半径(R)、及び、瞳面と角膜曲率中心との間の距離(d)がアイトラッキングキャリブレーションのために用いられることができる。
図3は、本開示の例示的な実施形態と一致するオブジェクトトラッキング300を示す。人間の眼は、一般に3つの主要なモードのうちの1つで作用する。(1)固視 − 眼は単一の位置に視覚の凝視を維持する。(2)衝動性運動(Saccade) − 眼又は頭早い動き、通常は2つの固視の間に起こる。(3)滑らかな追跡 − 眼が移動オブジェクトの近くを追いかける。図2は、いくつかの場所302,304,306及び対応する時点t1,t2,・・・tNにおける経路に沿って移動するオブジェクト(自動車)の滑らかな追跡を示す。人間の視覚システムは、本能的に又は反射的に移動オブジェクトを追跡する。
いくつかの実施形態では、シーンフェイシングカメラによって提供される視野は、特徴的な移動オブジェクトについて調査され、関連する眼の滑らかな追跡動作は、アイトラッキングカメラによって捕捉される。オブジェクト動作と滑らかな追跡動作との間の適合が、十分な程度の信頼度で認められると、適合するデータはシステムデータベースに登録されるか又は記憶される。その後、後述するように、このデータに基づいてキャリブレーションパラメータを計算することができる。
図4は、本開示に一致する例示的な実施形態のブロック図400を示す。注視推定モジュール404と、シーン解析モジュール406と、オブジェクト軌跡適合モジュール408と、キャリブレーションモジュール410と、を含むようにアイトラッキングキャリブレーションシステムが示されている。
注視推定モジュール404は、アイトラッキングカメラ106から画像を受信し、それらの画像に基づいてユーザの眼108の注視角度を一期間にわたって複数の点で推定するように構成され得る。注視角度は、光軸208に対応し、アイトラッキングの分野で知られている任意の適切な技術を使用して推定することができる。各注視角点は、時間タグと関連付けられてもよい。
シーン解析モジュール406は、シーンフェイシングカメラから受信したビデオストリームを解析して移動オブジェクトを検出し、それらのオブジェクトの角度位置を、一定時間にわたって多数の点で推定するように構成され得る。各オブジェクトポイントは、タイムタグと関連付けられてもよい。オブジェクト検出及び認識は、テンプレート適合、オプティカルフロートラッキング、背景セグメンテーション、スケール不変特徴変換(SIFT)適合、パーティクルフィルタリング、及び/又はポジティブネガティブトラッキングのうちの1つ又は複数を使用して実行することができる。
オブジェクト動作検出器は、以下の基準のうちの1つ又は複数に従ってアイトラッキングキャリブレーションに適していないオブジェクトを拒否するように構成されてもよい。
(a)オブジェクト視覚サイズ − 大きなオブジェクトは、ユーザ視点に関する不確実性を増加させる可能性がある。
(b)オブジェクト視覚速度 − 滑らかな追跡速度は、通常、最大約30度/秒に制限される。
(c)オブジェクト動作 − 比較的小さなオブジェクト動作は、固視か衝動性運動か区別がつかない場合がある。
(d)オブジェクト自己閉塞(self−occlusion) − 閉塞したオブジェクト(例えば、自身の軸の周りの回転)は、オブジェクトの本体の全体的動作と矛盾する注視パターンを生成することがある。
(e)オブジェクトコントラスト − コントラストが比較的低いオブジェクトは、ユーザの注視点に関する不確実性を増加させる可能性がある。
(f)オブジェクトの識別性 − 多くのオブジェクトが同様のパターンで動作する場合、その動作は、どのオブジェクトをユーザの視線がトラッキングしているかに関して不確実性を増大させる可能性がある。
さらに、いくつかの実施形態では、慣性センサを使用して、シーンフェイシングカメラの動作をワールド座標で測定することができる。カメラと共に移動する(すなわち、現実世界で動いていない)と判定されたオブジェクトは、拒絶され得る。
オブジェクト軌跡適合モジュール408は、オブジェクト動作データを注視データと適合させるように構成されてもよい。オブジェクト動作点は、ユーザのアイ座標系の光線に変換される。これは、オブジェクトとシーンフェイシングカメラとの間の距離が、ウェアラブル装置において数センチメートルに過ぎない、カメラと眼との間の距離と比較して比較的大きいという仮定に基づくであろう。代替的に、いくつかの実施形態では、オブジェクトとシーンフェイシングカメラとの間の距離を推定するために、深さ又は距離センシング装置を使用することができる。例えば、ステレオカメラをこの目的のために使用することができる。
この時点で、オブジェクト軌跡適合モジュール408は、オブジェクト座標[θ,φ、tObj及び視線座標[θ+θ,φ+φ、t+tEyeを備え、ここで、θ及びφはキャリブレーション角度(Kappa)であり、tは2つのカメラ間のクロックサンプリング時間差を表す。再サンプリングを実行すると、オブジェクト座標及び視線座標を共通の時間座標系tにし、tのオフセット項を除去することができる。そして、キャリブレーション角度θ及びφが最小になった、適合したオブジェクト座標と視線座標との間で距離測定値を計算することができる。
Figure 0006374107
いくつかの実施形態では、距離測定値は、ユークリッドノルム、すなわち、
Figure 0006374107
である。換言すると、キャリブレーション角度θ、φに基づいて、オブジェクト角度位置と注視方向との間の距離の合計が最小化される。一般に、これは2自由度(θ,φ)の非線形最小化問題である。最小化は、例えばニュートン・ガウスアルゴリズム又はレーベンバーグ・マーカードアルゴリズムのような一般的な数値最適化技術によって実行することができる。
いくつかの実施形態では、角膜曲率半径(R)及び瞳平面と角膜曲率中心(d)との間の距離を含むように、追加のキャリブレーションパラメータを推定することができる。これらの実施形態では、距離測定値最小化計算は、以下のようにR及びdを含む。
Figure 0006374107
ここで注視角度とキャリブレーションパラメータR、dとの間の関数関係は、既知の方法によってアイトラッキング装置の幾何学的形状から導き出すことができる。数値的最適化は、各パラメータに対して予め定義された制約を受けることができる。例えば、パラメータは、正常な解剖学的値の範囲内に限定されてもよい。
測定された距離が閾値を超える場合、適合したデータは拒絶され得る。そうでなければ、適合したデータはキャリブレーションモジュール410に渡され得る。閾値は、適合が予め定義された統計的有意性レベルに達することを可能にするために、オブジェクトトラッキング及び注視トラッキングに関連するノイズを考慮する統計モデルによって計算される。本開示の実施形態は、ユーザが通常静止点である既知のオブジェクトを見ていると仮定する他の注視キャリブレーションシステムとは異なり、発生するとは限らない自発的なオブジェクトトラッキングに依存することが理解されよう。したがって、合否判定基準は、ユーザがシーン解析モジュール406によって検出されたオブジェクトを実際に注視しているかどうかを判定するのに有用である。
キャリブレーションモジュール410は、検出され受け入れられた1つ又は複数の移動オブジェクトに対して、モジュール408によって提供されるように、適合したオブジェクト動作データ及び注視データを収集するように構成されてもよい。複数の移動オブジェクトの検出と適合は、ここで説明されるようにキャリブレーションプロセスを改良することが期待される。
キャリブレーションモジュール410は、オブジェクトの動作の全空間範囲を解析し、その範囲が許容可能なキャリブレーション品質を達成するのに十分であるかどうかを決定するように構成されてもよい。いくつかの実施形態では、決定基準は、予め定義された閾値に達するか又はそれを超える注視点の極値に基づくことができる。例えば、
Figure 0006374107
オブジェクト動作データと注視データとの集合は、オブジェクト動作データと注視データとの間の距離測定値が、キャリブレーション角度θとφに依存して最小化されるように、受け入れられたオブジェクトのすべてにわたって最適化され得る。
Figure 0006374107
結果としてキャリブレーションパラメータを生成する。同様に、追加のキャリブレーションパラメータR、Dが推定される実施形態では、この数値最適化は次のように表すことができる。
Figure 0006374107
図5は、本開示と一致する例示的な実施形態の工程500のフローチャートを示す。工程は、アイトラッキングシステムの改良されたキャリブレーションのための方法を提供する。工程510において、シーンフェイシングカメラからビデオストリームが受信される。工程520において、ビデオストリームは、移動オブジェクトを検出し、一期間にわたって移動オブジェクトの角度位置を推定するために解析される。工程530において、画像がアイトラッキングカメラから受信され、画像に基づいて一期間にわたってユーザの眼の注視角度が推定される。工程540において、各移動オブジェクトについて、第1距離測定値がオブジェクト角度位置と注視角度との間で計算される。動作550では、第1の距離測定値の距離測定閾値との比較に基づいて、キャリブレーションに使用するために、各移動オブジェクトを受け入れるか又は拒絶するかの決定が行われる。工程560において、第2の距離測定値の最小化に基づいてアイトラッキングキャリブレーション角度が推定される。第2の距離測定値は、受け入れられた移動オブジェクトの角度位置と注視角度との間で計算される。
図6は、本開示と一致する一例示的実施形態のシステム図600を示す。システム600は、例えばスマートフォン、スマートタブレット、携帯情報端末(PDA)、モバイルインターネットデバイス(MID)、コンバーチブルタブレット、ノートブック又はラップトップコンピュータ、若しくは他の任意の適した装置などの、モバイルプラットフォーム610又はコンピューティングデバイスであってもよい。しかしながら、ここで説明されるシステムの実施形態は、モバイルプラットフォームに限定されず、いくつかの実施形態では、システム600は、ワークステーション又はデスクトップコンピュータであってもよいことが理解されよう。デバイスは、原則的に、例えば、タッチスクリーン、液晶ディスプレイ(LCD)又は任意の他の適切なディスプレイタイプの表示要素660を介して、ユーザに様々なインタフェースを提示することができる。
システム600は、任意の数のプロセッサ620及びメモリ630を含むように示されている。いくつかの実施形態では、プロセッサ620は、任意の数のプロセッサコアとして実装されてもよい。プロセッサ(又はプロセッサコア)は、例えば、マイクロプロセッサ、埋め込みプロセッサ、デジタル信号プロセッサ(DSP)、グラフィックスプロセッサ(GPU)、ネットワークプロセッサ、フィールドプログラマブルゲートアレイ、又はコードを実行するように構成された他のデバイスであり得る。プロセッサは、コアごとに複数のハードウェアスレッドコンテキスト(又は「論理プロセッサ」)を含むことができるという点で、マルチスレッドコアであってもよい。メモリ630は、プロセッサに結合されてもよい。メモリ630は、当業者に知られているか若しくは利用可能な多種多様なメモリ(メモリ階層及び/又はメモリキャッシュの様々な層を含む)のいずれかとすることができる。プロセッサ及びメモリは、1つ又は複数のユーザアプリケーション又は他のソフトウェアモジュールを格納、ホスト及び/又は実行するように構成されてもよいことが理解されよう。これらのアプリケーションは、例えば、任意のタイプの計算、通信、データ管理、データ記憶及び/又はユーザインターフェースタスクを含むことができるが、これらに限定されない。いくつかの実施形態では、これらのアプリケーションは、モバイルプラットフォーム610の任意の他のコンポーネントを使用するか、又は相互作用することができる。
システム600はまた、例えば、携帯電話通信、ワイヤレスフィデリティ(WiFi)、Bluetooth(登録商標)、及び/又は近距離無線通信(NFC)などの無線通信機能を含むことができるネットワークインターフェースモジュール640を含むように示される。無線通信は、Bluetooth(登録商標)、Wi−Fi及び携帯電話通信規格の、過去、現在及び未来のバージョンを含む、既存の又は未開発の通信規格に互換性があるか又は準拠することができる。
システム600はまた、例えばハード・ディスク・ドライブ(HDD)又はソリッド・ステート・ドライブ(SSD)などのストレージ・システム650を含むように示されている。
システム600はまた、プロセッサ620とシステム600の他の要素又はシステム600の外部の他の要素(図示せず)との間のデータ通信を可能にするか又は管理するように構成された入出力(IO)システム又はコントローラ650を含むように示される。
システム600は、前述したように改良されたアイトラッキングキャリブレーションを用いてアイトラッキング機能を提供するように構成された、アイトラッキングシステム110、アイトラッキングキャリブレーションシステム102、シーンフェイシングカメラ104及びアイトラッキングカメラ106を含むように示されている。
いくつかの実施形態では、システム600の様々なコンポーネントをシステムオンチップ(SoC)アーキテクチャで組み合わせることができることが理解されよう。いくつかの実施形態では、コンポーネントは、ハードウェアコンポーネント、ファームウェアコンポーネント、ソフトウェアコンポーネント、若しくは、ハードウェア、ファームウェア又はソフトウェアの任意の適切な組み合わせであってもよい。
ここで説明される方法の実施形態は、1つ又は複数のプロセッサによって実行されたときに方法を実行する命令を個々に又は組み合わせて格納した1つ又は複数の記憶媒体を含むシステムで実行することができる。ここで、プロセッサは、例えば、システムCPU(例えば、コアプロセッサ)及び/又はプログラム可能な回路を含むことができる。したがって、ここで説明される方法による工程は、例えば、いくつかの異なる物理的位置でストラクチャを処理するなど、複数の物理デバイスにわたって分散されることが意図される。また、当業者に理解されるように、方法の工程は、個別に又はサブコンビネーションで実行されることが意図されている。したがって、フローチャートの各々の工程の全てを実行する必要はなく、本開示は、当業者に理解されるように、そのような工程のすべてのサブコンビネーションが可能になることを明示的に意図する。
記憶媒体は、任意のタイプの有形媒体を含むことができ、例えば、フロッピーディスク、光ディスク、読み出し専用コンパクトディスク(CD−ROM)、書き換え可能コンパクトディスク(CD−RW)、デジタル多用途ディスク(DVD)、及び、磁気光学ディスク、などを含む任意のタイプのディスクや、リードオンリーメモリ(ROM)、ダイナミック及びスタティックRAMのようなランダムアクセスメモリ(RAM)、消去可能プログラマブルリードオンリーメモリ(EPROM)、電気消去可能プログラマブルリードオンリーメモリ(EEPROM)、フラッシュメモリ、磁気又は光学カード、若しくは、任意のタイプの電子的命令の格納に適した媒体を含む半導体デバイスを含むことができる。
ここに含まれる任意の実施形態で使用される「回路」は、例えば、プログラマブル回路によって実行される命令を格納する、単一の又は任意の組み合わせのハードウェア回路、プログラマブル回路、ステートマシン回路、及び/又はファームウェアを含みうる。アプリケーションは、ホストプロセッサ又は他のプログラマブル回路のようなプログラマブル回路で実行されるコード又は命令として具体化されてもよい。ここでの任意の実施形態で使用されるモジュールは、回路として具体化されてもよい。回路は、集積回路チップのような集積回路として具体化することができる。
したがって、本開示は、アイトラッキングシステムの改良されたキャリブレーションのためのシステム、デバイス、方法、及びコンピュータ読み出し可能媒体を提供する。以下の実施例は、さらなる実施形態に関する。
実施例1によれば、アイトラッキングキャリブレーションシステムが提供される。システムは、シーンフェイシングカメラからビデオストリームを受信し、ビデオストリームを解析して移動オブジェクトを検出し、一期間にわたって移動オブジェクトの角度位置を推定するように構成されたシーン解析モジュールを含むことができる。この実施例のシステムはまた、アイトラッキングカメラから画像を受信し、前記一期間にわたって画像に基づいてユーザの視線の注視角度を推定するように構成された注視推定モジュールを含むことができる。本実施例のシステムは、移動オブジェクトのそれぞれについて、オブジェクト角度位置と注視角度との間の第1の距離測定値を計算し、さらに、ャリブレーションに使用するために各前記移動オブジェクトを受け入れるか、第1の距離測定値の距離測定閾値との比較に基づいて決定するように構成された、オブジェクト軌跡適合モジュールをさらに含むことができる。本実施例のシステムは、受け入れられた移動オブジェクトの角度位置と注視角度との間で計算された第2の距離測定値の最小化に基づいてアイトラッキングキャリブレーション角度を推定するように構成されたキャリブレーションモジュールをさらに含むことができる。
実施例2は、実施例1の主題を含むことができ、シーン解析モジュールは、テンプレート適合、オプティカルフロートラッキング、背景セグメンテーション、スケール不変特徴変換(SIFT)適合、パーティクルフィルタリング、及び/又はポジティブ‐ネガティブトラッキングに基づいて、オブジェクトを検出するようにさらに構成されている。
実施例3は、実施例1及び2のいずれかの主題を含むことができ、シーン解析モジュールは、移動オブジェクトの視覚的サイズがサイズ閾値を超えることに基づいて移動オブジェクトを拒否するようにさらに構成される。
実施例4は、実施例1乃至3のいずれかの主題を含むことができ、シーン解析モジュールは、移動オブジェクトの視覚速度が速度閾値を超えることに基づいて移動オブジェクトを拒否するようにさらに構成される。
実施例5は、実施例1乃至4のいずれかの主題を含むことができ、シーン解析モジュールは、さらに、移動オブジェクトに関連付けられている注視角度の極値が移動範囲を超えないという決定に基づいて、移動オブジェクトを拒否するようにさらに構成される。
実施例6は、実施例1乃至5のいずれかの主題を含むことができ、さらに、シーンフェイシングカメラの動きをトラッキングするように構成された慣性センサを含み、シーン解析モジュールが、オブジェクトの動作とシーンフェイシングカメラの動作との相関に基づいて移動オブジェクトをさらに拒否する。
実施例7は、実施例1乃至6のいずれかの主題を含むことができ、最小化は、ニュートン・ガウスアルゴリズム又はレーベンバーグ・マーカートアルゴリズムに基づく。
実施例8は、実施例1乃至7のいずれかの主題を含むことができ、移動オブジェクトの位置をワールド座標系からアイ座標系に変換するために、移動オブジェクトとシーンフェイシングカメラとの間の距離を推定するように構成された深さ測定装置をさらに含む。
実施例9は、実施例1乃至8のいずれかの主題を含むことができ、オブジェクト軌跡適合モジュールは、推定されたオブジェクト角度位置及び推定された注視角度を共通の時間座標系に再サンプリングするようにさらに構成される。
実施例10によれば、アイトラッキングキャリブレーションのための方法が提供される。この方法は、シーンフェイシングカメラからビデオストリームを受信するステップと、移動オブジェクトを検出するためにビデオストリームを解析するステップ及び一期間にわたって移動オブジェクトの角度位置を推定するステップと、アイトラッキングカメラから画像を受信するステップ及びその画像に基づいてユーザの眼の注視角度を前記一期間にわたって推定するステップと、各移動オブジェクトに対して、オブジェクト角度位置と注視角度との間の第1距離測定値を計算するステップと、キャリブレーションに使用するために各移動オブジェクトを受け入れるか、第1距離測定値と距離測定閾値との比較に基づいて、決定するステップと、第2の距離測定値は、受け入れられた移動オブジェクトの角度位置と注視角度との間で計算され、第2の測定値の最小化に基づいてアイトラッキングキャリブレーション角度を推定する、ステップと、を含む。
実施例11は、実施例10の主題を含み、さらに、テンプレート適合、オプティカルフロートラッキング、背景セグメンテーション、スケール不変特徴変換(SIFT)適合、パーティクルフィルタリング及び/又はポジティブ‐ネガティブトラッキングに基づいて移動オブジェクトを検出するステップを含む。
実施例12は、実施例10及び11のいずれかの主題を含み、移動オブジェクトの視覚的サイズがサイズ閾値を超えることに基づいて移動オブジェクトを拒否するステップをさらに含む。
実施例13は、実施例10乃至12のいずれかの主題を含み、移動オブジェクトの視覚速度が速度閾値を超えることに基づいて移動オブジェクトを拒否するステップをさらに含む。
実施例14は、実施例10乃至13のいずれかの主題を含むことができ、さらに、移動オブジェクトに関連する注視角度の極値が移動閾値の範囲を超えないという決定に基づいて移動オブジェクトを拒否するステップを含む。
実施例15は、実施例10乃至14のいずれかの主題を含み、さらに、シーンフェイシングカメラの動作をトラッキングするステップと、オブジェクトの動作とシーンフェイシングカメラの動作との相関に基づいて移動オブジェクトを拒否するステップとを含む。
実施例16は、実施例10乃至15のいずれかの主題を含むことができ、最小化は、ニュートン・ガウスアルゴリズム又はレーベンバーグ・マルカートアルゴリズムに基づく。
実施例17は、実施例10乃至16のいずれかの主題を含み、移動オブジェクトの位置をワールド座標系からアイ座標系に変換するために、移動オブジェクトとシーンフェイシングカメラとの間の距離を推定するステップをさらに含む。
実施例18は、実施例10乃至17のいずれかの主題を含むことができ、さらに、推定対象物角度位置及び推定視線角度を共通の時間座標系に再サンプリングするステップを含む。
実施例19によれば、プロセッサによって実行されたときに、実施例10乃至18のいずれか1つに記載の方法を実行するための工程をもたらす命令が格納された、少なくとも1つのコンピュータ読み取り可能記憶媒体が提供される。
実施例20によれば、アイトラッキングキャリブレーションのためのシステムが提供される。システムは、シーンフェイシングカメラからビデオストリームを受信する手段と、移動オブジェクトを検出するためにビデオストリームを解析し、一期間にわたって移動オブジェクトの角度位置を推定する手段と、アイトラッキングカメラから画像を受信し、その画像に基づいてユーザの眼の注視角度を前記一期間にわたって推定する手段と、各移動オブジェクトに対して、オブジェクト角度位置と注視角度との間の第1距離測定値を計算するための手段と、キャリブレーションに使用するために各移動オブジェクトを受け入れるか、第1の距離測定値と距離測定閾値との比較に基づいて決定する手段と、受け入れられた移動オブジェクトの角度位置と注視角度との間で計算された第2の距離測定値の最小化に基づいてアイトラッキングキャリブレーション角度を推定する手段とを含む。
実施例21は、実施例20の主題を含み、さらに、テンプレート適合、オプティカルフロートラッキング、背景セグメンテーション、スケール不変特徴変換(SIFT)適合、パーティクルフィルタリング及び/又はポジティブ‐ネガティブトラッキングに基づいて移動オブジェクトを検出する手段を含む。
実施例22は、実施例20及び21のいずれかの主題を含むことができ、移動オブジェクトの視覚的サイズがサイズ閾値を超えることに基づいて移動オブジェクトを拒絶する手段をさらに含む。
実施例23は、実施例20乃至22のいずれかの主題を含み、移動オブジェクトの視覚速度が速度閾値を超えることに基づいて移動オブジェクトを拒絶する手段をさらに含む。
実施例24は、実施例20乃至23のいずれかの主題を含み、さらに、移動オブジェクトに関連付けられている注視角度の極値が動作閾値の範囲を超えないという決定に基づいて、移動オブジェクトを拒絶する手段を含む。
実施例25は、実施例20乃至24のいずれかの主題を含むことができ、シーンフェイシングカメラの動作をトラッキングし、オブジェクトの動作のシーンフェイシングカメラの動作との相関に基づいて移動オブジェクトを拒否する手段をさらに含む。
実施例26は、実施例20乃至25のいずれかの主題を含むことができ、最小化は、ニュートン・ガウスアルゴリズム又はレーヴェンベルグ・マルカートアルゴリズムに基づく。
実施例27は、実施例20乃至26のいずれかの主題を含むことができ、さらに、移動オブジェクトの位置をワールド座標系からアイ座標系に変換するために、移動オブジェクトとシーンフェイシングカメラとの間の距離を推定する手段を含む。
実施例28は、実施例20乃至27のいずれかの主題を含むことができ、さらに、推定されたオブジェクト角度位置及び推定された注視角度を共通の時間座標系に再サンプリングする手段を含む。
本明細書で使用される用語及び表現は、限定ではなく説明の用語として使用され、そのような用語及び表現の使用において、示され、説明された特徴(又はその一部)のいかなる均等物も除外する意図はなく、特許請求の範囲内において種々の変更が可能であることが認識される。したがって、特許請求の範囲は、そのような均等物のすべてをカバーすることを意図している。様々な特徴、態様、及び実施形態を本明細書で説明してきた。特徴、態様、及び実施形態は、当業者に理解されるように、互いの組み合わせ、ならびに変形及び変更を受け入れる余地がある。したがって、本開示は、そのような組み合わせ、変形、及び変更を包含するものと考えられるべきである。

Claims (23)

  1. シーンフェイシングカメラからビデオストリームを受信し、移動するオブジェクトを検出するために前記ビデオストリームを解析し、一期間にわたって前記移動するオブジェクトの角度位置を推定するシーン解析モジュールと、
    アイトラッキングカメラから画像を受信し、前記画像に基づいて、前記一期間にわたって、ユーザの目の注視角度を推定する注視推定モジュールと、
    前記移動するオブジェクトの各々に対して、前記オブジェクトの角度位置と前記注視角度との間の第1の距離測定値を計算し、さらに、前記移動するオブジェクトの各々をキャリブレーションに使用するために受け入れるか否かについて、前記第1の距離測定値の距離測定閾値との比較に基づいて決定するオブジェクト軌跡適合モジュールと、
    第2の距離測定値の最小化に基づいてアイトラッキングキャリブレーション角度を推定するキャリブレーションモジュールであって、前記第2の距離測定値は、受け入れられた前記移動するオブジェクトの前記角度位置と前記注視角度との間で計算されるキャリブレーションモジュールと、
    を備えるアイトラッキングキャリブレーションシステム。
  2. 前記シーン解析モジュールは、さらに、テンプレート適合、オプティカルフロートラッキング、背景セグメンテーション、スケール不変特徴変換(SIFT)適合、パーティクルフィルタリング及び/又はポジティブ‐ネガティブトラッキングに基づいて前記移動するオブジェクトを検出する、請求項1に記載のシステム。
  3. 前記シーン解析モジュールはさらに、前記移動するオブジェクトの視覚的サイズがサイズ閾値を超えることに基づいて前記移動するオブジェクトを拒否することを特徴とする、請求項1に記載のシステム。
  4. 前記シーン解析モジュールは、さらに、前記移動するオブジェクトの視覚速度が速度閾値を超えることに基づいて前記移動するオブジェクトを拒否することを特徴とする、請求項1に記載のシステム。
  5. 前記シーン解析モジュールは、さらに、前記移動するオブジェクトに関連付けられている前記注視角度の極値が移動閾値の範囲を超えないという決定に基づいて、前記移動するオブジェクトを拒否することを特徴とする、請求項1乃至4いずれか1項に記載のシステム。
  6. 前記シーンフェイシングカメラの動作をトラッキングするための慣性センサをさらに備え、前記シーン解析モジュールが、前記オブジェクトの動作の前記シーンフェイシングカメラの動作との相関に基づいて前記移動するオブジェクトをさらに拒否する、請求項1乃至4いずれか1項に記載のシステム。
  7. 前記最小化は、ニュートン・ガウスアルゴリズム又はレーベンバーグ・マーカードアルゴリズムに基づく、請求項1乃至4のいずれか1項に記載のシステム。
  8. 前記移動するオブジェクトの位置をワールド座標系からアイ座標系へ変換するために、前記移動するオブジェクトと前記シーンフェイシングカメラとの間の距離を推定する深さ測定装置、をさらに備える、請求項1乃至4のいずれか1項に記載のシステム。
  9. 前記オブジェクト軌跡適合モジュールは、さらに、推定された前記オブジェクトの角度位置及び推定された前記注視角度を共通の時間座標系に再サンプリングする、請求項1乃至4のいずれか1項に記載のシステム。
  10. アイトラッキングキャリブレーションのための方法であって、
    シーンフェイシングカメラからビデオストリームを受信するステップと、
    移動するオブジェクトを検出するために前記ビデオストリームを解析し、一期間にわたって前記移動するオブジェクトの角度位置を推定するステップと、
    アイトラッキングカメラから画像を受信し、前記画像に基づいて、前記一期間にわたってユーザの目の注視角度を推定するステップと、
    各前記移動するオブジェクトに対して、前記オブジェクトの角度位置と前記注視角度との間の第1の距離測定値を計算するステップと、
    キャリブレーションに使用するために各前記移動するオブジェクトを受け入れるか否かについて、前記第1の距離測定値の距離測定値閾値との比較に基づいて決定するステップと、
    第2の距離測定値の最小化に基づいてアイトラッキングキャリブレーション角度を推定するステップであって、前記第2の距離測定値は、受け入れられた前記移動するオブジェクトの前記角度位置と前記注視角度との間で計算されるステップと、
    を含む、アイトラッキングキャリブレーションのための方法。
  11. テンプレート適合、オプティカルフロートラッキング、背景セグメンテーション、スケール不変特徴変換(SIFT)適合、パーティクルフィルタリング及び/又はポジティブ‐ネガティブトラッキングに基づいて前記移動するオブジェクトを検出するステップをさらに含む、請求項10に記載の方法。
  12. 前記移動するオブジェクトの視覚的サイズがサイズ閾値を超えることに基づいて前記移動するオブジェクトを拒否するステップをさらに含む、請求項10に記載の方法。
  13. 前記移動するオブジェクトの視覚速度が速度閾値を超えることに基づいて前記移動するオブジェクトを拒否するステップをさらに含む、請求項10に記載の方法。
  14. 前記移動するオブジェクトに関連付けられている前記注視角度の極値が移動閾値の範囲を超えないという決定に基づいて、前記移動するオブジェクトを拒否するステップをさらに含む、請求項10乃至13いずれか1項に記載の方法。
  15. 前記シーンフェイシングカメラの動作をトラッキングするステップと、
    前記オブジェクトの動作と前記シーンフェイシングカメラの動作との相関に基づいて前記移動するオブジェクトを拒否するステップと、
    をさらに含む、請求項10乃至13いずれか1項に記載の方法。
  16. 前記移動するオブジェクトの位置をワールド座標系からアイ座標系へ変換するために、前記移動するオブジェクトと前記シーンフェイシングカメラとの間の距離を推定するステップをさらに含む、請求項10乃至13のいずれか1項に記載の方法。
  17. 推定された前記オブジェクト角度位置と推定された前記注視角度とを共通の時間座標系に再サンプリングするステップをさらに含む、請求項10乃至13のいずれか1項に記載の方法。
  18. プロセッサによって実行されたときに、請求項10乃至13のいずれか1項に記載の方法を実行するための工程をもたらす命令を有するプログラム。
  19. 前記移動するオブジェクトに関連付けられている前記注視角度の極値が移動閾値の範囲を超えないという決定に基づいて、前記移動するオブジェクトを拒絶する工程をさらに含む、請求項18に記載のプログラム。
  20. 前記シーンフェイシングカメラの動作をトラッキングする工程と、
    前記オブジェクトの動作と前記シーンフェイシングカメラの動作との相関に基づいて前記移動するオブジェクトを拒否する工程と、
    をさらに含む、請求項18に記載のプログラム。
  21. 前記移動するオブジェクトの位置をワールド座標系からアイ座標系に変換するために、前記移動するオブジェクトと前記シーンフェイシングカメラとの間の距離を推定する工程をさらに含む、請求項18に記載のプログラム。
  22. 推定された前記オブジェクト角度位置と推定された前記注視角度とを共通の時間座標系に再サンプリングする工程をさらに含む、請求項18に記載のプログラム。
  23. 請求項18乃至22のうちいずれか1項記載のコンピュータプログラムを記憶したコンピュータ読取り可能記憶媒体。
JP2017523820A 2014-11-06 2015-10-08 アイトラッキングシステムのための改良されたキャリブレーション Active JP6374107B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/534,333 US9936195B2 (en) 2014-11-06 2014-11-06 Calibration for eye tracking systems
US14/534,333 2014-11-06
PCT/US2015/054621 WO2016073131A1 (en) 2014-11-06 2015-10-08 Improved calibration for eye tracking systems

Publications (2)

Publication Number Publication Date
JP2018505457A JP2018505457A (ja) 2018-02-22
JP6374107B2 true JP6374107B2 (ja) 2018-08-15

Family

ID=55909603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017523820A Active JP6374107B2 (ja) 2014-11-06 2015-10-08 アイトラッキングシステムのための改良されたキャリブレーション

Country Status (6)

Country Link
US (1) US9936195B2 (ja)
EP (1) EP3215914B1 (ja)
JP (1) JP6374107B2 (ja)
KR (1) KR102307941B1 (ja)
CN (1) CN107003721B (ja)
WO (1) WO2016073131A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11138793B2 (en) * 2014-03-14 2021-10-05 Magic Leap, Inc. Multi-depth plane display system with reduced switching between depth planes
US10115205B2 (en) * 2016-03-11 2018-10-30 Facebook Technologies, Llc Eye tracking system with single point calibration
WO2017216118A1 (en) 2016-06-13 2017-12-21 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method and eye tracking system for performing a calibration procedure for calibrating an eye tracking device
DE112016007018T5 (de) 2016-06-28 2019-06-13 Intel Corporation Identifizierung der iris oder eines anderen körperteils auf einer datenverarbeitungseinrichtung
US20190235624A1 (en) * 2016-07-19 2019-08-01 Supereye, Inc. Systems and methods for predictive visual rendering
US10379612B1 (en) * 2016-12-16 2019-08-13 Apple Inc. Electronic device with gaze tracking system
US10452138B1 (en) * 2017-01-30 2019-10-22 Facebook Technologies, Llc Scanning retinal imaging system for characterization of eye trackers
US10839520B2 (en) * 2017-03-03 2020-11-17 The United States Of America, As Represented By The Secretary, Department Of Health & Human Services Eye tracking applications in computer aided diagnosis and image processing in radiology
US10761602B1 (en) 2017-03-14 2020-09-01 Facebook Technologies, Llc Full field retinal imaging system for characterization of eye trackers
CN107103293B (zh) * 2017-04-13 2019-01-29 西安交通大学 一种基于相关熵的注视点估计方法
US10304209B2 (en) 2017-04-19 2019-05-28 The Nielsen Company (Us), Llc Methods and systems to increase accuracy of eye tracking
US10642352B2 (en) 2017-05-18 2020-05-05 Tectus Coporation Gaze calibration via motion detection for eye-mounted displays
CN108038884B (zh) * 2017-11-01 2020-12-11 北京七鑫易维信息技术有限公司 校准方法、装置、存储介质和处理器
KR102476757B1 (ko) 2017-12-21 2022-12-09 삼성전자주식회사 반사를 검출하는 장치 및 방법
US11029756B2 (en) 2018-01-12 2021-06-08 Intel Corporation Display with pixel level eye tracking
EP3750028B1 (en) 2018-02-09 2022-10-19 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
US11556741B2 (en) 2018-02-09 2023-01-17 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
EP3749172B1 (en) 2018-02-09 2022-03-30 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
US11067805B2 (en) * 2018-04-19 2021-07-20 Magic Leap, Inc. Systems and methods for operating a display system based on user perceptibility
US10863812B2 (en) 2018-07-18 2020-12-15 L'oreal Makeup compact with eye tracking for guidance of makeup application
CN109218562B (zh) * 2018-09-07 2021-04-27 百度在线网络技术(北京)有限公司 时钟同步方法、装置、设备、存储介质和车辆
EP3656285B1 (en) * 2018-11-15 2023-04-19 Tobii AB Method and device for calibrating an eye tracker
EP3912013A1 (en) * 2019-01-16 2021-11-24 Pupil Labs GmbH Methods for generating calibration data for head-wearable devices and eye tracking system
CN113519154A (zh) * 2019-03-13 2021-10-19 惠普发展公司,有限责任合伙企业 检测眼睛跟踪校准误差
US10936057B2 (en) * 2019-04-09 2021-03-02 Samsung Electronics Co., Ltd. System and method for natural three-dimensional calibration for robust eye tracking
US11379016B2 (en) 2019-05-23 2022-07-05 Intel Corporation Methods and apparatus to operate closed-lid portable computers
EP3979896A1 (en) 2019-06-05 2022-04-13 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
CN110266881B (zh) * 2019-06-18 2021-03-12 Oppo广东移动通信有限公司 应用控制方法及相关产品
EP3786764B1 (en) * 2019-08-27 2022-11-23 Aptiv Technologies Limited Method and localization device for localizing an image sensor mounted on a vehicle
US11216065B2 (en) * 2019-09-26 2022-01-04 Lenovo (Singapore) Pte. Ltd. Input control display based on eye gaze
US11733761B2 (en) 2019-11-11 2023-08-22 Intel Corporation Methods and apparatus to manage power and performance of computing devices based on user presence
US11809535B2 (en) 2019-12-23 2023-11-07 Intel Corporation Systems and methods for multi-modal user device authentication
CN114868102A (zh) 2020-01-06 2022-08-05 索尼集团公司 信息处理装置、信息处理方法和计算机可读记录介质
CN111309144B (zh) * 2020-01-20 2022-02-01 北京津发科技股份有限公司 三维空间内注视行为的识别方法、装置及存储介质
JP7446913B2 (ja) * 2020-05-21 2024-03-11 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム
CN112698725B (zh) * 2020-12-30 2022-02-11 山东大学 一种基于眼动仪跟踪的穿透式屏幕系统的实现方法
CN112926523B (zh) * 2021-03-30 2022-07-26 青岛小鸟看看科技有限公司 基于虚拟现实的眼球追踪方法、系统
SE545129C2 (en) * 2021-03-31 2023-04-11 Tobii Ab Method and system for eye-tracker calibration
US11663836B2 (en) * 2021-05-17 2023-05-30 GM Global Technology Operations LLC Eye gaze tracking calibration
US20240103618A1 (en) * 2022-09-23 2024-03-28 Apple Inc. Corrected Gaze Direction and Origin

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0119859D0 (en) * 2001-08-15 2001-10-10 Qinetiq Ltd Eye tracking system
US7651220B1 (en) 2005-11-07 2010-01-26 Ram Pattikonda Selective system for blocking glare in a specific location of a user's field of vision
US7825797B2 (en) * 2006-06-02 2010-11-02 Synaptics Incorporated Proximity sensor device and method with adjustment selection tabs
US8718333B2 (en) * 2007-04-23 2014-05-06 Ramot At Tel Aviv University Ltd. System, method and a computer readable medium for providing an output image
WO2009016614A2 (en) * 2007-08-02 2009-02-05 Emza Visual Sense Ltd. Universal counting and measurement system
JP4384697B2 (ja) * 2008-03-26 2009-12-16 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム処理方法、ならびに、プログラム
US7736000B2 (en) * 2008-08-27 2010-06-15 Locarna Systems, Inc. Method and apparatus for tracking eye movement
JP2010273091A (ja) * 2009-05-21 2010-12-02 Nippon Telegr & Teleph Corp <Ntt> 広域多視点カメラ校正方法、広域多視点カメラ校正装置、およびプログラム
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
US8684742B2 (en) * 2010-04-19 2014-04-01 Innerscope Research, Inc. Short imagery task (SIT) research method
US9001196B2 (en) * 2010-10-05 2015-04-07 Echostar Technologies L.L.C. Apparatus, systems and methods for synchronization of 3-D shutter glasses to one of a plurality of presentation devices
US8866889B2 (en) * 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
WO2012083415A1 (en) * 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
US20130154913A1 (en) 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
WO2013059940A1 (en) 2011-10-27 2013-05-02 Tandemlaunch Technologies Inc. System and method for calibrating eye gaze data
TW201325200A (zh) * 2011-12-02 2013-06-16 Ind Tech Res Inst 三維視訊的景深圖的壓縮方法、裝置、電腦可讀取記錄媒體及電腦程式產品
JP5873362B2 (ja) * 2012-03-13 2016-03-01 日本放送協会 視線誤差補正装置、そのプログラム及びその方法
GB2504492A (en) * 2012-07-30 2014-02-05 John Haddon Gaze detection and physical input for cursor symbol
US9164580B2 (en) * 2012-08-24 2015-10-20 Microsoft Technology Licensing, Llc Calibration of eye tracking system
JP6014931B2 (ja) * 2012-09-06 2016-10-26 公立大学法人広島市立大学 視線計測方法
KR101467529B1 (ko) * 2012-09-19 2014-12-05 유남구 착용형 정보 제공 시스템
KR20140090552A (ko) * 2013-01-09 2014-07-17 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법
US9596508B2 (en) * 2013-03-15 2017-03-14 Sony Corporation Device for acquisition of viewer interest when viewing content
JP6094305B2 (ja) * 2013-03-26 2017-03-15 セイコーエプソン株式会社 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
US9965062B2 (en) * 2013-06-06 2018-05-08 Microsoft Technology Licensing, Llc Visual enhancements based on eye tracking
KR102098277B1 (ko) * 2013-06-11 2020-04-07 삼성전자주식회사 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US9237274B2 (en) * 2013-11-14 2016-01-12 Empire Technology Development Llc Reduction of glare in augmented reality
US9754415B2 (en) * 2014-03-27 2017-09-05 Microsoft Technology Licensing, Llc Display relative motion compensation

Also Published As

Publication number Publication date
CN107003721B (zh) 2020-03-17
US9936195B2 (en) 2018-04-03
KR102307941B1 (ko) 2021-10-05
EP3215914A1 (en) 2017-09-13
CN107003721A (zh) 2017-08-01
US20160134863A1 (en) 2016-05-12
JP2018505457A (ja) 2018-02-22
WO2016073131A1 (en) 2016-05-12
EP3215914B1 (en) 2020-03-11
KR20170065573A (ko) 2017-06-13
EP3215914A4 (en) 2018-05-16

Similar Documents

Publication Publication Date Title
JP6374107B2 (ja) アイトラッキングシステムのための改良されたキャリブレーション
JP5722502B2 (ja) モバイルデバイスのための平面マッピングおよびトラッキング
US9406137B2 (en) Robust tracking using point and line features
JP5950973B2 (ja) フレームを選択する方法、装置、及びシステム
EP2509070B1 (en) Apparatus and method for determining relevance of input speech
US9582707B2 (en) Head pose estimation using RGBD camera
JP6140278B2 (ja) ビジョン支援慣性カメラポーズ推定とビジョンベースのみのカメラポーズ推定との間の適応的な切替え
US10891473B2 (en) Method and device for use in hand gesture recognition
JP5538160B2 (ja) 瞳孔検出装置及び瞳孔検出方法
WO2016199605A1 (ja) 画像処理装置および方法、並びにプログラム
US20190026922A1 (en) Markerless augmented reality (ar) system
CN104981680A (zh) 相机辅助的运动方向和速度估计
US20160061581A1 (en) Scale estimating method using smart device
US9412012B2 (en) Z-axis determination in a 2D gesture system
US11042984B2 (en) Systems and methods for providing image depth information
US20160232399A1 (en) System and method of detecting a gaze of a viewer
JP6276713B2 (ja) 画像データ処理方法、画像データ処理装置および画像データ処理プログラム
US11941835B2 (en) Eye information estimate apparatus, eye information estimate method, and program
JP5482412B2 (ja) ロボット、位置推定方法及びプログラム
US10852138B2 (en) Scalabale simultaneous localization and mapping (SLAM) in virtual, augmented, and mixed reality (xR) applications
KR101909326B1 (ko) 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템
JP5559749B2 (ja) 位置検出装置、位置検出方法及びコンピュータプログラム
US11605206B2 (en) Method and apparatus with human body estimation
WO2022254644A1 (ja) 姿勢推定装置、姿勢推定方法、及びコンピュータ読み取り可能な記録媒体
JP2018151940A (ja) 障害物検出装置および障害物検出方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180718

R150 Certificate of patent or registration of utility model

Ref document number: 6374107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250