JP4181037B2 - 視標追跡システム - Google Patents

視標追跡システム Download PDF

Info

Publication number
JP4181037B2
JP4181037B2 JP2003522036A JP2003522036A JP4181037B2 JP 4181037 B2 JP4181037 B2 JP 4181037B2 JP 2003522036 A JP2003522036 A JP 2003522036A JP 2003522036 A JP2003522036 A JP 2003522036A JP 4181037 B2 JP4181037 B2 JP 4181037B2
Authority
JP
Japan
Prior art keywords
pupil
spot
tracking system
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003522036A
Other languages
English (en)
Other versions
JP2005500630A (ja
JP2005500630A5 (ja
Inventor
ダーネル,ローレンス
Original Assignee
キネテイツク・リミテツド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キネテイツク・リミテツド filed Critical キネテイツク・リミテツド
Publication of JP2005500630A publication Critical patent/JP2005500630A/ja
Publication of JP2005500630A5 publication Critical patent/JP2005500630A5/ja
Application granted granted Critical
Publication of JP4181037B2 publication Critical patent/JP4181037B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、全景におけるユーザの注視点を監視するための視標追跡システムに関する。
知られているように、ユーザの眼窩内における眼の位置を監視して、ユーザの注視線を決定し、たとえばユーザが眼球運動によって武器などの装置を制御することができるようにし、またはユーザがテレビの画面など所定の位置を注目しているかどうかを判定し、あるいは単にユーザが目覚めた状態であるかどうかを判定することができる。
さらに、ユーザの眼の位置を監視するための多様な方法が提案されており、それには、点光源を使用して、角膜の前面上に明るい画像を生成し、追跡システムがその画像の位置を監視する、いわゆる角膜反射(CR)法が含まれる。しかし、こうした方法は、センサの動きに誘発される誤差の影響を非常に受けやすいことが分かっている。
別法として、いわゆる差動式CR/瞳孔追跡方法が開発された。この方法では、瞳孔の相対的位置および角膜反射を適したカメラで監視し、波長感応性ビームスプリッタを使用して、ユーザの視界が光源およびカメラによって妨害されないことが保証されている。こうした方法では、センサの動作の影響をあまり受けない。通常、眼は、近赤外源(または複数の源)で照明され、固体ビデオカメラがその眼の画像を取り込む。いわゆる明瞳孔撮像では、光源がカメラ軸と同軸の光ビームを生成し、瞳孔をつくる網膜から反射された光が、明るい円になって現れ、外見上の輝度はおおむね瞳孔径の四乗で増加する。いわゆる暗瞳孔撮像では、光源は、カメラ軸に対して軸線を外した光ビームを生成し、暗い瞳孔画像が生成される。実時間の画像解析を用いて、瞳孔および角膜反射を同定し、その中心を見つける。
既存の視標追跡システムでは、たいてい、カメラからビデオ出力信号に直接適用された閾値が使用されている。これによって、2値画像を生成し、その2値画像から要求された特徴を引き出す。この技法は、コンピュータの計算により迅速になされるが、画像の品質が低下し、または瞳孔のサイズが、たとえば周囲輝度に応じて変化する場合に著しい制限を受ける。また、高度な正確さをもたらすため、こうしたシステムは、複雑で時間を要する校正手順を使用する傾向がある。そのため、こうしたシステムは敏感で、使用するのが難しくなっている。
本発明の目的は、ユーザの眼の動きを監視して、全景におけるユーザの注視点を決定するための用途の広い即効性のある視標追跡システムを提供することである。
本発明の一態様により、ユーザの眼の動きを監視するための視標追跡システムを提供する。このシステムは、
(a)ユーザの眼を監視する眼撮像手段によって生成されたビデオデータを受信するビデオデータ入力手段、
(b)閾値よりも高い輝度を有する眼撮像手段によって生成された眼画像の一部の表示を提供する適応閾値手段、および画像の前記部分を所定の妥当性基準と比較することによって有効な基準スポットを選択するスポット同定手段を含む、点光源でユーザの眼を照明することによって、ユーザの眼上に形成される基準スポットの位置を前記ビデオデータから決定するスポット位置指定手段、
(c)前記ビデオデータから前記基準スポットに対するユーザの眼の瞳孔の中心位置を決定して、ユーザの注視線を決定する瞳孔位置指定手段であって、前記瞳孔位置指定手段が、前記有効基準スポット位置に対する瞳孔を含む眼撮像手段によって生成された画像の一部を含む瞳孔追跡ウィンドウを選択する選択手段、および閾値よりも高い勾配を有する前記瞳孔追跡ウィンドウ内の前記画像の部分の勾配の前記部分の選択によって瞳孔の縁部を決定する縁部決定手段を含む、瞳孔位置指定手段、および、
(d)前記瞳孔およびスポット位置指定手段によって決定された前記ユーザの注視線から前記ユーザの注視点を表示する表示手段を備えている。
こうした視標追跡システムは、任意のビデオベースの視標追跡装置に適合することができる。このシステムは、暗瞳孔撮像または明瞳孔眼撮像に適しており、赤外発光ダイオード(IR LED)など、1つまたは複数の照明器を有する視標追跡光学系と共に使用することができる。このシステムは、インターリーブされた眼/全景画像、インターリーブされた左目/右目画像、および非インターリーブされた画像に適応することができ、不利な照明状態で画像の特徴を見つけるのに有効である。さらに、好ましい実施は、確実で使用が簡単である。
本発明の他の態様により、ユーザの眼の動きを監視するための視標追跡システムを提供する。このシステムは、
(a)ユーザの眼を監視する眼撮像手段、および前記ユーザの眼で観察された全景を監視する全景撮像手段によって生成されたビデオデータを受信するビデオデータ入力手段と、
(b)前記ユーザの眼を点光源で照明することによって、前記ユーザの眼上に形成される少なくとも1つの基準スポットの位置を前記ビデオデータから決定するスポット位置指定手段と、
(c)基準スポットに対するユーザの眼の瞳孔の位置を決定して、ユーザの注視線を決定する瞳孔位置指定手段と、
(d)ビデオデータから得た全景に対する瞳孔およびスポット位置指定手段によって決定された前記ユーザの注視線から、全景における前記ユーザの注視点を表示する全景オーバーレイ手段とを備えている。
次に、本発明をさらに完全に理解するために、例としての添付の図面を参照する。
図1で、本発明による完全な視標追跡システムの通常のレイアウトを示す。このシステムには、2つのカメラ、すなわちユーザの眼の画像を取り込むためのアイカメラ2、およびユーザの眼が観察した全景の画像を取り込むための全景カメラ4が組み込まれている。このカメラ2および4からの出力信号は、同期化され、インターリービング電子モジュール6に供給され、このインターリービング電子モジュール6は、これらの出力信号から交互フィールドを選択して、標準ビデオ信号を生成し、次いで、この標準ビデオ信号をフレームグラッバーモジュール8によってフレーム毎にデジタル化し、2つの処理チャネル、すなわち1つは眼画像用、1つは全景画像用に分ける。全景画像を示すフレームグラッバーモジュール8からの出力信号は、全景オーバーレイモジュール10に直接渡されるが、眼画像を示す出力信号は、以下のように一連の画像処理操作を受ける。
スポット位置指定モジュール12で、点光源でユーザの眼を照明することによって、ユーザの眼上に形成される基準スポットの眼画像内の位置が決定され、瞳孔位置指定モジュール14で、同じ画像内のユーザの眼の瞳孔の位置が決定される。非校正化モジュール16で信号を非校正化した後、得られた画像信号を全景オーバーレイモジュール10に供給して、全景画像内のユーザの注視点を校正する。次いで、注視点、および瞳孔とスポット位置を示す出力信号が、全景オーバーレイモジュール10によって、眼球運動のログファイルを維持するログファイルモジュール18に供給される。
図8で、本発明の視標追跡システムの動作の理解に役立つ一連の図を示す。図8の図表1で、眼の瞳孔の周囲の領域の画像22を具体的に示す肉眼のディスプレイ20を示す。この画像上に、長方形のスポット探索領域24、瞳孔追跡領域26、瞳孔28、点光源による照明によって形成された基準スポット30、および追加の点光源の反射から派生した娘スポット32がオーバーレイされたところが図示されている。重要なことは、基準スポットは1つだけであり、娘スポットは他の光源によって生じたものであることを理解することである。この例では、基準スポットは、ビデオ信号に娘スポットより早く発生するため、娘スポットと区別される。
図2は、スポット位置指定モジュール内での眼画像信号の処理を示すブロック図である。このモジュールでは、信号は、適応閾値サブモジュール34に供給され、適応閾値モジュール34は、画像データ内の最高輝度のX画素を白に設定し、残りの画素をすべて黒に設定することによって2値画像を生成して、2値画像に一連のブロッブ(blob)を生成する。得られた画像データをブロッブ分類サブモジュール36に供給し、そこで、ブロッブすべてを1組の基準と比較して、それらが有効なスポットであるかどうかを決定する。図8の図表2で、2値スポット表示装置42上のスポット探索ボックス40に対する一連のブロッブ38を示す。このプロセスでは、各ブロッブの位置を探索し、各ブロッブの周りにボックスを画定し、各ボックスおよびボックス内のブロッブの特性および寸法を使用して、そのブロッブが有効なスポットである可能性が高いかどうかを決定する。一連のパラメータが、各ブロッブに割り当てられる。これらのパラメータは、各ブロッブのサイズ、縦横比(すなわち、比較的短い軸の比較的長い軸に対する比)、充填比(すなわちブロッブサイズのボックスサイズに対する比)、およびブロッブの位置を規定するものである。
各ブロッブの位置および幾何形状を示す出力データは、ブロッブ分類モジュール36からスポット同定モジュール44に渡され、そこで、以下のように各ブロッブのパラメータが1組の基準と比較される。
(i)ブロッブの位置は、スポット探索領域24内でなければならない。
(ii)ブロッブのサイズは、最大および最小サイズの限度内でなければならない。
(iii)ブロッブの縦横比は、この制約を満たさなければならない。
(iv)ブロッブの充填比は、この制約を満たさなければならない。
こうした基準が満たされた場合、ブロッブは、スポット同定モジュール44によって有効スポットとして分類される。システムが2つ以上のスポットを探索するように設定された場合、複数スポット同定モジュール46は、有効スポットのリストを示す入力をスポット同定モジュール44から受信し、各スポットが基準スポットであると考えて、関連する娘スポットの探索を行う。娘スポットの探索では、図8の図表2で示したように、基準スポットに対して画定された一連の複数スポット探索領域40が使用される。スポットが複数スポット探索領域内にあることが分かった場合、そのスポットは、娘スポットとみなされる。1つまたは複数の娘スポットが存在することが分かった場合は、それによって探索のシーケンスが終了する。複数スポット同定モジュール46は、基準および娘スポットの位置およびサイズを示す出力信号を提供し、これらは、図1の瞳孔位置指定モジュール14に渡される。各有効スポットを査定して、適切な娘スポットを有するか否かを判定する。少なくとも1つの正しい娘スポットを有することが分かった基準スポットは、正しい基準スポットとして定義される。
こうすると、有効スポットによるブロッブを、光学系および眼からの太陽光線の反射、眼/まぶたの境界での水分からの反射、および強膜(角膜ほど滑らかでなく、多くの明るいパッチを生じることが多い眼の白い領域)からの反射など、外来の光源によって生じたブロッブから区別することができる。
図3で、眼の画像、および基準と娘スポットのサイズと位置を示す入力信号を受信する瞳孔位置指定モジュール14内のサブモジュールを示す。サブモジュール50では、瞳孔22および小さい周囲の縁部を含む副画像を生成することによって、瞳孔追跡領域26を計算し、瞳孔追跡領域26の位置を、水平および垂直のゲインおよびオフセットにより、基準スポット30を参照して画定する。次いで、瞳孔追跡領域を示す出力信号をさらなるサブモジュール51に提供し、そこでエッジオペレータで瞳孔の副画像の重畳を実施して、適応閾値サブモジュール52に提供する勾配画像出力信号を生成する。適応閾値サブモジュール52では、勾配画像内の最高輝度X画素を白に設定し、その画像内の残りの画素をすべて黒に設定して、図8の図表3で示したように、瞳孔追跡領域内に閾値勾配画像54を生成する。理解されるように、重畳は、標準の画像処理機能である。この場合、重畳により、画像のエッジ(高輝度勾配の領域)が強調表示される。さらに具体的には、2つの画像、すなわち瞳孔追跡領域およびエッジオペレータが含まれる。このエッジオペレータは、実際は2つの小さい画像であり、1つは、水平エッジを強調し、もう1つは垂直エッジを強調するように設計されている。この2つの重畳の結果を組み合わせて、勾配画像(元の瞳孔追跡領域の高勾配のエッジ領域だけが示される画像)を生成する。
次いで、スポットのサイズおよび位置を使用して、図8の図表3の56で示したように、複数スポットマスクサブモジュール58で、閾値勾配画像54からのスポットをマスクし、スポットが除去された2値勾配画像を示す出力信号を、トライアド(3つ組)選択サブモジュール60に提供し、そこで画像内の残りの白画素のうちの3つを無作為に選択する。次いで、選択した画素を使用して、3つの画素すべてを通過する円の中心を決定し、計算サブモジュール62で、こうした円の中心および半径を計算する。アキュムレータサブモジュール64で、この円の中心および半径のxおよびy座標をそれぞれ別のアキュムレータに加える。次いで、こうしたプロセスを、所定数のトライアド(3つ組)が処理されるまで繰り返す。次いで、各アキュムレータのピークを別のアキュムレータサブモジュール66で計算し、これらの値を使用して瞳孔の中心および瞳孔の半径のxおよびy座標を決定する。
次いで、各スポットの位置とサイズ、および瞳孔の半径と位置を示す情報を、非校正化後に、全景オーバーレイモジュール10に供給して、図8の図表4で示したように、注視点68の前景画像70上へのオーバーレイを提供する。注視点、および瞳孔とスポットの位置を示す出力信号を提供するため、このデータをログファイルモジュール18に提供する。このオーバーレイプロセスでは、全景オーバーレイモジュールは、カーソルを生成し、このカーソルは、ゲインおよびオフセット係数によって調整した眼画像内の基準スポットの位置と中心、および瞳孔の中心の、水平と垂直の位置の差によって決定した位置にある全景画像上に重畳される。こうしたゲインおよびオフセット係数は、前の校正プロセスによって決定され、そのプロセスでは、ユーザが、全景画像内の指定の物体を注視して、全景画像における注視方向が、眼画像内の基準スポットおよび瞳孔の中心の水平および垂直の位置の差に関連するようになされる。
上記の記載は、カメラ2および4から得たインターリーブされた眼および全景画像が、実際の動作中に、すなわち画像がカメラに取り込まれると同時に処理される、視標追跡システムを参照して提供したものであるが、理解されるように、本発明によるこうした追跡システムは、図4aおよび4bで概略的に示したように、後処理を用いて実施することもできる。図4aで示したように、インターフェース電子モジュール6によって出力したインターリーブされた眼/全景ビデオ信号は、後の解析のためにビデオレコーダ70によってビデオテープ上に記録される。その後、記録された眼/全景ビデオ信号は、ビデオプレーヤ72によって再生することができ、ビデオプレーヤ72は、図4bで示したように、その出力信号を処理システムのフレームグラッバーモジュール8に提供する。
図5で作業端末インターフェースツールとして使用するための本発明による視標追跡システムを示す。この実施形態では、全景画像を示す出力信号は、全景のマーカ、たとえば画像内の赤外発光ダイオードの位置を突き止めるために、フレームグラッバーモジュール8によってモジュール74に供給される。次いで、全景のマーカの位置を非校正化プロセスで使用して、作業端末モニタ76上で注視点を計算する。作業端末からの出力信号を、こうした注視点を記憶するログファイル78に供給し、フィードバック80を作業端末に提供することができる。このプロセスでは、全景カメラの視野およびマーカの幾何形状に依存する係数を使用する1組の変換方程式を解くことによって、全景画像を解析して、マーカスポットを見つけ、全景カメラの位置および方向を計算する。この係数は、全景カメラが知られた位置および方向で保持され、スポットの位置が全景カメラの画像内で決定される、前の校正によって決定される。作業端末モニタ上の眼の注視点は、全景カメラに対する視線方向に関するデータと、作業端末に対する全景カメラに関するデータの組合せによって決定される。この情報は、フィードバック80を作業端末に提供して、作業端末が、被験者がモニタのどこを見ているか、たとえばマウスポインタおよび/またはアイコン選択などの眼の制御をどれが可能にするかを知っているようにする。
図6で、上記に記載の本発明による視標追跡システムの変形形態を示す。この図では、ランダムアクセスアイカメラ82を使用して、眼の画像を示す信号をフレームグラッバーモジュール8に供給し、ウィンドウコントローラモジュール84を使用して、スポットおよび瞳孔位置指定モジュール12および14によって提供された瞳孔およびスポットの位置を示す信号に依存するカメラ82を制御する。CMOSランダムアクセスセンサを使用する動的ウィンドウ操作を含むこの制御方法は、システムの正確さ、信頼性、および更新レートを向上させるものである。CMOSランダムアクセスセンサの使用は、画像全体の各フレームの読み出しを要求せずに、選択した画素をセンサによって読み出すことができる点で有利である。したがって、画像内に小さい解析対象領域しか存在しない場合は、この領域だけを読み出し、これによって、処理すべき画素の数を大幅に減少し、画像の他の領域からのアーティファクトを取り除くことができる。また、こうしたセンサは、非常に大きいダイナミックレンジを有し、明るい太陽光線によって生じるフレアおよび彩度効果を最小限にするものであるが、これは戸外での確実な視標追跡に特に重要である。
図7で、すでに記載した視標追跡システムのさらなる変形形態を示す。この図では、システムは、ヘルメットマウントディスプレイ(HMD)など、ヘッドマウントディスプレイと一体型である。非校正モジュール16からの出力信号は、ディスプレイ制御システムにフィードバックされて、測定した視線方向を示すカーソルをユーザに表示し、視線方向データを独立したヘルメット追跡システムからの測定値と組み合わせる。こうしたデータは、ディスプレイに接続された他のサブシステム、たとえば戦闘機のミサイルシーカーヘッドの照準方向の制御を行う入力情報として使用される。
HMDの場合、アイカメラは通常、ヘルメットマウント型であり、関連する電子装置の一部がヘルメットに搭載され、残りの電子装置は、飛行機に搭載される。こうしたシステムは、全景カメラを必要としないが、全景カメラを使用する場合は、ヘルメットに搭載される。こうしたシステムでは、全景カメラを不要にすることができ、代わりに、ヘッドの位置と方向、および飛行機の位置の知識に基づいてHMDに対してアイカメラを校正して、攻撃目標指示が可能になる。それによって、ユーザは、システムがユーザが見ているとみなした位置の表示をHMDで見、かつ/またはユーザの眼で指示した目標を強調することができるようになる。単純にユーザの頭部に対してではなく、全景自体に対して指示を与えるべきところでは、理解されるように、システムはユーザの頭部の動きの追跡を提供しなければならない。
上記に記載の本発明による視標追跡システムは、多くの独特の利益を提供する。具体的には、このアルゴリズムは、不利な照明状態で画像の特徴を見つける際に特に有効である。さらに、このシステムは、迅速かつ簡単な設定および校正を可能にし、約60HZのフレーム率を有する。また、このシステムは、実際どのビデオベースの視標追跡構成にも適合可能である。
こうした視標追跡システムは、軍事的攻撃目標指示、軍事および民事訓練、記号的設計、および、たとえば注視点による画面上の項目の選択など人間/コンピュータインターフェースを含む、広範囲の適用分野に適用可能であることが企図されている。他の可能な適用分野は、(広告が視聴者の視線を捉えているかどうかを判定するための)広告、(瞳孔のサイズおよび眼球運動のタイプによってストレスレベルを判定するための)ユーザの状態の監視、および障害者によるコミュニケーションの助けなどである。
本発明による視標追跡システムを示すブロック図である。 図1の視標追跡システムで使用するための、好ましいスポットおよび瞳孔位置指定構成を示すブロック図である。 図1の視標追跡システムで使用するための、好ましいスポットおよび瞳孔位置指定構成を示すブロック図である。 追跡された画像が、画像の実際の追跡のしばらく後に実行されるさらなる操作で処理されるように構成された、図1の視標追跡システムの実施を示すブロック図である。 追跡された画像が、画像の実際の追跡のしばらく後に実行されるさらなる操作で処理されるように構成された、図1の視標追跡システムの実施を示すブロック図である。 作業端末インターフェースツールとしての、図1の視標追跡の使用を示すブロック図である。 ランダムアクセス撮像を使用した、図1の視標追跡の変更形態を示すブロック図である。 ヘルメットマウントディスプレイ(HMD)を備えた、図1の視標追跡の使用を示すブロック図である。 一連の説明図である。

Claims (17)

  1. (a)ユーザの眼を監視する眼撮像手段によって生成されたビデオデータを受信するビデオデータ入力手段と、
    (b)閾値よりも高い輝度を有する前記眼撮像手段によって生成された画像の部分の表示を提供する適応閾値手段、および前記画像の前記部分を所定の妥当性基準と比較することによって有効な基準スポットを選択するスポット同定手段を含む、点光源で前記ユーザの眼を照明することによって、前記ユーザの眼上に形成される基準スポットの位置を前記ビデオデータから決定するスポット位置指定手段と、
    (c)前記ビデオデータから、前記基準スポットに対する前記ユーザの眼の瞳孔の中心位置を決定して、前記ユーザの注視線を決定する瞳孔位置指定手段であって、前記瞳孔位置指定手段が、前記有効基準スポットの位置に対する前記瞳孔を含む前記眼撮像手段によって生成された前記画像の一部を含む瞳孔追跡ウィンドウを選択する選択手段、閾値よりも大きい勾配を有する前記瞳孔追跡ウィンドウ内の前記画像部分の勾配の前記部分の選択によって瞳孔の縁部を決定する縁部決定手段、および瞳孔の縁部について選択された点を参照することにより瞳孔の中心の位置を決定する中心決定手段を含み、前記該中心決定手段が、瞳孔画像データの複数の画素の中から、3つの閾値を超える画素を実質的に無作為に選択して、さらなる処理のための3つ組を形成する3つ組選択手段、および前記選択した画素の各々を通過する仮想円の中心および半径を決定する3つ組処理手段を含む、瞳孔位置指定手段と、
    (d)前記瞳孔およびスポット位置指定手段によって決定した前記ユーザの注視線から前記ユーザの注視点を表示する表示手段とを備えるユーザの眼運動を監視するための視標追跡システム。
  2. 前記ビデオデータ入力手段が、前記ユーザの眼で観察された全景を監視する全景撮像手段によって生成されるビデオデータを追加として受信するように構成され、前記表示手段が、前記ビデオデータから得た前記全景の画像に対する前記ユーザの注視点を表示するように構成された請求項1に記載の追跡システム。
  3. 前記適応閾値手段が、眼画像データの複数の画素を設定して、前記閾値よりも高い輝度を有する画素を所定の高レベルに設定し、前記閾値よりも低い輝度を有する画素を所定の低レベルに設定するように構成された請求項1または2に記載の追跡システム。
  4. 前記スポット位置指定手段が、前記適応閾値手段によって示された前記画像の部分の位置および幾何形状を決定するブロッブ分類手段を含む請求項1、2または3に記載の追跡システム。
  5. 前記スポット同定手段が、前記ブロッブ分類手段の出力を所定の妥当性基準と比較することによって、有効スポットを選択するように構成された請求項4に記載の追跡システム。
  6. 前記スポット位置指定手段が、前記スポット同定手段によって表示された各基準スポットに対して画定された場所にある探索領域内でさらなる有効スポットの存在を探索することによって、基準スポットを同定する複数スポット分類手段を含む請求項1から5のいずれかに記載の追跡システム。
  7. 前記縁部決定手段が、エッジオペレータで前記瞳孔追跡ウィンドウ内の前記画像部分を重畳することによって瞳孔の縁部の勾配画像を提供する請求項1から6のいずれかに記載の追跡システム。
  8. 前記適応閾値手段が、閾値よりも高い輝度を有する前記眼撮像手段によって生成された前記瞳孔の副画像の前記部分の表示を提供するように構成された請求項1から7のいずれかに記載の追跡システム。
  9. 前記瞳孔位置指定手段が、前記閾値よりも高い輝度を有する前記瞳孔追跡ウィンドウ内の前記画像部分の勾配の前記部分を選択する前に、前記基準スポットおよび関連するスポットすべての影響を取り除いた出力を提供するマスク手段を含む請求項1から8のいずれかに記載の追跡システム。
  10. 前記中心決定手段がさらに、前記3つ組選択手段によって連続して選択された複数の3つ組のための前記3つ組処理手段によって決定された前記中心および半径の複数組の値を累算する累算手段を含む請求項に記載の追跡システム。
  11. 前記中心決定手段がさらに、前記累算手段によって累算された複数組の値から、前記瞳孔の前記中心および半径の値を決定するピーク決定手段を含む請求項10に記載の追跡システム。
  12. 前記全景における前記ユーザの注視点の連続値のログファイルを維持するログファイル手段をさらに含む請求項1から11のいずれかに記載の追跡システム。
  13. 前記ユーザの眼を監視する眼撮像手段をさらに含む請求項1から12のいずれかに記載の追跡システム。
  14. 前記ユーザの眼によって観察された前記全景を監視する全景撮像手段をさらに含む請求項1から13のいずれかに記載の追跡システム。
  15. 前記眼撮像手段および全景撮像手段によって生成されたビデオデータを記録するビデオデータ記録手段をさらに含む請求項1から14のいずれかに記載の追跡システム。
  16. 前記眼撮像手段および全景撮像手段によって生成されたビデオデータを再生するビデオデータ再生手段をさらに含む請求項1から15のいずれかに記載の追跡システム。
  17. (a)ユーザの眼によって観察され全景を監視するように配置された全景撮像手段と
    (b)ビデオデータから得られ景の画像に対する前記瞳孔およびスポット位置指定手段によって決定された前記ユーザの注視線から、前記全景における前記ユーザの注視点を表示する全景オーバーレイ手段とを備える請求項1に記載の追跡システム。
JP2003522036A 2001-08-15 2002-08-08 視標追跡システム Expired - Lifetime JP4181037B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB0119859.7A GB0119859D0 (en) 2001-08-15 2001-08-15 Eye tracking system
PCT/GB2002/003658 WO2003017203A1 (en) 2001-08-15 2002-08-08 Eye tracking systems

Publications (3)

Publication Number Publication Date
JP2005500630A JP2005500630A (ja) 2005-01-06
JP2005500630A5 JP2005500630A5 (ja) 2008-09-11
JP4181037B2 true JP4181037B2 (ja) 2008-11-12

Family

ID=9920414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003522036A Expired - Lifetime JP4181037B2 (ja) 2001-08-15 2002-08-08 視標追跡システム

Country Status (6)

Country Link
US (1) US7391887B2 (ja)
EP (1) EP1417645A1 (ja)
JP (1) JP4181037B2 (ja)
CA (1) CA2457090C (ja)
GB (1) GB0119859D0 (ja)
WO (1) WO2003017203A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013141098A1 (ja) 2012-03-21 2013-09-26 国立大学法人浜松医科大学 自閉症診断支援方法およびシステム並びに自閉症診断支援装置
US9538947B2 (en) 2011-09-05 2017-01-10 National University Corporation Hamamatsu University School Of Medicine Method, system and device for assisting diagnosis of autism

Families Citing this family (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7738015B2 (en) * 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
GB0222265D0 (en) * 2002-09-25 2002-10-30 Imp College Innovations Ltd Control of robotic manipulation
GB0223468D0 (en) * 2002-10-09 2002-11-13 Canon Kk Gaze tracking system
GB2396001B (en) 2002-10-09 2005-10-26 Canon Kk Gaze tracking system
CN100465985C (zh) * 2002-12-31 2009-03-04 佳能株式会社 人眼探测方法及设备
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US7623152B1 (en) * 2003-07-14 2009-11-24 Arecont Vision, Llc High resolution network camera with automatic bandwidth control
US7331671B2 (en) * 2004-03-29 2008-02-19 Delphi Technologies, Inc. Eye tracking method based on correlation and detected eye movement
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US8232962B2 (en) 2004-06-21 2012-07-31 Trading Technologies International, Inc. System and method for display management based on user attention inputs
US8117102B1 (en) 2004-09-27 2012-02-14 Trading Technologies International, Inc. System and method for assisted awareness
US7869627B2 (en) * 2004-12-07 2011-01-11 Aoptix Technologies, Inc. Post processing of iris images to increase image quality
JP2006309455A (ja) * 2005-04-27 2006-11-09 Tokai Rika Co Ltd 特徴点検出装置及び距離測定装置
WO2007043954A1 (en) * 2005-10-10 2007-04-19 Tobii Technology Ab Eye tracker having an extended span of operating distances
US9101279B2 (en) 2006-02-15 2015-08-11 Virtual Video Reality By Ritchey, Llc Mobile user borne brain activity data and surrounding environment data correlation system
JP4845611B2 (ja) * 2006-06-30 2011-12-28 オリンパス株式会社 撮像装置
ES2556678T3 (es) 2006-07-28 2016-01-19 Koninklijke Philips N.V. Distribución automática de vitrinas privadas a lo largo de un escaparate
US9606621B2 (en) 2006-07-28 2017-03-28 Philips Lighting Holding B.V. Gaze interaction for information display of gazed items
US20080031539A1 (en) * 2006-08-02 2008-02-07 Sharp Laboratories Of America, Inc. Derivative image domain
US7682026B2 (en) * 2006-08-22 2010-03-23 Southwest Research Institute Eye location and gaze detection system and method
DE102007001738B4 (de) * 2007-01-11 2016-04-14 Audi Ag Verfahren und Computerprogrammprodukt zur Blickerfassung
WO2008105767A1 (en) * 2007-02-28 2008-09-04 Hewlett-Packard Development Company, L.P. Restoring and synthesizing glint within digital image eye features
EP2145288A4 (en) 2007-03-05 2013-09-04 Digitaloptics Corp Europe Ltd FILTERING OF POSITIVE FALSE OF RED EYES USING A LOCATION AND FACE ORIENTATION
US8077915B2 (en) * 2007-10-12 2011-12-13 Sony Ericsson Mobile Communications Ab Obtaining information by tracking a user
US7854509B2 (en) * 2007-12-13 2010-12-21 David Johns Vision screener
FR2925333B1 (fr) * 2007-12-19 2012-04-13 Farid Bennis Compositions pharmaceutiques renfermant au moins un principe actif proteinique protege des enzymes digestives
US20090196460A1 (en) * 2008-01-17 2009-08-06 Thomas Jakobs Eye tracking system and method
US8212864B2 (en) 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
US8693737B1 (en) * 2008-02-05 2014-04-08 Bank Of America Corporation Authentication systems, operations, processing, and interactions
TW200938176A (en) * 2008-03-05 2009-09-16 Coretronic Corp Eyeball locating method and system
KR100947990B1 (ko) * 2008-05-15 2010-03-18 성균관대학교산학협력단 차영상 엔트로피를 이용한 시선 추적 장치 및 그 방법
US7736000B2 (en) * 2008-08-27 2010-06-15 Locarna Systems, Inc. Method and apparatus for tracking eye movement
TWI432172B (zh) * 2008-10-27 2014-04-01 Utechzone Co Ltd Pupil location method, pupil positioning system and storage media
DK2389095T3 (da) * 2009-01-26 2014-11-17 Tobii Technology Ab Detektering af blikpunkt hjulpet af optiske referencesignaler
US20120007772A1 (en) * 2009-03-16 2012-01-12 Paerssinen Aarno Tapio Controller for a Directional Antenna and Associated Apparatus and Methods
CN101840265B (zh) * 2009-03-21 2013-11-06 深圳富泰宏精密工业有限公司 视觉感知装置及其控制方法
TWI398796B (zh) * 2009-03-27 2013-06-11 Utechzone Co Ltd Pupil tracking methods and systems, and correction methods and correction modules for pupil tracking
US20120105486A1 (en) * 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
GB0920809D0 (en) * 2009-11-27 2010-01-13 Qinetiq Ltd Eye tracking apparatus
US9047256B2 (en) 2009-12-30 2015-06-02 Iheartmedia Management Services, Inc. System and method for monitoring audience in response to signage
US9373123B2 (en) 2009-12-30 2016-06-21 Iheartmedia Management Services, Inc. Wearable advertising ratings methods and systems
US8890946B2 (en) * 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
GB201004346D0 (en) 2010-03-16 2010-04-28 Qinetiq Ltd Eye tracking apparatus
WO2011117776A1 (en) * 2010-03-22 2011-09-29 Koninklijke Philips Electronics N.V. System and method for tracking the point of gaze of an observer
TWI447658B (zh) * 2010-03-24 2014-08-01 Ind Tech Res Inst 人臉影像擷取方法與裝置
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
US8503737B2 (en) * 2010-09-27 2013-08-06 Panasonic Corporation Visual line estimating apparatus
US10028862B2 (en) 2012-12-06 2018-07-24 Amo Development, Llc Compensation systems and methods for flap induced aberrations
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US8670183B2 (en) 2011-03-07 2014-03-11 Microsoft Corporation Augmented view of advertisements
US9033502B2 (en) 2011-03-18 2015-05-19 Sensomotoric Instruments Gesellschaft Fur Innovative Sensorik Mbh Optical measuring device and method for capturing at least one parameter of at least one eye wherein an illumination characteristic is adjustable
EP2499964B1 (en) 2011-03-18 2015-04-15 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Optical measuring device and system
US8872766B2 (en) * 2011-05-10 2014-10-28 Raytheon Company System and method for operating a helmet mounted display
US8911087B2 (en) 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US9153195B2 (en) 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
WO2013028908A1 (en) 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
KR20140059213A (ko) 2011-08-30 2014-05-15 마이크로소프트 코포레이션 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US8998414B2 (en) 2011-09-26 2015-04-07 Microsoft Technology Licensing, Llc Integrated eye tracking and display system
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US10598929B2 (en) 2011-11-09 2020-03-24 Google Llc Measurement method and system
US10354291B1 (en) 2011-11-09 2019-07-16 Google Llc Distributing media to displays
US8879155B1 (en) 2011-11-09 2014-11-04 Google Inc. Measurement method and system
US8860660B2 (en) 2011-12-29 2014-10-14 Grinbath, Llc System and method of determining pupil center position
US9910490B2 (en) 2011-12-29 2018-03-06 Eyeguide, Inc. System and method of cursor position control based on the vestibulo-ocular reflex
US8958599B1 (en) 2012-01-06 2015-02-17 Google Inc. Input method and system based on ambient glints
US10469916B1 (en) 2012-03-23 2019-11-05 Google Llc Providing media content to a wearable device
FR2989874B1 (fr) * 2012-04-25 2015-07-31 Thales Sa Procede de calibrage d'un oculometre et dispositif associe
US9415745B1 (en) 2012-06-08 2016-08-16 The Boeing Company High intensity light source blocking system and method
US20140003654A1 (en) * 2012-06-29 2014-01-02 Nokia Corporation Method and apparatus for identifying line-of-sight and related objects of subjects in images and videos
US8736692B1 (en) * 2012-07-09 2014-05-27 Google Inc. Using involuntary orbital movements to stabilize a video
US20140024889A1 (en) * 2012-07-17 2014-01-23 Wilkes University Gaze Contingent Control System for a Robotic Laparoscope Holder
US9262680B2 (en) * 2012-07-31 2016-02-16 Japan Science And Technology Agency Point-of-gaze detection device, point-of-gaze detecting method, personal parameter calculating device, personal parameter calculating method, program, and computer-readable storage medium
FR2995120B1 (fr) 2012-09-05 2015-09-18 Dassault Aviat Systeme et procede de commande de la position d'un objet deplacable sur un dispositif de visualisation
US20140085198A1 (en) * 2012-09-26 2014-03-27 Grinbath, Llc Correlating Pupil Position to Gaze Location Within a Scene
EP2712541B1 (en) * 2012-09-27 2015-12-30 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Tiled image based scanning for head and/or eye position for eye tracking
US20140095294A1 (en) * 2012-09-28 2014-04-03 Cornelius V. Vick Mechanism for facilitating context-aware broadcast and virtual visualization of advertisements
EP2903576A1 (en) * 2012-10-02 2015-08-12 AMO Development, LLC Systems and methods for treatment target deconvolution
TW201416054A (zh) * 2012-10-22 2014-05-01 Hon Hai Prec Ind Co Ltd 輔助裝置及利用該輔助裝置進行眼藥水投藥的方法
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US10467691B2 (en) 2012-12-31 2019-11-05 Trading Technologies International, Inc. User definable prioritization of market information
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
WO2014168492A1 (en) * 2013-04-10 2014-10-16 Auckland Uniservices Limited Head and eye tracking
GB2513579A (en) * 2013-04-29 2014-11-05 Tobii Technology Ab Power efficient image sensing apparatus, method of operating the same and eye/gaze tracking system
US9625723B2 (en) 2013-06-25 2017-04-18 Microsoft Technology Licensing, Llc Eye-tracking system using a freeform prism
US10228561B2 (en) 2013-06-25 2019-03-12 Microsoft Technology Licensing, Llc Eye-tracking system using a freeform prism and gaze-detection light
TWI505260B (zh) * 2013-07-30 2015-10-21 Univ Nat Chiao Tung 頭戴式人眼追蹤系統
WO2015026203A1 (en) * 2013-08-23 2015-02-26 Samsung Electronics Co., Ltd. Mode switching method and apparatus of terminal
CN105432071B (zh) * 2013-09-12 2019-04-23 英特尔公司 用于提供增强现实视图的技术
US11327302B2 (en) 2013-09-18 2022-05-10 Beth Holst Secure capture and transfer of image and audio data
US10008124B1 (en) 2013-09-18 2018-06-26 Beth Holst Method and system for providing secure remote testing
US20150102981A1 (en) * 2013-10-11 2015-04-16 Microsoft Corporation Eye tracking
US9740361B2 (en) 2013-10-14 2017-08-22 Microsoft Technology Licensing, Llc Group experience user interface
TWI498769B (zh) * 2013-11-18 2015-09-01 Quanta Comp Inc 頭戴式顯示裝置及其登入方法
CN105828700B (zh) * 2013-12-09 2018-07-06 Smi创新传感技术有限公司 操作眼睛跟踪装置的方法和提供主动照明控制用于改进的眼睛跟踪稳定性的眼睛跟踪装置
US10460387B2 (en) 2013-12-18 2019-10-29 Trading Technologies International, Inc. Dynamic information configuration and display
US9933634B2 (en) 2014-06-13 2018-04-03 Verily Life Sciences Llc Apparatus, system and method for gaze tracking based on photodetection by an eye-mountable device
US9530065B2 (en) * 2014-10-15 2016-12-27 GM Global Technology Operations LLC Systems and methods for use at a vehicle including an eye tracking device
US20160108706A1 (en) * 2014-10-17 2016-04-21 Schlumberger Technology Corporation Reservoir simulation system and method
US9904362B2 (en) 2014-10-24 2018-02-27 GM Global Technology Operations LLC Systems and methods for use at a vehicle including an eye tracking device
US9936195B2 (en) * 2014-11-06 2018-04-03 Intel Corporation Calibration for eye tracking systems
US10761601B2 (en) * 2015-03-23 2020-09-01 Controlrad Systems Inc. Eye tracking system including an eye tracker camera and a positioning camera
CN108024768B (zh) * 2015-05-27 2021-02-05 斋藤粮三 可移动终端压力评估程序及包含该程序的可移动终端
TWI580396B (zh) * 2015-06-01 2017-05-01 國立交通大學 視覺生理用頭戴式系統
US10016130B2 (en) 2015-09-04 2018-07-10 University Of Massachusetts Eye tracker system and methods for detecting eye parameters
US10757399B2 (en) 2015-09-10 2020-08-25 Google Llc Stereo rendering system
US10871821B1 (en) * 2015-10-02 2020-12-22 Massachusetts Mutual Life Insurance Company Systems and methods for presenting and modifying interactive content
US10825058B1 (en) * 2015-10-02 2020-11-03 Massachusetts Mutual Life Insurance Company Systems and methods for presenting and modifying interactive content
CN105528577B (zh) * 2015-12-04 2019-02-12 深圳大学 基于智能眼镜的识别方法
CN114143495A (zh) * 2016-01-05 2022-03-04 瑞尔D斯帕克有限责任公司 多视角图像的注视校正
US10171929B2 (en) 2016-06-23 2019-01-01 Lightbox Video Inc. Positional audio assignment system
CN106175663A (zh) * 2016-08-29 2016-12-07 马敏 眼部检测装置、眼部检测方法及系统
US9898082B1 (en) 2016-11-01 2018-02-20 Massachusetts Institute Of Technology Methods and apparatus for eye tracking
US10181078B1 (en) 2016-11-07 2019-01-15 National Technology & Engineering Solutions Of Sandia, Llc Analysis and categorization of eye tracking data describing scanpaths
US10314483B2 (en) 2017-03-01 2019-06-11 The Johns Hopkins University Fast X-Y axis bright pupil tracker
US10554958B2 (en) 2017-03-13 2020-02-04 Microsoft Technology Licensing, Llc Systems and methods for interleaving multiple active camera frames
TW201901528A (zh) * 2017-05-22 2019-01-01 宏達國際電子股份有限公司 眼球追蹤方法、電子裝置及非暫態電腦可讀取記錄媒體
JP6930223B2 (ja) * 2017-05-31 2021-09-01 富士通株式会社 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法
US11372476B1 (en) 2018-02-20 2022-06-28 Rockwell Collins, Inc. Low profile helmet mounted display (HMD) eye tracker
US10671161B2 (en) * 2018-08-08 2020-06-02 Dell Products L.P. Multi display eye tracking
KR102122506B1 (ko) * 2018-09-04 2020-06-12 국방과학연구소 헬멧 및 통합처리기를 포함하는 시스템 및 그 동작 방법
CN109684915B (zh) * 2018-11-12 2021-01-01 温州医科大学 瞳孔跟踪图像处理方法
GB2584397A (en) 2019-05-03 2020-12-09 Securenvoy Ltd Visual authentication input
DE102019217780A1 (de) * 2019-11-19 2021-05-20 Robert Bosch Gmbh Verfahren zum Anpassen von Schwellwerten für eine Erkennung von Objekten in einem Projektionsvolumen einer scannenden Projektionsvorrichtung und scannende Projektionsvorrichtung
CN112188288B (zh) * 2020-09-04 2023-03-14 青岛海尔科技有限公司 用于控制电视的方法及系统、装置、设备
CN113190117B (zh) * 2021-04-29 2023-02-03 南昌虚拟现实研究院股份有限公司 瞳孔、光斑定位方法、数据计算方法及相关装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3689135A (en) * 1971-01-26 1972-09-05 Laurence R Young Method for monitoring movement of a subject{40 s eyes
US3804496A (en) * 1972-12-11 1974-04-16 Stanford Research Inst Two dimensional eye tracker and method for tracking an eye
US4102564A (en) * 1975-04-18 1978-07-25 Michael Henry L Portable device for the accurate measurement of eye movements both in light and obscurity
US4702575A (en) * 1981-05-11 1987-10-27 The United States Of America As Represented By The Secretary Of The Navy Helmet mounted eye tracker using a position sensing detector
US4641349A (en) * 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
JPS62247410A (ja) * 1985-12-04 1987-10-28 Aisin Seiki Co Ltd 電気装置の付勢制御装置
US4789235A (en) * 1986-04-04 1988-12-06 Applied Science Group, Inc. Method and system for generating a description of the distribution of looking time as people watch television commercials
US4973149A (en) 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
US4836670A (en) 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
US4852988A (en) * 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
US4950069A (en) 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
US5231674A (en) * 1989-06-09 1993-07-27 Lc Technologies, Inc. Eye tracking method and apparatus
US5220361A (en) * 1991-06-05 1993-06-15 Allergan Humphrey Gaze tracking for field analyzer
JPH0564061A (ja) * 1991-08-29 1993-03-12 Canon Inc ビデオカメラ
US5422653A (en) * 1993-01-07 1995-06-06 Maguire, Jr.; Francis J. Passive virtual reality
US5471542A (en) 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
US5491757A (en) * 1993-12-22 1996-02-13 Humphrey Instruments, Inc. Field tester gaze tracking using content addressable memories to improve image data analysis speed
US5481622A (en) * 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
SE9402453D0 (sv) * 1994-07-12 1994-07-12 Astra Ab New pharmaceutical preparation
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
DE19601026A1 (de) 1996-01-13 1997-07-17 Gordon Pipa Entwicklung eines Gerätes welches es ermöglicht einen Computer mittels der Augenbewegung zu steuern
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
US6152563A (en) 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
JPH11338615A (ja) 1998-05-25 1999-12-10 Techno Works:Kk 画像処理による注視点検出手段を利用した車載システム
DE19953835C1 (de) 1999-10-30 2001-05-23 Hertz Inst Heinrich Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens
US20060158639A1 (en) * 2002-05-28 2006-07-20 Campin John A Eye tracker and pupil characteristic measurement system and associated methods
US6637883B1 (en) 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9538947B2 (en) 2011-09-05 2017-01-10 National University Corporation Hamamatsu University School Of Medicine Method, system and device for assisting diagnosis of autism
WO2013141098A1 (ja) 2012-03-21 2013-09-26 国立大学法人浜松医科大学 自閉症診断支援方法およびシステム並びに自閉症診断支援装置

Also Published As

Publication number Publication date
US7391887B2 (en) 2008-06-24
JP2005500630A (ja) 2005-01-06
GB0119859D0 (en) 2001-10-10
CA2457090A1 (en) 2003-02-27
US20040196433A1 (en) 2004-10-07
CA2457090C (en) 2013-02-12
EP1417645A1 (en) 2004-05-12
WO2003017203A1 (en) 2003-02-27

Similar Documents

Publication Publication Date Title
JP4181037B2 (ja) 視標追跡システム
US10893260B2 (en) Depth mapping with a head mounted display using stereo cameras and structured light
US10878236B2 (en) Eye tracking using time multiplexing
CN107533362B (zh) 眼睛跟踪设备和用于操作眼睛跟踪设备的方法
JP5858433B2 (ja) 注視点検出方法及び注視点検出装置
EP3204816B1 (en) Head-mounted displaying of magnified images locked on an object of interest
JP2019506768A (ja) レンジゲート式デプスカメラ部品
WO2012020760A1 (ja) 注視点検出方法及び注視点検出装置
WO2018051681A1 (ja) 視線計測装置
JP3372926B2 (ja) ヘッドマウントディスプレイ装置およびヘッドマウントディスプレイシステム
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
CN113589533A (zh) 头戴式显示器及用于确定佩戴其的用户的视线的方法
WO2018164104A1 (ja) 眼部画像処理装置
US10176375B2 (en) High speed pupil detection system and method
US11503202B1 (en) Optical focus adjustment
WO2006111744A1 (en) Apparatus and method for monitoring the position of an object
AU2007203250B2 (en) Eye Tracking Systems
KR20210137280A (ko) 오브젝트 검출 방법 및 장치
AU2002321432A1 (en) Eye tracking systems
JPH09175224A (ja) 瞳測定装置
Fisunov et al. Head-mounted eye tracker based on android smartphone
JP2024008006A (ja) 画像処理装置、表示装置、画像処理方法、およびプログラム
JPH0758992A (ja) 仮想現実感装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080312

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080715

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20080723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080828

R150 Certificate of patent or registration of utility model

Ref document number: 4181037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120905

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130905

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term