JP5949319B2 - 視線検出装置及び視線検出方法 - Google Patents
視線検出装置及び視線検出方法 Download PDFInfo
- Publication number
- JP5949319B2 JP5949319B2 JP2012182720A JP2012182720A JP5949319B2 JP 5949319 B2 JP5949319 B2 JP 5949319B2 JP 2012182720 A JP2012182720 A JP 2012182720A JP 2012182720 A JP2012182720 A JP 2012182720A JP 5949319 B2 JP5949319 B2 JP 5949319B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- face
- region
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Description
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
この視線検出装置は、ユーザの顔の位置が想定される範囲内にある限り、その顔全体を撮影可能な画角を持つ第1のカメラと、画像上で瞳孔及びプルキンエ像が識別可能なサイズとなるように、第1のカメラの画角よりも狭い画角を持つ第2のカメラを有する。この視線検出装置は、第1のカメラにより撮影された第1の画像から、ユーザの顔の位置またはユーザの眼の位置を検出する。そしてこの視線検出装置は、その顔の位置または眼の位置を表す情報を利用して、第2のカメラにより撮影された第2の画像上で瞳孔及びプルキンエ像を検出する範囲を限定することで、瞳孔及びプルキンエ像の検出精度の向上を図る。
なお、表示画面2aを注視するユーザの顔全体が画像上に写るように、広角カメラ3の光軸が表示画面2aと直交するように、広角カメラ3は取り付けられることが好ましい。一方、赤外カメラ5により撮影された画像上にユーザの眼及びその周囲が写るように、赤外カメラ5の光軸が表示画面2aと直交するか、表示画面2aの法線よりも上方を向くように、赤外カメラ5は取り付けられることが好ましい。
なお、広角カメラ3も、赤外カメラ5と同様に、照明光源4から発せられる赤外光に感度を有するカメラであってもよい。
なお、照明光源4が有する赤外発光ダイオードの数は、1個に限られず、互いに異なる位置に配置される複数個の赤外発光ダイオードを有してもよい。例えば、照明光源4は二つの赤外発光ダイオードを有し、その二つの赤外発光ダイオードの間に赤外カメラ5が位置するように、各赤外発光ダイオードが表示部2の枠2bに取り付けられてもよい。
制御部9が有するこれらの各部は、制御部9が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。また制御部9が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として、制御部9が有するプロセッサとは別個にコンピュータ1に実装されてもよい。この場合、その集積回路は、記憶部8とは別個に、視線検出処理で利用される各種のデータを記憶して、視線検出装置が有する記憶部として機能する記憶回路を含んでいてもよい。
例えば、顔検出部21は、広角画像の各画素の値をHSV表色系により表される値に変換する。そして顔検出部21は、各画素の色相成分(H成分)の値が肌色に相当する値(例えば、0°〜30°の範囲内の値)となる画素を、顔の一部が写っている可能性がある顔領域候補画素として抽出する。
そこで顔検出部21は、顔領域候補画素に対してラベリング処理を行って、互いに隣接している顔領域候補画素の集合を顔候補領域とする。そして顔検出部21は、顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれているか否か判定する。顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれていれば、顔検出部21はその顔候補領域を顔領域と判定する。
なお、顔候補領域の大きさは、例えば、顔候補領域の水平方向の最大幅の画素数で表される。この場合、基準範囲は、例えば、画像の水平方向画素数の1/4以上〜2/3以下に設定される。あるいは、顔候補領域の大きさは、例えば、顔候補領域に含まれる画素数で表されてもよい。この場合、基準範囲は、例えば、画像全体の画素数の1/16以上〜4/9以下に設定される。
そして顔検出部21は、顔領域を表す情報を眼周辺領域検出部22へ渡す。
人の眼は、水平方向に二つ並んでいる。そこで、眼周辺領域検出部22は、検出された眼周辺領域候補のうち、眼周辺領域候補の重心間の垂直方向の位置差がもっとも少なく、かつ、水平方向に左眼と右眼間の間隔に相当する距離だけ離れている二つの眼周辺領域候補を抽出する。そして眼周辺領域検出部22は、その二つの眼周辺領域候補の外接矩形領域を眼周辺領域とする。
眼周辺領域検出部22は、広角画像上の眼周辺領域の位置及び範囲を表す情報である眼周辺領域情報を、座標変換部23へ渡す。なお、眼周辺領域情報は、例えば、眼周辺領域の各コーナーの広角画像上での位置座標を含む。
なお、ユーザの顔の位置で、広角カメラ3の光軸と赤外カメラ5の光軸とが所定の間隔だけ離れている場合、座標変換部23は、座標(qx,qy)を求めるために、上記の(1)式において、その所定の間隔に相当するオフセットを(1)式の右辺に加えればよい。
この変形例によれば、広角カメラ3の歪曲収差と赤外カメラ5の歪曲収差が無視できないほど大きい場合でも、座標変換部23は、広角画像上の眼周辺領域に相当する狭角画像上の拡大眼周辺領域を正確に特定できる。
本実施形態では、プルキンエ像検出部24は、一方の眼の瞳孔に相当するテンプレートと拡大眼周辺領域との間でテンプレートマッチングを行い、拡大眼周辺領域内でテンプレートとの一致度が最も高くなる領域を検出する。そしてプルキンエ像検出部24は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。なお、テンプレートは、瞳孔の大きさに応じて複数準備されてもよい。この場合、プルキンエ像検出部24は、各テンプレートと拡大眼周辺領域とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、プルキンエ像検出部24は、一致度の最高値に対応するテンプレートと重なった領域に瞳孔が写っていると判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。
プルキンエ像検出部24は、瞳孔領域の検出に成功した場合、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心の位置座標として算出する。一方、プルキンエ像検出部24は、瞳孔領域の検出に失敗した場合、制御部9へその旨を表す信号を返す。
なお、プルキンエ像検出部24は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔が写っている領域を検出してもよい。同様に、プルキンエ像検出部24は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、光源のプルキンエ像が写っている領域を検出してもよい。
プルキンエ像検出部24は、プルキンエ像の重心及び瞳孔重心を視線検出部25へ通知する。
本実施形態では、視線検出部25は、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部25は、瞳孔重心の相対的な位置とユーザの視線方向との関係を表す参照テーブルを参照することにより、ユーザの視線方向を決定する。
本実施形態では、視線検出部25は、ユーザの視線方向と表示画面上でのユーザの注視位置との関係を表す注視位置テーブルを参照することにより、ユーザの注視位置を決定する。
視線検出部25は、ユーザの注視位置を制御部9で実行中のアプリケーションプログラムへ通知する。
眼周辺領域検出部22は、広角画像の顔領域内で眼周辺領域を検出する(ステップS104)。そして眼周辺領域検出部22は、眼周辺領域情報を制御部9の座標変換部23へ渡す。
一方、プルキンエ像検出部24が瞳孔重心及び照明光源4のプルキンエ像の検出に成功した場合(ステップS108−Yes)、プルキンエ像検出部24は、プルキンエ像の重心及び瞳孔重心を制御部9の視線検出部25へ通知する。
その後、制御部9は、視線検出処理を終了する。なお、プルキンエ像検出部24は、ステップS106の処理とステップS107の処理の順序を入れ替えてもよい。
制御部9が有するこれらの各部は、制御部9が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。また制御部9が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として、制御部9が有するプロセッサとは別個にコンピュータ1に実装されてもよい。
図8において、制御部9の各構成要素には、図3に示された第1の実施形態による視線検出装置の制御部の対応する構成要素に付した参照番号と同じ参照番号を付した。また、第2の実施形態による視線検出装置の制御部9は、第1の実施形態による視線検出装置の制御部と比較して、眼精密検出部26を有する点で異なる。そこで、以下では、眼精密検出部26及びその関連部分について説明する。
狭角画像上のユーザの眼のサイズは、広角画像上のユーザの眼のサイズよりも大きいので、眼精密検出部26は、眼及びその周囲のより詳細な情報を利用できるため、眼周辺領域検出部22よりも正確な眼の位置を特定できる。
図9(a)に示される例では拡大眼周辺領域900全体が、狭角画像901に含まれている。このような場合、眼精密検出部26は、例えば、精密眼領域を検出するために、両眼に相当するテンプレートを利用できる。一方、図9(b)に示される例では、拡大眼周辺領域910の一部が狭角画像911から外れている。この場合、眼精密検出部26は、狭角画像に含まれる方の眼と、顔の眼以外の部位(例えば、鼻孔、口、眉毛など)とを含むテンプレートを利用してもよい。またこの場合、顔の眼以外の部位は、眼と離れているので、拡大眼周辺領域内に含まれていない可能性がある。そこで図9(b)に示されるように、精密眼領域の探索範囲912は、拡大眼周辺領域だけでなく、拡大眼周辺領域の周囲の、テンプレートに含まれる他の部位が写っている可能性がある領域も含むように設定されてもよい。
ステップS202またはS203の後、眼精密検出部26は、精密眼領域を表す情報をプルキンエ像検出部24へ渡す。そして制御部9は、図7に示されたステップS106以降の処理を実行する。
これにより、視線検出部25は、表示部2からユーザの顔までの距離によらず、正確にユーザの注視位置を検出できる。
制御部9が有するこれらの各部は、制御部9が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。また制御部9が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として、制御部9が有するプロセッサとは別個にコンピュータ1に実装されてもよい。
本実施形態では、撮影時において、ユーザの顔は照明光源4からの赤外光で照明されており、赤外光に対する肌の反射率は比較的高い(例えば、肌の反射率は近赤外の波長域で数10%)ので、狭角画像上で顔の肌の部分が写っている画素の輝度は高い。一方、狭角画像上で髪の毛またはユーザの背後の領域は赤外光に対する反射率が低いかまたは照明光源4から遠いため、髪の毛またはユーザの背後の領域が写っている画素の輝度は、相対的に低くなる。
そこで、顔精密検出部27は、拡大顔領域内の各画素の値を所定の閾値と比較する。所定の閾値は、例えば、狭角画像上の輝度成分の最大値に0.5を乗じた値に設定される。そして顔精密検出部27は、各画素の輝度成分の値が所定の閾値以上の画素を、顔が写っている可能性がある顔領域候補画素として抽出する。
顔精密検出部27は、精密顔領域を表す情報を眼精密検出部26へ渡す。
(付記1)
ユーザの眼を照明する光源と、
第1の画角を有し、前記ユーザの顔を撮影した第1の画像を生成する第1の撮像部と、
前記第1の画角よりも狭い第2の画角を有し、前記ユーザの顔の少なくとも一部を撮影した第2の画像を生成する第2の撮像部と、
前記第1の画像から前記ユーザの顔が写っている顔領域を検出する顔検出部と、
前記顔領域または前記顔領域内で前記ユーザの眼が写っている眼周辺領域に対応する前記第2の画像上の第1の領域を特定する座標変換部と、
前記第1の領域に基づいて特定される、前記第2の画像上で前記ユーザの眼が写っている眼領域内で、前記光源の角膜反射像と前記ユーザの瞳孔重心とを検出するプルキンエ像検出部と、
前記瞳孔重心と角膜反射像との位置関係に応じて前記ユーザの視線方向または注視位置を検出する視線検出部と、
を有する視線検出装置。
(付記2)
前記第1の画像上の前記顔領域内で前記眼周辺領域を検出する眼周辺領域検出部をさらに有する、付記1に記載の視線検出装置。
(付記3)
前記第1の領域は、前記第2の画像上の前記眼周辺領域に対応する領域であり、
前記第1の領域にしたがって設定される前記第2の画像上の探索範囲内で前記眼領域を検出する眼精密検出部をさらに有する、付記2に記載の視線検出装置。
(付記4)
前記眼精密検出部は、前記第1の領域全体が前記第2の画像に含まれる場合、前記ユーザの両方の眼に相当する情報を利用して前記眼領域を検出し、一方、前記第1の領域の一部が前記第2の画像に含まれない場合、前記ユーザの何れか一方の眼及び前記ユーザの顔の眼以外の部位に相当する情報を利用して前記眼領域を検出する、付記3に記載の視線検出装置。
(付記5)
前記眼精密検出部は、前記第1の領域全体が前記第2の画像に含まれる場合、前記第1の領域を前記探索範囲とし、一方、前記第1の領域の一部が前記第2の画像に含まれない場合、前記第1の領域及び前記第1の領域周囲の前記部位が含まれ得る領域を前記探索範囲とする、付記4に記載の視線検出装置。
(付記6)
前記第1の撮像部と前記第2の撮像部とは、垂直方向に沿って離して配置され、
前記眼精密検出部は、前記第1の領域の左端と右端との間に前記探索範囲を設定する、付記3に記載の視線検出装置。
(付記7)
前記第1の領域は、前記第2の画像上での前記顔領域に対応する領域であり、
前記第1の領域にしたがって設定される前記第2の画像上の第2の探索範囲内で前記眼領域を検出する眼精密検出部をさらに有する、付記1に記載の視線検出装置。
(付記8)
前記第1の領域にしたがって設定される前記第2の画像上の前記第2の探索範囲内で前記ユーザの顔が写っている第2の顔領域を検出する顔精密検出部をさらに有し、
前記眼精密検出部は、前記第2の顔領域内で前記眼領域を検出する、付記7に記載の視線検出装置。
(付記9)
前記第1の撮像部と前記第2の撮像部とは、垂直方向に沿って離して配置され、
前記顔精密検出部は、前記第1の領域の左端と右端との間に前記第2の探索範囲を設定する、付記8に記載の視線検出装置。
(付記10)
前記第1の撮像部及び前記第2の撮像部は、表示装置の表示画面の周囲に配置され、
前記視線検出部は、前記瞳孔重心と角膜反射像との位置関係に応じて前記表示画面上の前記ユーザの注視位置を検出する、付記1に記載の視線検出装置。
(付記11)
前記第1の撮像部は、前記表示画面の上方に配置され、かつ、前記第2の撮像部は、前記表示画面の下方に配置される、付記10に記載の視線検出装置。
(付記12)
前記第1の撮像部及び前記第2の撮像部は、表示装置の表示画面の周囲に配置され、
前記視線検出部は、前記第1の画像上の前記第1の領域内の前記ユーザの眼の位置と、前記第2の画像上の前記眼領域内の前記ユーザの眼の位置と、前記第1の撮像部と前記第2の撮像部との間の距離とに基づいて前記表示装置から前記ユーザの顔までの距離を推定し、当該推定された距離及び前記瞳孔重心と前記角膜反射像との位置関係に応じて前記表示画面上の前記ユーザの注視位置を検出する、付記1に記載の視線検出装置。
(付記13)
第1の画角を有する第1の撮像部により生成された第1の画像からユーザの顔が写っている顔領域を検出し、
前記顔領域または前記顔領域内で前記ユーザの眼が写っている眼周辺領域に対応する、前記第1の画角よりも狭い第2の画角を有する第2の撮像部により生成された第2の画像上の第1の領域を特定し、
前記第1の領域に基づいて特定される、前記第2の画像上で前記ユーザの眼が写っている眼領域内で、前記ユーザの眼を照明する光源の角膜反射像と前記ユーザの瞳孔重心とを検出し、
前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向または注視位置を検出する、
ことを含む視線検出方法。
(付記14)
第1の画角を有する第1の撮像部により生成された第1の画像からユーザの顔が写っている顔領域を検出し、
前記顔領域または前記顔領域内で前記ユーザの眼が写っている眼周辺領域に対応する、前記第1の画角よりも狭い第2の画角を有する第2の撮像部により生成された第2の画像上の第1の領域を特定し、
前記第1の領域に基づいて特定される、前記第2の画像上で前記ユーザの眼が写っている眼領域内で、前記ユーザの眼を照明する光源の角膜反射像と前記ユーザの瞳孔重心とを検出し、
前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向または注視位置を検出する、
ことをコンピュータに実行させるための視線検出用コンピュータプログラム。
2 表示部
2a 表示画面
3 広角カメラ
4 照明光源
5 赤外カメラ
6 入力部
7 記憶媒体アクセス装置
8 記憶部
9 制御部
10 記憶媒体
21 顔検出部
22 眼周辺領域検出部
23 座標変換部
24 プルキンエ像検出部
25 視線検出部
26 眼精密検出部
27 顔精密検出部
Claims (10)
- ユーザの眼を照明する光源と、
第1の画角を有し、前記ユーザの顔を撮影した第1の画像を生成する第1の撮像部と、
前記第1の画角よりも狭い第2の画角を有し、前記ユーザの顔の少なくとも一部を撮影した第2の画像を生成する第2の撮像部と、
前記第1の画像から前記ユーザの顔が写っている顔領域を検出する顔検出部と、
前記顔領域または前記顔領域内で前記ユーザの眼が写っている眼周辺領域に対応する前記第2の画像上の第1の領域を特定する座標変換部と、
前記第1の領域に基づいて特定される、前記第2の画像上で前記ユーザの眼が写っている眼領域内で、前記光源の角膜反射像と前記ユーザの瞳孔重心とを検出するプルキンエ像検出部と、
前記瞳孔重心と角膜反射像との位置関係に応じて前記ユーザの視線方向または注視位置を検出する視線検出部と、
を有する視線検出装置。 - 前記第1の画像上の前記顔領域内で前記眼周辺領域を検出する眼周辺領域検出部をさらに有する、請求項1に記載の視線検出装置。
- 前記第1の領域は、前記第2の画像上の前記眼周辺領域に対応する領域であり、
前記第1の領域にしたがって設定される前記第2の画像上の探索範囲内で前記眼領域を検出する眼精密検出部をさらに有する、請求項2に記載の視線検出装置。 - 前記眼精密検出部は、前記第1の領域全体が前記第2の画像に含まれる場合、前記ユーザの両方の眼に相当する情報を利用して前記眼領域を検出し、一方、前記第1の領域の一部が前記第2の画像に含まれない場合、前記ユーザの何れか一方の眼及び前記ユーザの顔の眼以外の部位に相当する情報を利用して前記眼領域を検出する、請求項3に記載の視線検出装置。
- 前記眼精密検出部は、前記第1の領域全体が前記第2の画像に含まれる場合、前記第1の領域を前記探索範囲とし、一方、前記第1の領域の一部が前記第2の画像に含まれない場合、前記第1の領域及び前記第1の領域周囲の前記部位が含まれ得る領域を前記探索範囲とする、請求項4に記載の視線検出装置。
- 前記第1の撮像部と前記第2の撮像部とは、垂直方向に沿って離して配置され、
前記眼精密検出部は、前記第1の領域の左端と右端との間に前記探索範囲を設定する、請求項3に記載の視線検出装置。 - 前記第1の領域は、前記第2の画像上での前記顔領域に対応する領域であり、
前記第1の領域にしたがって設定される前記第2の画像上の第2の探索範囲内で前記眼領域を検出する眼精密検出部をさらに有する、請求項1に記載の視線検出装置。 - 前記第1の領域にしたがって設定される前記第2の画像上の前記第2の探索範囲内で前記ユーザの顔が写っている第2の顔領域を検出する顔精密検出部をさらに有し、
前記眼精密検出部は、前記第2の顔領域内で前記眼領域を検出する、請求項7に記載の視線検出装置。 - 前記第1の撮像部と前記第2の撮像部とは、垂直方向に沿って離して配置され、
前記顔精密検出部は、前記第1の領域の左端と右端との間に前記第2の探索範囲を設定する、請求項8に記載の視線検出装置。 - 第1の画角を有する第1の撮像部により生成された第1の画像からユーザの顔が写っている顔領域を検出し、
前記顔領域または前記顔領域内で前記ユーザの眼が写っている眼周辺領域に対応する、前記第1の画角よりも狭い第2の画角を有する第2の撮像部により生成された第2の画像上の第1の領域を特定し、
前記第1の領域に基づいて特定される、前記第2の画像上で前記ユーザの眼が写っている眼領域内で、前記ユーザの眼を照明する光源の角膜反射像と前記ユーザの瞳孔重心とを検出し、
前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向または注視位置を検出する、
ことを含む視線検出方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012182720A JP5949319B2 (ja) | 2012-08-21 | 2012-08-21 | 視線検出装置及び視線検出方法 |
US13/909,452 US20140055342A1 (en) | 2012-08-21 | 2013-06-04 | Gaze detection apparatus and gaze detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012182720A JP5949319B2 (ja) | 2012-08-21 | 2012-08-21 | 視線検出装置及び視線検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014039617A JP2014039617A (ja) | 2014-03-06 |
JP5949319B2 true JP5949319B2 (ja) | 2016-07-06 |
Family
ID=50147528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012182720A Expired - Fee Related JP5949319B2 (ja) | 2012-08-21 | 2012-08-21 | 視線検出装置及び視線検出方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20140055342A1 (ja) |
JP (1) | JP5949319B2 (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013176265A1 (ja) * | 2012-05-25 | 2013-11-28 | 国立大学法人静岡大学 | 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法 |
KR102187837B1 (ko) * | 2013-05-16 | 2020-12-07 | 삼성전자 주식회사 | 컴퓨터의 입력 장치 및 이를 이용한 입력 방법과 그 시스템 |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
JP6210023B2 (ja) * | 2013-11-28 | 2017-10-11 | 株式会社Jvcケンウッド | 視線検出支援装置および視線検出支援方法 |
US9804753B2 (en) * | 2014-03-20 | 2017-10-31 | Microsoft Technology Licensing, Llc | Selection using eye gaze evaluation over time |
US20150310651A1 (en) * | 2014-04-29 | 2015-10-29 | Verizon Patent And Licensing Inc. | Detecting a read line of text and displaying an indicator for a following line of text |
KR102215077B1 (ko) * | 2014-08-04 | 2021-02-10 | 삼성전자주식회사 | 홍채인식장치 및 홍채인식방법 |
CN104574321B (zh) * | 2015-01-29 | 2018-10-23 | 京东方科技集团股份有限公司 | 图像修正方法、图像修正装置和视频系统 |
JP6210081B2 (ja) * | 2015-03-23 | 2017-10-11 | カシオ計算機株式会社 | 復号装置、復号方法、及び、プログラム |
JP6582514B2 (ja) | 2015-04-23 | 2019-10-02 | 富士通株式会社 | コンテンツ再生装置、コンテンツ再生プログラム及びコンテンツ再生方法 |
EP3112922A1 (en) * | 2015-06-30 | 2017-01-04 | Thomson Licensing | A gaze tracking device and a head mounted device embedding said gaze tracking device |
EP3392740A4 (en) * | 2015-12-18 | 2018-12-19 | Sony Corporation | Information processing device, information processing method, and program |
JP6266675B2 (ja) * | 2016-03-18 | 2018-01-24 | 株式会社Subaru | 捜索支援装置、捜索支援方法及び捜索支援プログラム |
CN109478227B (zh) * | 2016-06-28 | 2024-01-05 | 英特尔公司 | 计算设备上的虹膜或其他身体部位识别 |
US9874934B1 (en) * | 2016-07-29 | 2018-01-23 | International Business Machines Corporation | System, method, and recording medium for tracking gaze with respect to a moving plane with a camera with respect to the moving plane |
CN108932453B (zh) * | 2017-05-23 | 2021-04-09 | 杭州海康威视数字技术股份有限公司 | 一种车辆备胎检测方法及装置 |
US10535160B2 (en) | 2017-07-24 | 2020-01-14 | Visom Technology, Inc. | Markerless augmented reality (AR) system |
US10282913B2 (en) | 2017-07-24 | 2019-05-07 | Visom Technology, Inc. | Markerless augmented reality (AR) system |
WO2019023076A1 (en) * | 2017-07-24 | 2019-01-31 | Visom Technology, Inc. | AUGMENTED REALITY SYSTEM (RA) WITHOUT MARKER |
US11048921B2 (en) | 2018-05-09 | 2021-06-29 | Nviso Sa | Image processing system for extracting a behavioral profile from images of an individual specific to an event |
SE542887C2 (en) | 2018-10-31 | 2020-08-11 | Tobii Ab | Gaze tracking using mapping of pupil center position |
US11906741B2 (en) * | 2018-11-06 | 2024-02-20 | Nec Corporation | Display control device, display control method, and non-transitory computer-readable medium storing program |
CN111198611A (zh) * | 2018-11-19 | 2020-05-26 | 中兴通讯股份有限公司 | 确定视线落点的方法、终端以及计算机可读存储介质 |
JP7283841B2 (ja) * | 2019-03-28 | 2023-05-30 | 株式会社豊田中央研究所 | 視線計測装置 |
US11046327B2 (en) | 2019-04-09 | 2021-06-29 | Fotonation Limited | System for performing eye detection and/or tracking |
US10948986B2 (en) * | 2019-04-09 | 2021-03-16 | Fotonation Limited | System for performing eye detection and/or tracking |
EP3789848B1 (en) * | 2019-09-05 | 2024-07-17 | Smart Eye AB | Determination of gaze direction |
JP6717477B1 (ja) * | 2019-09-13 | 2020-07-01 | 株式会社スワローインキュベート | 画像処理方法、画像処理装置、及び画像処理プログラム |
CN114821546A (zh) * | 2019-10-22 | 2022-07-29 | 上海商汤智能科技有限公司 | 车舱内图像处理方法及装置 |
CN111368717B (zh) * | 2020-03-02 | 2023-07-04 | 广州虎牙科技有限公司 | 视线确定方法、装置、电子设备和计算机可读存储介质 |
US11573632B2 (en) * | 2020-06-30 | 2023-02-07 | Snap Inc. | Eyewear including shared object manipulation AR experiences |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3777222D1 (de) * | 1986-04-04 | 1992-04-16 | Applied Science Group Inc | Verfahren und geraet zur entwicklung der darstellung der sehzeitverteilung wenn leute fernsehwerbung beobachten. |
JPH0868630A (ja) * | 1994-08-29 | 1996-03-12 | Nissan Motor Co Ltd | 車両用視線方向計測装置およびこれに用いる画像入力装置 |
CN1175377C (zh) * | 1998-05-20 | 2004-11-10 | 索尼电脑娱乐公司 | 图像处理装置及方法 |
US6606406B1 (en) * | 2000-05-04 | 2003-08-12 | Microsoft Corporation | System and method for progressive stereo matching of digital images |
EP1691670B1 (en) * | 2003-11-14 | 2014-07-16 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
JP4568024B2 (ja) * | 2004-05-17 | 2010-10-27 | 日本放送協会 | 眼球運動測定装置、及び眼球運動測定プログラム |
US7469060B2 (en) * | 2004-11-12 | 2008-12-23 | Honeywell International Inc. | Infrared face detection and recognition system |
US7643659B2 (en) * | 2005-12-31 | 2010-01-05 | Arcsoft, Inc. | Facial feature detection on mobile devices |
KR100820639B1 (ko) * | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법 |
CN101686815B (zh) * | 2007-06-27 | 2011-03-30 | 松下电器产业株式会社 | 人的状态推定装置以及方法 |
KR20090032261A (ko) * | 2007-09-27 | 2009-04-01 | 삼성전자주식회사 | 움직임 추정에 기초하여 움직임 보상을 수행하는 영상 처리장치 및 그 방법 |
US20110170061A1 (en) * | 2010-01-08 | 2011-07-14 | Gordon Gary B | Gaze Point Tracking Using Polarized Light |
JP5743501B2 (ja) * | 2010-11-25 | 2015-07-01 | キヤノン株式会社 | 物体追尾装置、物体追尾方法、及び物体追尾プログラム |
US8408706B2 (en) * | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
-
2012
- 2012-08-21 JP JP2012182720A patent/JP5949319B2/ja not_active Expired - Fee Related
-
2013
- 2013-06-04 US US13/909,452 patent/US20140055342A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20140055342A1 (en) | 2014-02-27 |
JP2014039617A (ja) | 2014-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5949319B2 (ja) | 視線検出装置及び視線検出方法 | |
JP6056323B2 (ja) | 視線検出装置、視線検出用コンピュータプログラム | |
US20170286771A1 (en) | Gaze detection apparatus and gaze detection method | |
EP3453316B1 (en) | Eye tracking using eyeball center position | |
JP6930223B2 (ja) | 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法 | |
JP5655644B2 (ja) | 視線検出装置及び視線検出方法 | |
US10310675B2 (en) | User interface apparatus and control method | |
JP6322986B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
KR101471488B1 (ko) | 시선 추적 장치 및 방법 | |
JP6123694B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US10146306B2 (en) | Gaze position detection apparatus and gaze position detection method | |
JP5621456B2 (ja) | 視線検出装置、視線検出方法及び視線検出用コンピュータプログラムならびに携帯端末 | |
JP2018205819A (ja) | 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法 | |
JP6870474B2 (ja) | 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法 | |
JP2016091457A (ja) | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム | |
EP4095744A1 (en) | Automatic iris capturing method and apparatus, computer-readable storage medium, and computer device | |
JP5626039B2 (ja) | 視線検出装置及び視線検出方法 | |
KR100960269B1 (ko) | 눈동자 시선 추정 장치 및 추정 방법 | |
CN115335754A (zh) | 地理空间图像表面处理和选择 | |
JP2017199148A (ja) | 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム | |
JP6575353B2 (ja) | 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム | |
JP2018120299A (ja) | 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法 | |
JP5299632B2 (ja) | 個人認証装置、プログラム及び記録媒体 | |
JP6398755B2 (ja) | 入力装置、入力方法及び入力処理用コンピュータプログラムならびに入力システム | |
JP2005032254A (ja) | 実空間内での指示対象物検知装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5949319 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |