JP6256165B2 - 視線検出装置、視線検出プログラム及び視線検出方法 - Google Patents

視線検出装置、視線検出プログラム及び視線検出方法 Download PDF

Info

Publication number
JP6256165B2
JP6256165B2 JP2014080440A JP2014080440A JP6256165B2 JP 6256165 B2 JP6256165 B2 JP 6256165B2 JP 2014080440 A JP2014080440 A JP 2014080440A JP 2014080440 A JP2014080440 A JP 2014080440A JP 6256165 B2 JP6256165 B2 JP 6256165B2
Authority
JP
Japan
Prior art keywords
line
face image
feature amount
sight
calculation process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014080440A
Other languages
English (en)
Other versions
JP2015201096A (ja
Inventor
ジェイクリッシュナ モハナクリッシュナン
ジェイクリッシュナ モハナクリッシュナン
哲典 田口
哲典 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014080440A priority Critical patent/JP6256165B2/ja
Priority to EP15161526.7A priority patent/EP2930656B1/en
Priority to US14/672,903 priority patent/US9508004B2/en
Publication of JP2015201096A publication Critical patent/JP2015201096A/ja
Application granted granted Critical
Publication of JP6256165B2 publication Critical patent/JP6256165B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Description

本発明は、ユーザの視線を検出する視線検出装置、視線検出プログラム及び視線検出方法に関する。
従来、ユーザの視線を検出する視線検出技術は、入力インターフェース、ユーザ状態の判定などに活用されている。例えば、入力インターフェースとしては、ユーザの視線をデータとして検出し、検出された視線データを用いてコンピュータの画面上のアイコンなどを操作する技術に活用されている。また、ユーザ状態の判定としては、車両走行中に運転者の視線を検出することにより、運転者が脇見運転をしているか否かを判定して警報音を出力する技術に活用されている。
特に、非接触のカメラ等を用いた視線検出技術は、ユーザの負担が少なく利用されることも多い。例えば、カメラで撮像した画像からユーザの角膜反射領域を抽出することで、視線を検出する角膜反射法がある。その応用技術として、複数の角膜反射領域の候補の中から、眼鏡レンズの反射によるものを除くことにより最適な角膜反射領域を選択する技術が開示されている(例えば、特許文献1を参照。)。
また、視線検出技術に関連する技術として、以下の技術が開示されている。
ユーザの顔画像から目、瞬きを検出し追跡する技術(例えば、特許文献2を参照。)。
対象画像から抽出したエッジ画像に基づいて、対象画像から顔画像を含むと思われる部分画像を抽出し、顔画像と非顔画像とを識別するための学習情報を保持する学習辞書を参照して、抽出された部分画像が、顔画像を含んでいるか否かを識別する技術(例えば、特許文献3を参照。)。
遺伝的アルゴリズムを用いて眼球をモデル化したテンプレート画像を、ユーザの顔画像を撮像したターゲット画像上の各所に動かしてテンプレートマッチングすることで、ターゲット画像からユーザの眼球を検出する技術(例えば、特許文献4を参照。)。
ユーザの入力顔画像より2次元テンプレートを用いて、より正確に目の輪郭の抽出を行う技術(例えば、特許文献5を参照。)。
眼鏡を装着したユーザの撮影画像から、眼鏡での照明反射部分を検出する技術(例えば、特許文献6を参照。)。
特開2012−239550号公報 特開2001−43382号公報 特開2003−44853号公報 特開2013−45151号公報 特開2001−22933号公報 特開2001−167284号公報
上述のような従来の視線検出技術は、画像内に角膜反射領域が存在することを前提にしている。また、視線検出技術においては、撮像した画像から黒目の位置を検出する処理、黒目の位置から瞳孔位置を検出する処理、及び角膜反射の位置との位置関係から視線位置を特定する処理等、視線算出のための計算機の負荷が大きいという事実があった。
しかしながら、実際に視線算出を行う際に、例えば閉眼時などでは、画像内に角膜反射領域が存在しない場合がある。このような場合であっても、従来の視線検出処理においては角膜反射領域の判定処理を行っていた。また、撮像した画像には、視線の位置が前フレームから動いていないフレームや、視線位置の検出ができないフレームも含まれている。このような場合にも、従来は視線検出処理を行っていた。
すなわち、従来の視線検出技術においては、明らかに視線検出が行えないような場合であっても、視線算出処理を実行してしまい、無駄な演算処理を実行していた、という問題点があった。
1つの側面において、本発明は、視線検出処理の処理負荷を軽減し、効率的に視線検出処理を実行することが可能な視線検出装置、視線検出プログラム及び視線検出方法を提供することを目的とする。
1つの案では、視線検出装置は、画像取得部、特徴量抽出部、比較部、視線算出判定部視線算出部、及び結果出力部を含む。
画像取得部は、撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得する。特徴量抽出部は、前記画像取得部によって取得した顔画像の特徴量を抽出する。比較部は、前記特徴量抽出部によって抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較する。視線算出判定部は前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースであって、現フレームの顔画像の特徴量が1フレーム前の顔画像の特徴量と所定割合以上で一致する場合、前記視線算出処理を実行しないというルールセットを含む前記ルールデータベースを参照し、前記特徴量抽出部によって抽出した特徴量に基づいて前記ユーザの視線算出処理を実行するか否かを判定するものであって、前記比較部によって比較した結果、現フレームの特徴量と1フレーム前の顔画像の特徴量が所定割合以上で一致した場合、前記視線算出処理を実行しないと判定する。視線算出部は、前記視線算出判定部によって視線算出処理を実行すると判定された場合、前記画像取得部によって取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行する。結果出力部は、前記視線算出部によって実行した視線算出処理の結果を出力するものであって、前記1フレーム前の顔画像の特徴量に基づいて実行した視線算出処理の結果を出力する。
実施の形態によれば、視線検出処理の処理負荷を軽減し、効率的に視線検出処理を実行することができる。
本実施の形態に係る視線検出装置の機能構成を示す図である。 視線検出装置のコンピュータが実行する視線検出処理の基本的な流れ(その1)を示すフローチャートである。 視線検出装置のコンピュータが実行する視線検出処理の基本的な流れ(その2)を示すフローチャートである。 第1の実施例に係る視線検出装置の機能構成を示す図である。 第1の実施例に係る視線検出装置のコンピュータが実行する逐次処理による視線検出処理の流れを示すフローチャートである。 候補領域データベースの例を示す図である。 ルールデータベースの例(その1)を示す図ある。 瞬目と判断される場合の顔画像の例を示す図である。 瞬目と判断されない場合の顔画像の例を示す図である。 第2の実施例に係る視線検出装置のコンピュータが実行するバッチ処理による視線検出処理の流れを示すフローチャートである。 処理データベースの例(その1)を示す図ある。 第3の実施例に係る視線検出装置のコンピュータが実行する逐次処理による視線検出処理の流れを示すフローチャートである。 顔画像の右目周辺領域及び左目周辺領域を説明するための図である。 ルールデータベースの例(その2)を示す図である。 横目の判断の顔画像の例を示す図である。 第4乃至第8の実施例に係る視線検出装置の機能構成を示す図である。 第4の実施例に係る視線検出装置のコンピュータが実行するバッチ処理による視線検出処理の流れを示すフローチャートである。 ルールデータベースの例(その3)を示す図である。 第5の実施例に係る視線検出装置のコンピュータが実行するバッチ処理による視線検出処理の流れを示すフローチャートである。 処理データベースの例(その2)を示す図ある。 第6の実施例に係る視線検出装置のコンピュータが実行する逐次処理による視線検出処理の流れを示すフローチャートである。 オーバーラップデータベースの例を示す図ある。 ルールデータベースの例(その4)を示す図である。 オーバーラップ画像の例を示す図である。 第7の実施例に係る視線検出装置のコンピュータが実行する逐次処理による視線検出処理の流れを示すフローチャート(その1)である。 第7の実施例に係る視線検出装置のコンピュータが実行する逐次処理による視線検出処理の流れを示すフローチャート(その2)である。 第8の実施例に係る視線検出装置のコンピュータが実行するバッチ処理による視線検出処理の流れを示すフローチャート(その1)である。 第8の実施例に係る視線検出装置のコンピュータが実行するバッチ処理による視線検出処理の流れを示すフローチャート(その2)である。 情報処理装置の構成図である。
以下、図面を参照しながら、実施の形態について詳細に説明する。
一般的に、視線算出処理は、ユーザの視線検出を目的としている。そのため、基本的にはすべての入力画像において視線算出処理を実行する。しかし、視線算出処理が実行不可能な状況や、視線算出処理の実行が無用な状況においては、視線算出処理が不要になる。
視線算出処理が実行不可能な状況としては、例えば、ユーザが瞬き(瞬目)をしている状態、閉眼の状態、よそ見、寄り眼、横目をしている状態がある。この場合、視線算出処理に必要な情報、例えば角膜反射法で利用する角膜反射領域が入力画像に存在しないため、視線算出処理が実行できない。また、視線算出処理が不要な状況としては、例えば、停留している状態(注視)などがある。この場合、視線算出処理に必要な画像は、同様のフレームが連続するため、視線算出処理の結果も同様となり、視線演算処理の実行が無用となる。
そこで、角膜反射領域の候補などの入力画像内の視線に関する特徴量に基づいて、どのような状況の画像であるかを判定する。この判定結果から、視線算出処理を行う対象とするかどうかを判定し、対象とする場合のみに視線算出処理を行う。視線算出処理を行うことが必要な場合のみ、視線算出処理を行うことで、視線検出を行う際の計算機の処理負荷を軽減することが可能になる。
図1は、本実施の形態に係る視線検出装置の機能構成を示す図である。
図1において、視線検出装置1Aは、例えば、ワークステーション、パーソナルコンピュータ、携帯通信端末等の情報処理装置であり、撮像装置2と接続されている。視線検出装置1Aは、画像取得部11、特徴量抽出部12、ルール記憶部13、視線算出判定部14、視線算出部15、及び結果出力部16を備える。
撮像装置2は、例えば、デジタルカメラ、カメラ付携帯電話、監視カメラ、テレビ電話用カメラ、又はWebカメラ等である。そして、撮像装置2は、例えば、ユーザの顔、及び顔周辺を含む顔画像を撮像する。
画像取得部11は、撮像装置2によって撮像されたユーザの顔画像を、伝送経路を経由して撮像装置2から取得する。
特徴量抽出部12は、画像取得部11によって取得した顔画像の特徴量を抽出する。ここで、特徴量とは、例えば角膜反射法で利用する角膜反射領域の候補である。角膜反射領域は、眼球に入射した光が角膜で反射した反射像の領域である。
ルール記憶部13は、後述するルールデータベース(図7、図14、図18、及び図23を参照)としてルールセットを格納する。ルールデータベースは、顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納する。
例えば、ルールデータベースは、現フレームの顔画像の特徴量が1フレーム前の顔画像の特徴量と所定割合以上で一致する場合、視線算出処理を実行しないというルールセットを有する。また、ルールデータベースは、現フレームの顔画像の特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、視線算出処理を実行しないというルールセットを有する。また、ルールデータベースは、右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、視線算出処理を実行しないというルールセットを有する。また、ルールデータベースは、顔面領域の大きさが所定値より小さい場合、視線算出処理を実行しないというルールセットを有する。また、ルールデータベースは、顔面領域で特徴量を抽出しない場合、視線算出処理を実行しないというルールセットを有する。また、ルールデータベースは、顔面領域の特徴量の大きさが所定値より大きい場合、視線算出処理を実行しないというルールセットを有する。また、ルールデータベースは、2つの顔画像の特徴量が2つの顔画像のオーバーラップ領域内にある場合、何れか1つの顔画像の特徴量に基づいて視線算出処理を実行するというルールセットを有する。
視線算出判定部14は、特徴量抽出部12によって抽出した特徴量に基づいて、ルールデータベースを参照し、ユーザの視線算出処理を実行するか否かを判定する。
視線算出部15は、視線算出判定部14によって視線算出処理を実行すると判定された場合、画像取得部11によって取得した顔画像の特徴量に基づいて、ユーザの視線算出処理を実行する。視線算出処理の基本原理は、公知であり、例えば、角膜反射法では角膜反射領域の中心と瞳孔の中心から視線を算出する。
結果出力部16は、視線算出部15によって実行した視線算出処理の結果を出力する。
図2は、視線検出装置のコンピュータが実行する視線検出処理の基本的な流れ(その1)を示すフローチャートである。
図2に示すフローチャートは、所謂バッチ処理による流れを示す。
まず、ステップS201において、画像取得部11が、撮像装置2によって撮像されたユーザの顔画像を取得する。
ステップS202において、ステップS201で取得した顔画像について、特徴量抽出部12が顔画像の特徴量を抽出する。
ステップS203において、視線算出判定部14が、ステップS202で抽出した特徴量に基づいて、ルールデータベースを参照し、ステップS204において、視線算出処理を実行するか否かを判定する。
そして、ステップS205において、視線算出判定部14が、ステップS204で視線算出処理を実行すると判定した顔画像を、後述する処理データベース(図11及び図20を参照)に格納する。
ステップS206において、視線算出部15が、ステップS201で取得した顔画像の特徴量に基づいて視線算出処理を実行する。
リアルタイムでの処理が必要ではない場合や、キャリブレーションを事後に行う場合などに、このようなバッチ処理で視線検出処理を実行する。
図3は、視線検出装置のコンピュータが実行する視線検出処理の基本的な流れ(その2)を示すフローチャートである。
図3に示すフローチャートは、所謂逐次処理による流れを示す。
ステップS201乃至S203は、図2に示すフローチャートと同様であるので説明を省略する。
ステップS301において、視線算出部15が、ステップS204で視線算出処理を実行すると視線算出判定部14が判定した顔画像に基づいて、視線算出処理を実行する。
そして、ステップS302において、結果出力部16が、ステップS301で実行した視線算出処理の結果を直ぐに出力する。
このように逐次処理で視線検出処理を実行することにより、リアルタイムに視線算出を行うことができる。
図4は、第1の実施例に係る視線検出装置の機能構成を示す図である。
図4において、視線検出装置1Bは、例えば、ワークステーション、パーソナルコンピュータ、携帯通信端末等の情報処理装置であり、撮像装置2と接続されている。視線検出装置1Bは、画像取得部11、特徴量抽出部12、比較部41、ルール記憶部13、視線算出判定部14、特徴量記憶部42、視線算出部15、結果記憶部43、及び結果出力部16を備える。
撮像装置2は、例えば、デジタルカメラ等であり、例えば、ユーザの顔、あるいは顔周辺を含む顔画像を撮像する。ここで、顔画像とは、必ずしもユーザの顔の全体が含まれている必要ななく、少なくともユーザの目が含まれていればよい。
画像取得部11は、撮像装置2によって撮像されたユーザの顔画像を、伝送経路を経由して撮像装置2から取得する。
特徴量抽出部12は、画像取得部11によって取得した顔画像の特徴量、例えば角膜反射法で利用する角膜反射領域の候補を抽出する。そして、抽出した特徴量を特徴量記憶部42に格納する。
比較部41は、特徴量抽出部12によって抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較する。
ルール記憶部13は、ルールデータベースとしてルールセットを格納する。ルールデータベースは、現フレームの顔画像の特徴量が1フレーム前の顔画像の特徴量と所定割合以上で一致する場合、視線算出処理を実行しないというルールセットを有する。このルールセットは、ユーザの視線が停留していることを意味する。また、ルールデータベースは、現フレームの顔画像の特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、視線算出処理を実行しないというルールセットを有する。このルールセットは、ユーザが瞬目中であることを意味する。
視線算出判定部14は、特徴量抽出部12によって抽出した特徴量に基づいて、ルールデータベースを参照し、ユーザの視線算出処理を実行するか否かを判定する。例えば、視線算出判定部14は、比較部41によって比較した結果、現フレームの特徴量と1フレーム前の顔画像の特徴量が所定割合以上で一致した場合、視線算出処理を実行しないと判定する。また、視線算出判定部14は、比較部41によって比較した結果、現フレームの特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、視線算出処理を実行しないと判定する。
特徴量記憶部42は、視線算出判定部14によって視線算出処理を実行すると判定された場合、特徴量抽出部12によって抽出した顔画像の特徴量を格納する。
視線算出部15は、視線算出判定部14によって視線算出処理を実行すると判定された場合、画像取得部11によって取得した顔画像の特徴量に基づいて、ユーザの視線算出処理を実行する。例えば、角膜反射法では角膜反射領域の中心と瞳孔の中心から視線を算出する。
結果記憶部43は、視線算出部15によって実行した視線算出処理の結果、例えば、注視点の座標、視線ベクトル等を記憶する。これは、ユーザの目が停留であると判定されたとき、記憶された1フレーム前の視線計算結果を出力するためである。
結果出力部16は、視線算出部15によって実行した視線算出処理の結果を出力する。
図5は、第1の実施例に係る視線検出装置のコンピュータが実行する逐次処理による視線検出処理の流れを示すフローチャートである。図6は、候補領域データベースの例を示す図である。図7は、ルールデータベースの例(その1)を示す図ある。図8は、瞬目と判断される場合の顔画像の例を示す図である。図9は、瞬目と判断されない場合の顔画像の例を示す図である。
図5に示したフローチャートは、視線算出処理が実行不可能な状況として、ユーザが瞬目又は停留をしている状態を判定し、視線算出処理を行うことが必要な場合のみ、視線算出処理を行う場合の視線検出処理の流れを示す。判定する基準は、事前にルールデータベースに格納されている。上述した視線検出装置1Bは、前述したような情報処理装置が下記のような視線検出処理を実行することにより実現する。
まず、図5のステップS501において、画像取得部11は、撮像装置2によって撮像されたユーザの顔画像を、伝送経路を経由して撮像装置2から取得する。
ステップS502において、特徴量抽出部12が、画像取得部11によって取得した顔画像の特徴量として、角膜反射領域の候補を抽出する。角膜反射領域の候補は、顔画像内の明るい輝度の領域であり、二値化処理、フィルタ処理、テンプレートマッチング処理、コーナー検出処理などで抽出することが可能である。そして、ステップS503において、抽出した角膜反射領域の候補を、図6に示すような候補領域データベース61として特徴量記憶部42に格納する。図6の候補領域データベース61には、例えば、時刻「0時0分1秒033」に撮像された顔画像の座標(10,10)、(10,12)、(100,14)、(100,12)、(100,15)が、角膜反射領域の候補として格納されている。
ステップS504において、ステップS501で取得した顔画像が最初の画像か否かを判断する。
ステップS501で取得した顔画像は最初の画像であるので(ステップS504:Yes)、ステップS505において、本視線検出処理を終了するか否かを判断する。外部からの終了指示等がない限り、通常は本視線検出処理を終了しない。
終了しない場合(ステップS505:No)、ステップS506において、次の顔画像を取得する。
そして、ステップS506で取得した次の顔画像について、ステップS502において、特徴量抽出部12が、角膜反射領域の候補を抽出し、ステップS503において、抽出した角膜反射領域の候補を、図6に示すような候補領域データベース61に格納する。
そして、再度のステップS504において、ステップS506で取得した顔画像が最初の画像か否かを判断する。
ステップS506で取得した顔画像は最初の画像でないので(ステップS504:No)、ステップS507において、視線算出判定部14が、図7に示すようなルールデータベース71を参照し、比較部41が、現フレームの顔画像の角膜反射領域の候補の数と、1フレーム前の顔画像の角膜反射領域の候補の数を比較する。
比較した結果、角膜反射領域の候補の数が同じでなければ(ステップS507:No)、ステップS508において、その変化した角膜反射領域の候補の数が一定数、例えば2個以上か否かを判断する。そして、一定数以上変化した場合(ステップS508:Yes)、ステップS509において、変化した角膜反射領域の候補のy座標値、すなわち顔画像の上下方向の座標値が一定範囲内であるか否かを判断する。一定範囲内であれば(ステップS509:Yes)、ステップS510において、視線算出判定部14が、図8に示すように瞬目であると判定する。すなわち、前フレームの顔画像における角膜反射と比べて、一定数以上の角膜反射の数が減少をしていれば、瞬目をしているフレームであると判断する。これは、瞼が黒目の部分に掛かってくることで、黒目の部分に発生する角膜反射が減少することを判断に利用している。
例えば、図8の(A)には、7個の1フレーム前の角膜反射領域の候補81、82、83、84、85、86、87が抽出されている。図8の(B)には、5個の現フレームの角膜反射領域の候補81、82、85、86、87が抽出されている。2個の角膜反射領域の候補83、84は、現フレームでは角膜反射領域の候補として抽出されていない。すなわち、図8に示した例では、ステップS507において、角膜反射領域の候補の数が同じでないと判断される(ステップS507:No)。ステップS508において、角膜反射領域の候補の数が2個以上変化したと判断される(ステップS508:Yes)。ステップS509において、変化した角膜反射領域の候補83と84のy座標値が一定範囲内であると判断される(ステップS509:Yes)。この場合、変化した角膜反射領域の候補83と84は、角膜反射領域であり、瞬目によって変化したものと考えられる。
また、図9の(A)には、7個の1フレーム前の角膜反射領域の候補91、92、93、94、95、96、97が抽出されている。図9の(B)には、5個の現フレームの角膜反射領域の候補92、93、94、95、96が抽出されている。2個の角膜反射領域の候補91、97は、現フレームでは角膜反射領域の候補として抽出されていない。すなわち、図9に示した例では、ステップS507において、角膜反射領域の候補の数が同じでないと判断される(ステップS507:No)。ステップS508において、角膜反射領域の候補の数が2個以上変化したと判断される(ステップS508:Yes)。しかしながら、ステップS509において、変化した角膜反射領域の候補91と97のy座標値が一定範囲内でないと判断される(ステップS509:No)。
そして、変化した角膜反射領域の候補のy座標値が一定範囲内でないと判断された場合(ステップS509:No)、通常通り、ステップS511において、視線算出部15が、ステップS506で取得した顔画像の特徴量に基づいて視線算出処理を実行する。ステップS508で角膜反射領域の候補の数が2個以上変わっていないと判断された場合も(ステップS508:No)、ステップS511において、視線算出部15が、ステップS506で取得した顔画像の特徴量に基づいて視線算出処理を実行する。
他方、ステップS507で現フレームと1フレーム前の顔画像の角膜反射領域の候補の数が同じであると判断された場合(ステップS507:Yes)、ステップS512において、現フレームと1フレーム前の顔画像の対応する角膜反射領域の候補の座標値の差の平均値が一定値以内か否かを判断する。
一定値以内でなければ(ステップS512:No)、現フレームと1フレーム前の顔画像の対応する角膜反射領域の候補の位置が相違していると見なされるので、ステップS511に進む。
他方、一定値以内であれば(ステップS512:Yes)、ステップS513において、現フレームと1フレーム前の顔画像の角膜反射領域の候補の周辺領域の画像を取得する。ステップS514において、現フレームと1フレーム前の顔画像の対応する周辺領域を比較する。そして、ステップS515において、視線算出判定部14が、一致度が95%を超えているか否かを判断する。
超えていない場合(ステップS515:No)、ステップS511に進む。他方、超えている場合(ステップS515:Yes)、ステップS516において、視線算出判定部14が、停留であると判定する。すなわち、黒目の位置を特定し、前フレームの黒目の位置と比較して、位置の変化が所定値以内なら、視線の位置に変化が無いと判断をする。
そして、ステップS517において、結果出力部16が、実行した視線検出処理の処理結果を出力する。
このように、視線算出処理を実行すべき顔画像の視線の位置が、以前に撮像したフレームの視線の位置と変わっていないと見なす場合、又は、顔画像からの視線算出処理が実行できないと判断する条件を満たす場合、該当する顔画像を視線算出処理の対象から除外をする。
なお、停留や瞬目の判定を角膜反射候補領域の前フレームとの差分で求めたが、他の方法を用いることも可能である。例えば、停留であれば、虹彩のパターンマッチングなどの方法を用いることも考えられる。また、瞬目であれば、動きベクトルを用いる方式や、ユーザの顔画像から目、瞬きを検出し追跡する技術(例えば、特許文献2)などの方法を用いることも考えられる。
また、更に顔検出処理を行うことで、複数のユーザそれぞれについて、同様の視線検出処理を行うことも可能となる。
図10は、第2の実施例に係る視線検出装置のコンピュータが実行するバッチ処理による視線検出処理の流れを示すフローチャートである。図11は、処理データベースの例(その1)を示す図ある。
図5を用いて説明した、第1の実施例に係る視線検出装置のコンピュータが実行する逐次処理による視線検出処理と異なるステップを中心に説明する。
ステップS501乃至S510、及びS512乃至S516のステップは、図5を用いて説明した、第1の実施例に係る視線検出装置のコンピュータが実行する逐次処理による視線検出処理と同様である。すなわち、第2の実施例は、顔画像の取得、特徴量の抽出、瞬目の判定、及び停留の判定については、第1の実施例と同様である。判定する基準は、事前にルールデータベースに格納されている。
ステップS508で、現フレームと1フレーム前の顔画像の角膜反射領域の候補の数が2個以上変わっていないと判断された場合(ステップS508:No)、ステップS1001において、ステップS506で取得した顔画像を図11に示すような処理データベース111に格納する。図11の処理データベース111には、例えば、時刻「0時0分0秒033」に撮像された顔画像がフレーム1として格納されている。この顔画像は、後に視線算出処理の実行に用いる。
また、ステップS509で、変化した角膜反射領域の候補のy座標値が一定範囲内でない場合(ステップS509:No)、ステップS1001において、ステップS506で取得した顔画像を処理データベース111に格納する。また、ステップS512で、現フレームと1フレーム前の顔画像の対応する角膜反射領域の候補の座標値の差の平均値が一定値以内でない場合(ステップS512)、ステップS515で、現フレームと1フレーム前の顔画像の対応する周辺領域の一致度が95%を超えていない場合(ステップS515:No)も、ステップS1001において、ステップS506で取得した顔画像を処理データベース111に格納する。
本視線検出処理を終了すると判断されると(ステップS505:Yes)、ステップS1002において、視線算出部15が、ステップS1001で処理データベース111に格納した顔画像の特徴量に基づいて視線算出処理を実行する。
そして、ステップS1003において、結果出力部16が、ステップS1002で実行した視線検出処理の処理結果を出力する。
図12は、第3の実施例に係る視線検出装置のコンピュータが実行する逐次処理による視線検出処理の流れを示すフローチャートである。図13は、顔画像の右目周辺領域及び左目周辺領域を説明するための図である。図14は、ルールデータベースの例(その2)を示す図である。図15は、横目の判断の顔画像の例を示す図である。
図12に示したフローチャートは、視線算出処理が実行不可能な状況として、ユーザが横目をしている状態を判定し、視線算出処理を行うことが必要な場合のみ、視線算出処理を行う場合の視線検出処理の流れを示す。ユーザが横目をしている状況では、黒目の形状を正確に求めることが困難であり、大きな誤差が生じるため視線算出処理が不要と考えられる。
本第3の実施例に係る視線検出処理は、角膜反射候補の領域と顔面領域の情報を用いて、視線算出処理の必要性を判定する。判定する基準は、事前にルールデータベースに格納されている。また、入力された顔画像から顔面領域の検出を行う処理として、公知の技術を用いることが考えられる。例えば、対象画像から抽出したエッジ画像に基づいて顔画像を含むと思われる部分画像を抽出し、顔画像と非顔画像とを識別するための学習辞書を参照して、抽出部分画像が顔画像を含んでいるか否かを識別する技術(例えば、特許文献3)などがある。なお、顔面領域は顔もしくは目の一部を含む領域であってもよい。
まず、図12のステップS501において、画像取得部11が、撮像装置2によって撮像されたユーザの顔画像を、伝送経路を経由して撮像装置2から取得する。ステップS1201において、画像取得部11が、取得した顔画像から図13に示すような顔面領域1301の検出を行う。そして、ステップS1202において、画像取得部11が、図13に示すように、検出した顔面領域1301から所定範囲内の右目周辺領域1302及び左目周辺領域1303を特定する。右目周辺領域1302は、右目の画像を含み、左目周辺領域1303は左目の画像を含む。
ステップS1203において、特徴量抽出部12が、画像取得部11によって検出した顔面領域1301の特徴量として、角膜反射領域の候補を抽出する。
次に、ステップS1204において、特徴量抽出部12が、ステップS1203で抽出した角膜反射領域の候補の中から、ステップS1202で特定した右目周辺領域1302にある輝度値の最も高い角膜反射領域の候補を1つ取得する。例えば、黒画素から白画素まで8ビットの256階調で表現した場合、240以上の輝度値が最も高い輝度値となることが多い。輝度値の最も高い角膜反射領域の候補を取得する理由は、角膜反射領域の可能性が最も高いからである。ステップS1205において、特徴量抽出部12が、右目周辺領域1302中の輝度値の最も高い角膜反射領域の候補の周辺領域、すなわち角膜周辺領域の可能性が最も高い領域である角膜周辺領域画像を取得する。
ステップS1206において、視線算出判定部14が、図14に示すようなルールデータベース141を参照する。そして、ステップS1205で取得した角膜周辺領域画像内で、角膜反射領域候補の左右(水平方向:x軸方向)それぞれの方向の画素が所定数(例えば、予め定めたn個)以上白画素か否かを判断する。ここで、白画素とは、例えば、黒画素から白画素まで8ビットの256階調で表現した場合、190乃至230程度の輝度値が適切である。
角膜反射領域候補の左右の画素が所定数以上白画素である場合(ステップS1206:Yes)、視線算出判定部14は横目ではないと判断し、ステップS1207において、視線算出部15が、顔画像の特徴量に基づいて視線算出処理を実行する。そして、ステップS1208において、結果出力部16が、実行した視線検出処理の処理結果を出力する。例えば、図15の(A)に示しように、輝度値の最も高い角膜反射領域の候補1501の左右には、所定数以上の白画素1502及び1503が存在する。
他方、ステップS1206で角膜反射領域候補の左右の画素が所定数以上白画素である場合(ステップS1206:No)、視線算出判定部14は横目の可能性があると判断する。例えば、図15の(B)に示しように、輝度値の最も高い角膜反射領域の候補1504には、片側のみ所定数以上の白画素1505が存在する。
そして、ステップS1209において、特徴量抽出部12が、ステップS1203で抽出した角膜反射領域の候補の中から、ステップS1202で特定した左目周辺領域1303にある輝度値の最も高い角膜反射領域の候補を1つ取得する。ステップS1210において、特徴量抽出部12が、左目周辺領域1303中の輝度値の最も高い角膜反射領域の候補の周辺領域、すなわち角膜周辺領域の可能性が最も高い領域である角膜周辺領域画像を取得する。
ステップS1211において、視線算出判定部14が、図14に示すようなルールデータベース141を参照する。そして、ステップS1210で取得した角膜周辺領域画像内で、角膜反射領域候補の左右(水平方向:x軸方向)それぞれの方向の画素が所定数(例えば、予め定めたn個)以上白画素か否かを判断する。
角膜反射領域候補の左右の画素が所定数以上白画素である場合(ステップS1211:Yes)、視線算出判定部14は横目ではないと判断し、ステップS1207において、視線算出部15が、顔画像の特徴量に基づいて視線算出処理を実行する。そして、ステップS1208において、結果出力部16が、実行した視線検出処理の処理結果を出力する。
他方、ステップS1211で角膜反射領域候補の左右の画素が所定数以上白画素である場合(ステップS1211:No)、ステップS1212において、視線算出判定部14は横目であると判断する。
そして、ステップS1213において、本視線検出処理を終了するか否かを判断する。外部からの終了指示等がない限り、通常は本視線検出処理を終了しない。終了しない場合(ステップS1213:No)、ステップS1214において、次の顔画像を取得する。
以上説明したように、第3の実施例に係る視線検出処理では、角膜反射領域の位置から両側(水平方向)の所定の範囲に、輝度の明るい部分(白目)があるか否かを判断し、一方の側しか輝度の明るいがなければ、横目をしていると判断する。なお、寄り目の場合も同様である。
図16は、第4乃至第8の実施例に係る視線検出装置の機能構成を示す図である。
図16において、視線検出装置1Cは、例えば、ワークステーション、パーソナルコンピュータ、携帯通信端末等の情報処理装置であり、撮像装置2及びユーザ入力受付装置3と接続されている。視線検出装置1Cは、画像取得部11、顔面検出部1601、特徴量抽出部12、ルール記憶部13、処理優先度設定部1602、視線算出判定部14、視線算出部15、結果出力部16、及びユーザ入力受付部1603を備える。
撮像装置2は、例えば、デジタルカメラ等であり、例えば、ユーザの顔、及び顔周辺を含む顔画像を撮像する。撮像装置2は、複数のカメラで構成される場合もある。
ユーザ入力受付装置3は、キーボード、マウス等の入力装置であり、ユーザが処理優先度設定を入力する。
画像取得部11は、撮像装置2によって撮像されたユーザの顔画像を、伝送経路を経由して撮像装置2から取得する。撮像装置2が複数のカメラから構成されている場合、画像取得部11は、それぞれの撮像装置2によって撮像された顔画像を、それぞれの撮像装置2から取得する。
顔面検出部1601は、画像取得部11によって取得した顔画像から顔面領域を検出する。例えば、対象画像から抽出したエッジ画像に基づいて顔画像を含むと思われる部分画像を抽出し、顔画像と非顔画像とを識別するための学習辞書を参照して、抽出部分画像が顔画像を含んでいるか否かを識別することにより、顔画像から顔面領域を検出する。
特徴量抽出部12は、画像取得部11によって取得した顔画像の特徴量、例えば角膜反射法で利用する角膜反射領域の候補を抽出する。また、特徴量抽出部12は、顔面検出部1601によって検出した顔面領域の特徴量を抽出する。撮像装置2が複数のカメラから構成されている場合、特徴量抽出部12は、それぞれの顔画像の特徴量を抽出する。そして、抽出した特徴量を特徴量記憶部42に格納する。
ルール記憶部13は、ルールデータベースとしてルールセットを格納する。ルールデータベースは、顔面領域の大きさが所定値より小さい場合、視線算出処理を実行しないというルールセットを有する。このルールセットは、撮像装置2で撮像したユーザの顔が小さ過ぎるため、視線検出を行えないことを意味する。また、ルールデータベースは、抽出した特徴量が顔面領域以外での抽出であり顔面領域で特徴量を抽出しない場合、視線算出処理を実行しないというルールセットを有する。このルールセットは、顔以外の領域で金属等により特徴量が検出されてしまうため、視線検出を行えないことを意味する。また、ルールデータベースは、顔面領域の特徴量の大きさが所定値より大きい場合、視線算出処理を実行しないというルールセットを有する。このルールセットは、眼鏡等による反射によるものであるため、視線検出を行えないことを意味する。また、ルールデータベースは、2つの顔画像の特徴量が2つの顔画像のオーバーラップ領域内にある場合、何れか1つの顔画像の特徴量に基づいて視線算出処理を実行するというルールセットを有する。このルールセットは、何れの顔画像の特徴量に基づいても同様の視線算出結果が得られる可能性が高いため、一方の視線検出で十分であることを意味する。
処理優先度設定部1602は、特徴量抽出部12によって抽出した顔面領域の特徴量に、視線算出処理の実行優先度を対応付けて処理データベースに格納する。
視線算出判定部14は、特徴量抽出部12によって抽出した特徴量に基づいて、ルールデータベースを参照し、ユーザの視線算出処理を実行するか否かを判定する。例えば、視線算出判定部14は、顔面検出部1601によって検出された顔面領域の大きさが所定値より小さい場合、視線算出処理を実行しないと判定する。また、視線算出判定部14は、特徴量抽出部12によって抽出した特徴量が顔面領域以外での抽出であり顔面領域で特徴量を抽出しない場合、視線算出処理を実行しないと判定する。また、視線算出判定部14は、特徴量抽出部12によって抽出された顔面領域の特徴量の大きさが所定値より大きい場合、視線算出処理を実行しないと判定する。また、視線算出判定部14は、特徴量抽出部12によって抽出した顔面領域の特徴量の優先度に従って視線算出処理を実行すると判定する。また、視線算出判定部14は、特徴量抽出部12によって抽出した複数の顔画像の特徴量が画像取得部11によって取得した複数の顔画像のオーバーラップ領域内にある場合、何れかの顔画像の特徴量に基づいて視線算出処理を実行すると判定する。
視線算出部15は、視線算出判定部14によって視線算出処理を実行すると判定された場合、画像取得部11によって取得した顔画像の特徴量に基づいて、ユーザの視線算出処理を実行する。例えば、角膜反射法では角膜反射領域の中心と瞳孔の中心から視線を算出する。
結果出力部16は、視線算出部15によって実行した視線算出処理の結果を出力する。
ユーザ入力受付部1603は、ユーザ入力受付装置3によって入力された処理優先度設定を受け付ける。
図17は、第4の実施例に係る視線検出装置のコンピュータが実行するバッチ処理による視線検出処理の流れを示すフローチャートである。図18は、ルールデータベースの例(その3)を示す図である。
第4の実施例では、視線検出の方式や利用環境によって、視線算出処理が不可能な状況を想定する。例えば、ユーザの顔が小さくしか映らないような場合、金属など顔以外の領域で角膜反射領域の候補が発生するような場合、眼鏡による反射によって角膜反射領域が隠れてしまっているような場合等がある。このような場合には、正確な視線算出処理が不可能になる。
まず、図17のステップS501において、画像取得部11は、撮像装置2によって撮像されたユーザの顔画像を、伝送経路を経由して撮像装置2から取得する。ステップS1701において、画像取得部11が、取得した顔画像から顔面領域の検出を行う。
ステップS1702において、視線算出判定部14が、図18に示すようなルールデータベース181を参照する。そして、ステップS1701で検出された顔面領域が所定のサイズ以上か否かを判断する。顔面領域のサイズが小さ過ぎると、目の領域も小さくなり、適切な視線検出が行えないからである。尚、ステップS1701の判断は、顔自体の領域のサイズで判断するほかに、目の領域の大きさで判断をすることを含む。また、ユーザが横を向いている場合、あるいは、上又は下を向いている場合など、目の領域自体は大きくても、画像に角膜反射領域がないことがある。視線算出判定部14は、目や鼻や口といった顔のパーツの位置関係から、ユーザが横を向いている場合、あるいは、上又は下を向いている場合と判断をした場合、顔面領域が所定のサイズ以上でないと判断した場合と同様の処理を行うようにしても良い。あるいは、図示しないDBに格納したユーザが横を向いている場合、あるいは、上又は下を向いている場合の目の形状を参照し、顔面領域中の目の領域の形状がDBに格納したユーザが横を向いている場合、あるいは、上又は下を向いている場合の目の形状に所定の閾値を越えて近似をする場合、顔面領域が所定のサイズ以上でないと判断した場合と同様の処理をするようにしても良い。
一定サイズ以上でなければ(ステップS1702:No)、ステップS1703において、視線算出判定部14が、顔面領域のサイズが小さ過ぎるため視線算出処理が不可能であると判断し、ステップS505に進む。ユーザが横を向いている場合、あるいは、上又は下を向いている場合など、顔面領域が所定の大きさ、例えばその顔面領域中の目の画像からは、視線の検出ができないと定義した大きさ以下の場合にも、視線算出処理が不可能であると判断し、ステップS505に進む。他方、一定サイズ以上であれば(ステップS1702:Yes)、ステップS1704において、特徴量抽出部12が、ステップS1701で画像取得部11によって検出した顔面領域の特徴量として、角膜反射領域の候補を抽出する。
次に、ステップS1705において、視線算出判定部14が、図18に示すようなルールデータベース181を参照する。そして、顔面領域の特徴量として角膜反射領域の候補を抽出したか否かを判断する。抽出した特徴量が顔面領域以外での抽出であり顔面領域で特徴量を抽出しない場合、抽出した特徴量は角膜反射領域でないからである。
角膜反射領域の候補が抽出できなかった場合(ステップS1705:No)、ステップS1703において、視線算出判定部14が、抽出した特徴量が顔面領域以外での抽出であり顔面領域で特徴量を抽出しないので、視線算出処理が不可能であると判断し、ステップS505に進む。
他方、ステップS1705で角膜反射領域の候補が抽出できたと判断された場合(ステップS1705:Yes)、角膜反射領域の候補を順に処理するため、ステップS1706において、最初の角膜反射領域の候補を取得する。
ステップS1707において、視線算出判定部14が、特徴量抽出部12によって抽出された顔面領域の特徴量の大きさが所定値より大きいか否かを判断する。顔面領域の特徴量の大きさが所定値より大きい場合(ステップS1707:Yes)、ステップS1708において、その角膜反射領域の候補は角膜反射領域でない(非角膜反射領域)と判定する。すなわち、その角膜反射領域の候補は眼鏡等による反射によるものと判定する。
他方、ステップS1707で顔面領域の特徴量の大きさが所定値より大きくないと判断された場合(ステップS1707:No)、ステップS1709において、その角膜反射領域の候補は角膜反射領域であると判定する。そして、ステップS1001において、顔画像を処理データベース111に格納する。
ステップS1710において、次の角膜反射領域の候補がステップS1704で抽出した角膜反射領域の候補の最後であるか否かを判断する。最後でなければ(ステップS1710:No)、ステップS1711において、次の角膜反射領域の候補を取得し、ステップS1707以降を繰り返す。
他方、最後であれば(ステップS1710:Yes)、ステップS1712において、処理データベース111に角膜反射領域の候補が1個以上格納されているか否かを判断する。
1個以上格納されている場合(ステップS1712:Yes)、ステップS505に進む。他方、1個も格納されていない場合(ステップS1712:No)、ステップS1703において、視線算出判定部14が、顔面領域で特徴量を抽出しないので、視線算出処理が不可能であると判断し、ステップS505に進む。
そして、ステップS505において、本視線検出処理を終了するか否かを判断する。終了しない場合(ステップS505:No)、ステップS506において、次の顔画像を取得してステップS1901以降を繰り返す。
他方、ステップS505で本視線検出処理を終了すると判断されると(ステップS505:Yes)、ステップS1002において、視線算出部15が、ステップS1001で処理データベース111に格納した顔画像の特徴量に基づいて視線算出処理を実行する。
そして、ステップS1003において、結果出力部16が、ステップS1002で実行した視線検出処理の処理結果を出力する。
なお、本第4の実施例では、顔面領域と角膜反射領域の候補を用いて説明したが、ユーザの入力顔画像より2次元テンプレートを用いて、より正確に目の輪郭の抽出を行う技術(例えば、特許文献5)を用いても良い。また、非角膜反射領域の判定についても、眼鏡を装着したユーザの撮影画像から、眼鏡での照明反射部分を検出する技術(例えば、特許文献)等、他の方法を用いることも可能である。
図19は、第5の実施例に係る視線検出装置のコンピュータが実行するバッチ処理による視線検出処理の流れを示すフローチャートである。図20は、処理データベースの例(その2)を示す図ある。
第5の実施例では、視線算出処理の必要性を判定するだけでなく、時系列順以外の順序で視線算出処理が必要となる場合を想定する。このような場合に、必要な場合のみ視線算出処理を行い、望まれた順序で視線算出処理行うことが可能になる。また、顔面領域と角膜反射領域の候補の情報を用いて、視線算出処理の必要性を判定する。
まず、図19のステップS501において、画像取得部11は、撮像装置2によって撮像されたユーザの顔画像を、伝送経路を経由して撮像装置2から取得する。次に、ステップS1901において、特徴量抽出部12が、ステップS501で画像取得部11によって取得した顔画像の特徴量として、角膜反射領域の候補を抽出する。そして、ステップS1701において、画像取得部11が、取得した顔画像から顔面領域の検出を行う。
ステップS1702において、視線算出判定部14が、図18に示すようなルールデータベース181を参照する。そして、ステップS1701で検出された顔面領域が所定のサイズ以上か否かを判断する。
一定サイズ以上でなければ(ステップS1702:No)、ステップS1703において、視線算出判定部14が、顔面領域のサイズが小さ過ぎるため視線算出処理が不可能であると判断し、ステップS505に進む。他方、一定サイズ以上であれば(ステップS1702:Yes)、ステップS1704において、特徴量抽出部12が、ステップS1701で画像取得部11によって検出した顔面領域の特徴量として、角膜反射領域の候補を抽出する。
次に、ステップS1705において、視線算出判定部14が、図18に示すようなルールデータベース181を参照する。そして、顔面領域の特徴量として角膜反射領域の候補を抽出したか否かを判断する。
角膜反射領域の候補が抽出できなかった場合(ステップS1705:No)、ステップS1703において、視線算出判定部14が、抽出した特徴量が顔面領域以外での抽出であり顔面領域で特徴量を抽出しないので、視線算出処理が不可能であると判断し、ステップS505に進む。
他方、ステップS1705で角膜反射領域の候補が抽出できたと判断された場合(ステップS1705:Yes)、ステップS1902において、ユーザ入力受付部1603が、ユーザ入力受付装置3によって入力された処理優先度設定を受け付ける。例えば、視線算出処理の計算精度等を考慮して、角膜反射領域の候補の数が多い顔画像は、角膜反射領域の候補の数が少ない顔画像より処理優先度を高く設定する。また、取得された同一の顔画像から複数の顔面領域が検出された際に、視線算出処理の計算精度等を考慮し、大きい顔面領域の優先度を高く設定する。これにより、視線検出装置に近い人物についての視線検出処理から実行することができる。
そして、ステップS1903において、処理優先度設定部1602は、ステップS1704で抽出した顔面領域の特徴量に、視線算出処理の実行優先度を対応付けて、図20に示すような処理データベース201に格納する。
そして、ステップS505において、本視線検出処理を終了するか否かを判断する。終了しない場合(ステップS505:No)、ステップS506において、次の顔画像を取得してステップS1901以降を繰り返す。
他方、ステップS505で本視線検出処理を終了すると判断されると(ステップS505:Yes)、ステップS1904において、視線算出部15が、ステップS1903で処理データベース111に格納した優先度の順に、顔画像の特徴量に基づいて視線算出処理を実行する。
そして、ステップS1905において、結果出力部16が、ステップS1904で実行した視線検出処理の処理結果を出力する。
図21は、第6の実施例に係る視線検出装置のコンピュータが実行する逐次処理による視線検出処理の流れを示すフローチャートである。図22は、オーバーラップデータベースの例を示す図ある。図23は、ルールデータベースの例(その4)を示す図である。図24は、オーバーラップ画像の例を示す図である。
後述する第6乃至第8の実施例では、撮像装置2が複数のカメラから構成される。この場合、各撮像装置2で撮像する空間が重複することが発生する。その空間にいるユーザについては、同一の視線情報が、複数の撮像装置2それぞれから出力される。そのため、同一の視線情報を重複して計算することを回避することで、視線算出処理を行う際の算出処理負荷を軽減することが可能になる。
重複している領域は、事前にオーバーラップデータベース221に格納されている。例えば、オーバーラップデータベース221には、第1の撮像装置2である「カメラ1」が撮像した第1の顔画像の対角座標(440,0)と(640,480)で特定される領域が、オーバーラップ領域として格納されている。また、第2の撮像装置2である「カメラ2」が撮像した第2の顔画像の対角座標(0,0)と(200,480)で特定される領域が、オーバーラップ領域として格納されている。
まず、図21のステップS2101において、画像取得部11は、第1の撮像装置2によって撮像されたユーザの第1の顔画像を、伝送経路を経由して第1の撮像装置2から取得する。ステップS2102において、画像取得部11が、取得した第1の顔画像から第1の顔面領域の検出を行う。ステップS2103において、特徴量抽出部12が、ステップS2102で画像取得部11によって検出した第1の顔面領域の特徴量として、第1の角膜反射領域の候補を抽出し、図22に示したようなオーバーラップデータベース221に格納する。
また、ステップS2104において、画像取得部11は、第2の撮像装置2によって撮像されたユーザの第2の顔画像を、伝送経路を経由して第2の撮像装置2から取得する。ステップS2105において、画像取得部11が、取得した第2の顔画像から第2の顔面領域の検出を行う。ステップS2106において、特徴量抽出部12が、ステップS2105で画像取得部11によって検出した第2の顔面領域の特徴量として、第2の角膜反射領域の候補を抽出し、図22に示したようなオーバーラップデータベース221に格納する。
ステップS2101乃至S2103は、ステップS2104乃至S2106と並行して実行される。
ステップS2107において、視線算出判定部14が、オーバーラップデータベース221を参照する。そして、特徴量抽出部12によって抽出した第1及び第2の顔画像の特徴量が、画像取得部11によって取得した第1及び第2の顔画像のオーバーラップ領域内にあるか否かを判断する。
第1及び第2の顔画像の特徴量が第1及び第2の顔画像のオーバーラップ領域内にない場合(ステップS2107:No)、ステップS2108において、視線算出部15は、第1及び第2の顔画像の特徴量それぞれに基づいて、ユーザの視線算出処理を実行する。そして、ステップS2109において、結果出力部16が、実行した視線算出処理の結果を出力し、ステップS505に進む。
他方、ステップS2107で第1及び第2の顔画像の特徴量が第1及び第2の顔画像のオーバーラップ領域内にあると判定された場合(ステップS2107:Yes)、ステップS2110において、視線算出判定部14が、図23に示すようなルールデータベース231を参照する。ルールデータベース231は、2つの顔画像の特徴量が2つの顔画像のオーバーラップ領域内にある場合、何れか1つの顔画像の特徴量に基づいて視線算出処理を実行するというルールセットを有する。このルールセットは、何れの顔画像の特徴量に基づいても同様の視線算出結果が得られる可能性が高いため、一方の視線検出で十分であることを意味する。例えば、2つの顔画像の特徴量が2つの顔画像のオーバーラップ領域内にある場合とは、図24に示すように、2つの顔画像の特徴量がオーバーラップ領域2401及び2402内にある場合である。
そして、第1及び第2の顔面領域の角膜反射領域の候補がステップS2103及びS2106で抽出されなかった場合(ステップS2110:Yes)、ステップS2116に進む。
第1及び第2の顔面領域の角膜反射領域の候補がステップS2103及びS2106で抽出された場合(ステップS2110:No)、ステップS2111において、第1の顔面領域の角膜反射領域の候補の平均尤度が第2の顔面領域の角膜反射領域の候補の平均尤度より高いか否かを判断する。
第1の顔面領域の角膜反射領域の候補の平均尤度の方が高いと判断された場合(ステップS2111:Yes)、ステップS2112において、視線算出部15が、第1の顔画像の特徴量に基づいて、ユーザの視線算出処理を実行する。そして、ステップS2113において、結果出力部16が、実行した視線算出処理の結果を出力し、ステップS505に進む。
他方、第1の顔面領域の角膜反射領域の候補の平均尤度の方が高くない、すなわち第2の顔面領域の角膜反射領域の候補の平均尤度の方が高いと判断された場合(ステップS2111:No)、ステップS2114において、視線算出部15が、第2の顔画像の特徴量に基づいて、ユーザの視線算出処理を実行する。ここで、角膜反射領域の候補の平均尤度は、視線算出処理の計算精度を考慮した判定基準であり、予め設定されている。
そして、ステップS2115において、結果出力部16が、実行した視線算出処理の結果を出力し、ステップS505に進む。
また、ステップS2110で第1及び第2の顔面領域の角膜反射領域の候補がステップS2103及びS2106で何れも抽出されなかった場合(ステップS2110:Yes)、ステップS2116において、視線算出判定部14が、特徴量を抽出していないので、視線算出処理が不可能であると判断し、ステップS505に進む。
そして、ステップS505において、本視線検出処理を終了するか否かを判断する。終了しない場合(ステップS505:No)、ステップS2101及びS2104に戻る。
このような視線検出処理を実行することで、複数の顔画像で同一の角膜反射領域の候補が存在する場合、何れか一方の顔画像で視線算出処理を実行することが可能となる。また、視線算出処理が容易な顔画像と困難な顔画像、例えば眼鏡反射が発生している顔画像の2つの顔画像であった場合、視線算出処理が容易な顔画像を選択することも可能となる。更に、視線算出処理の計算精度を考慮した判定基準を設定することで、より視線算出処理の計算精度の高い条件の顔画像を選択することが可能となる。そのため、視線算出処理を行う際の処理負荷の軽減と計算精度低下の防止が可能になる。
また、上述の説明では、何れかの顔画像を処理対象と判定する例を示したが、顔が半分ずつ映った際などに、両方の顔画像を合成して処理を行うことも可能である。また、オーバーラップ領域を撮像装置2からの距離に応じた設定にすることや、2つの撮像装置2の位置関係だけでなく、それぞれの設置条件、例えば、設置角度を含めた設定にすることも可能である。
図25及び図26は、第7の実施例に係る視線検出装置のコンピュータが実行する逐次処理による視線検出処理の流れを示すフローチャートである。
上述した第6の実施例では、ステップS2101乃至S2103が、ステップS2104乃至S2106と並行して実行された。
第7の実施例では、ステップS2101乃至S2103が実行された後、ステップS2104乃至S2106が実行される。すなわち、2つの顔画像が同時刻に撮像された画像でなく、一定時間内に撮像された顔画像の場合にも視線検出処理を実行することができる。
図27及び図28は、第8の実施例に係る視線検出装置のコンピュータが実行するバッチ処理による視線検出処理の流れを示すフローチャートである。
第8の実施例では、第7の実施例のステップS2111の判定結果を優先度として設定する。
すなわち、ステップS2111で第1の顔面領域の角膜反射領域の候補の平均尤度の方が高いと判断された場合(ステップS2111:Yes)、ステップS2803において、第1の顔画像に高い優先度を設定する。優先度は、例えば角膜反射領域の候補の尤度や検出精度分布のような特性に基づいて算出することが望ましい。そして、ステップS2804において、第1の顔画像とその優先度を対応付けて処理データベース201に格納してステップS505に進む。
また、ステップS2111で第1の顔面領域の角膜反射領域の候補の平均尤度の方が高くないと判断された場合(ステップS2111:No)、ステップS2805において、第2の顔画像に高い優先度を設定する。そして、ステップS2806において、第2の顔画像とその優先度を対応付けて処理データベース201に格納してステップS505に進む。
その後、ステップS505で終了すると判断された場合(ステップS505:Yes)、ステップS2807において、優先度の降順で処理データベース201内の顔画像を並べ替える(ソートする)。
ステップS2808において、視線算出部15が、ソートした優先度の降順の顔画像の特徴量に基づいて、視線算出処理を実行する。
そして、ステップS2809において、結果出力部16が、実行した視線算出処理の結果を出力する。
このような優先度に基づいて視線算出処理を実行することで、例えば、片目だけで簡易的に視線算出処理を実行した後、両目での視線算出処理を実行することにより、計算処理の負荷制御が可能になる。
図29は、情報処理装置の構成図である。
図1の視線検出装置1A、1B、1Cは、例えば、図29に示すような情報処理装置(コンピュータ)を用いて実現することが可能である。図29の情報処理装置は、CPU(Central Processing Unit)2901、メモリ2902、入力装置2903、出力装置2904、外部記録装置2905、媒体駆動装置2906及びネットワーク接続装置2907を備える。これらはバス2908により互いに接続されている。
メモリ2902は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、視線検出装置1A、1B、1Cが実行する視線検出処理に用いられるプログラム及びデータを格納する。例えば、CPU2901は、メモリ2902を利用してプログラムを実行することにより、上述の視線検出処理を行う。
入力装置2903は、例えば、キーボード、ポインティングデバイス等であり、オペレータからの指示や情報の入力に用いられる。出力装置2904は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータへの問い合わせや処理結果の出力に用いられる。
外部記録装置2905は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。この外部記録装置2905には、ハードディスクドライブも含まれる。情報処理装置は、この外部記録装置2905にプログラム及びデータを格納しておき、それらをメモリ2902にロードして使用することができる。
媒体駆動装置2906は、可搬型記録媒体2909を駆動し、その記録内容にアクセスする。可搬型記録媒体2909は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。この可搬型記録媒体2909には、Compact Disk Read Only Memory (CD−ROM)、Digital Versatile Disk(DVD)、Universal Serial Bus(USB)メモリ等も含まれる。オペレータは、この可搬型記録媒体2909にプログラム及びデータを格納しておき、それらをメモリ2902にロードして使用することができる。
このように、視線検出処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体には、メモリ2902、外部記録装置2905、及び可搬型記録媒体2909のような、物理的な(非一時的な)記録媒体が含まれる。
ネットワーク接続装置2907は、通信ネットワーク2910に接続され、通信に伴うデータ変換を行う通信インターフェースである。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置2907を介して受け取り、それらをメモリ2902にロードして使用することができる。
開示の実施の形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図面を参照しながら説明した実施の形態に関し、さらに以下の付記を開示する。
(付記1)
撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得する画像取得部と、
前記画像取得部によって取得した顔画像の特徴量を抽出する特徴量抽出部と、
前記特徴量抽出部によって抽出した特徴量に基づいて、前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースを参照し、前記ユーザの視線算出処理を実行するか否かを判定する視線算出判定部と、
前記視線算出判定部によって視線算出処理を実行すると判定された場合、前記画像取得部によって取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行する視線算出部と、
を備えることを特徴とする視線検出装置。
(付記2)
前記視線算出部によって実行した視線算出処理の結果を出力する結果出力部、
を更に備えることを特徴とする付記1に記載の視線検出装置。
(付記3)
前記特徴量抽出部によって抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較する比較部、
を更に備え、
前記ルールデータベースは、現フレームの顔画像の特徴量が1フレーム前の顔画像の特徴量と所定割合以上で一致する場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定部は、前記比較部によって比較した結果、現フレームの特徴量と1フレーム前の顔画像の特徴量が所定割合以上で一致した場合、前記視線算出処理を実行しないと判定し、
前記結果出力部は、前記1フレーム前の顔画像の特徴量に基づいて実行した視線算出処理の結果を出力する、
ことを特徴とする付記2に記載の視線検出装置。
(付記4)
前記特徴量抽出部によって抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較する比較部、
を更に備え、
前記ルールデータベースは、現フレームの顔画像の特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定部は、前記比較部によって比較した結果、現フレームの特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記1又は2に記載の視線検出装置。
(付記5)
前記画像取得部は、前記取得した顔画像から所定範囲内の右目周辺領域及び左目周辺領域を特定し、
前記ルールデータベースは、右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定部は、前記画像取得部によって特定された右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記1又は2に記載の視線検出装置。
(付記6)
前記画像取得部によって取得した顔画像から顔面領域を検出する顔面検出部、
を更に備え、
前記ルールデータベースは、顔面領域の大きさが所定値より小さい場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定部は、前記顔面検出部によって検出された顔面領域の大きさが所定値より小さい場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記1又は2に記載の視線検出装置。
(付記7)
前記画像取得部によって取得した顔画像から顔面領域を検出する顔面検出部、
を更に備え、
前記特徴量抽出部は、前記顔面検出部によって検出した顔面領域の特徴量を抽出し、
前記ルールデータベースは、顔面領域で特徴量を抽出しない場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定部は、前記特徴量抽出部によって顔面領域で特徴量を抽出しない場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記1又は2に記載の視線検出装置。
(付記8)
前記画像取得部によって取得した顔画像から顔面領域を検出する顔面検出部、
を更に備え、
前記特徴量抽出部は、前記顔面検出部によって検出した顔面領域の特徴量を抽出し、
前記ルールデータベースは、顔面領域の特徴量が所定の範囲外である場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定部は、前記特徴量抽出部によって抽出された顔面領域の特徴量が所定の範囲外である場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記1又は2に記載の視線検出装置。
(付記9)
前記特徴量抽出部によって抽出した特徴量に、前記視線算出処理の実行優先度を対応付けて設定する優先度設定部、
を更に備え、
前記視線算出判定部は、前記特徴量抽出部によって抽出した特徴量の優先度に従って前記視線算出処理を実行すると判定する、
ことを特徴とする付記1乃至8の何れか1つに記載の視線検出装置。
(付記10)
前記画像取得部は、第1の撮像装置によって撮像された第1の顔画像及び第2の撮像装置によって撮像された第2の顔画像を取得し、
前記特徴量抽出部は、前記画像取得部によって取得した第1の顔画像の特徴量及び第2の顔画像の特徴量を抽出し、
前記ルールデータベースは、2つの顔画像の特徴量が2つの顔画像のオーバーラップ領域内にある場合、何れか1つの顔画像の特徴量に基づいて前記視線算出処理を実行するというルールセットを含み、
前記視線算出判定部は、前記特徴量抽出部によって抽出した第1の顔画像の特徴量と第2の顔画像の特徴量が前記画像取得部によって取得した第1の顔画像と第2の顔画像のオーバーラップ領域内にある場合、前記第1の顔画像の特徴量及び/又は前記第2の顔画像の特徴量に基づいて前記視線算出処理を実行すると判定する、
ことを特徴とする付記1又は2に記載の視線検出装置。
(付記11)
視線検出装置のコンピュータに、
撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得し、
前記取得した顔画像の特徴量を抽出し、
前記抽出した特徴量に基づいて、前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースを参照して、前記ユーザの視線算出処理を実行するか否かを判定し、
前記視線算出処理を実行すると判定された場合、前記取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行する、
処理を実行させることを特徴とする視線検出プログラム。
(付記12)
更に、前記実行した視線算出処理の結果を出力する、
ことを特徴とする付記11に記載の視線検出プログラム。
(付記13)
更に、前記抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較する、
処理を実行させ、
前記ルールデータベースは、現フレームの顔画像の特徴量が1フレーム前の顔画像の特徴量と所定割合以上で一致する場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、前記比較した結果、現フレームの特徴量と1フレーム前の顔画像の特徴量が所定割合以上で一致した場合、前記視線算出処理を実行しないと判定し、
前記結果出力は、前記1フレーム前の顔画像の特徴量に基づいて実行した視線算出処理の結果を出力する、
ことを特徴とする付記12に記載の視線検出プログラム。
(付記14)
更に、前記抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較する、
処理を実行させ、
前記ルールデータベースは、現フレームの顔画像の特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、前記比較した結果、現フレームの特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記11又は12に記載の視線検出プログラム。
(付記15)
前記画像取得は、前記取得した顔画像から所定範囲内の右目周辺領域及び左目周辺領域を特定し、
前記ルールデータベースは、右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、前記特定された右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記11又は12に記載の視線検出プログラム。
(付記16)
更に、前記取得した顔画像から顔面領域を検出する、
処理を実行させ、
前記ルールデータベースは、顔面領域の大きさが所定値より小さい場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、前記検出された顔面領域の大きさが所定値より小さい場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記11又は12に記載の視線検出プログラム。
(付記17)
更に、前記取得した顔画像から顔面領域を検出する、
処理を実行させ、
前記特徴量抽出は、前記検出した顔面領域の特徴量を抽出し、
前記ルールデータベースは、顔面領域で特徴量を抽出しない場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、顔面領域で特徴量を抽出しない場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記11又は12に記載の視線検出プログラム。
(付記18)
更に、前記取得した顔画像から顔面領域を検出する、
処理を実行させ、
前記特徴量抽出は、前記検出した顔面領域の特徴量を抽出し、
前記ルールデータベースは、顔面領域の特徴量が所定の範囲外である場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、前記抽出された顔面領域の特徴量が所定の範囲外である場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記11又は12に記載の視線検出プログラム。
(付記19)
更に、前記抽出した特徴量に、前記視線算出処理の実行優先度を対応付けて設定する、
処理を実行させ、
前記視線算出判定は、前記抽出した特徴量の優先度に従って前記視線算出処理を実行すると判定する、
ことを特徴とする付記11乃至18の何れか1つに記載の視線検出プログラム。
(付記20)
前記画像取得は、第1の撮像装置によって撮像された第1の顔画像及び第2の撮像装置によって撮像された第2の顔画像を取得し、
前記特徴量抽出は、前記取得した第1の顔画像の特徴量及び第2の顔画像の特徴量を抽出し、
前記ルールデータベースは、2つの顔画像の特徴量が2つの顔画像のオーバーラップ領域内にある場合、何れか1つの顔画像の特徴量に基づいて前記視線算出処理を実行するというルールセットを含み、
前記視線算出判定は、前記抽出した第1の顔画像の特徴量と第2の顔画像の特徴量が前記取得した第1の顔画像と第2の顔画像のオーバーラップ領域内にある場合、前記第1の顔画像の特徴量及び/又は前記第2の顔画像の特徴量に基づいて前記視線算出処理を実行すると判定する、
ことを特徴とする付記11又は12に記載の視線検出プログラム。
(付記21)
視線検出装置のコンピュータが実行する視線検出方法であって、
撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得し、
前記取得した顔画像の特徴量を抽出し、
前記抽出した特徴量に基づいて、前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースを参照して、前記ユーザの視線算出処理を実行するか否かを判定し、
前記視線算出処理を実行すると判定された場合、前記取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行する、
ことを特徴とする視線検出方法。
(付記22)
更に、前記実行した視線算出処理の結果を出力する、
ことを特徴とする付記21に記載の視線検出方法。
(付記23)
更に、前記抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較し、
前記ルールデータベースは、現フレームの顔画像の特徴量が1フレーム前の顔画像の特徴量と所定割合以上で一致する場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、前記比較した結果、現フレームの特徴量と1フレーム前の顔画像の特徴量が所定割合以上で一致した場合、前記視線算出処理を実行しないと判定し、
前記結果出力は、前記1フレーム前の顔画像の特徴量に基づいて実行した視線算出処理の結果を出力する、
ことを特徴とする付記22に記載の視線検出方法。
(付記24)
更に、前記抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較し、
前記ルールデータベースは、現フレームの顔画像の特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、前記比較した結果、現フレームの特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記21又は22に記載の視線検出方法。
(付記25)
前記画像取得は、前記取得した顔画像から所定範囲内の右目周辺領域及び左目周辺領域を特定し、
前記ルールデータベースは、右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、前記特定された右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記21又は22に記載の視線検出方法。
(付記26)
更に、前記取得した顔画像から顔面領域を検出し、
前記ルールデータベースは、顔面領域の大きさが所定値より小さい場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、前記検出された顔面領域の大きさが所定値より小さい場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記21又は22に記載の視線検出方法。
(付記27)
更に、前記取得した顔画像から顔面領域を検出し、
前記特徴量抽出は、前記検出した顔面領域の特徴量を抽出し、
前記ルールデータベースは、顔面領域で特徴量を抽出しない場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、顔面領域で特徴量を抽出しない場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記21又は22に記載の視線検出方法。
(付記28)
更に、前記取得した顔画像から顔面領域を検出し、
前記特徴量抽出は、前記検出した顔面領域の特徴量を抽出し、
前記ルールデータベースは、顔面領域の特徴量が所定の範囲外である場合、前記視線算出処理を実行しないというルールセットを含み、
前記視線算出判定は、前記抽出された顔面領域の特徴量が所定の範囲外である場合、前記視線算出処理を実行しないと判定する、
ことを特徴とする付記21又は22に記載の視線検出方法。
(付記29)
更に、前記抽出した特徴量に、前記視線算出処理の実行優先度を対応付けて設定し、
前記視線算出判定は、前記抽出した特徴量の優先度に従って前記視線算出処理を実行すると判定する、
ことを特徴とする付記21乃至28の何れか1つに記載の視線検出方法。
(付記30)
前記画像取得は、第1の撮像装置によって撮像された第1の顔画像及び第2の撮像装置によって撮像された第2の顔画像を取得し、
前記特徴量抽出は、前記取得した第1の顔画像の特徴量及び第2の顔画像の特徴量を抽出し、
前記ルールデータベースは、2つの顔画像の特徴量が2つの顔画像のオーバーラップ領域内にある場合、何れか1つの顔画像の特徴量に基づいて前記視線算出処理を実行するというルールセットを含み、
前記視線算出判定は、前記抽出した第1の顔画像の特徴量と第2の顔画像の特徴量が前記取得した第1の顔画像と第2の顔画像のオーバーラップ領域内にある場合、前記第1の顔画像の特徴量及び/又は前記第2の顔画像の特徴量に基づいて前記視線算出処理を実行すると判定する、
ことを特徴とする付記21又は22に記載の視線検出方法。
1A、1B、1C 視線検出装置
2 撮像装置
3 ユーザ入力受付装置
11 画像取得部
12 特徴量抽出部
13 ルール記憶部
14 視線算出判定部
15 視線算出部
16 結果出力部
41 比較部
42 特徴量記憶部
43 結果記憶部
61 候補領域データベース
71 ルールデータベース
81、82、83、84、85、86、87 角膜反射領域の候補
91、92、93、94、95、96、97 角膜反射領域の候補
111 処理データベース
141 ルールデータベース
181 ルールデータベース
201 処理データベース
221 オーバーラップデータベース
231 ルールデータベース
1301 顔面領域
1302 右目周辺領域
1303 左目周辺領域
1501、1504 輝度値の最も高い角膜反射領域の候補
1502、1503、1505 白画素
1601 顔面検出部
1602 処理優先度設定部1602
1603 ユーザ入力受付部
2401、2402 オーバーラップ領域
2901 CPU(Central Processing Unit)
2902 メモリ
2903 入力装置
2904 出力装置
2905 外部記録装置
2906 媒体駆動装置
2907 ネットワーク接続装置
2908 バス
2909 可搬型記録媒体
2910 通信ネットワーク

Claims (13)

  1. 撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得する画像取得部と、
    前記画像取得部によって取得した顔画像の特徴量を抽出する特徴量抽出部と、
    前記特徴量抽出部によって抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較する比較部
    前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースであって、現フレームの顔画像の特徴量が1フレーム前の顔画像の特徴量と所定割合以上で一致する場合、前記視線算出処理を実行しないというルールセットを含む前記ルールデータベースを参照し、前記特徴量抽出部によって抽出した特徴量に基づいて前記ユーザの視線算出処理を実行するか否かを判定する視線算出判定部であって、前記比較部によって比較した結果、現フレームの特徴量と1フレーム前の顔画像の特徴量が所定割合以上で一致した場合、前記視線算出処理を実行しないと判定する前記視線算出判定部と
    前記視線算出判定部によって視線算出処理を実行すると判定された場合、前記画像取得部によって取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行する視線算出部と、
    前記視線算出部によって実行した視線算出処理の結果を出力する結果出力部であって、前記1フレーム前の顔画像の特徴量に基づいて実行した視線算出処理の結果を出力する前記結果出力部と
    を備えることを特徴とする視線検出装置。
  2. 撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得する画像取得部と、
    前記画像取得部によって取得した顔画像の特徴量を抽出する特徴量抽出部と、
    前記特徴量抽出部によって抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較する比較部
    前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースであって、現フレームの顔画像の特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないというルールセットを含む前記ルールデータベースを参照し、前記特徴量抽出部によって抽出した特徴量に基づいて前記ユーザの視線算出処理を実行するか否かを判定する視線算出判定部であって、前記比較部によって比較した結果、現フレームの特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないと判定する前記視線算出判定部と
    前記視線算出判定部によって視線算出処理を実行すると判定された場合、前記画像取得部によって取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行する視線算出部と、
    を備えることを特徴とする視線検出装置。
  3. 撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得し、前記取得した顔画像から所定範囲内の右目周辺領域及び左目周辺領域を特定する画像取得部と
    前記画像取得部によって取得した顔画像の特徴量を抽出する特徴量抽出部と、
    前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースであって、右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないというルールセットを含む前記ルールデータベースを参照し、前記特徴量抽出部によって抽出した特徴量に基づいて前記ユーザの視線算出処理を実行するか否かを判定する視線算出判定部であって、前記画像取得部によって特定された右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないと判定する前記視線算出判定部と
    前記視線算出判定部によって視線算出処理を実行すると判定された場合、前記画像取得部によって取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行する視線算出部と、
    を備えることを特徴とする視線検出装置。
  4. 前記特徴量抽出部によって抽出した特徴量に、前記視線算出処理の実行優先度を対応付けて設定する優先度設定部、
    を更に備え、
    前記視線算出判定部は、前記特徴量抽出部によって抽出した特徴量の優先度に従って前記視線算出処理を実行すると判定する、
    ことを特徴とする請求項1乃至の何れか1項に記載の視線検出装置。
  5. 撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得する画像取得部であって、第1の撮像装置によって撮像された第1の顔画像及び第2の撮像装置によって撮像された第2の顔画像を取得する前記画像取得部と
    前記画像取得部によって取得した顔画像の特徴量を抽出する特徴量抽出部であって、前記画像取得部によって取得した第1の顔画像の特徴量及び第2の顔画像の特徴量を抽出する前記特徴量抽出部と
    前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースであって、2つの顔画像の特徴量が2つの顔画像のオーバーラップ領域内にある場合、何れか1つの顔画像の特徴量に基づいて前記視線算出処理を実行するというルールセットを含む前記ルールデータベースを参照し、前記特徴量抽出部によって抽出した特徴量に基づいて前記ユーザの視線算出処理を実行するか否かを判定する視線算出判定部であって、前記特徴量抽出部によって抽出した第1の顔画像の特徴量と第2の顔画像の特徴量が前記画像取得部によって取得した第1の顔画像と第2の顔画像のオーバーラップ領域内にある場合、前記第1の顔画像の特徴量及び/又は前記第2の顔画像の特徴量に基づいて前記視線算出処理を実行すると判定する前記視線算出判定部と
    前記視線算出判定部によって視線算出処理を実行すると判定された場合、前記画像取得部によって取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行する視線算出部と、
    を備えることを特徴とする視線検出装置。
  6. 視線検出装置のコンピュータに、
    撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得し、
    前記取得した顔画像の特徴量を抽出し、
    前記抽出した特徴量に基づいて、前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースを参照して、前記ユーザの視線算出処理を実行するか否かを判定し、
    前記視線算出処理を実行すると判定された場合、前記取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行
    前記実行した視線算出処理の結果を出力する、
    処理を実行させる
    前記ルールデータベースは、現フレームの顔画像の特徴量が1フレーム前の顔画像の特徴量と所定割合以上で一致する場合、前記視線算出処理を実行しないというルールセットを含み、
    前記判定では、前記抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較した結果、現フレームの特徴量と1フレーム前の顔画像の特徴量が所定割合以上で一致した場合、前記視線算出処理を実行しないと判定し、
    前記出力では、前記1フレーム前の顔画像の特徴量に基づいて実行した視線算出処理の結果を出力する、
    ことを特徴とする視線検出プログラム。
  7. 視線検出装置のコンピュータに、
    撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得し、
    前記取得した顔画像の特徴量を抽出し、
    前記抽出した特徴量に基づいて、前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースを参照して、前記ユーザの視線算出処理を実行するか否かを判定し、
    前記視線算出処理を実行すると判定された場合、前記取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行する、
    処理を実行させ、
    前記ルールデータベースは、現フレームの顔画像の特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないというルールセットを含み、
    前記判定では、前記抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較した結果、現フレームの特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないと判定する、
    ことを特徴とする視線検出プログラム。
  8. 視線検出装置のコンピュータに、
    撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得し、
    前記取得した顔画像から所定範囲内の右目周辺領域及び左目周辺領域を特定し、
    前記取得した顔画像の特徴量を抽出し、
    前記抽出した特徴量に基づいて、前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースを参照して、前記ユーザの視線算出処理を実行するか否かを判定し、
    前記視線算出処理を実行すると判定された場合、前記取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行する、
    処理を実行させ、
    前記ルールデータベースは、右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないというルールセットを含み、
    前記判定では、前記特定された右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないと判定する、
    ことを特徴とする視線検出プログラム。
  9. 視線検出装置のコンピュータに、
    第1の撮像装置によって撮像されたユーザの第1の顔画像及び第2の撮像装置によって撮像された前記ユーザの第2の顔画像を取得し、
    前記取得した第1の顔画像の特徴量及び前記取得した第2の顔画像の特徴量を抽出し、
    前記抽出した特徴量に基づいて、前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースを参照して、前記ユーザの視線算出処理を実行するか否かを判定し、
    前記視線算出処理を実行すると判定された場合、前記取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行する、
    処理を実行させ、
    前記ルールデータベースは、2つの顔画像の特徴量が2つの顔画像のオーバーラップ領域内にある場合、何れか1つの顔画像の特徴量に基づいて前記視線算出処理を実行するというルールセットを含み、
    前記判定では、前記抽出した第1の顔画像の特徴量と第2の顔画像の特徴量が前記取得した第1の顔画像と第2の顔画像のオーバーラップ領域内にある場合、前記第1の顔画像の特徴量及び/又は前記第2の顔画像の特徴量に基づいて前記視線算出処理を実行すると判定する、
    ことを特徴とする視線検出プログラム。
  10. 視線検出装置のコンピュータが実行する視線検出方法であって、
    撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得し、
    前記取得した顔画像の特徴量を抽出し、
    前記抽出した特徴量に基づいて、前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースを参照して、前記ユーザの視線算出処理を実行するか否かを判定し、
    前記視線算出処理を実行すると判定された場合、前記取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行
    前記実行した視線算出処理の結果を出力し、
    前記ルールデータベースは、現フレームの顔画像の特徴量が1フレーム前の顔画像の特徴量と所定割合以上で一致する場合、前記視線算出処理を実行しないというルールセットを含み、
    前記判定では、前記抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較した結果、現フレームの特徴量と1フレーム前の顔画像の特徴量が所定割合以上で一致した場合、前記視線算出処理を実行しないと判定し、
    前記出力では、前記1フレーム前の顔画像の特徴量に基づいて実行した視線算出処理の結果を出力する、
    ことを特徴とする視線検出方法。
  11. 視線検出装置のコンピュータが実行する視線検出方法であって、
    撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得し、
    前記取得した顔画像の特徴量を抽出し、
    前記抽出した特徴量に基づいて、前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースを参照して、前記ユーザの視線算出処理を実行するか否かを判定し、
    前記視線算出処理を実行すると判定された場合、前記取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行し、
    前記ルールデータベースは、現フレームの顔画像の特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないというルールセットを含み、
    前記判定では、前記抽出した現フレームの顔画像の特徴量を1フレーム前の顔画像の特徴量と比較した結果、現フレームの特徴量の数が1フレーム前の顔画像の特徴量の数と比較して所定数以上変化し、変化した特徴量の所定方向の変化量が所定値以内である場合、前記視線算出処理を実行しないと判定する、
    ことを特徴とする視線検出方法。
  12. 視線検出装置のコンピュータが実行する視線検出方法であって、
    撮像装置によって撮像されたユーザの顔画像を前記撮像装置から取得し、
    前記取得した顔画像から所定範囲内の右目周辺領域及び左目周辺領域を特定し、
    前記取得した顔画像の特徴量を抽出し、
    前記抽出した特徴量に基づいて、前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースを参照して、前記ユーザの視線算出処理を実行するか否かを判定し、
    前記視線算出処理を実行すると判定された場合、前記取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行し、
    前記ルールデータベースは、右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないというルールセットを含み、
    前記判定では、前記特定された右目周辺領域及び左目周辺領域の特徴量の左右それぞれの方向の画素が所定数以上白画素でない場合、前記視線算出処理を実行しないと判定する、
    ことを特徴とする視線検出方法。
  13. 視線検出装置のコンピュータが実行する視線検出方法であって、
    第1の撮像装置によって撮像されたユーザの第1の顔画像及び第2の撮像装置によって撮像された前記ユーザの第2の顔画像を取得し、
    前記取得した第1の顔画像の特徴量及び前記取得した第2の顔画像の特徴量を抽出し、
    前記抽出した特徴量に基づいて、前記顔画像の特徴量を含む条件と視線算出処理を実行するか否かを示す情報を対応付けたルールセットを格納したルールデータベースを参照して、前記ユーザの視線算出処理を実行するか否かを判定し、
    前記視線算出処理を実行すると判定された場合、前記取得した顔画像の特徴量に基づいて、前記ユーザの視線算出処理を実行し、
    前記ルールデータベースは、2つの顔画像の特徴量が2つの顔画像のオーバーラップ領域内にある場合、何れか1つの顔画像の特徴量に基づいて前記視線算出処理を実行するというルールセットを含み、
    前記判定では、前記抽出した第1の顔画像の特徴量と第2の顔画像の特徴量が前記取得した第1の顔画像と第2の顔画像のオーバーラップ領域内にある場合、前記第1の顔画像の特徴量及び/又は前記第2の顔画像の特徴量に基づいて前記視線算出処理を実行すると判定する、
    ことを特徴とする視線検出方法。
JP2014080440A 2014-04-09 2014-04-09 視線検出装置、視線検出プログラム及び視線検出方法 Active JP6256165B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014080440A JP6256165B2 (ja) 2014-04-09 2014-04-09 視線検出装置、視線検出プログラム及び視線検出方法
EP15161526.7A EP2930656B1 (en) 2014-04-09 2015-03-27 Eye gaze detection apparatus, eye gaze detection program and eye gaze detection method
US14/672,903 US9508004B2 (en) 2014-04-09 2015-03-30 Eye gaze detection apparatus, computer-readable recording medium storing eye gaze detection program and eye gaze detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014080440A JP6256165B2 (ja) 2014-04-09 2014-04-09 視線検出装置、視線検出プログラム及び視線検出方法

Publications (2)

Publication Number Publication Date
JP2015201096A JP2015201096A (ja) 2015-11-12
JP6256165B2 true JP6256165B2 (ja) 2018-01-10

Family

ID=52810997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014080440A Active JP6256165B2 (ja) 2014-04-09 2014-04-09 視線検出装置、視線検出プログラム及び視線検出方法

Country Status (3)

Country Link
US (1) US9508004B2 (ja)
EP (1) EP2930656B1 (ja)
JP (1) JP6256165B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10017114B2 (en) 2014-02-19 2018-07-10 Magna Electronics Inc. Vehicle vision system with display
US20150296135A1 (en) * 2014-04-10 2015-10-15 Magna Electronics Inc. Vehicle vision system with driver monitoring
US9953247B2 (en) * 2015-01-29 2018-04-24 Samsung Electronics Co., Ltd. Method and apparatus for determining eye position information
JP6535223B2 (ja) * 2015-05-28 2019-06-26 浜松ホトニクス株式会社 瞬目計測方法、瞬目計測装置、及び瞬目計測プログラム
JP6553418B2 (ja) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示制御方法、表示制御装置及び制御プログラム
US10324297B2 (en) 2015-11-30 2019-06-18 Magna Electronics Inc. Heads up display system for vehicle
JP2017163180A (ja) * 2016-03-07 2017-09-14 富士通株式会社 ずれ判定プログラム、ずれ判定方法、及び、情報処理装置
US10401621B2 (en) 2016-04-19 2019-09-03 Magna Electronics Inc. Display unit for vehicle head-up display system
JP6737057B2 (ja) * 2016-08-10 2020-08-05 富士通株式会社 視線検出装置、視線検出方法、及び視線検出プログラム
CN109993030A (zh) * 2017-12-29 2019-07-09 上海聚虹光电科技有限公司 基于数据统计的注视点预测模型建立方法
CN109389069B (zh) * 2018-09-28 2021-01-05 北京市商汤科技开发有限公司 注视点判断方法和装置、电子设备和计算机存储介质
JP7425562B2 (ja) * 2019-08-14 2024-01-31 キヤノン株式会社 撮像装置およびその制御方法
CN112580423A (zh) * 2019-09-30 2021-03-30 托比股份公司 处理用户眼睛的图像的方法、相关联系统和计算机程序
CN113900518A (zh) * 2021-09-30 2022-01-07 Oppo广东移动通信有限公司 人眼注视数据采集方法、装置、存储介质与电子设备

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222287A (ja) * 1997-02-10 1998-08-21 Sony Corp 情報入力装置
JP3768735B2 (ja) 1999-07-07 2006-04-19 三菱電機株式会社 顔画像処理装置
JP2001043382A (ja) 1999-07-27 2001-02-16 Fujitsu Ltd 目追跡装置
JP3813043B2 (ja) 1999-12-06 2006-08-23 沖電気工業株式会社 眼鏡反射検出装置及び眼鏡反射検出方法
JP2003044853A (ja) 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd 顔検出装置、顔向き検出装置、部分画像抽出装置及びそれらの方法
EP1260935B1 (en) 2001-05-22 2006-07-12 Matsushita Electric Industrial Co., Ltd. Face detection device, face pose detection device, partial image extraction device, and methods for said devices
JP4500992B2 (ja) * 2004-01-14 2010-07-14 国立大学法人静岡大学 三次元視点計測装置
JP4397719B2 (ja) * 2004-03-30 2010-01-13 本田技研工業株式会社 視線検出装置
JP4876687B2 (ja) * 2006-04-19 2012-02-15 株式会社日立製作所 注目度計測装置及び注目度計測システム
US8406479B2 (en) * 2006-07-14 2013-03-26 Panasonic Corporation Visual axis direction detection device and visual line direction detection method
US8363909B2 (en) * 2007-03-20 2013-01-29 Ricoh Company, Limited Image processing apparatus, image processing method, and computer program product
JP4909840B2 (ja) * 2007-08-21 2012-04-04 株式会社東芝 映像処理装置、プログラムおよび方法
JP4966816B2 (ja) * 2007-10-25 2012-07-04 株式会社日立製作所 視線方向計測方法および視線方向計測装置
JP2009205283A (ja) * 2008-02-26 2009-09-10 Olympus Corp 画像処理装置、画像処理方法及び画像処理プログラム
ES2880475T3 (es) * 2009-04-01 2021-11-24 Tobii Ab Sistema de representación visual con iluminadores para el seguimiento de la mirada
JP5618686B2 (ja) * 2010-08-03 2014-11-05 キヤノン株式会社 視線検出装置、視線検出方法及びプログラム
US8836777B2 (en) * 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
JP5655644B2 (ja) * 2011-03-09 2015-01-21 富士通株式会社 視線検出装置及び視線検出方法
JP5776323B2 (ja) * 2011-05-17 2015-09-09 富士通株式会社 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法
JP5812479B2 (ja) 2011-08-22 2015-11-11 国立大学法人岩手大学 眼球検出システムおよび眼球検出方法
JP5766564B2 (ja) * 2011-09-15 2015-08-19 株式会社東芝 顔認証装置及び顔認証方法
JP5899518B2 (ja) * 2012-02-06 2016-04-06 パナソニックIpマネジメント株式会社 サーバ装置、システム制御方法及びシステム制御プログラム
JP6074182B2 (ja) * 2012-07-09 2017-02-01 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム
US9424467B2 (en) * 2013-03-14 2016-08-23 Disney Enterprises, Inc. Gaze tracking and recognition with image location

Also Published As

Publication number Publication date
US9508004B2 (en) 2016-11-29
EP2930656A1 (en) 2015-10-14
US20150294148A1 (en) 2015-10-15
JP2015201096A (ja) 2015-11-12
EP2930656B1 (en) 2019-02-20

Similar Documents

Publication Publication Date Title
JP6256165B2 (ja) 視線検出装置、視線検出プログラム及び視線検出方法
US20180018516A1 (en) Method and apparatus for iris recognition
JP6007682B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10957069B2 (en) Head pose estimation from local eye region
RU2607774C2 (ru) Способ управления в системе захвата изображения, устройство управления и машиночитаемый носитель данных
WO2015149534A1 (zh) 基于Gabor二值模式的人脸识别方法及装置
EP3440593B1 (en) Method and apparatus for iris recognition
JP5361524B2 (ja) パターン認識システム及びパターン認識方法
US9213897B2 (en) Image processing device and method
JP2016081212A (ja) 画像認識装置、画像認識方法、および、画像認識プログラム
US10254831B2 (en) System and method for detecting a gaze of a viewer
US9501691B2 (en) Method and apparatus for detecting blink
Arcoverde Neto et al. Enhanced real-time head pose estimation system for mobile device
CN110705454A (zh) 一种具有活体检测功能的人脸识别方法
JP2012239550A (ja) 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9741171B2 (en) Image processing device and image processing method
JP2010026804A (ja) 画像処理装置、画像処理プログラム、および画像処理方法
KR101909326B1 (ko) 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템
Lin et al. Real-time eye detection in video streams
JP2013029996A (ja) 画像処理装置
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
JP5603258B2 (ja) 検出装置及び検出方法
Paul et al. Extraction of facial feature points using cumulative distribution function by varying single threshold group

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171120

R150 Certificate of patent or registration of utility model

Ref document number: 6256165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150