JP4998364B2 - 視線検出装置および方法、並びに、プログラム - Google Patents

視線検出装置および方法、並びに、プログラム Download PDF

Info

Publication number
JP4998364B2
JP4998364B2 JP2008117106A JP2008117106A JP4998364B2 JP 4998364 B2 JP4998364 B2 JP 4998364B2 JP 2008117106 A JP2008117106 A JP 2008117106A JP 2008117106 A JP2008117106 A JP 2008117106A JP 4998364 B2 JP4998364 B2 JP 4998364B2
Authority
JP
Japan
Prior art keywords
pupil
face
detection
eye
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008117106A
Other languages
English (en)
Other versions
JP2009266086A (ja
Inventor
美希 松岡
淳 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2008117106A priority Critical patent/JP4998364B2/ja
Priority to DE200910001921 priority patent/DE102009001921A1/de
Priority to US12/428,795 priority patent/US8285004B2/en
Publication of JP2009266086A publication Critical patent/JP2009266086A/ja
Application granted granted Critical
Publication of JP4998364B2 publication Critical patent/JP4998364B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、視線検出装置および方法、並びに、プログラムに関し、特に、より正確に視線の方向を検出できるようにした視線検出装置および方法、並びに、プログラムに関する。
従来、ユーザがディスプレイの中心および四隅の5点を注視したときの基準画像における黒目の中心の位置と、視線検出するための検出画像における黒目の中心の位置とから、ユーザの視線の方向を特定することが提案されている(例えば、特許文献1参照)。
特開2006−141862号公報
しかしながら、ユーザが見ている方向は同じでも、ユーザの顔の向きや位置によって、検出画像における黒目の中心の位置は異なるため、黒目の中心の位置だけでは、正確に視線方向を特定することは困難である。しかし、特許文献1に記載の発明には、ユーザの顔の位置および方向を特定し、黒目方向と合成することにより、ユーザの視線方向を特定することが記載されているが、その具体的な方法については記載されていない。
本発明は、このような状況に鑑みてなされたものであり、正確に視線の方向を検出できるようにするものである。
本発明の一側面の視線検出装置は、視線の方向を検出する対象となる検出対象者の顔を撮影した顔画像に基づいて、検出対象者の顔の向きを推定する顔向き推定手段と、顔画像において、検出対象者の目の輪郭のうち少なくとも目頭と目尻を検出する目検出手段と、顔画像において、検出対象者の瞳を検出する瞳検出手段と、人の目頭と目尻に対する瞳の位置である瞳位置および顔の向きとの方向との間の相関関係、並びに、検出対象者の瞳位置および顔の向きに基づいて、検出対象者のの方向を推定する方向推定手段と、推定された顔の向きおよび瞳の方向に基づいて、検出対象者の視線の方向を計算する視線方向計算手段とを含む。
本発明の一側面の視線検出装置においては、視線の方向を検出する対象となる検出対象者の顔を撮影した顔画像に基づいて、検出対象者の顔の向きが推定され、顔画像において、検出対象者の目の輪郭のうち少なくとも目頭と目尻が検出され、顔画像において、検出対象者の瞳が検出され、人の目頭と目尻に対する瞳の位置である瞳位置および顔の向きとの方向との間の相関関係、並びに、検出対象者の瞳位置および顔の向きに基づいて、検出対象者のの方向が推定され、推定された顔の向きおよび瞳の方向に基づいて、検出対象者の視線の方向が計算される。
従って、正確に視線の方向を検出することができる。
この顔向き推定手段、目検出手段、瞳検出手段、瞳方向推定手段、および、視線方向計算手段は、例えば、CPU(Central Processing Unit)により構成される。
この視線検出装置には、顔の向きとの方向の複数の組み合わせにおける瞳位置のデータに基づいて、相関関係を分析する相関関係分析手段をさらに設け、視線方向推定手段には、相関関係分析手段により分析された相関関係に基づいて、検出対象者のの方向を推定させることができる。
これにより、使用条件や使用環境などの違いに柔軟に対応し、正確に視線の方向を検出することができる。
この相関関係分析手段は、例えば、CPU(Central Processing Unit)により構成される。
本発明の一側面の視線検出方法、または、プログラムは、視線の方向を検出する対象となる検出対象者の顔を撮影した顔画像に基づいて、検出対象者の顔の向きを推定する顔向き推定ステップと、顔画像において、検出対象者の目の輪郭のうち少なくとも目頭と目尻を検出する目検出ステップと、人の目頭と目尻に対する瞳の位置である瞳位置および顔の向きとの方向との間の相関関係、並びに、検出対象者の瞳位置および顔の向きに基づいて、検出対象者のの方向を推定する方向推定ステップと、推定された顔の向きおよび瞳の方向に基づいて、検出対象者の視線の方向を計算する視線方向計算ステップとを含む。
本発明の一側面の視線検出方法、または、プログラムにおいては、視線の方向を検出する対象となる検出対象者の顔を撮影した顔画像に基づいて、検出対象者の顔の向きが推定され、顔画像において、検出対象者の目の輪郭のうち少なくとも目頭と目尻が検出され、顔画像において、検出対象者の瞳が検出され、人の目頭と目尻に対する瞳の位置である瞳位置および顔の向きとの方向との間の相関関係、並びに、検出対象者の瞳位置および顔の向きに基づいて、検出対象者のの方向が推定され、推定された顔の向きおよび瞳の方向に基づいて、検出対象者の視線の方向が計算される。
従って、正確に視線の方向を検出することができる。
この顔向き推定ステップ、目検出ステップ、瞳検出ステップ、瞳方向推定ステップ、および、視線方向計ステップは、例えば、CPUにより実行される。
以上のように、本発明の一側面によれば、正確に視線の方向を検出することができる。
以下、図を参照して、本発明の実施の形態について説明する。
図1は、本発明を適用した視線検出システムの一実施の形態を示すブロック図である。図1の視線検出システム101は、カメラ111および視線検出装置112を含むように構成される。
カメラ111は、視線の検出の対象となる人(以下、検出対象者とも称する)の顔を撮影し、撮影した画像(以下、顔画像と称する)を視線検出装置112に供給する。
視線検出装置112は、顔画像に写っている検出対象者の瞳方向と視線方向を検出し、検出結果を示す情報を視線検出装置112の後段に出力する。
ここで、図2を参照して、顔向き、瞳方向、および、視線方向の定義について説明する。なお、矢印211は、検出対象者の瞳が向いている方向を示し、軸212は、検出対象者201の顔が向いている方向(検出対象者201の顔の正面方向)を示す軸であり、光軸213は、カメラ111の光軸を示している。
まず、以下、検出対象者201の顔向きを、カメラ111の光軸213を基準とする顔の向き、すなわち、カメラ111から見た検出対象者201の顔の向きと定義する。例えば、図2の例では、検出対象者201の顔向きは、光軸213を基準とする軸212の方向、すなわち、右に角度α+βの方向となる。なお、顔向きについて、光軸213を基準にして、右方向を正の方向、左方向を負の方向とし、上方向を正の方向、下方向を負の方向とする。
また、以下、検出対象者201の瞳方向を、検出対象者201の顔向きを基準とする瞳の向き、すなわち、検出対象者201の顔向きを基準とする視線の方向と定義する。例えば、図2の例では、検出対象者201の瞳方向は、軸212を基準とする矢印211の方向、すなわち、左に角度αの方向となる。なお、瞳方向について、軸212を基準にして、右方向を正の方向、左方向を負の方向とし、上方向を正の方向、下方向を負の方向とする。
さらに、以下、検出対象者201の視線方向を、カメラ111の光軸213を基準とする瞳の向き、すなわち、カメラ111から見た検出対象者201の視線の方向と定義する。例えば、図2の例では、検出対象者201の視線方向は、光軸213を基準とする矢印211の方向、すなわち、右に角度βの方向となる。なお、視線方向について、光軸213を基準にして、右方向を正の方向、左方向を負の方向とし、上方向を正の方向、下方向を負の方向とする。
図1に戻り、視線検出装置112は、学習部121および検出部122を含むように構成される。
学習部121は、図3などを参照して後述するように、被測定者の顔画像、および、顔画像を撮影したときの被測定者の顔向きと瞳方向を示す情報を含む顔情報データに基づいて、人の目の輪郭に対する瞳の位置および顔向きと瞳方向との間の相関関係、または、人の目の輪郭に対する瞳の位置、顔向きおよび目の輪郭の形状と視線方向との間の相関関係を学習する。学習部121は、目検出部131、瞳検出部132、特徴パラメータ計算部133、学習データ生成部134、学習データ蓄積部135、および、相関関係分析部136を含むように構成される。
目検出部131は、図3などを参照して後述するように、所定の手法を用いて、顔画像において、被測定者の目の輪郭の少なくとも一部を検出する。目検出部131は、顔画像、および、検出結果を示す情報を瞳検出部132に供給する。また、目検出部131は、検出結果を示す情報を特徴パラメータ計算部133に供給する。
瞳検出部132は、図3などを参照して後述するように、所定の手法を用いて、顔画像において、被測定者の瞳を検出する。瞳検出部132は、検出結果を示す情報を特徴パラメータ計算部133に供給する。
特徴パラメータ計算部133は、図3などを参照して後述するように、被測定者の目の輪郭および瞳の検出結果に基づいて、人の目の輪郭に対する瞳の位置を表す特徴パラメータ、または、人の目の輪郭に対する瞳の位置および目の輪郭の形状を表す特徴パラメータを計算する。特徴パラメータ計算部133は、計算した特徴パラメータを示す情報を学習データ生成部134に供給する。
学習データ生成部134は、図3などを参照して後述するように、被測定者の瞳方向と、顔画像を撮影したときの被測定者の顔向き及びその顔画像に基づいて計算された特徴パラメータとを関連づけたデータを、学習データとして生成する。学習データ生成部134は、生成した学習データを学習データ蓄積部135に蓄積させる。また、学習データ生成部134は、学習データ蓄積部135に所定量の学習データが蓄積されたとき、所定量の学習データが蓄積されたことを相関関係分析部136に通知する。
相関関係分析部136は、図3などを参照して後述するように、学習データ蓄積部135に蓄積されている学習データに基づいて、人の顔向きおよび特徴パラメータと瞳方向との間の相関関係を分析し、分析結果を示す情報を検出部122の瞳方向推定部145に供給する。
検出部122は、図7などを参照して後述するように、カメラ111により撮影された検出対象者の顔画像、および、学習部121により学習された相関関係に基づいて、検出対象者の瞳方向および視線方向を検出する。検出部122は、顔向き推定部141、目検出部142、瞳検出部143、特徴パラメータ計算部144、瞳方向推定部145、および、視線方向計算部146を含むように構成される。
顔向き推定部141は、所定の手法を用いて、カメラ111により撮影された検出対象者の顔画像に基づいて、検出対象者の顔向きを推定する。顔向き推定部141は、顔画像、および、推定結果を示す情報を目検出部142に供給する。また、顔向き推定部141は、推定結果を示す情報を、瞳方向推定部145および視線方向計算部146に供給する。
目検出部142は、学習部121の目検出部131と同様に、所定の手法を用いて、顔画像において、検出対象者の目の輪郭の少なくとも一部を検出する。目検出部142は、顔画像、および、検出結果を示す情報を瞳検出部132に供給する。また、目検出部142は、検出結果を示す情報を特徴パラメータ計算部144に供給する。
瞳検出部143は、学習部121の瞳検出部132と同様に、所定の手法を用いて、顔画像において、被測定者の瞳を検出する。瞳検出部143は、検出結果を示す情報を特徴パラメータ計算部144に供給する。
特徴パラメータ計算部144は、学習部121の特徴パラメータ計算部133と同様に、被測定者の目の輪郭および瞳の検出結果に基づいて、特徴パラメータを計算する。特徴パラメータ計算部144は、計算した特徴パラメータを示す情報を瞳方向推定部145に供給する。
瞳方向推定部145は、人の顔向きおよび特徴パラメータと瞳方向との間の相関関係、検出対象者の顔向き、および、検出対象者の特徴パラメータに基づいて、検出対象者の瞳方向を推定する。瞳方向推定部145は、推定した瞳方向を示す情報を視線方向計算部146に供給するとともに、視線検出装置112の後段に出力する。
視線方向計算部146は、検出対象者の顔向きおよび瞳方向に基づいて、検出対象者の視線方向を計算する。視線方向計算部146は、計算した視線方向を示す情報を、視線検出装置112の後段に出力する。
次に、図3乃至図7を参照して、視線検出システム101の処理について説明する。
まず、図3のフローチャートを参照して、視線検出装置112により実行される学習処理について説明する。
ステップS1において、学習部121は、顔情報データを取得する。例えば、ユーザは、顔情報データを測定する対象である被測定者の顔向きおよび瞳方向が所定の方向を向いた状態で、被測定者の顔をカメラ111により撮影する。そして、ユーザは、撮影した被測定者の顔画像、および、顔画像を撮影したときの被測定者の顔向きと瞳方向を示す情報を顔情報データとして学習部121に入力する。学習部121の目検出部131は、入力された顔情報データのうち顔画像を取得し、学習データ生成部134は、入力された顔情報データのうち被測定者の顔向きおよび瞳方向を示す情報を取得する。
ステップS2において、目検出部131は、所定の手法を用いて、顔画像において、被測定者の目の輪郭を検出する。目検出部131は、顔画像、および、検出結果を示す情報を瞳検出部132に供給する。また、目検出部131は、検出結果を示す情報を特徴パラメータ計算部133に供給する。
ステップS3において、瞳検出部132は、所定の手法を用いて、顔画像において、被測定者の瞳を検出する。このとき、瞳検出部132は、必要に応じて、被測定者の目の輪郭の検出結果を利用する。瞳検出部132は、検出結果を示す情報を特徴パラメータ計算部133に供給する。
ステップS4において、特徴パラメータ計算部133は、被測定者の目の輪郭および瞳の検出結果に基づいて、特徴パラメータを計算する。特徴パラメータ計算部133は、計算した特徴パラメータを示す情報を学習データ生成部134に供給する。
ここで、図4および図5を参照して、ステップS2乃至S4の処理の具体例について説明する。
例えば、目検出部131は、所定の手法を用いて、図4に示されるように、顔画像において、目251の輪郭の一部である左右の両端(目頭Pe1および目尻Pe2)を検出する。なお、目検出部131が、目251の左右の両端を検出する手法は、特定の手法に限定されるものではなく、より正確、高速かつ簡単に検出することが可能な手法を用いるようにすることが望ましい。例えば、エッジ検出により目251の輪郭を検出した後、目頭Pe1および目尻Pe2を特定したり、コーナー検出により、目頭Pe1および目尻Pe2を検出する手法などが考えられる。
瞳検出部132は、所定の手法を用いて、図4に示されるように、顔画像において、瞳252の左端Pp1および右端Pp2を検出する。なお、瞳検出部132が、瞳252の左右の両端を検出する手法は、特定の手法に限定されるものではなく、より正確、高速かつ簡単に検出することが可能な手法を用いるようにすることが望ましい。例えば、エッジ検出により瞳252の輪郭を検出した後、左端Pp1および右端Pp2を検出する手法などが考えられる。
特徴パラメータ計算部144は、目頭Pe1および目尻Pe2と、瞳252の左端Pp1および右端Pp2との関係を表すパラメータを特徴パラメータとして計算する。例えば、左端Pp1に対する目頭Pe1の相対座標(換言すれば、左端Pp1と目頭Pe1との間のベクトル)、および、右端Pp2に対する目尻Pe2の相対座標(換言すれば、右端Pp2と目尻Pe2との間のベクトル)を特徴パラメータとすることが考えられる。また、上述した2つのベクトルの長さの比率を特徴パラメータとすることが考えられる。いずれの特徴パラメータも、目251の輪郭(より正確には、目251の輪郭の一部である目頭Pe1および目尻Pe2)に対する瞳252の位置を表している。
なお、さらに、瞳の左端Pp1に対する右端Pp2の相対座標(あるいは、瞳の右端Pp2に対する左端Pp1の相対座標)、瞳の左端Pp1と右端Pp2の間の長さなどを特徴パラメータに追加するようにしてもよい。
また、例えば、目検出部131は、楕円分離度フィルタなどの所定の手法を用いて、図5に示されるように、目251の輪郭上において所定の数(いまの場合、12個)の特徴点Pe11乃至Pe22を検出する。なお、目検出部131が、目251の輪郭上の特徴点を検出する手法は、特定の手法に限定されるものではなく、より正確、高速かつ簡単に検出することが可能な手法を用いるようにすることが望ましい。
瞳検出部132は、所定の手法を用いて、図5に示されるように、顔画像において、瞳252の中心Pp11を検出する。なお、瞳検出部132が、瞳252の中心Pp11を検出する手法は、特定の手法に限定されるものではなく、より正確、高速かつ簡単に検出することが可能な手法を用いるようにすることが望ましい。
特徴パラメータ計算部144は、目251の輪郭上の特徴点Pe11乃至Pe22と瞳252の中心Pp11との関係を表すパラメータを特徴パラメータとして計算する。例えば、中心Pp11に対する特徴点Pe11乃至Pe22の相対座標(換言すれば、中心Pp11と特徴点Pe11乃至Pe22の各点との間のベクトル)を特徴パラメータとすることが考えられる。また、上述した12個のベクトルの向き、および、各ベクトル間の長さの比率を特徴パラメータとすることが考えられる。いずれの特徴パラメータも、目251の輪郭に対する瞳252の位置を表すとともに、目251の輪郭の形状を表している。
なお、以上の特徴パラメータは、その一例であり、目251の輪郭に対する瞳252の位置や目251の輪郭の形状を表す他の特徴パラメータを用いるようにしてもよい。例えば、図4の例において、検出する瞳252の輪郭上の特徴点の位置や数を変更したり、瞳252の輪郭上の特徴点の代わりに瞳252の中心を用いて、特徴パラメータを求めるようにしてもよい。また、目251の輪郭の幅や高さなどを特徴パラメータに加えてもよいし、瞳252の形状を表すパラメータを特徴パラメータに加えてもよい。
また、以上の説明では、学習部121が、目251の輪郭および瞳252の特徴点を検出する例を示したが、例えば、ユーザが、顔画像を目視することにより特徴点を検出し、検出した特徴点の座標、あるいは、検出した特徴点から計算される特徴パラメータを顔情報データに含めるようにしてもよい。
さらに、以上の例では、右目の例のみを示したが、左目についても同様の処理により特徴パラメータを求めることが可能である。
ステップS5において、学習データ生成部134は、学習データを生成する。具体的には、学習データ生成部134は、被測定者の瞳方向と、顔画像を撮影したときの被測定者の顔向き及びその顔画像に基づいて計算された特徴パラメータとを関連づけたデータを、学習データとして生成する。学習データ生成部134は、生成した学習データを学習データ蓄積部135に蓄積させる。
ステップS6において、学習データ生成部134は、所定量の学習データが蓄積されたか否かを判定する。所定量の学習データが蓄積されていないと判定された場合、処理はステップS1に戻り、その後、ステップS6において、所定量の学習データが蓄積されたと判定されるまで、ステップS1乃至S6の処理が繰り返し実行される。
例えば、ユーザは、被測定者の顔向きおよび瞳方向を変化させながら被測定者の顔画像を撮影し、撮影した顔画像、および、撮影時の被測定者の顔向きと瞳方向を示す情報を顔情報データとして学習部121に与え、ステップS1乃至S6の処理を繰り返し実行させる。これにより、被測定者の顔向きと瞳方向の複数の異なる組み合わせにおける特徴パラメータが計算され、各組み合わせに対する学習データが蓄積される。
なお、後述する処理により、人の顔向きおよび特徴パラメータと瞳角度との間の相関関係をより正確に分析するためには、より多くの顔向きおよび瞳方向の組み合わせに対する学習データを収集したり、より多くの被測定者の学習データを収集するようにすることが望ましい。また、年齢、性別、顔の形状や顔の各パーツの配置などが多様性に富むように、被測定者を選択するようにすることが望ましい。
一方、ステップS6において、学習データ生成部134は、所定量の学習データが蓄積されたと判定した場合、所定量の学習データが蓄積されたことを相関関係分析部136に通知し、処理はステップS7に進む。
ステップS7において、相関関係分析部136は、学習データ蓄積部135に蓄積されている学習データに基づいて、所定の手法を用いて、顔向きおよび特徴パラメータと瞳方向との間の相関関係を分析する。この相関関係を分析する手法は、特定の手法に限定されるものではなく、より正確、高速かつ簡単に分析することが可能な手法を用いるようにすることが望ましい。
例えば、図6に示すように、特徴パラメータ、顔向き、および、瞳方向を軸とする座標空間において、学習データの分布は1つの超平面301により近似することができる。相関関係分析部136は、例えば、正準相関分析(CCA)により、超平面301を表す近似式を、顔向きおよび特徴パラメータと瞳方向との間の相関関係として計算する。なお、図6の座標空間においては、説明を簡単にするために、特徴パラメータを1つの軸により表すようにしたが、実際には、特徴パラメータに含まれるパラメータの数だけ軸が設定される。
ステップS8において、相関関係分析部136は、分析結果を出力する。すなわち、相関関係分析部136は、顔向きおよび特徴パラメータと瞳方向との間の相関関係を分析した結果を示す情報を瞳方向推定部145に出力する。その後、学習処理は終了する。
次に、図7のフローチャートを参照して、視線検出装置112により実行される検出処理について説明する。なお、この処理は、カメラ111により撮影された検出対象者の顔画像が、顔向き推定部141に入力されたとき開始される。
ステップS51において、顔向き推定部141は、顔向きを推定する。具体的には、顔向き推定部141は、所定の手法を用いて、顔画像に写っている検出対象者の顔向きを推定する。なお、ここで顔向きの推定に用いられる手法は、特定の手法に限定されるものではなく、より正確、高速かつ簡単に推定できる手法を用いるようにすることが望ましい。顔向き推定部141は、顔画像、および、推定結果を示す情報を目検出部142に供給する。また、顔向き推定部141は、推定結果を示す情報を、瞳方向推定部145および視線方向計算部146に供給する。
ステップS52において、目検出部142は、図3のステップS2における目検出部131の処理と同様の処理により、顔画像において、検出対象者の目の輪郭を検出する。目検出部142は、顔画像、および、検出結果を示す情報を瞳検出部143に供給する。また、目検出部142は、検出結果を示す情報を特徴パラメータ計算部144に供給する。
ステップS53において、瞳検出部143は、図3のステップS3における瞳検出部132の処理と同様の処理により、顔画像において、検出対象者の瞳を検出する。瞳検出部143は、検出結果を示す情報を特徴パラメータ計算部144に供給する。
ステップS54において、特徴パラメータ計算部144は、図3のステップS4における特徴パラメータ計算部133の処理と同様の処理により、検出対象者の目の輪郭および瞳の検出結果に基づいて、特徴パラメータを計算する。特徴パラメータ計算部144は、計算した特徴パラメータを示す情報を瞳方向推定部145に供給する。
ステップS55において、瞳方向推定部145は、瞳方向を推定する。具体的には、瞳方向推定部145は、相関関係分析部136により分析された、顔向きおよび特徴パラメータと瞳方向との間の相関関係に、顔向き推定部141により推定された検出対象者の顔向き、および、特徴パラメータ計算部144により計算された特徴パラメータを適用することにより、検出対象者の瞳方向を推定する。上述したように、特徴パラメータは、人の目の輪郭に対する瞳の位置、または、人の目の輪郭に対する瞳の位置および目の輪郭の形状を表すので、換言すれば、瞳方向推定部145は、人の目の輪郭に対する瞳の位置および顔向きと視線方向との間の相関関係、並びに、検出対象者の目の輪郭に対する瞳の位置および顔向きに基づいて、または、人の目の輪郭に対する瞳の位置、顔向きおよび目の輪郭の形状と視線方向との間の相関関係、並びに、検出対象者の目の輪郭に対する瞳の位置、顔向きおよび目の輪郭の形状に基づいて、検出対象者の瞳方向を推定する。瞳方向推定部145は、推定した瞳方向を示す情報を視線方向計算部146に供給する。
ステップS56において、視線方向計算部146は、視線方向を計算する。具体的には、視線方向計算部146は、瞳方向推定部145により推定された瞳方向に、顔向き推定部141により推定された顔向きを加算することにより、検出対象者の視線方向を求める。例えば、左右方向の顔向きがθfx°、上下方向の顔向きがθfy°と推定され、左右方向の瞳方向がθpx°、上下方向の瞳方向がθpy°と推定されている場合、左右方向の視線方向θsx°および上下方向の視線方向θsy°は、以下の式(1)および(2)により計算される。
θsx=θfx+θpx ・・・(1)
θsy=θfy+θpy ・・・(2)
ステップS57において、検出部122は、瞳方向および視線方向を出力する。すなわち、瞳方向推定部145は、推定した瞳方向を示す情報を視線検出装置112の後段に出力し、視線方向計算部146は、計算した視線方向を示す情報を視線検出装置112の後段に出力する。その後、検出処理は終了する。
以上のようにして、検出対象者の顔向きや個人差に関わらず、検出対象者の瞳方向および視線方向を正確に検出することができる。例えば、図8乃至図10を参照して、単純に検出対象者の顔および視線が正面を向いているときの目の両端に対する瞳の中心の位置に基づいて、検出対象者の瞳方向を検出する場合と比較してみる。
図8は、検出対象者351の顔および瞳がカメラ111に対して正面の方向を向いている場合の目頭Pe51、目尻Pe52および瞳の中心Pb51の位置の例を示している。このときの目頭Pe51および目尻Pe52と瞳の中心Pb51との位置関係に基づいて、検出対象者351の瞳方向を検出する場合について考える。
図9に示されるように、検出対象者351の顔がカメラ111に対して正面の方向を向いたまま、瞳が左方向にθ1度の方向を向いた場合、目頭Pe61および目尻Pe62は、図8の目頭Pe51および目尻Pe52とほぼ同じ位置に検出される。この場合、検出対象者351の瞳方向を検出するための基準となる基準位置Px61は、目頭Pe61と基準位置Px61の間の長さ:基準位置Px61と目尻Pe62の間の長さ≒目頭Pe51と瞳の中心Pb51の間の長さ:瞳の中心Pb51と目尻Pe52の間の長さとなる位置に設定され、その結果、図8の瞳の中心Pb51とほぼ同じ位置に設定される。そして、実際の瞳の中心Pb61と基準位置Px61との差に基づいて、検出対象者351の瞳方向は、左方向にθ1度の方向を向いていると正確に検出することができる。
一方、図10に示されるように、検出対象者351の顔がカメラ111に対して左方向にθ1度の方向を向き、瞳が顔の正面方向を向いている場合、基準位置Px71は、目頭Pe71と基準位置Px71の間の長さ:基準位置Px71と目尻Pe72の間の長さ≒目頭Pe51と瞳の中心Pb51の間の長さ:瞳の中心Pb51と目尻Pe52の間の長さとなる位置に設定される。そして、実際の瞳の中心Pb71が基準位置Px71から左方向にずれているため、検出対象者351の瞳方向は、正面(0度)の方向を向いているにも関わらず、左方向を向いていると誤検出されてしまう。
一方、視線検出装置112では、上述したように、顔向きおよび瞳方向の複数の組み合わせにおける人の目の輪郭に対する瞳の位置のデータに基づいて、瞳方向が推定されるため、図10のように検出対象者351がカメラ111に対して正面を向いてなくても、検出対象者351の瞳方向を正確に推定することが可能である。
また、上述した相関関係を学習することにより、例えば、カメラ111の性能や設置位置の違いなど、視線検出システム101を使用する条件や環境などの違いに柔軟に対応し、正確に瞳方向および視線方向を検出することが可能となる。
なお、以上の説明では、顔情報データおよび学習データに瞳方向を用いる例を示したが、瞳方向の代わりに視線方向、すなわち、カメラ111から見た検出対象者の視線の方向を用いるようにしてもよい。これにより、上述した図7のステップS55において、検出対象者の視線方向が推定された後、ステップS56において、検出対象者の顔向きおよび視線方向に基づいて、瞳方向が計算されるようになる。
また、検出対象者が特定の人に限定される場合、検出対象者ごとに学習データを測定し、検出対象者ごとの相関関係を分析し利用することで、より正確に瞳方向および視線方向を検出することが可能になる。
なお、本発明は、ユーザの視線や視点を利用する装置に適用することができる。例えば、被写体の視線を検出して撮影の制御を行うカメラ、運転者の視線の方向により運転を支援する自動車の運転支援装置、ユーザの視点により表示を制御するディスプレイ、人の視線の変化により不審者を検出する不審者検出装置などに適用することが可能である。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図11は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記憶部508、ネットワークインタフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。
以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムの用語は、複数の装置、手段などより構成される全体的な装置を意味するものとする。
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した視線検出システムの一実施の形態を示すブロック図である。 顔向き、瞳方向、視線方向の定義を説明するための図である。 学習処理について説明するためのフローチャートである。 特徴パラメータの例を説明するための図である。 特徴パラメータの他の例を説明するための図である。 学習データの分布を表す超平面について説明するための図である。 検出処理を説明するためのフローチャートである。 本発明の効果について説明するための図である。 本発明の効果について説明するための図である。 本発明の効果について説明するための図である。 コンピュータの構成の例を示すブロック図である。
符号の説明
101 視線検出システム
111 カメラ
112 視線検出装置
121 学習部
122 検出部
131 目検出部
132 瞳検出部
133 特徴パラメータ計算部
134 学習データ生成部
135 学習データ蓄積部
136 相関関係分析部
141 顔向き推定部
142 目検出部
143 瞳検出部
144 特徴パラメータ計算部
145 瞳方向推定部
146 視線方向計算部

Claims (4)

  1. 視線の方向を検出する対象となる検出対象者の顔を撮影した顔画像に基づいて、前記検出対象者の顔の向きを推定する顔向き推定手段と、
    前記顔画像において、前記検出対象者の目の輪郭のうち少なくとも目頭と目尻を検出する目検出手段と、
    前記顔画像において、前記検出対象者の瞳を検出する瞳検出手段と、
    人の目頭と目尻に対する瞳の位置である瞳位置および顔の向きとの方向との間の相関関係、並びに、前記検出対象者の前記瞳位置および顔の向きに基づいて、前記検出対象者のの方向を推定する方向推定手段と
    推定された顔の向きおよび瞳の方向に基づいて、前記検出対象者の視線の方向を計算する視線方向計算手段と
    を含む視線検出装置。
  2. 顔の向きとの方向の複数の組み合わせにおける前記瞳位置のデータに基づいて、前記相関関係を分析する相関関係分析手段を
    さらに含み、
    前記視線方向推定手段は、前記相関関係分析手段により分析された前記相関関係に基づいて、前記検出対象者のの方向を推定する
    請求項1に記載の視線検出装置。
  3. 視線の方向を検出する視線検出装置の視線検出方法において、
    視線の方向を検出する対象となる検出対象者の顔を撮影した顔画像に基づいて、前記検出対象者の顔の向きを推定する顔向き推定ステップと、
    前記顔画像において、前記検出対象者の目頭と目尻の輪郭のうち少なくとも目頭と目尻を検出する目検出ステップと、
    前記顔画像において、前記検出対象者の瞳を検出する瞳検出ステップと、
    人の目頭と目尻に対する瞳の位置である瞳位置および顔の向きとの方向との間の相関関係、並びに、前記検出対象者の前記瞳位置および顔の向きに基づいて、前記検出対象者のの方向を推定する方向推定ステップと
    推定された顔の向きおよび瞳の方向に基づいて、前記検出対象者の視線の方向を計算する視線方向計算ステップと
    を含む視線検出方法
  4. 視線の方向を検出する対象となる検出対象者の顔を撮影した顔画像に基づいて、前記検出対象者の顔の向きを推定する顔向き推定ステップと、
    前記顔画像において、前記検出対象者の目の輪郭のうち少なくとも目頭と目尻を検出する目検出ステップと、
    人の目頭と目尻に対する瞳の位置である瞳位置および顔の向きとの方向との間の相関関係、並びに、前記検出対象者の前記瞳位置および顔の向きに基づいて、前記検出対象者のの方向を推定する方向推定ステップと
    推定された顔の向きおよび瞳の方向に基づいて、前記検出対象者の視線の方向を計算する視線方向計算ステップと
    を含む処理をコンピュータに実行させるプログラム。
JP2008117106A 2008-04-28 2008-04-28 視線検出装置および方法、並びに、プログラム Active JP4998364B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008117106A JP4998364B2 (ja) 2008-04-28 2008-04-28 視線検出装置および方法、並びに、プログラム
DE200910001921 DE102009001921A1 (de) 2008-04-28 2009-03-26 Vorrichtung und Verfahren zur Feststellung einer Sichtlinie
US12/428,795 US8285004B2 (en) 2008-04-28 2009-04-23 Line of sight detecting device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008117106A JP4998364B2 (ja) 2008-04-28 2008-04-28 視線検出装置および方法、並びに、プログラム

Publications (2)

Publication Number Publication Date
JP2009266086A JP2009266086A (ja) 2009-11-12
JP4998364B2 true JP4998364B2 (ja) 2012-08-15

Family

ID=41180571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008117106A Active JP4998364B2 (ja) 2008-04-28 2008-04-28 視線検出装置および方法、並びに、プログラム

Country Status (3)

Country Link
US (1) US8285004B2 (ja)
JP (1) JP4998364B2 (ja)
DE (1) DE102009001921A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5590487B2 (ja) * 2010-07-30 2014-09-17 公立大学法人広島市立大学 視線計測方法及び視線計測装置
KR101697181B1 (ko) 2010-09-07 2017-01-17 삼성전자주식회사 사용자의 시선 추적을 이용한 영상 처리 장치 및 방법
US8503737B2 (en) * 2010-09-27 2013-08-06 Panasonic Corporation Visual line estimating apparatus
DE102011002867A1 (de) * 2011-01-19 2012-07-19 Siemens Aktiengesellschaft Verfahren zur Steuerung der Anzeigenbeleuchtung eines mobilen Endgeräts
KR101288447B1 (ko) 2011-10-20 2013-07-26 경북대학교 산학협력단 시선 추적 장치와 이를 이용하는 디스플레이 장치 및 그 방법
KR20150032019A (ko) * 2013-09-17 2015-03-25 한국전자통신연구원 시선 추적 기반의 사용자 인터페이스 방법 및 그 장치
EP4250738A3 (en) * 2014-04-22 2023-10-11 Snap-Aid Patents Ltd. Method for controlling a camera based on processing an image captured by other camera
US9846522B2 (en) * 2014-07-23 2017-12-19 Microsoft Technology Licensing, Llc Alignable user interface
TWI577327B (zh) * 2014-08-14 2017-04-11 由田新技股份有限公司 瞳孔定位方法與裝置及其電腦程式產品
CN104951808B (zh) * 2015-07-10 2018-04-27 电子科技大学 一种用于机器人交互对象检测的3d视线方向估计方法
KR102141638B1 (ko) * 2016-05-31 2020-08-06 전자부품연구원 운전자 시선 방향 검출 장치
JP6808527B2 (ja) * 2017-02-14 2021-01-06 株式会社トプコン 眼科装置及び眼科測定方法
JP6961065B2 (ja) * 2017-02-14 2021-11-05 株式会社トプコン 眼科装置及び眼科測定方法
WO2019031599A1 (ja) * 2017-08-10 2019-02-14 ヤマハ発動機株式会社 視線移動関連値取得装置、それを備えた輸送機器及び視線移動関連値取得方法
JP7014561B2 (ja) * 2017-10-16 2022-02-01 三菱重工業株式会社 転がり軸受
WO2019244270A1 (ja) * 2018-06-20 2019-12-26 三菱電機株式会社 眼3次元座標取得装置及びジェスチャ操作装置
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
CN111291701B (zh) * 2020-02-20 2022-12-13 哈尔滨理工大学 一种基于图像梯度和椭圆拟合算法的视线追踪方法
JP2023106888A (ja) 2022-01-21 2023-08-02 オムロン株式会社 情報処理装置および情報処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
JP4089027B2 (ja) * 1998-09-04 2008-05-21 ソニー株式会社 双方向通信システム、端末装置および制御方法
JP3797253B2 (ja) * 2002-03-14 2006-07-12 日産自動車株式会社 視線方向検出装置
GB2412431B (en) * 2004-03-25 2007-11-07 Hewlett Packard Development Co Self-calibration for an eye tracker
JP2005340974A (ja) * 2004-05-24 2005-12-08 Fuji Xerox Co Ltd 画像送信制御プログラム、及び画像表示プログラム
JP4835898B2 (ja) * 2004-10-22 2011-12-14 ソニー株式会社 映像表示方法および映像表示装置
JP4654434B2 (ja) 2004-11-24 2011-03-23 国立大学法人佐賀大学 視線方向特定システム
EP1968006B1 (en) * 2005-12-27 2020-03-25 Panasonic Intellectual Property Corporation of America Image processing apparatus
JP2007265367A (ja) * 2006-03-30 2007-10-11 Fujifilm Corp 視線検出方法および装置ならびにプログラム
JP4966816B2 (ja) * 2007-10-25 2012-07-04 株式会社日立製作所 視線方向計測方法および視線方向計測装置

Also Published As

Publication number Publication date
JP2009266086A (ja) 2009-11-12
US8285004B2 (en) 2012-10-09
DE102009001921A1 (de) 2009-11-19
US20090268944A1 (en) 2009-10-29

Similar Documents

Publication Publication Date Title
JP4998364B2 (ja) 視線検出装置および方法、並びに、プログラム
JP6374107B2 (ja) アイトラッキングシステムのための改良されたキャリブレーション
US8620066B2 (en) Three-dimensional object determining apparatus, method, and computer program product
KR101365789B1 (ko) 얼굴 특징점 위치 보정 장치, 얼굴 특징점 위치 보정 방법, 및 얼굴 특징점 위치 보정 프로그램을 기록한 컴퓨터 판독가능 기록 매체
JP4915413B2 (ja) 検出装置および方法、並びに、プログラム
WO2010137157A1 (ja) 画像処理装置、方法、プログラム
US9747690B2 (en) Image processing device, image processing method, and program
US20170154429A1 (en) Estimation device and method
JPWO2018189795A1 (ja) 認識装置、認識方法および認識プログラム
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
US9904843B2 (en) Information processing device, information processing method, and program
WO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
US11887331B2 (en) Information processing apparatus, control method, and non-transitory storage medium
JP2012226645A (ja) 画像処理装置および方法、記録媒体並びにプログラム
JP6737212B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP6244886B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2012068948A (ja) 顔属性推定装置およびその方法
JP2010231350A (ja) 人物識別装置、そのプログラム、及び、その方法
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
JP2010134489A (ja) 視線検出装置および方法、並びに、プログラム
JP2022140386A (ja) 顔の姿勢を検出する装置及び方法、画像処理システム、並びに記憶媒体
JP2000331169A (ja) 画像の動きベクトル計測方法及び装置
JP2011118767A (ja) 表情モニタリング方法および表情モニタリング装置
JP2008146132A (ja) 画像検出装置、プログラム及び画像検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120417

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120430

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4998364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250