JP4696571B2 - 眼位置検出装置 - Google Patents

眼位置検出装置 Download PDF

Info

Publication number
JP4696571B2
JP4696571B2 JP2005020331A JP2005020331A JP4696571B2 JP 4696571 B2 JP4696571 B2 JP 4696571B2 JP 2005020331 A JP2005020331 A JP 2005020331A JP 2005020331 A JP2005020331 A JP 2005020331A JP 4696571 B2 JP4696571 B2 JP 4696571B2
Authority
JP
Japan
Prior art keywords
eye
detected
data
search area
vine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005020331A
Other languages
English (en)
Other versions
JP2006209442A (ja
Inventor
雅之 金田
欣也 岩本
治夫 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005020331A priority Critical patent/JP4696571B2/ja
Publication of JP2006209442A publication Critical patent/JP2006209442A/ja
Application granted granted Critical
Publication of JP4696571B2 publication Critical patent/JP4696571B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、被検出者の顔を撮像した画像において、眼の位置を検出する眼位置検出装置に関する。
近年、自動車など車両の運転者の居眠り運転状態や脇見運転状態を判定する装置が知られている。この類の装置では、運転者の眼の動きや、眼の開閉状態に基づいて、運転状態を判定する。そのため、運転者の眼の動きを捕らえるために、運転者の顔を撮影し、この画像において運転者の眼の位置を検出している。
例えば、特許文献1には、画像から鼻の穴を検出し、この鼻の穴の位置に基づいて、眼の存在する領域を特定し、その領域を探索領域として眼の位置を検出する手法が開示されている。この手法によれば、検出が容易な鼻の穴を基準として探索領域を設定することで、眼の存在する可能性の高い領域を特定し、その上で眼の位置を検出する。特に運転者が眼鏡を着用している場合は、レンズ面に前方風景などが映り込むことがあり、眼のエッジラインのコントラストが裸眼の人に比べて弱くなる。また、運転者が眼鏡を着用している場合は、眼の周囲に検出のノイズとなる眼鏡のフレームがある。そのため、鼻の穴をベースに探索領域を設定することにより、眼鏡の有無に拘わらず、眼の位置の検出精度の向上を図ることができる。
特開平10−63850号公報
しかしながら、特許文献1に開示された手法では、車室内レイアウトの関係でカメラ位置を運転者の正面よりオフセットさせた場合に、検出精度が低下する可能性がある。なぜならば、カメラをオフセットさせた場合、角度的な問題で鼻の穴を二つの丸いオブジェクトとして認識できなくなり、探索領域を設定する上で基準となる鼻の穴が検出できなくなるからである。
本発明は、このような事情に鑑みてなされたものであり、その目的は、例えば、運転者が眼鏡を着用している場合であっても、眼の位置を検出する上で基準となるオブジェクトを顔内で有効に検出することにより、眼の位置の検出精度を向上することが可能な眼位置検出装置を提供することである。
かかる課題を解決するために、本発明によれば、眼位置検出装置は、撮像手段と、蔓部データ検出手段と、眼位置検出手段とを有する。撮像手段は、被検出者の顔を撮像する。蔓部データ検出部は、撮像手段によって撮像された画像において、眼鏡の蔓部を蔓部データとして検出する。第1の探索領域設定部は、データ検出手段によって検出された蔓部データの位置を基準として、第1の探索領域を画像に設定する。眼位置検出手段は、第1の探索領域設定手段により設定された第1の探索領域において、被検出者の眼の位置を検出する。
本発明によれば、眼位置検出装置は、撮像手段によって撮像された画像において、眼鏡の蔓部を蔓部データとして検出する。そして、この検出された蔓部データの位置に基づいて、第1の探索領域を設定し、この第1の探索領域において、運転者の眼の位置を検出する。このように、被検出者の眼の位置を検出するための第1の探索領域の設定基準に眼鏡の蔓部を用いているため、眼鏡を着用した被検出者であっても、眼の位置の検出精度の向上を図ることができる。また、この眼位置検出装置によれば、撮像方向に拘わらず常に容易に検出できる眼鏡の蔓部を基準として用いているため、撮像手段のレイアウトに自由度を持たせることが可能となる。
以下、本発明の好適な実施形態を図面に基づいて説明する。なお、各図において、同一または同様の要素には同一の符号を付して説明を省略するものとする。
図1は、本発明の第1の実施形態に係る眼位置検出装置の全体構成図である。眼位置検出装置1は、車両を運転する運転者(被検出者)の眼の位置を検出する装置であり、特に、運転者の眼鏡の着用に係わらず、左右の眼の位置を精度よく検出するものである。また、本実施形態において、眼位置検出装置1は、検出された眼の位置に基づいて運転者の眼の位置を追跡する追跡機能を備えている。この眼位置検出装置1は、撮像部10と、処理装置20と、報知装置40とを有する。
撮像手段としての撮像部10は、運転者の顔を撮像し、この画像を処理装置20に対して出力する。撮像部10としては、例えば、可視光を撮像するためのCCDカメラ等を用いることができる。図2は、撮像部10の設置位置の説明図である。撮像部10は、運転者の顔を撮像する関係上、運転者の前方に設置される必要があるが、車室内のレイアウト等に起因して、運転者の顔の正面からオフセットした位置に配置されている。すなわち、撮像部10は、通常、運手者の顔の前方に相当するメータパネル付近の領域50には設置されていない。また、ステアリングホイール等が運転者の顔を遮らないようにといった観点から、撮像部10は、左右方向において、ステアリングホイールよりも外側位置となる領域51に設置されている。なお、本実施形態では、撮像部10を進行方向に対して左側にオフセットさせた状態で説明を行うが、撮像部10の設置位置は、右側にオフセットさせてもよい。
処理装置20は、後述するように、撮像部10から出力された画像に基づいて、運転者の左右の眼の位置を検出する。
報知装置40は、処理装置20による眼の位置の検出結果に基づいて、運転者の眼を追跡しながら開閉状態を判定することにより、居眠り運転を警報したり、眼の移動状態を判定することによる脇見運転を警報したりする。報知装置40としては、例えば、スピーカーやモニタのように、運転者(あるいは同乗者)に注意喚起を促すことができる種々の装置を用いることができる。
図3は、処理装置20を示すブロック図である。この処理装置20は、データ検出部21と、第1の探索領域設定部22と、第2の探索領域設定部23と、眼位置検出部24と、追跡部26と、眼鏡判定部25と、記憶部27と、確認部28と、眼の再検出判定部29とを有する。
データ検出部(蔓部データ検出手段および眼データ検出手段)21は、撮像部10からの画像に基づいて、眼鏡の蔓部を蔓部データとして検出する。また、データ検出部21は、撮像部10からの画像に基づいて、顔内の眼を眼データとして検出する。ここで、図4〜6は、運転者が眼鏡を着用しているケースでのデータ検出処理の説明図であり、図7〜9は、運転者が眼鏡を着用してないケースでのデータ検出処理の説明図である。なお、画像(複数のデータ群(画素群)によって規定される画像平面)は、X−Y座標系で表現され、画像の左上隅を原点として、横方向(左右方向)をX座標軸、縦方向(上下方向)をY座標軸とする。
図4に示すように、データ検出部21は、縦方向に延在する走査ライン60のそれぞれを処理対象として、この走査ライン60上に存在するデータ(画素)の画像濃度(濃度値)を順次読み出す。そして、データ検出部21は、走査ライン60において、上下方向にかけて濃度値が変化するデータを特徴点61として抽出する。具体的には、この特徴点61は、濃度的に暗いこと、その上下に相当するデータとの濃度変化率が所定値以上であることを条件として抽出される。運転者が眼鏡を着用しているケースでは、抽出されたそれぞれの特徴点61は、同図に示すように、運転者の眉、眼鏡、眼、鼻、口、顎および耳の窪みのいずれかに対応するデータとなっている。
特徴点61の抽出処理がすべての走査ライン60に対して実行されると、データ検出部21は、図5に示すように、抽出したそれぞれの特徴点61を処理対象として、グルーピング処理を行う。具体的には、データ検出部21は、ある特徴点61と、それに隣接する走査ライン60上に存在する特徴点61との上下方向の接近度合いを判定し、近接している特徴点61同士をグループ化する。データ検出部21は、グルーピングされた特徴点群のうち、横方向に関する長さが所定値以上となる特徴点群を連続データ62として抽出する。抽出された連続データ62は、例えば、運転者の眉、眼鏡のレンズのフレーム、眼鏡の蔓部、眼、鼻、口、顎および耳の窪みのいずれか形状に対応している。
データ検出部21は、図6に示すように、連続データ62の形状に応じて、蔓部データ63と、眼データ64とを検出する。具体的には、撮像部10の設置位置が左側にオフセットしている場合、データ検出部21は、画像において、左上がりに傾斜しているという条件を具備する連続データ62を蔓部データ63として検出する。なお、撮像部10の設置位置を右側にオフセットさせた場合には、画像において、右上がりに傾斜しているという条件を具備する連続データ62が蔓部データ63として検出される。1フレームの画像において、蔓部データ63に該当する連続データ62が複数存在する場合には、データ検出部21は、予め定められた順番にしたがって(例えば、画像の下部から順番に)蔓部データ63を順次検出する。これに対して、データ検出部21は、上に凸となる屈曲形状を有するという条件を具備する連続データ62を眼データ64として検出する。1フレームの画像において、眼データ64に該当する連続データ62が複数存在する場合には、データ検出部21は、予め定められた順番にしたがって(例えば、画像の下部から順番に)眼データ64を順次検出する。
一方、運転者が眼鏡を着用していないケースでは、図7に示すように、データ検出部21によって検出されたそれぞれの特徴点61は、運転者の眉、眼鏡、眼、鼻、口、顎および耳の窪みのいずれかに対応するデータとなる。そして、上述したように、特徴点61の抽出およびグルーピング処理が行われると、図8に示すように、データ検出部21は、例えば、運転者の眉、眼、鼻、口、顎および耳の窪みのいずれか形状に対応した連続データ62を抽出する。そして、図9に示すように、データ検出部21は、所定の条件を具備している連続データ62を蔓部データ63として検出し、そして、所定の条件を具備している連続データ62を眼データ64として検出する。
第1の探索領域設定部(第1の探索領域設定手段)22は、データ検出部21によって検出された蔓部データ63の位置を基準として、第1の探索領域を設定する。この第1の探索領域は、後述する眼位置検出部24によって運転者の眼が探索される領域であり、両眼が入る程度の必要最小限の大きさを有しており、例えば、矩形状に設定されている(それ故に、眼位置検出部24は、画像全体ではなく、限定された領域内で左右の眼を探索する)。
図10および図11は、第1の探索領域の設定処理の説明図である。例えば、図10に示すように、1フレームの画像に複数の蔓部データ63(同図には、3つの蔓部データ63a〜63c)が存在する場合には、第1の探索領域設定部22は、データ検出部21によって検出される順番にしたがって、各蔓部データ63a〜63cに対して第1の探索領域65を設定する。処理対象となる蔓部データ63a〜63cに第1の探索領域65を設定する場合、第1の探索領域設定部22は、まず、眼鏡の蔓部とレンズフレームとの取り付け部の座標位置から、左方向に距離d1、上方向に距離d2の座標位置に基準点を置く。そして、第1の探索領域設定部22は、この基準点に基づいて、第1の探索領域65の左上隅が基準点と位置的に対応するように第1の探索領域65を設定する。
ここで、基準点を設定する際に必要となる取り付け部の座標位置は、カメラ設置位置を左側にオフセットされた場合、蔓部データ63a〜63cを構成する特徴点61のうち、最も左端の特徴点61として、一義的に特定することができる。(カメラ設置位置を右側にオフセットさせた場合は、取り付け部の座標位置は、蔓部データ63a〜63cを構成する特徴点61のうち、最も右端の特徴点61となる)。また、基準点を設定する際に必要となる距離d1,d2は、運転者が眼鏡を着用している場合に、設定された第1の探索領域65が運転者の左右の眼を含むような距離として、その最適値が各々予め設定されている。
運転者が眼鏡を着用している場合には、図10に示すように、眼鏡の蔓部に対応する蔓部データ63c(真の蔓部データ63)が存在するため、第1の探索領域65は、運転者の左右の眼を含む位置に設定される。一方、運転者が眼鏡を着用していない場合には、図11に示すように、蔓部データ63d,63eが存在したとしても、眼鏡の蔓部に対応する真の蔓部データ63は存在しない。そのため、第1の探索領域65は、運転者の左右の眼を含む位置には設定されない。
第2の探索領域設定部(第2の探索領域設定手段)23は、データ検出部21によって検出された眼データ64の位置を基準として、第2の探索領域を設定する。この第2の探索領域は、眼位置検出部24によって運転者の眼が探索される領域であり、第1の探索領域65と同様、両眼が入る程度の必要最小限の大きさを有しており、例えば、矩形状に設定されている。ただし、第2の探索領域は、検出された眼データ64が左右のどちらか一方の眼であっても、その領域が他方の眼を含むような大きさを有しており、横方向の幅が上述した第1の探索領域65よりも大きな値に設定されている。
図12〜14は、第2の探索領域の設定処理の説明図であり、説明の便宜上、運転者の眼鏡の着用の有無にかかわらず、眼データ64のみを示している。例えば、図12に示すように、1フレームの画像において、複数の蔓部データ63(同図には、6つの眼データ64a〜64f)が存在する場合、第2の探索領域設定部23は、データ検出部21によって検出される順番にしたがって、各眼データ64a〜64fに対して第2の探索領域66を設定する。処理対象となる眼データ64a〜64fに第2の探索領域66を設定する場合、第2の探索領域設定部23は、まず、眼データ64の中心となる座標位置に基準点を置く。そして、第2の探索領域設定部23は、この基準点に基づいて、第2の探索領域66の略中心位置が基準点と位置的に対応するように第2の探索領域66を設定する。
眼データ64が左右の一方の眼に対応していない場合(例えば、図12,13に示す眼データ64a,64b)、第2の探索領域66は、運転者の左右の眼を含む位置には設定されない。一方、眼データ64が左右の一方の眼に対応している場合(例えば、図14に示す眼データ64c)、第2の探索領域66は、運転者の左右の眼を含む位置に設定される。
眼位置検出部(眼位置検出手段)24は、第1の探索領域設定部22により設定された第1の探索領域65において運転者の左右の眼を探索することにより、左右の眼の位置(座標位置)をそれぞれ検出する。図15は、運転者が眼鏡を着用しているケースでの眼の位置の検出処理の説明図である。具体的には、眼位置検出部24は、眼の形状として予め定義されているデータ群が存在し、その眼の形状が二つあること(一対の眼)、かつ、その一対の眼の相対位置関係に基づいて、左右の眼EL,ERを探索する。そして、眼位置検出部24は、左右の眼EL,ERが探索されると、画像における個々の座標位置を左右の眼EL,ERの位置として検出する。
また、眼位置検出部24は、データ検出部21によって蔓部データ63が検出されなかった場合、または、第1の探索領域65において被検出者の左右の眼EL,ERが探索できなかった場合には、第2の探索領域66において運転者の左右の眼EL,ERを探索することにより、左右の眼EL,ERの位置をそれぞれ検出する。図16は、運転者が眼鏡を着用していないケースでの眼の位置の検出処理の説明図である。具体的には、眼位置検出部24は、眼の形状のデータ群が二つあること、かつ、その一対の眼の相対位置関係に基づいて、左右の眼EL,ERを探索する。そして、眼位置検出部24は、左右の眼EL,ERが探索されると、画像における個々の座標位置を左右の眼EL,ERの位置として検出する。
眼鏡判定部(眼鏡判定手段)25は、第1の探索領域65において左右の眼EL,ERの位置が検出された場合に、運転者が眼鏡を着用していると判定する。また、眼鏡判定部25は、運転者が眼鏡を着用していると判断した場合には、左右の眼EL,ERの位置が検出された第1の探索領域65の設定基準となる蔓部データ63を、眼鏡の蔓部として特定する。一方、眼鏡判定部25は、第1の探索領域65において左右の眼EL,ERの位置が検出されなかった場合に、運転者が眼鏡を着用していないと判定する。
追跡部(追跡手段)26は、眼位置検出部24によって検出された左右の眼EL,ERの位置のうち、一方の眼の位置を基準として追跡領域67を画像に設定する。この追跡領域67は、時系列的に出力される画像において、運転者の眼の位置の追跡を行うための領域であり、フレーム間の眼の位置の動きに対応できるように、少なくとも一方の眼を含むような大きさを有している。なお、撮像部10の設置位置を左側にオフセットさせている場合では、運転者の左眼ELの方が角度的に認識精度が高いため、基準として用いる眼は左眼ELであることが好ましい(以下、左眼を「基準眼」という)。追跡部26は、一旦追跡領域67が設定されると、それ以降は設定された追跡領域67の設定位置に基づき、この追跡領域67の設定基準となる画像よりも時系列的に後に撮像される後画像において、基準眼ERを追跡する。
図17は、運転者が眼鏡を着用しているケースでの追跡領域67の説明図である。眼鏡判定部25によって運転者が眼鏡を着用していると判定された場合、追跡部26は、まず、眼鏡の蔓部として特定された蔓部データ63の位置に基づいて、眼鏡の蔓部の有無を確認するための確認領域68の基準点68aを設定する。確認領域68は、眼鏡の蔓部を含むような大きさに設定されており、基準点68aは、この確認領域68が眼鏡の蔓部を含むような位置、例えば、眼鏡の蔓部とレンズフレームとの取り付け部(本実施形態では、蔓部データ63の左端)近傍に設定される。そして、追跡部26は、この確認領域68の基準点68aと、基準眼EL(例えば、中心座標)との相対的な位置関係(以下「第1の位置関係」という)を記憶部(記憶手段)27に格納する。そして、追跡部26は、この基準点68aと、確認領域68の基準位置(本実施形態では、左上隅)とを対応させた上で、確認領域68を設定する。また、追跡部26は、基準眼ELの位置(例えば、中心位置)を基準に、追跡領域67を画像に設定する。
一方、図18は、運転者が眼鏡を着用していないケースでの追跡領域67の説明図である。眼鏡判定部25によって運転者が眼鏡を着用していないと判定された場合、追跡部26は、まず、基準眼ELとは異なる他方の眼(本実施形態では、右眼)ERに基づいて、右眼ERの有無を確認するための確認領域69の基準点69aを設定する。確認領域69は、右眼ERを含むような大きさに設定されており、基準点69aは、この確認領域69が右眼を含むような位置に設定される。そして、追跡部26は、この確認領域69の基準点69aと、基準眼EL(例えば、中心座標)との相対的な位置関係(以下「第2の位置関係」という)を記憶部27に格納する。そして、追跡部26は、この基準点69aと、確認領域69の基準位置(本実施形態では、左上隅)とを対応させた上で、確認領域69を設定する。また、追跡部26は、基準眼ELの位置(例えば、中心位置)を基準に、追跡領域67を画像に設定する。
図19は、基準眼ELの追跡処理の説明図である。なお、同図には、便宜上、眼鏡を着用している運転者が描かれているが、追跡処理では、運転者の眼鏡の着用の有無に係わらず同一の処理が実行される。具体的には、追跡部26は、図19に示すように、従前のサイクルにおける画像(以下必要に応じて「前画像」という)において設定した追跡領域67に基づいて、後画像の位置的に対応する領域67’において基準眼ELの位置検出を行う(追跡処理)。
運転者の顔に動きがある場合は、追跡領域67における前後画像間の眼の相対位置は異なる場合がある。そこで、確認部28は、先に設定された確認領域68,69に基づいて、基準眼ELの追跡が正しく行われているか否かを確認する。以下、運転者が眼鏡を着用しているケースと、運転者が眼鏡を着用していないケースとに場合分けし、確認部28によって行われる確認処理を説明する。
運転者が眼鏡を着用している場合には、確認部28は、追跡部26によって追跡された基準眼ELの位置に基づいて、記憶部27に格納された第1の位置関係を参照し、後画像に眼鏡の蔓部が存在するか否かを確認する。図20は、眼鏡を着用した運転者が車両前方から右方向に視線(顔の向き)を移動させて行く際の時系列的な様子の説明図である。追跡領域67は、画像間で、(a)、(b)、(c)、(d)、(e)の順に更新される。また、図21は、眼鏡を着用した運転者が車両前方から左方向に視線(顔の向き)を移動させて行く際の時系列的な様子の説明図である。追跡領域67は、図20と同様に、画像間で、(a)、(b)、(c)、(d)、(e)の順に更新される。この際、追跡部26は、記憶部27に格納された第1の位置関係に基づいて、追跡された基準眼ELと位置的な対応関係を維持しつつ、確認領域68も更新する。
そして、確認部28は、確認領域68に出現する眼鏡蔓部の形状の有無を判定することで、眼の追跡が正しく行えているか否かを判定する。運転者が車両前方を見ている場合、蔓部データ63の出現状態は、例えば、図20の(a)または図21の(a)に示すように、確認領域68内を対角線上に延在する直線データとして確認される。一方、運転者が右方向を見た場合は、例えば、図20の(e)に示すように、確認領域68の上方に浅い角度で出現する。これに対して、運転者が左方向を見た場合は、例えば、図21の(e)に示すように、確認領域68の左方に深い角度で出現する。そのため、確認部28は、この確認領域68における眼鏡蔓部の角度と、出現位置とを判定することにより、眼の追跡が正しく行えているかどうかを判定することができる。
これに対して、運転者が眼鏡を着用していない場合には、確認部28は、追跡部26によって追跡された基準眼ERの位置に基づいて、記憶部27に格納された第2の位置関係を参照し、後画像において他方の眼(右眼)ERが存在するか否かを確認する。図22は、眼鏡を着用していない運転者が車両前方から右方向に視線(顔の向き)を移動させて行く際の時系列的な様子の説明図である。追跡領域67は、図19で説明したように、画像間で、(a)、(b)、(c)、(d)、(e)の順に更新される。また、図23は、眼鏡を着用した運転者が車両前方から左方向に視線(顔の向き)を移動させて行く際の時系列的な様子の説明図である。追跡領域67は、図23と同様に、画像間で、(a)、(b)、(c)、(d)、(e)の順に更新される。この際、追跡部26は、記憶部27に格納された第2の位置関係に基づいて、追跡された基準眼ELと位置的な対応関係を維持しつつ、確認領域69も更新する。
そして、確認部28は、確認領域69に出現する眼の形状のデータの有無を判定することで、眼の追跡が正しく行えているか否かを判定する。すなわち、確認部28は、この確認領域69における眼のデータの有無を判定することにより、眼の追跡が正しく行えているかどうかを判定することができる。
眼の再検出判定部(眼の再検出判定手段)29は、確認部28の確認結果に応じて、眼の再検出を判定する。具体的には、眼の再検出判定部29は、確認部28によって眼の追跡が正しく行われていないと判定された場合には、追跡部26によって更新された追跡領域67をクリアし、眼の位置の検出処理を再度実行させる。一方、眼の再検出判定部29は、確認部28によって眼の追跡が正しく行われていると判定された場合には、追跡部26によって追跡された基準眼ELの位置を基準として、追跡領域67を更新する。
次に、第1の実施形態に係る眼位置検出装置1の動作を説明する。まず、眼位置検出装置1の撮像部10は、運転者の顔を含む領域を撮像し、画像のデータを処理装置20に出力する。そして、処理装置20は、図24に従う処理を実行する。図24は、処理装置20の詳細動作を示すフローチャートである。同図は、処理装置20によって実行される全ての詳細動作を示しているが、処理装置20の処理は、以下の2パターンに大別される。第1のパターンは、運転者が眼鏡を着用しているケースでの処理である。この処理では、処理装置20は、蔓部データ63の検出(後述するステップ10〜13)、第1の探索領域65の設定(後述するステップ14)、目の位置の検出(後述するステップ15)を行う。また、処理装置20は、検出された眼の位置に基づいて、眼の追跡処理(後述するステップ19〜21,25,26〜29)を行う。これに対して、第2のパターンは、運転者が眼鏡を着用していないケースでの処理である。この処理では、処理装置20は、眼データ64の検出(後述するステップ10〜13,16)、第2の探索領域66の設定(後述するステップ17)、目の位置の検出(後述するステップ18)を行う。また、処理装置20は、検出された眼の位置に基づいて、眼の追跡処理(後述するステップ22〜25,26〜29)を行う。
図24に示すよう、まず、ステップ10において、データ検出部21は、画像のデータを入力する。ステップ11において、データ検出部21は、追跡領域67が設定されているか否かを判定する。本処理を初めて実行する場合には、追跡領域67は未設定であるため、このステップ11では否定判定され、ステップ12に進む。一方、本処理が既に実行され、追跡領域67がすでに設定されている場合には、このステップ11において肯定判定され、後述するように、ステップ26に進む。
ステップ12において、データ検出部21は、データの抽出を行う。このデータ抽出処理では、データ検出部21は、図4および図7を参照して説明したように、特徴点61の抽出を行う。そして、データ検出部21は、図5および図8を参照して説明したように、連続データ62を抽出する。
ステップ13において、データ検出部21は、第1の探索領域65の設定対象となる蔓部データ63が存在するか否かを判定する。このステップ13において肯定判定された場合、すなわち、蔓部データ63(右上がりに傾斜している連続データ62)が存在する場合には、ステップ14に進む。ステップ14において、第1の探索領域設定部22は、データ検出部21によって検出された蔓部データ63を処理対象として、図10および図11を参照して説明したように、第1の探索領域65を設定する。
ステップ15において、眼位置検出部24は、設定された第1の探索領域65において、左右の眼EL,ERの位置の検出に成功したか否かを判定する。このステップ15において否定判定された場合、すなわち、第1の探索領域65において、所定の相対位置関係を具備する眼の形状のデータ群が二つ存在しない場合には、ステップ13に戻る。蔓部データ63が未だ存在する場合には、ステップ13において肯定判定されるため、新たな蔓部データ63を処理対象として、ステップ14,15の処理を繰り返す。一方、ステップ15において肯定判定された場合、すなわち、第1の探索領域65において、一対の眼の相対位置関係を具備する眼の形状のデータ群が二つ存在する場合には、それらのデータ群をそれぞれ左右の眼EL,ERとした上で、その位置をそれぞれ検出し、後述するステップ19に進む。
一方、ステップ13において否定判定された場合、ステップ16に進む。このステップ16に進むケースとしては、以下の2つのパターンが挙げられる。第1のパターンは、データ検出部21によって蔓部データ63が検出されない場合である。第2のパターンは、データ検出部21によって蔓部データ63が検出されるものの、この蔓部データ63をベースに設定される第1の探索領域65において左右の眼EL,ERが検出されない場合である。
ステップ16において、データ検出部21は、第2の探索領域66の設定対象となる眼データ64が存在するか否かを判定する。このステップ16において肯定判定された場合、すなわち、眼データ64(上に凸となる屈曲形状を有する連続データ62)が存在する場合には、ステップ17に進む。ステップ17において、第2の探索領域設定部23は、データ検出部21によって検出された眼データ64を処理対象として、第2の探索領域66を設定する。
ステップ18において、眼位置検出部24は、設定された第2の探索領域66において、左右の眼EL,ERの位置の検出に成功したか否かを判定する。このステップ18において否定判定された場合、すなわち、第2の探索領域66において、所定の相対位置関係を具備する眼の形状のデータ群が二つ存在しない場合には、ステップ16に戻る。眼データ64が未だ存在する場合には、ステップ16において肯定判定されるため、再度、新たな眼データ64を処理対象として、ステップ16,17の処理を繰り返す。一方、ステップ18において肯定判定された場合、すなわち、第2の探索領域66において、所定の相対位置関係を具備する眼の形状のデータ群が二つ存在する場合には、それらのデータ群をそれぞれ左右の眼EL,ERとした上で、その位置をそれぞれ検出し、後述するステップ22に進む。
ステップ19では、ステップ15の肯定判定に従い、すなわち、第1の探索領域65において左右の眼EL,ERの位置検出が行われたことに従い、眼鏡判定部25は、運転者が眼鏡を着用していると判定する。これとともに、眼鏡判定部25は、第1の探索領域65の設定基準となる蔓部データ63を眼鏡の蔓部として特定する。ステップ20において、追跡部26は、図17を参照して説明したように、確認領域68の基準点68aと、基準眼ELとの相対位置関係(第1の位置関係)をメモリする。そして、追跡部26は、確認領域68を設定するとともに(ステップ21)、追跡領域67を設定し(ステップ25)、本ルーチンを抜ける。
一方、ステップ22では、ステップ18の肯定判定に従い、すなわち、第2の探索領域66において左右の眼EL,ERの位置検出が行われたことに従い、眼鏡判定部25は、運転者が眼鏡を着用していると判定する。続くステップ23において、追跡部26は、図18を参照して説明したように、確認領域69の基準点69aと、基準眼ELとの相対位置関係(第2の位置関係)をメモリする。そして、追跡部26は、確認領域69を設定するとともに(ステップ24)、追跡領域67を設定し(ステップ25)、本ルーチンを抜ける。
ステップ11の肯定判定に続くステップ26において、追跡部26は、前画像において設定した追跡領域67に基づいて、新たに入力された後画像において眼の位置検出を行う(追跡処理)。そして、ステップ27において、確認部28は、眼(基準眼EL)の追跡が正しく行われているか否かを判定する。このステップ27において、確認部28は、眼鏡判定部25によって運転者が眼鏡をしていると判定されている場合、記憶部27に格納された第1の位置関係(すなわち、確認領域68の基準点68aと、基準眼EL(例えば、中心座標)との相対位置)を読み込む。そして、確認部28は、図20および図21を参照して説明したように、追跡部26によって追跡された基準眼ELの位置に基づいて基準点68aを設定し、この基準点68aをベースに確認領域68を設定する。そして、確認部28は、確認領域68における眼鏡蔓部の角度と、出現位置とを判定することにより、眼鏡の蔓部が存在するか否かを判定する。確認部28は、確認領域68に眼鏡の蔓部が存在する場合には、眼の追跡が正しく行われていると判定し、確認領域68に眼鏡の蔓部が存在しない場合には、眼の追跡が正しく行われていないと判定する。確認部28によって眼の追跡が正しく行われていると判定された場合には、ステップ27において肯定判定され、ステップ28に進む。一方、確認部28によって眼の追跡が正しく行われていないと判定された場合には、ステップ27において否定判定され、ステップ29に進む。
一方、確認部28は、眼鏡判定部25によって運転者が眼鏡をしていないと判定されている場合、記憶部27に格納された第2の位置関係(すなわち、確認領域69の基準点69aと、基準眼EL(例えば、中心座標)との相対位置)を読み込む。そして、確認部28は、図22および図23を参照して説明したように、追跡部26によって追跡された基準眼ELの位置に基づいて基準点69aを設定し、この基準点69aをベースに確認領域69を設定する。そして、確認部28は、確認領域69における眼の形状に対応するデータの有無を判定することにより、右眼ERが存在するか否かを判定する。確認部28は、確認領域69に右眼ERが存在する場合には、眼の追跡が正しく行われていると判定し、確認領域69に右眼ERが存在しない場合には、眼の追跡が正しく行われていないと判定する。確認部28によって眼の追跡が正しく行われていると判定された場合には、ステップ27において肯定判定され、ステップ28に進む。一方、確認部28によって眼の追跡が正しく行われていないと判定された場合には、ステップ27において否定判定され、ステップ29に進む。
ステップ28において、眼の再検出判定部29は、図19(b)に示すように、領域67'において検出された基準眼ELの位置(例えば、中心位置)を基準に基準点67aを設定した上で、この基準点67aをベースに追跡領域67を更新し、本ルーチンを抜ける。そして、次回のサイクルの処理では、この更新された追跡領域67にともない、図24に示すステップ11において肯定判定され、新たな後画像を対象として追跡処理が行われる。
一方、ステップ29において、眼の再検出判定部29は、追跡部26によって設定された追跡領域67をクリアし、本ルーチンを抜ける。そのため、このステップ29以降の処理では、追跡領域67のクリアにともない、図24に示すステップ11において否定判定され、新たな画像を対象として眼の位置検出処理が行われる。
このように、第1の実施形態に係る眼位置検出装置1によれば、撮像部10によって撮像された画像において、眼鏡の蔓部を蔓部データ63として検出する。そして、この眼位置検出装置1は、この蔓部データ63の位置に基づいて、眼鏡の蔓部と顔内の眼との位置的な対応関係を考慮した上で、第1の探索領域65を設定し、この第1の探索領域65において運転者の眼EL,ERの位置を検出する。眼鏡を着用したドライバーは、レンズ面への風景の映り込み等が懸念されるため、眼の位置を安定的に検出できる基準が必要となる。そこで、本実施形態では、眼鏡の蔓部をこの基準として用いているため、このような不都合を解消することができる。また、このような基準としては、鼻の穴を用いることも考えられるが、カメラを左右にオフセットさせた場合には、鼻の穴を二つの穴として検出することが困難となり、検出精度といった点で問題となる。しかしながら、本実施形態では、カメラの配置位置に拘わらず常に容易に検出できる眼鏡の蔓部を用いることにより、このような不都合を解消することができる。これにより、眼位置検出装置1は、運転者が眼鏡を着用している場合であっても、眼の位置の検出精度の向上を図ることができる。また、この眼位置検出装置1によれば、車室内での撮像部10のレイアウトに自由度を持たせることが可能となる。
また、この眼位置検出装置1は、眼鏡を着用していない運転者の場合には、撮像部10によって撮像された画像において、連続データ62のうち、上に凸の屈曲形状を有することを条件として顔内の眼を検出する。そして、この眼位置検出装置1は、この眼鏡の蔓部の検出位置をベースに、運転者の左右の眼EL,ERの位置を検出する。そのため、この眼位置検出装置1は、運転者の眼鏡の着用の有無に拘わらず、眼の位置の検出を行うことが可能となる。
また、眼位置検出装置1は、追跡部26によって、位置検出が行われた左右の眼EL,ERのうちの一方の眼(基準眼)ELに追跡領域67を設定する。そして、追跡部26は、設定された追跡領域67の設定位置に基づき、後画像において一方の眼を追跡する。すなわち、追跡部26は、予め前画像において検出された眼の位置をベースに眼を追跡することにより、追跡精度の向上を図ることができる。また、この眼位置検出装置1は、確認領域68,69を設定し、眼の追跡が正しく行えている否かを判定することにより、追跡精度の向上を更に図ることができる。
第1の実施形態において、撮像部10は、左右方向において、ステアリングホイールよりも外側位置に配置されている。そのため、ステアリングホイールのスポーク部によって撮像が妨げられることがないので、常に運転者の顔全体を撮像することが可能となり、この眼位置検出装置1は、眼の位置の検出精度および眼の追跡精度の向上を図ることができる。
第1の実施形態において、眼位置検出装置1は、蔓部データ63をベースとした第1の探索領域65と、眼データ64をベースとした第2の探索領域66と設定する場合に、第1の探索領域65の設定を優先して行っている。これにより、運転者の眼鏡着用、非着用別に適切な処理を実行することができるので、短時間で精度の高い眼の位置検出を行うことができる。
第1の実施形態において、データ検出部21は、上下方向にかけて画像濃度が変化する特徴点61をそれぞれ抽出し、抽出された特徴点61のそれぞれのうち、左右方向にかけて連続性があり、かつ、傾斜しているという条件を具備する特徴点群(連続データ62)を蔓部データ63として検出している。そのため、簡便に、かつ、的確に蔓部データ63を検出することができるので、眼位置検出装置1は、眼鏡を着用している運転者であってもより速やかに眼の位置を検出することができる。また、データ検出部21は、上下方向にかけて画像濃度が変化する特徴点61をそれぞれ抽出し、抽出された特徴点61のそれぞれのうち、左右方向にかけて連続性があり、かつ、上に凸となる屈曲形状を有するという条件を具備する連続データ62を眼データ64として検出している。そのため、簡便に、かつ、的確に眼データ64を検出することができるので、眼位置検出装置1は、眼鏡を着用している運転者であってもより速やかに眼の位置を検出することができる。
第1の実施形態において、第1の探索領域設定部22は、データ検出部21によって検出された蔓部データ63を処理対象として第1の探索領域65を設定する。そして、第1の探索領域設定部22は、この処理対象となる第1の探索領域65において運転者の眼の位置が検出されなかった場合には、データ検出部21によって新たに検出された蔓部データ63を処理対象として第1の探索領域65を設定する。
また、第2の探索領域設定部23は、データ検出部21によって検出された眼データ64を処理対象として第2の探索領域66を設定する。そして、第2の探索領域設定部23は、この処理対象となる第2の探索領域66において運転者の眼の位置が検出されなかった場合には、データ検出部21によって新たに検出された眼データ64を処理対象として第2の探索領域66を設定する。第1の探索領域設定部22または第2の探索領域設定部23が同様の処理を繰り返すようにしたことで、運転者の違い、眼鏡の違いなどに対するロバスト性を向上させることができる。
第1の実施形態において、第1の探索領域設定部22は、蔓部データ63の左右の端部位置と、撮像部10による撮像方向とに基づいて、蔓部データ63の一方の端部を基準点に左右の眼が含まれる領域を第1の探索領域65として設定する。これにより、第1の探索領域65は、両眼が存在する可能性が高い領域に、必要最小限の大きさで設定される。そのため、眼位置検出装置1は、眼鏡を着用している運転者において、迅速かつ精度よく眼の位置を検出することができる。また、第2の探索領域設定部23は、検出された眼データ64の位置に基づいて基準点を設定し、この基準点を基準に左右の眼が含まれる領域を第2の探索領域66として設定する。これにより、第1の探索領域65は、両眼が存在する可能性が高い領域に、必要最小限の大きさで設定される。そのため、眼位置検出装置1は、眼鏡を着用していない運転者において、迅速かつ高精度に眼の位置を検出することができる。
さらに、第1の実施形態において、眼位置検出部24は、データの形状、一対の眼の存在、および、一対の眼の相対位置関係に基づいて、運転者の左右の眼を探索している。条件を複合的に用いることにより、眼位置検出装置1は、更に高精度に眼の位置を検出することができる。
なお、第1の実施形態において、第1および第2の探索領域65,61の大きさは、基本的に、運転者の体格差による顔の前後位置や、顔の作りの違いを考慮して両眼が入る必要最小限の大きさとして設定されている。図25は、第1および第2の探索領域65,61の横方向の大きさの説明図である。ただし、カメラのオフセット量が小さい場合(図25(a)参照)と、大きい場合(図25(b)参照)とでは、両眼の間隔に角度差による違いが一定比で発生する。そのため、第1の探索領域設定部22および第2の探索領域設定部23は、運転者の顔の正面からの撮像部10のオフセット量が大きい程(図25(b)のケース)、左右方向の幅が小さくなるように(D1>D2)、その探索領域65,66を設定してもよい。これにより、第1の探索領域65および第2の探索領域66は、両眼が存在する可能性が高い領域の大きさに最適化される。そのため、眼位置検出装置1は、更に迅速かつ高精度に眼の位置を検出ができる。
また、第1の実施形態は、髪が長く耳が隠れてしまう運転者であっても適用可能である。なぜならば、眼鏡レンズ面は、基本的に、運転者の顔面の前に離れて存在しているため、運転者が顔を下に向けることがなければ、眼鏡の蔓部の一部を傾斜した特徴点群として認識できるからである。それ故に、データ検出部21は、連続データ62を抽出する際の連続性の条件を、髪の長い運転者のことも考慮して設定することにより、眼の位置検出を行うことが可能となる。
図26は、第2の実施形態に係る処理装置20aを示すブロック図である。上述した第1の実施形態において、処理装置20は、眼の追跡が正しく行われていない場合には、追跡領域67をクリアし、再度、眼位置検出部24が画像全体において左右の眼の検出を行う。しかしながら、運転者が代わらない限り、車両前方を見ている時の眼の位置は、画像においてその範囲がある程度限定される。そのため、一旦左右の眼を検出し、正常に追跡していたという実績がある場合には、処理速度の向上といった観点から、過去に検出された眼の位置を基準に再検出領域を設定する。そして、処理装置20は、この限定された再検出領域内において、運転者の眼の位置を検出すればよい。そこで、第2の実施形態に係る処理装置20aは、図26に示すように、眼の再検出領域設定部(眼の再検出領域設定手段)30と、眼の再検出部(眼の再検出手段)31とを追加的に備えている。ここで、
眼の再検出領域設定部30は、従前のサイクルにおいて検出された左右の眼EL,ERの位置をメモリしておく。眼の再検出領域設定部30は、眼鏡判定部25によって運転者が眼鏡を着用していると判定されている場合には、入力された画像において、基準眼ELの位置を基準に、基準眼ELを含むような大きさを有する再検出領域を設定する。また、眼の再検出判定部29は、この基準眼ELの位置を基準に、眼鏡の蔓部を含むような大きさを有する再検出領域を設定する。一方、眼の再検出領域設定部30は、眼鏡判定部25によって運転者が眼鏡を着用していると判定されている場合には、入力された画像において、基準眼ELの位置を基準に、左右の眼を含むような大きさを有する再検出領域を設定する。
眼の再検出部31は、眼鏡判定部25によって運転者が眼鏡を着用していると判定されている場合には、再検索領域に、基準眼ELと眼鏡の蔓部とが存在することを条件に、眼の位置を再検出する。一方、眼の再検出部31は、眼鏡判定部25によって運転者が眼鏡を着用していない判定されている場合には、再検索領域に、左右の眼が存在することを条件に、眼の位置を再検出する。
このような追加的な構成を備える処理装置20aは、画像全体から眼の位置検出を行う場合と比較して、高速に眼の検出を行うことができる。
図28は、第3の実施形態に係る処理装置20bを示すブロック図である。同図に示す処理装置20bが、上述した第1の実施形態に係る処理装置20と相違する点は、眼の追跡機能を備えていない点である。すなわち、この処理装置20bは、第1の実施形態における、データ検出部21、第1の探索領域設定部22,第2の探索領域設定部23、眼位置検出部24を備える。かかる構成であっても、画像から運転者の左右の眼の位置を検出することができ、本発明の一部として機能する。すなわち、この処理装置20bを有する位置検出装置1は、運転者の眼鏡の着用の有無に拘わらず、眼の位置の検出精度の向上を図ることができる。また、この眼位置検出装置1によれば、車室内での撮像部10のレイアウトに自由度を持たせることが可能となる。
なお、上述した各実施形態では、眼位置検出装置1が運転者の眼鏡の有無に拘わらず処理を実行できるような構成としたが、本発明はこれに限定されるものではない。眼位置検出装置1は、蔓部データ63を基準として運転者の眼の位置を検出するのみでもよい。この場合、眼位置検出装置1の処理装置20は、少なくともデータ検出部21と、第1の探索領域設定部22と、眼位置検出部24とを備えていれば足りる。
本発明の第1の施形態に係る眼位置検出装置の全体構成図である。 撮像部10の設置位置の説明図である。 第1の実施形態に係る処理装置20を示すブロック図である。 運転者が眼鏡を着用しているケースでのデータ検出処理の説明図である。 運転者が眼鏡を着用しているケースでのデータ検出処理の説明図である。 運転者が眼鏡を着用しているケースでのデータ検出処理の説明図である。 運転者が眼鏡を着用してないケースでのデータ検出処理の説明図である。 運転者が眼鏡を着用してないケースでのデータ検出処理の説明図である。 運転者が眼鏡を着用してないケースでのデータ検出処理の説明図である。 第1の探索領域の設定処理の説明図である。 第1の探索領域の設定処理の説明図である。 第2の探索領域の設定処理の説明図である。 第2の探索領域の設定処理の説明図である。 第2の探索領域の設定処理の説明図である。 運転者が眼鏡を着用しているケースでの眼の位置の検出処理の説明図である。 運転者が眼鏡を着用していないケースでの眼の位置の検出処理の説明図である。 運転者が眼鏡を着用しているケースでの追跡領域67の説明図である。 運転者が眼鏡を着用していないケースでの追跡領域67の説明図である。 基準眼ELの追跡処理の説明図である。 眼鏡を着用した運転者が車両前方から右方向に視線(顔の向き)を移動させて行く際の時系列的な様子の説明図である。 眼鏡を着用した運転者が車両前方から左方向に視線(顔の向き)を移動させて行く際の時系列的な様子の説明図である。 眼鏡を着用していない運転者が車両前方から右方向に視線(顔の向き)を移動させて行く際の時系列的な様子の説明図である。 図23は、眼鏡を着用した運転者が車両前方から左方向に視線(顔の向き)を移動させて行く際の時系列的な様子の説明図である。 処理装置20の詳細動作を示すフローチャートである。 第1および第2の探索領域65,61の横方向の大きさの説明図である。 第2の実施形態に係る処理装置20a構成要素を示すブロック図である。 第3の実施形態に係る処理装置20bを示すブロック図である。
符号の説明
1 眼位置検出装置
10 撮像部
20 処理装置
21 データ検出部
22 第1の探索領域設定部
23 第2の探索領域設定部
24 眼位置検出部
25 眼鏡判定部
26 追跡部
27 記憶部
28 確認部
29 眼の再検出判定部
30 眼の再検出領域設定部
31 眼の再検出部
60 走査ライン
61 特徴点
62 連続データ
63 蔓部データ
64 眼データ
65 第1の探索領域
66 第2の探索領域
67 追跡領域
68 確認領域
69 確認領域

Claims (17)

  1. 被検出者の顔を撮像する撮像手段と、
    前記撮像手段によって撮像された画像において、眼鏡の蔓部を蔓部データとして検出する蔓部データ検出手段と、
    前記蔓部データ検出手段によって検出された前記蔓部データの位置を基準として、第1の探索領域を前記画像に設定する第1の探索領域設定手段と、
    前記第1の探索領域設定手段によって設定された前記第1の探索領域において、前記被検出者の眼の位置を検出する眼位置検出手段とを有し、
    前記撮像手段は、前記被検出者の顔の正面からオフセットした位置に配置されており、
    前記蔓部データ検出手段は、前記被検出者の顔を横側から撮像した画像において、前記蔓部データを検出することを特徴とする眼位置検出装置。
  2. 被検出者の顔を撮像する撮像手段と、
    前記撮像手段によって撮像された画像において、眼鏡の蔓部を蔓部データとして検出する蔓部データ検出手段と、
    前記蔓部データ検出手段によって検出された前記蔓部データの位置を基準として、第1の探索領域を前記画像に設定する第1の探索領域設定手段と、
    前記第1の探索領域設定手段によって設定された前記第1の探索領域において、前記被検出者の眼の位置を検出する眼位置検出手段とを有し、
    前記蔓部データ検出手段は、前記画像において、上下方向にかけて画像濃度が変化する特徴点をそれぞれ抽出し、当該抽出された抽出点のそれぞれのうち、左右方向にかけて連続性があり、かつ、傾斜しているという条件を具備する抽出点群を前記蔓部データとして検出することを特徴とする眼位置検出装置。
  3. 被検出者の顔を撮像する撮像手段と、
    前記撮像手段によって撮像された画像において、眼鏡の蔓部を蔓部データとして検出する蔓部データ検出手段と、
    前記蔓部データ検出手段によって検出された前記蔓部データの位置を基準として、第1の探索領域を前記画像に設定する第1の探索領域設定手段と、
    前記第1の探索領域設定手段によって設定された前記第1の探索領域において、前記被検出者の眼の位置を検出する眼位置検出手段とを有し、
    前記第1の探索領域設定手段は、前記蔓部データ検出手段によって検出された前記蔓部データを処理対象として前記第1の探索領域を設定するとともに、前記設定された前記第1の探索領域において前記眼位置検出手段によって前記被検出者の眼の位置が検出されなかった場合には、前記蔓部データ検出手段によって新たに検出された前記蔓部データを処理対象として前記第1の探索領域を設定することを特徴とする眼位置検出装置。
  4. 前記撮像手段によって撮像された画像において、顔内の眼を眼データとして検出する眼データ検出手段と、
    前記眼データ検出手段によって検出された前記眼データの位置を基準として、第2の探索領域を前記画像に設定する第2の探索領域設定手段とをさらに有し、
    前記眼位置検出手段は、前記蔓部データ検出手段によって前記蔓部データが検出されない場合、または、前記第1の探索領域設定手段によって設定された前記第1の探索領域において前記被検出者の眼が検出されない場合には、前記第2の探索領域設定手段によって設定された前記第2の探索領域において、前記被検出者の眼の位置を検出することを特徴とする請求項に記載された眼位置検出装置。
  5. 前記眼位置検出手段によって検出された前記被検出者の眼の位置のうち、左右一方の眼の位置を基準として、少なくとも前記一方の眼を含むような大きさを有する追跡領域を前記画像に設定するとともに、当該設定された追跡領域の設定位置に基づき、前記追跡領域の設定基準となる前記画像よりも時系列的に後に撮像された後画像において、前記一方の眼の位置を追跡する追跡手段をさらに有することを特徴とする請求項3または4に記載された眼位置検出装置。
  6. 前記第1の探索領域において前記被検出者の眼の位置が検出された場合に、前記被検出者が前記眼鏡を着用していると判定し、前記第1の探索領域において前記被検出者の眼の位置が検出されなかった場合に、前記被検出者が眼鏡を着用していないと判定する眼鏡判定手段をさらに有することを特徴とする請求項に記載された眼位置検出装置。
  7. 前記眼鏡判定手段は、前記被検出者が前記眼鏡を着用していると判定した場合、前記被検出者の眼の位置が検出された前記第1の探索領域の設定基準となる前記蔓部データを、前記眼鏡の蔓部として特定することを特徴とする請求項に記載された眼位置検出装置。
  8. 前記眼鏡判定手段によって前記眼鏡の蔓部と特定された前記蔓部データと、前記眼位置検出手段によって検出された前記一方の眼との相対的な位置関係が、第1の位置関係として格納される記憶手段と、
    前記追跡手段によって追跡された前記一方の眼の位置を基準に、前記記憶手段に格納された前記第1の位置関係を参照し、前記後画像において前記蔓部データが存在するか否かを確認する確認手段と、
    前記確認手段によって前記蔓部データが存在しないと確認された場合に、前記眼の位置の再検出を判定する再検出判定手段と
    をさらに有することを特徴とする請求項に記載された眼位置検出装置。
  9. 前記眼鏡判定手段によって前記被検出者が前記眼鏡を着用していないと判定された場合に、前記眼位置検出手段によって検出された前記一方の眼と他方の眼との相対的な位置関係が、第2の位置関係として格納される記憶手段と、
    前記追跡手段によって追跡された前記一方の眼の位置を基準に、前記記憶手段に格納された前記第2の位置関係を参照し、前記後画像において前記他方の眼が存在するか否かを確認する確認手段と、
    前記確認手段によって前記他方の眼が存在しないと確認された場合に、前記被検出者の眼の位置の再検出を判定する再検出判定手段と
    をさらに有することを特徴とする請求項に記載された眼位置検出装置。
  10. 前記再検出判定手段によって前記被検出者の眼の位置の再検出が判定された場合に、従前の処理において検出されている前記一方の眼の位置を基準に、当該一方の眼を含むような再検出領域と、前記眼鏡の蔓部を含むような再検出領域とを設定する眼の再検出領域設定手段と、
    前記眼の再検出領域設定手段によって設定された前記再検索領域のそれぞれに、前記一方の眼と前記眼鏡の蔓部とがそれぞれ存在することを条件として前記被検出者の眼の位置を再検出する眼の再検出手段と
    をさらに有することを特徴とする請求項に記載された眼位置検出装置。
  11. 前記再検出判定手段によって前記被検出者の眼の位置の再検出が判定された場合に、従前の処理において検出されている前記一方の眼の位置を基準に、左右の眼を含むような再検出領域を設定する眼の再検出領域設定手段と、
    前記眼の再検出領域設定手段によって設定された前記再検索領域に、前記左右の眼が存在することを条件に前記被検出者の眼の位置を再検出する眼の再検出手段と
    をさらに有することを特徴とする請求項に記載された眼位置検出装置。
  12. 前記被検出者は、車両を運転する運転者であり、
    前記撮像手段は、左右方向において、前記車両のステアリングホイールよりも外側位置に配置されることを特徴とする請求項1に記載された眼位置検出装置。
  13. 前記眼データ検出手段は、前記画像において、上下方向にかけて画像濃度が変化する特徴点をそれぞれ抽出し、当該抽出された抽出点のそれぞれのうち、左右方向にかけて連続性があり、かつ、上に凸となる屈曲形状を有するという条件を具備する抽出点群を前記眼データとして検出することを特徴とする請求項に記載された眼位置検出装置。
  14. 前記第2の探索領域設定手段は、前記眼データ検出手段によって検出された前記眼データを処理対象として前記第2の探索領域を設定するとともに、前記設定された第2の探索領域において前記眼位置検出手段によって前記被検出者の眼の位置が検出されなかった場合には、前記眼データ検出手段によって新たに検出された前記眼データを処理対象として前記第2の探索領域を設定することを特徴とする請求項に記載された眼位置検出装置。
  15. 前記第1の探索領域設定手段は、前記蔓部データ検出手段によって検出された前記蔓部データの左右の端部位置と、前記被検出者に対する前記撮像手段の撮像方向とに基づいて、前記蔓部データの一方の端部を基準点に設定するとともに、当該設定された基準点を基準として、前記被検出者の左右の眼を含む領域を前記第1の探索領域として設定することを特徴とする請求項1に記載された眼位置検出装置。
  16. 前記第2の探索領域設定手段は、前記眼データ検出手段によって検出された前記眼データの位置に基づいて基準点を設定するとともに、当該設定された基準点を基準として、前記被検出者の左右の眼を含む領域を前記第2の探索領域として設定することを特徴とする請求項に記載された眼位置検出装置。
  17. 前記第1の探索領域および前記第2の探索領域は、前記被検出者の顔の正面を基準とした前記撮像手段のオフセット量が大きい程、左右方向の幅が小さく設定されることを特徴とする請求項に記載された眼位置検出装置。
JP2005020331A 2005-01-27 2005-01-27 眼位置検出装置 Expired - Fee Related JP4696571B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005020331A JP4696571B2 (ja) 2005-01-27 2005-01-27 眼位置検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005020331A JP4696571B2 (ja) 2005-01-27 2005-01-27 眼位置検出装置

Publications (2)

Publication Number Publication Date
JP2006209442A JP2006209442A (ja) 2006-08-10
JP4696571B2 true JP4696571B2 (ja) 2011-06-08

Family

ID=36966241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005020331A Expired - Fee Related JP4696571B2 (ja) 2005-01-27 2005-01-27 眼位置検出装置

Country Status (1)

Country Link
JP (1) JP4696571B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4445454B2 (ja) * 2005-10-20 2010-04-07 アイシン精機株式会社 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム
JP4912206B2 (ja) * 2007-04-18 2012-04-11 富士通株式会社 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
KR101046677B1 (ko) 2011-03-15 2011-07-06 동국대학교 산학협력단 눈 위치 추적방법 및 이를 이용한 의료용 헤드램프
WO2017130407A1 (ja) * 2016-01-29 2017-08-03 パイオニア株式会社 情報生成装置、情報生成方法、情報生成プログラム及び記録媒体
DE102016205307A1 (de) * 2016-03-31 2017-10-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Lokalisieren eines Kopfes eines Fahrzeuginsassen

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063850A (ja) * 1996-08-22 1998-03-06 Toyota Motor Corp 顔画像における目の検出方法
JPH10283455A (ja) * 1997-04-02 1998-10-23 Nippon Telegr & Teleph Corp <Ntt> 顔方向検出眼鏡および眼鏡装着顔画像シミュレーション装置
JPH11183127A (ja) * 1997-12-25 1999-07-09 Nissan Motor Co Ltd 眼位置検出装置
JP2002008020A (ja) * 2000-06-26 2002-01-11 Nissan Motor Co Ltd 眼の状態検出装置
JP2003256852A (ja) * 2002-02-28 2003-09-12 Tetsuo Miyake 注視判定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063850A (ja) * 1996-08-22 1998-03-06 Toyota Motor Corp 顔画像における目の検出方法
JPH10283455A (ja) * 1997-04-02 1998-10-23 Nippon Telegr & Teleph Corp <Ntt> 顔方向検出眼鏡および眼鏡装着顔画像シミュレーション装置
JPH11183127A (ja) * 1997-12-25 1999-07-09 Nissan Motor Co Ltd 眼位置検出装置
JP2002008020A (ja) * 2000-06-26 2002-01-11 Nissan Motor Co Ltd 眼の状態検出装置
JP2003256852A (ja) * 2002-02-28 2003-09-12 Tetsuo Miyake 注視判定方法

Also Published As

Publication number Publication date
JP2006209442A (ja) 2006-08-10

Similar Documents

Publication Publication Date Title
US11281288B2 (en) Eye and head tracking
US10796171B2 (en) Object recognition apparatus, object recognition method, and object recognition program
JP6695503B2 (ja) 車両の運転者の状態を監視するための方法及びシステム
CN110167823B (zh) 用于驾驶员监测的系统和方法
US7590262B2 (en) Visual tracking using depth data
CN106965675B (zh) 一种货车集群智能安全作业系统
JP2008146356A (ja) 視線方向推定装置及び視線方向推定方法
JP5127531B2 (ja) 画像監視装置
US20130169536A1 (en) Control of a wearable device
JP4445454B2 (ja) 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム
JP3926507B2 (ja) 目位置及び顔位置検出装置
EP2629241A1 (en) Control of a wearable device
JP2000137792A (ja) 眼部検出装置
JP4770218B2 (ja) 視認行動判定装置
JP4696571B2 (ja) 眼位置検出装置
CN108701345B (zh) 搭乘者检测装置、搭乘者检测系统及搭乘者检测方法
JP6855872B2 (ja) 顔認識装置
JP2010191793A (ja) 警告表示装置及び警告表示方法
JP4313717B2 (ja) 視線検出装置
JP2009265722A (ja) 顔向き検知装置
JP5429885B2 (ja) 特徴点追跡方法及び特徴点追跡装置
JP2004192551A (ja) 開閉眼判定装置
JP6649063B2 (ja) 車両後方表示装置及び表示制御装置
JP3994954B2 (ja) 物体検出装置及び物体検出方法
JP2009278185A (ja) 画像認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110214

LAPS Cancellation because of no payment of annual fees