JP4992823B2 - 顔検出装置及び顔検出方法 - Google Patents

顔検出装置及び顔検出方法 Download PDF

Info

Publication number
JP4992823B2
JP4992823B2 JP2008134276A JP2008134276A JP4992823B2 JP 4992823 B2 JP4992823 B2 JP 4992823B2 JP 2008134276 A JP2008134276 A JP 2008134276A JP 2008134276 A JP2008134276 A JP 2008134276A JP 4992823 B2 JP4992823 B2 JP 4992823B2
Authority
JP
Japan
Prior art keywords
detection
angle
face
eye
opening degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008134276A
Other languages
English (en)
Other versions
JP2009279186A (ja
Inventor
重康 魚住
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008134276A priority Critical patent/JP4992823B2/ja
Publication of JP2009279186A publication Critical patent/JP2009279186A/ja
Application granted granted Critical
Publication of JP4992823B2 publication Critical patent/JP4992823B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Description

本発明は、顔を撮像した顔画像に基づき顔の感覚器の位置などを検出する顔検出装置及び顔検出方法に関し、より特定的には、自動車などの移動体に搭載される顔検出装置及び顔検出方法に関する。
近年、車両などの移動体の運転者の居眠り運転などを防止するための装置が開発されている。このような装置の一例として、例えば、特許文献1に記載の覚醒度推定装置(以下、従来技術と称する)が挙げられる。
従来技術では、運転者の覚醒度を推定するために運転者の顔を正面から撮像した顔画像に基づき運転者の眼の開度を検出する。より詳細には、従来技術では、逐次撮像される顔画像の濃度エッジを検出する処理などをすることにより、顔画像における運転者の左右の眉、左右の眼、鼻、及び口などの感覚器や摂食器などの位置をそれぞれ検出する。従来技術では、眼の位置を検出すると、検出した眼の位置を基準として眼の瞼の開度を検出するための画像処理をする矩形領域を設定する。
特開2007−241937号公報
しかしながら、上記従来技術では、次に示すような課題を有している。すなわち、従来技術では、左右のいずれか一方の片眼の位置が検出できないときは、前述の矩形領域を設定することなく、顔画像における感覚器や摂食器などの位置を検出する処理を再びする。つまり、上記従来技術では、左右のいずれか一方の片眼の位置が検出できないときは、眼の開度を検出して運転者の覚醒度を推定する処理を開始することができない。
それ故に本発明は、左右のいずれか一方の片眼の位置を検出できないと推定されるときでも、瞼の開度を検出することのできる顔検出装置及び顔検出方法を提供することを目的とする。
上記課題を解決するために、本発明は以下に述べる特徴を有する。
第1の発明は、撮像手段を用いて使用者の顔を撮像した顔画像に基づき瞼の開度を検出する顔検出装置であって、撮像手段によって撮像された顔画像に基づき使用者の左右方向の顔の向きの角度を検出する角度検出手段と、角度の絶対値が予め定められた閾値以下であるとき、顔画像の両眼の画像に基づき両眼のそれぞれの瞼の開度を検出する第1の検出手段と、角度の絶対値が閾値を超えるとき、顔画像の左右のいずれか一方の片眼の画像に基づき片眼の瞼の開度を検出する第2の検出手段とを備える。
第2の発明は、第1の発明に従属する発明であって、角度検出手段は、顔画像における使用者の2つの鼻孔の中点を垂直に通る中心線と、当該使用者の顔の輪郭の両端をそれぞれ垂直に通る2つの線とのそれぞれの間隔の比に基づき角度を検出する。
第3の発明は、第1の発明に従属する発明であって、第2の検出手段は、顔画像に基づき使用者の鼻の位置を感覚器の位置として検出する鼻検出手段と、角度の正負の符号に基づき、鼻の位置を基準としてそれぞれ予め定められる左右の眼の位置のいずれか一方を選択する選択手段と、片眼の位置を検出する処理の対象となる探索領域が片眼の画像を含むように、当該探索領域の顔画像上の位置を選択手段によって選択された位置に設定する設定手段と、設定手段によって設定された探索領域に含まれる片眼の画像に基づき当該片眼の瞼の開度を検出する開度検出手段とを含む。
第4の発明は、第3の発明に従属する発明であって、開度検出手段は、設定手段によって設定された探索領域の顔画像の画素の中から片眼の上下瞼の候補を抽出する抽出手段と、抽出手段によって抽出された上下瞼の候補の中から瞬きをした上下瞼を特定する特定手段と、特定手段によって特定された上下瞼の開度を片眼の瞼の開度として検出する特定開度検出手段とを含む。
第5の発明は、第4の発明に従属する発明であって、特定開度検出手段は、特定手段によって特定された上下瞼の垂直方向の間隔の内、最も長い間隔を片眼の瞼開度として検出し、当該瞼開度を示すデータを生成する生成手段をさらに含む。
第6の発明は、第2の発明に従属する発明であって、予め定められた間隔で角度検出手段によって検出されるたびに角度を更新して記憶する記憶手段をさらに備え、角度検出手段は、角度を検出するとき、記憶手段に記憶されている更新後の角度の絶対値が閾値を超えるとき、両眼を除く顔画像に基づいて次の角度を検出する。
第7の発明は、第6の発明に従属する発明であって、第1の検出手段が検出を完了したときに記憶手段に記憶されている更新後の角度の絶対値が閾値を超えるとき、当該閾値を当該絶対値に再設定する第1の再設定手段と、第2の検出手段が検出を完了したときに記憶手段に記憶されている更新後の角度の絶対値が閾値未満であるとき、当該閾値を当該絶対値に再設定する第2の再設定手段とをさらに備える。
第8の発明は、第1の発明に従属する発明であって、第1の検出手段は、両眼のそれぞれの瞬きの検出結果に基づき両眼の瞼の開度をそれぞれ検出し、当該両眼の瞬きを共に検出できないとき、第2の検出手段による検出処理に切り替えて瞼の開度の検出を続ける切替手段をさらに備える。
第9の発明は、撮像装置によって使用者の顔を撮像した顔画像に基づき当該使用者の顔の感覚器の位置を検出する顔検出装置において実行される検出方法であって、撮像装置によって撮像された顔画像に基づき使用者の左右方向の顔の向きの角度を検出する角度検出ステップと、角度の絶対値が予め定められた閾値以下であるとき、顔画像の両眼の画像に基づき両眼のそれぞれの瞼の開度を検出する第1の検出ステップと、角度の絶対値が閾値を超えるとき、顔画像の左右のいずれか一方の片眼の画像に基づき片眼の瞼の開度を検出する第2の検出ステップとを備える。
第10の発明は、第9の発明に従属する発明であって、角度検出ステップにおいて、使用者の2つの鼻孔の中点を垂直に通る中心線と、当該使用者の顔の輪郭の両端をそれぞれ垂直に通る2つの線とのそれぞれの間隔の比に基づき角度を検出する。
第11の発明は、第9の発明に従属する発明であって、第2の検出ステップは、顔画像に基づき使用者の鼻の位置を感覚器の位置として検出する鼻検出ステップと、角度の正負の符号に基づき、鼻の位置を基準としてそれぞれ予め定められる左右の眼の位置のいずれか一方を選択する選択ステップと、片眼の位置を検出する処理の対象となる探索領域が片眼の画像を含むように、当該探索領域の顔画像上の位置を選択ステップにおいて選択された位置に設定する設定ステップと、設定ステップにおいて設定された探索領域に含まれる片眼の画像に基づき当該片眼の瞼の開度を検出する開度検出ステップとを含む。
第12の発明は、第11の発明に従属する発明であって、開度検出ステップは、設定ステップにおいて設定された探索領域の顔画像の画素の中から片眼の上下瞼の候補を抽出する抽出ステップと、抽出ステップにおいて抽出された上下瞼の候補の中から瞬きをした上下瞼を特定する特定ステップと、特定ステップにおいて特定された上下瞼の開度を片眼の瞼の開度として検出する特定開度検出ステップとを含む。
第13の発明は、第12の発明に従属する発明であって、特定開度検出ステップは、特定ステップにおいて特定された上下瞼の垂直方向の間隔の内、最も長い間隔を片眼の瞼開度として検出し、当該瞼開度を示すデータを生成する生成ステップをさらに含む。
第14の発明は、第10の発明に従属する発明であって、予め定められた間隔で角度検出ステップを繰り返す繰り返しステップと、繰り返しステップによって角度検出ステップが繰り返されるたびに検出された角度を更新して記憶する記憶ステップと、繰り返しステップによって角度検出ステップを繰り返すとき、記憶ステップによる更新後の角度の絶対値が閾値を超えるか否かを判断する判断ステップと、判断ステップにおいて角度の絶対値が閾値を超えると判断したとき、両眼を除く顔画像に基づいて次の角度を検出する別角度検出ステップとをさらに備える。
第15の発明は、第14の発明に従属する発明であって、第1の検出ステップを完了したときの記憶ステップにおける更新後の角度の絶対値が閾値を超えるとき、当該閾値を当該絶対値に再設定する第1の再設定ステップと、第2の検出ステップを完了したときに記憶ステップにおける更新後の角度の絶対値が閾値未満であるとき、当該閾値を当該絶対値に再設定する第2の再設定ステップとをさらに備える。
第16の発明は、第9の発明に従属する発明であって、第1の検出ステップにおいて、両眼のそれぞれの瞬きの検出結果に基づき両眼の瞼の開度をそれぞれ検出し、当該両眼の瞬きを共に検出できないとき、第2の検出ステップに切り替えて瞼の開度の検出を続ける切替ステップをさらに備える。
第1の発明によれば、顔画像に基づいて検出した顔の向きの角度の絶対値が予め定めた閾値を越えるとき、すなわち、使用者の左右のいずれか一方の片眼が撮像手段の死角に入ると考えられるときには、顔画像に撮像されているもう一方の片眼の画像に基づき当該片眼の瞼の開度を検出するため、両眼が撮像手段の撮像範囲に含まれなくても、左右のいずれか一方の片眼の瞼の開度を検出することができる。
第2の発明によれば、使用者の顔の2つの鼻孔と輪郭の両端とを検出するだけで顔の向きの角度を検出することができる。
第3の発明によれば、使用者の左右のいずれか一方の片眼が撮像手段の死角に入ると考えられるときに、角度の正負の符号に基づいて顔が左右のいずれに向けられているかを判断し、判断した方向に対応する探索領域を設定して、片眼の瞼の開度を検出することができる。
第4の発明によれば、探索領域に含まれる複数の上下瞼候補の瞬きを検出し、瞬きをした上下瞼候補を真の片眼の上下瞼であると判断するため、真の片眼の瞼の開度を検出することができる。
第5の発明によれば、真の片眼の瞼開度を示すデータを生成するため、本発明に係る顔検出装置に接続される他の装置が真の片眼の瞼開度に基づいて使用者の状態を判断することができる。
第6の発明によれば、最新の顔の向きの角度を常に記憶手段に記憶させることができ、さらに、記憶手段に記憶されている顔の向きの角度が閾値を越えているとき、すなわち、使用者の左右のいずれか一方の片眼が撮像手段の死角に入っていると考えられるときは、眼の領域を除く顔画像に基づいて次の顔の向きの角度を検出するため、顔の向きの角度の検出精度が低下するのを防ぐことができる。
第7の発明よれば、第1の検出手段による検出が完了したとき、すなわち、両眼の画像に基づいて両眼のそれぞれの瞼の開度が検出できたのにも拘わらず、記憶手段に記憶されている最新の顔の向きの角度が閾値を越えている、すなわち、左右のいずれか一方の片眼が撮像手段の死角に入ると判断されるときには、最新の顔の向きの角度を閾値として設定することにより、両眼の画像に基づいて両眼のそれぞれの瞼の開度が検出できるときの顔の向きの角度を閾値として学習することができる。一方、第2の検出手段による検出が完了したとき、すなわち、片眼の画像に基づいて片眼の瞼の開度が検出できたのにも拘わらず、記憶手段に記憶されている最新の顔の向きの角度が閾値未満であるとき、すなわち、両眼の画像に基づいて両眼のそれぞれの瞼の角度を検出できるときには、最新の顔の向きの角度を閾値として設定することにより、片眼の画像に基づいて片眼の瞼の開度が検出できるとき、すなわち、左右のいずれか一方の片眼が撮像手段の死角に入るときの顔の向きの角度を閾値として学習することができる。つまり、第7の発明によれば、両眼の画像に基づいて両眼のそれぞれの瞼の開度を検出できるときと、左右のいずれか一方の片眼が撮像手段の死角に入るときとの顔の向きの角度の強化位置を閾値として学習することができる。
第8の発明によれば、顔の向きの角度が閾値以下であるとき、すなわち、両眼の画像に基づき両眼のそれぞれの瞼の開度を検出できると判断した後に、両眼の瞬きを共に検出できないと、すなわち、左右のいずれか一方の片眼の瞬きのみを検出できるときには、処理を最初に戻すことなく、片眼の瞼の開度を検出するための第2の検出手段による検出処理に切り替えて瞼の開度の検出を続けることができる。
また、本発明の検出方法によれば、上述した本発明に係る顔検出装置と同様の効果を得ることができる。
(第1の実施形態)
以下、図1乃至図9を適宜参照して本発明の第1の実施形態に係る顔検出装置13について説明する。尚、本実施形態では、顔検出装置13を含む運転者監視システム1と車両制御システム2とが、車両に搭載される例について説明する。運転者監視システム1は、搭載される車両の運転者の顔の画像を撮像し、撮像した画像に基づいて運転者の状態を監視するシステムである。顔検出装置13は、上記の画像中で運転者の左右の眼の位置や瞬きなどを検出する。
まず、図1を参照して運転者監視システム1の機能構成について説明する。図1は、本実施形態に係る顔検出装置13を含む運転者監視システム1の機能構成を示す機能ブロック図である。
運転者監視システム1は、CAN(Controller Area Network)などを介して車両制御システム2に接続される。運転者監視システム1は、近赤外照明11と、近赤外カメラ12と、顔検出装置13とからなる。
近赤外照明11は、近赤外光を発する照明装置であり、典型的には、近赤外光を発するLED(Light Emitting Diode)である。近赤外照明11は、近赤外光が運転者に照射されるように車両内に配置される。
近赤外カメラ12は、近赤外領域で高い感度特性を有する撮像装置であり、典型的には、近赤外CCDカメラである。近赤外領域で高い感度特性を有するカメラを用いることにより、夜間やトンネル内などを走行中で車内が暗い状況でも、近赤外照明11に照らされた撮像対象を感度良く撮像することが可能である。近赤外カメラ12は運転者の顔を撮像可能な位置に配置される。近赤外カメラ12は運転者の顔、及びその周囲の画像を撮像し、撮像された画像を示すデータを、1フレーム分の画像を撮像するたびに生成する。以下では近赤外カメラ12によって撮像される画像を顔画像と称する。また、近赤外カメラ12が顔画像を示すデータ(以下、顔画像データと称する)を生成する間隔は、必ずしも1フレーム分の顔画像を撮像するたびでなくてもよく、その他の好ましい間隔であってもよい。
顔検出装置13は、典型的にはECU(Electric Control Unit)であり、メモリ131などの記憶装置、顔向き検出マイコン132、及び特徴点検出マイコン133などの情報処理装置、及びインターフェース回路などを備える処理装置である。顔検出装置13は、近赤外カメラ12によって生成される顔画像データを取得し、取得した顔画像データを顔向き検出マイコン132、及び特徴点検出マイコン133などの情報処理装置で処理する。そして、顔検出装置13は、顔画像データの処理結果を示すデータを生成する。
メモリ131は、典型的にはRAM(Random Access Memory)などの記憶装置であり、後述する角度閾値及び顔向き角度を記憶する。メモリ131は、他にも、顔向き検出マイコン132、及び特徴点検出マイコン133がテンプレートマッチングやパターンマッチングなどの画像処理をするためのテンプレート画像などを記憶してもよい。
顔向き検出マイコン132は、典型的にはマイクロコンピュータなどの情報処理装置である。顔向き検出マイコン132は、顔検出装置13によって取得された顔画像データを処理することにより、当該顔画像データが示す顔画像に撮像されている運転者の左右方向の顔の向きの角度を顔向き角度として検出する。顔向き検出マイコン132は、顔検出装置13によって取得される顔画像データを処理することにより、予め定められた間隔で顔向き角度を検出し、メモリ131に記憶されている顔向き角度を更新する。これにより、メモリ131には、常に最新の顔向き角度が記憶される。
また、本実施形態に係る顔向き検出マイコン132は、顔画像に両眼が撮像されているときに適した第1の角度検出処理と、顔画像に左右のいずれか一方の片眼が撮像されているときに適した第2の角度検出処理とのいずれか一方の処理を顔向き角度に基づいて選択し、選択した角度検出処理で顔向き角度を検出する。
ここで、図2を参照して、本発明における顔向き角度について説明する。図2は顔画像、及び当該顔画像が撮像された時点の運転者の頭部の上面図である。本実施形態では運転者の頭部は頭頂部を上面とする円柱形状を成しているものと見なす。尚、顔は円柱状の頭部の中心線を中心に回転する。図2に示す顔向き角度αの値は、近赤外カメラ12に対して正面を向いた状態でα=0である。そして、顔が近赤外カメラ12に対して正面を向いた状態から右方向へ向くほど顔向き角度αの値は大きくなる。一方、顔が近赤外カメラ12に対して正面を向いた状態から左方向へ向くほど顔向き角度αの値は小さくなる。したがって、顔向き角度αの値は、顔が右方向へ向くと正の値となり、左方向へ向くと負の値となる。また、運転者が左方向を向いているか右方向を向いているかを顔向き角度αの符号に基づいて判断することができる。
本実施形態に係る顔向き検出マイコン132は、顔向き角度αを検出するときに、メモリ131に記憶されている顔向き角度αと前述の角度閾値とを比較した結果に基づいて適した角度検出処理を選択する。以下、図3を参照しながら顔向き検出マイコン132の角度検出処理について説明をする。
本実施形態に係る顔向き検出マイコン132は、後述するように顔画像の対称性を検証した結果に基づいて顔向き角度αを検出する。このとき、例えば、図3(a)に示すように、運転者が右方向へ顔を向けているときの顔向き角度αが相対的に小さいときは、顔の対称な位置に存在する両眼を共に含む顔画像が近赤外カメラ12によって撮像されると推定され、対称性の検証結果は精度が相対的に高くなり、精度の高い顔向き角度αを検出することができる。
これに対して、例えば、運転者が右方向へ顔を向けているときの顔向き角度αが相対的に大きいと、図3(b)に破線で示すように右眼が鼻に隠れてしまうなどの原因で近赤外カメラ12の死角に入り、左眼のみを含む顔画像が近赤外カメラ12によって撮像されると推定され、対称性の検証結果の精度は相対的に低くなり、検出された顔向き角度αの精度も相対的に低くなる。これは、運転者が左方向へ顔を向けているときも同様である。
そこで、本実施形態に係る顔向き検出マイコン132は、メモリ131に記憶されている顔向き角度αと前述の角度閾値とを比較することにより、顔画像に両眼が撮像されているか、左右のいずれか一方の片眼が撮像されているかを推定する。より具体的には、本実施形態に係る顔向き検出マイコン132は、顔向き角度αが角度閾値を超えないときに、顔画像に両眼が撮像されると推定し、顔画像に両眼が撮像されているときに適した角度検出処理である第1の角度検出処理をして顔向き角度αを検出する。
一方、本実施形態に係る顔向き検出マイコン132は、メモリ131に記憶されている顔向き角度αと前述の角度閾値とを比較して、顔向き角度αが角度閾値を超えるときに、顔画像において左右のいずれか一方の片眼のみが撮像されると推定し、顔画像に片眼が撮像されているときに適した角度検出処理である第2の角度検出処理をして顔向き角度αを検出する。詳細な説明は後述するが、第2の角度検出処理では、顔画像において眼が撮像されている領域を推定し、推定した領域を処理の対象から除外して対称性の検証をする。
第2の角度検出処理では、顔画像において眼が撮像される領域、すなわち、精度の高い対称性の検証ができない領域を対称性の検証の対象から除外することにより、検証結果の精度の低下を防ぐことができ、顔画像に片眼のみが撮像されると推定されるときでも精度の高い顔向き角度αを検出することができる。また、本実施形態に係る顔向き検出マイコン132は、メモリ131に記憶されている顔向き角度αと角度閾値とを比較するという負荷の低い処理をするだけで顔画像において左右の眼のいずれか一方のみが撮像されるときを推定して、判断することができる。
以上が、顔向き検出マイコン132の説明である。尚、角度閾値は、顔画像において両眼が共に撮像されているときと、左右のいずれか一方の片眼が撮像されているときとを顔向き検出マイコン132が推定して判断するための閾値としてメモリ131に予め記憶させておく必要がある。図3から明らかなように、顔画像において左右のいずれか一方の片眼のみが撮像されるときは、運転者が左右のいずれか一方に大きく顔を向けたとき、すなわち、顔向き角度αの絶対値がある一定の値以上となったときである。つまり、角度閾値は、顔向き角度αの絶対値に対する閾値として予め定めることができる。
次に、特徴点検出マイコン133について説明をする。特徴点検出マイコン133は、典型的にはマイクロコンピュータなどの情報処理装置である。特徴点検出マイコン133は、顔検出装置13によって取得された顔画像を処理することにより、運転者の左右の少なくともいずれか一方の眼の瞬きの有無、すなわち、瞼の開閉の有無を検出する。そして、特徴点検出マイコン133は、瞬きの有無の検出結果に基づいて、顔画像における運転者の左右の少なくともいずれか一方の眼の位置を顔の感覚器の位置として検出する位置検出処理をする。以下、特徴点検出マイコン133の位置検出処理について説明する。尚、本実施形態に係る特徴点検出マイコン133の詳細な処理については後述する。
本実施形態に係る特徴点検出マイコン133が、位置検出処理をするときは、まず、両眼、又は片眼のいずれが顔画像に撮像されているかを顔向き角度αに基づいて推定する。より詳細には、特徴点検出マイコン133は、メモリ131に記憶されている顔向き角度α、すなわち、最新の顔向き角度αに基づき、両眼、又は片眼のいずれが顔画像に撮像されているかを推定する。推定をすると、特徴点検出マイコン133は、顔画像に両眼が撮像されているときに適した第1の位置検出処理と、顔画像に左右のいずれか一方の片眼が撮像されているときに適した第2の位置検出処理とのいずれか一方の処理を推定結果に基づいて選択する。
特徴点検出マイコン133は、メモリ131に記憶されている顔向き角度αと角度閾値とを比較して、顔向き角度αが角度閾値以下であるとき、すなわち、上述したように両眼を共に含む顔画像が近赤外カメラ12によって撮像されるときと推定されるとき、両眼のそれぞれに対応する瞼探索領域を設定して両眼の位置をそれぞれ検出する第1の位置検出処理をする。特徴点検出マイコン133が、両眼のそれぞれに対応する瞼探索領域を設定する位置は、顔画像における運転者の鼻の位置を基準として統計的に既知の位置である。
一方、特徴点検出マイコン133は、メモリ131に記憶されている顔向き角度αと角度閾値とを比較して、顔向き角度αが角度閾値を超えているときは、顔画像に撮像されている左右のいずれか一方の片眼に対応する1つの瞼探索領域を設定して片眼の位置を検出する第2の位置検出処理をする。特徴点検出マイコン133が、左右のいずれか一方の片眼に対応する瞼探索領域を設定する位置は、顔画像における運転者の鼻の位置を基準として統計的に既知の位置である。
顔向き角度αが角度閾値を越えているときに、前述の第1の位置検出処理と同様に2つの瞼探索領域を設定すると、顔画像に撮像されていないいずれか一方の片眼に対応する瞼探索領域では瞬きを検出することができなくなる。そこで、本実施形態に係る特徴点検出マイコン133は、顔向き角度αが角度閾値を越えているときに第2の角度検出処理をして顔画像に撮像されている片眼に対応する瞼探索領域を設定することにより、瞬きを検出することのできない瞼探索領域を設定することなく、顔画像に撮像されている片眼の位置を検出することができる。尚、顔向き角度αが角度閾値を越えているときに左右のいずれの瞼探索領域を設定するかは、特徴点検出マイコン133が、角度閾値αの符号に基づいて判断する。
第1の位置検出処理、又は第2の位置検出処理において瞼探索領域を設定すると、特徴点検出マイコン133は、設定した瞼探索領域においてテンプレートマッチングやエッジ検出処理をすることにより瞬きの検出をする。そして、特徴点検出マイコン133は、瞬きをした眼の位置を真の眼の位置であると判断し、感覚器の位置として検出する。真の眼の位置を検出すると、特徴点検出マイコン133は、真の眼の瞼開度を検出して、検出した瞼の開度を示すデータを生成する。尚、瞼開度とは、片眼、又は両眼の瞼がそれぞれどの程度開いているかを示す値のことである。
また、本実施形態に係る特徴点検出マイコン133は、第1の位置検出処理において、両眼の瞬きを共に検出したときの顔向き角度αが角度閾値を超えるとき、メモリ131に記憶されている角度閾値を当該顔向き角度αの絶対値に再設定する。一方、特徴点検出マイコン133は、第1の位置検出処理において両眼の瞬きを共に検出できないとき、位置検出処理を第2の位置検出処理に切り替えて左右のいずれか一方の片眼の瞬きを検出する。そして、特徴点検出マイコン133は、第2の位置検出処理において左右のいずれか一方の片眼の瞬きを検出したときの顔向き角度αが角度閾値未満であるとき、メモリ131に記憶されている角度閾値を当該顔向き角度αの絶対値に再設定する。
特徴点検出マイコン133が、第1の位置検出処理において両眼の瞬きを共に検出したときに上述したように角度閾値を再設定し、一方で、第2の位置検出処理において左右のいずれか一方の片眼の瞬きを検出したときに上述したように角度閾値を再設定することにより、メモリ131に記憶されている角度閾値は、顔画像において運転者の両眼が撮像されるときと左右のいずれか一方の片眼が撮像されるときとの顔向き角度αの境界値に収束する。つまり、特徴点検出マイコン133は、第1及び第2の位置検出処理の結果に基づき上述したように角度閾値を再設定することにより、顔画像において運転者の両眼が撮像されるときと左右のいずれか一方の片眼が撮像されるときとの顔向き角度αの境界値を学習することができる。これにより、顔向き検出マイコン132及び特徴点検出マイコン133のそれぞれは、学習した角度閾値を用いて処理を選択するため、より正確に適した処理を判断することができる。以上が、本実施形態に係る特徴点検出マイコン133の説明である。
次に、車両制御システム2について説明する。車両制御システム2には、プリクラッシュ制御システムなどの車両を制御するシステムが含まれる。例えば、プリクラッシュ制御システムは、運転者の覚醒状態や脇見運転などを顔向き検出マイコン132によって検出される顔向き角度α、特徴点検出マイコン133によって検出される運転者の左右の眼のそれぞれの位置、及び左右の眼のそれぞれの瞼開度などの運転者の状態を示すデータに基づいて判断することができる。この判断により、プリクラッシュ制御システムは、車両と障害物との衝突の危険を報ずる警告や、衝突回避走行の制御などを実行するタイミングを、上記の運転者の覚醒状態などに応じて決定する。以上が、車両制御システム2の説明である。
次に、本実施形態に係る顔向き検出マイコン132、及び特徴点検出マイコン133の処理をそれぞれ詳細に説明する。尚、本実施形態に係る顔向き検出マイコン132、及び特徴点検出マイコン133はそれぞれ処理を並行しているものとする。
まず、本実施形態に係る顔向き検出マイコン132の処理を図4に示すフローチャートを参照しながら説明する。尚、メモリ131には、顔向き検出マイコン132、及び特徴点検出マイコン133がそれぞれ図4及び図7のフローチャートに示す処理をする前に、上述したように定められた角度閾値θが予め記憶されているものとする。
図4のステップS101において、顔向き検出マイコン132は、顔検出装置13によって取得された顔画像の所定方向(例えば、垂直方向)に対してソーベルフィルタ処理をする。そして、顔向き検出マイコン132は、処理後のソーベル画像内における輝度の差を用いて、当該ソーベル画像内から垂直方向のエッジを抽出して、垂直方向エッジ部分を白、垂直方向エッジでない部分を黒で表示する2値の垂直方向エッジ画像を示す垂直方向エッジ画像データを生成する。顔向き検出マイコン132は、ステップS101の処理を完了すると、ステップS102へ処理を進める。
ステップS102において、顔向き検出マイコン132は、垂直方向エッジ画像における運転者の顔の幅を算出する処理をする。より詳細には、顔向き検出マイコン132は、垂直方向エッジ画像における垂直方向エッジの分布を示すヒストグラム(垂直方向エッジヒストグラム)を生成し、運転者の顔右端、及び顔左端を抽出して、抽出した顔右端及び顔左端に基づき、図2に示す顔画像における顔の右端及び左端の水平方向の位置をそれぞれ示す右端ER及び左端ELを検出する。右端ER、及び左端ELは、それぞれ図2に示す原点を基準とした顔画像における水平方向の位置を示す。右端ER、及び左端ELを検出すると、顔向き検出マイコン132は、検出した左端ELから右端ERを減算した長さを、運転者の顔幅Wとして算出する。顔向き検出マイコン132は、ステップS102の処理を完了すると、ステップS103へ処理を進める。
ステップS103において、顔向き検出マイコン132は、ステップS102で顔幅Wが算出できたか否かを判断する。顔向き検出マイコン132は、ステップS103において、顔幅Wが算出できたと判断したとき、ステップS104へ処理を進める。一方、顔向き検出マイコン132は、ステップS103において、顔幅Wを検出できないと判断したとき、ステップS101へ処理を戻す。
ステップS104において、顔向き検出マイコン132は、顔画像における運転者の感覚器(両眼及び鼻など)や摂食器(口)などの顔部品がそれぞれ撮像されている領域(顔部品領域)を推定する。より詳細には、顔向き検出マイコン132は、顔画像の所定方向(例えば、水平方向)にソーベルフィルタ処理をする。そして、顔向き検出マイコン132は、処理後のソーベル画像内における輝度の差を用いて、当該ソーベル画像内から水平方向のエッジを抽出して、水平方向エッジ部分を白、水平方向エッジでない部分を黒で表示する2値の水平方向エッジ画像を示す水平方向エッジ画像データを生成する。そして、顔向き検出マイコン132は、水平方向エッジ画像に対して任意のフィルタ処理をすることにより顔部品が強調された画像(例えば、白黒白エッジ画像)を示すデータを生成する。
顔部品が強調された画像を示すデータを生成すると、顔向き検出マイコン132は、顔部品が強調された画像における眼の下側の輪郭の垂直方向の位置である目下位置を基準として、予め定められた垂直方向の間隔にある口下位置、及び眉上位置をそれぞれ図5に示すように特定する。そして、顔向き検出マイコン132は、目下位置、口下位置、及び眉上位置をそれぞれ特定すると、それぞれの位置の間の水平方向の領域を口領域、鼻領域、及び眼領域として推定する。尚、鼻領域は、目下位置及び口下位置の中点と目下位置との間の水平方向の領域として推定する。また、図5に示す予め定められる垂直方向の間隔MM、及びMKはそれぞれ統計的に既知の間隔であってもよいし、任意の間隔であってもよい。顔向き検出マイコン132は、ステップS104の処理を完了すると、ステップS105へ処理を進める。
ステップS105において、顔向き検出マイコン132は、メモリ131に記憶されている最新の顔向き角度α、及び角度閾値θをそれぞれ取得する。顔向き検出マイコン132は、ステップS105の処理を完了すると、ステップS106へ処理を進める。
ステップS106において、顔向き検出マイコン132は、ステップS105で取得した顔向き角度α、及び角度閾値θを比較する。より詳細には、顔向き検出マイコン132は、ステップS105で取得した顔向き角度αの絶対値を算出し、当該絶対値が角度閾値θ以下であるか否かを判断する。顔向き検出マイコン132は、ステップS106において、顔向き角度αの絶対値が角度閾値θ以下であると判断したとき、ステップS107へ処理を進める。一方、顔向き検出マイコン132は、ステップS106において、顔向き角度αの絶対値が角度閾値θ以下でないと判断したとき、ステップS110へ処理を進める。
ステップS107において、顔向き検出マイコン132は、ステップS104で推定した顔部品領域の画素に基づき、顔画像における顔の中心線の水平方向の位置を示す中心C(図2参照)を求める。より詳細には、顔向き検出マイコン132は、前述の顔部品が強調された画像における垂直方向の1つの画素列を仮想的な中心線として設定し、設定した中心線を中心とする顔部品領域の画素の左右対称性を検証する。顔向き検出マイコン132は、顔部品が強調された画像の垂直方向の画素列の全て、又は1以上の垂直方向の画素列を仮想的な中心線として設定し、それぞれの画素列を中心線としたときの左右対称性を検証する。そして、顔部品が強調された画像において、最も左右対称性の高い仮想的な中心線の水平方向の位置を中心Cとして検出する。顔向き検出マイコン132は、ステップS107の処理を完了すると、ステップS108へ処理を進める。
ステップS108において、顔向き検出マイコン132は、中心Cを検出できたか否かを判断する。顔向き検出マイコン132は、ステップS108において、中心Cを検出できたと判断したとき、ステップS109へ処理を進める。一方、顔向き検出マイコン132は、ステップS108において、中心Cを検出できなかったと判断したとき、ステップS101へ処理を戻す。
ステップS109において、顔向き検出マイコン132は、ステップS102、及びステップS107においてそれぞれ検出された左端EL、右端ER、及び中心Cを用いて、顔の左右比率を算出する。顔の左右比率を算出すると、顔向き検出マイコン132は、算出した左右比率を角度に換算して運転者の顔向き角度αを検出し、メモリ131に記憶されている顔向き角度αを更新する。
より詳細には、顔向き検出マイコン132は、図2に示す左端ELから顔の中心Cまでの幅WLと、右端ERから顔の中心Cまでの幅WRとをそれぞれ算出する。幅WL、及び幅WRをそれぞれ算出すると、顔向き検出マイコン132は、算出した幅WL、及び幅WRに基づいて顔向き角度αを算出する。図2に示すように、顔が近赤外カメラ12に対して正面を向いている場合、幅WR、及び幅WLは同値である。一方、顔が右を向いている場合、幅WRに比べ幅WLの方が大きい。すなわち、顔向き角度αの大きさに応じて、幅WR、及び幅WLの値の比率が変化する。そこで、顔向き検出マイコン132は、幅WR、及び幅WLの値の比率を、顔向き角度αの値に換算するデータテーブルを予め記憶し、幅WR、幅WL、及び当該データテーブルに基づいて顔向き角度αを検出して、メモリ131に記憶されている顔向き角度αを更新する。
顔向き検出マイコン132は、ステップS109の処理を完了すると、ステップS101へ処理を戻す。
ステップS110において、顔向き検出マイコン132は、ステップS104において推定した顔部品領域の内、眼領域を左右対称性の判断から除外する処理をする。顔向き検出マイコン132が、眼領域を左右対称性の判断の対象から除外する手法の一例としては、図6に示すように、当該領域の画素を全て白にする処理が挙げられる。図6は、運転者が右方向に大きく顔を向けているときの画像から得られた前述の顔部品を強調した画像における眼領域の画素を全て白にした画像の一例を示す図である。顔向き検出マイコン132は、ステップS110の処理を完了すると、ステップS111へ処理を進める。
ステップS111において、顔向き検出マイコン132は、ステップS110において眼領域を除外する処理をした画像に対して前述の左右対称性の検証をして、前述の中心Cを検出する。顔向き検出マイコン132は、ステップS111の処理を完了すると、ステップS108へ処理を進める。
以上が、本実施形態に係る顔向き検出マイコン132が顔向き角度αを検出するための角度検出処理の説明である。尚、図4に示すフローチャートでは、ステップS101〜ステップS107〜ステップS109の一連の処理が上述した第1の角度検出処理に相当し、ステップS101〜ステップS110〜ステップS109の一連の処理が上述した第2の角度検出処理に相当する。そして、顔向き検出マイコン132は、ステップS106において顔向き角度αの絶対値が角度閾値θ以下でないとき、ステップS110へ処理を進めることにより、第2の角度検出処理を選択して切り替える。本実施形態に係る顔向き検出マイコン132は、顔向き角度αの絶対値と角度閾値θとを比較するだけの低い負荷の処理をして、片眼、又は両眼のいずれが顔画像に撮像されているかを推定し、第1の角度検出処理及び第2の角度検出処理のいずれか一方の適した処理を選択することができる。
また、図4のフローチャートの説明の内、ステップS101〜ステップS104、ステップS107、ステップS109、及びステップS111の処理の説明はそれぞれ一例であり、それぞれの処理で必要な結果と同様の結果が得られるのであれば、他の任意の手法を用いてもよい。
また、顔向き検出マイコン132は、顔向き角度αを検出するための顔画像に対する前処理として、取得した顔画像の画素を間引く処理などをしてもよい。これにより、上述したソーベルフィルタ処理、及び左右対称性の検証の処理などの画像処理をするときの顔向き検出マイコン132の処理負荷を軽減することができる。顔向き検出マイコン132が顔画像を間引く処理をするときは、ソーベル画像や白黒白エッジ画像などに基づいて検出した左端EL、右端ER、幅WL、幅WR及び中心Cなどの位置を、元の顔画像の座標系に変換する処理をしてもよい。以上が、本実施形態に係る顔向き検出マイコン132が、顔向き角度αを検出するための角度検出処理の手法の一例の説明である。
次に、本実施形態に係る特徴点検出マイコン133の処理を図7に示すフローチャートを参照しながら説明する。ステップS201において、特徴点検出マイコン133は、顔検出装置13によって取得された顔画像から運転者の鼻孔の位置を前述の感覚器の位置として検出する。より詳細には、特徴点検出マイコン133は、前述の鼻領域を示すデータを顔向き検出マイコン132から取得し、取得したデータに基づいて鼻孔の位置を検出するための鼻孔探索領域を設定する。そして、特徴点検出マイコン133は、設定した鼻孔探索領域内の顔画像から輝度が相対的に低い画素を検出し、それら低輝度画素群の円らしさを算出する。そして、特徴点検出マイコン133は、円らしさが最も高い2つの低輝度画素群からなる2つの円の位置をそれぞれ運転者の2つの鼻孔と判断し、2つの鼻孔の中点の位置を鼻孔の位置として検出する。特徴点検出マイコン133は、ステップS201の処理を完了すると、ステップS202へ処理を進める。
ステップS202において、特徴点検出マイコン133は、ステップS201において鼻孔の位置を検出できたか否かを判断する。特徴点検出マイコン133は、ステップS201において鼻孔の位置を検出できたと判断したとき、ステップS203へ処理を進める。一方、特徴点検出マイコン133は、ステップS202において鼻孔の位置を検出できなかったと判断したとき、ステップS201へ処理を戻す。
ステップS203において、特徴点検出マイコン133は、メモリ131に記憶された顔向き角度α、及び角度閾値θをそれぞれ取得する。特徴点検出マイコン133は、ステップS201の処理を完了すると、ステップS204へ処理を進める。
ステップS204において、特徴点検出マイコン133は、ステップS203で取得した顔向き角度αの絶対値、及び角度閾値θを比較する。より詳細には、特徴点検出マイコン133は、ステップS203で取得した顔向き角度αの絶対値を算出し、当該絶対値が角度閾値θ以下であるか否かを判断する。特徴点検出マイコン133は、ステップS204において、顔向き角度αの絶対値が角度閾値θ以下であると判断したとき、ステップS205へ処理を進める。一方、顔向き検出マイコン132は、ステップS204において、顔向き角度αの絶対値が角度閾値θ以下でないと判断したとき、ステップS212へ処理を進める。
ステップS205において、特徴点検出マイコン133は、前述の瞼探索領域を設定する。より具体的には、特徴点検出マイコン133は、ステップS201において検出した鼻孔の位置を基準とする統計的に既知である左右の眼のそれぞれの位置に基づき、左右の眼にそれぞれ対応する2つの瞼探索領域を図8に斜線部で示すように設定する。図8に示すhr、hl、及びvがそれぞれ統計的に既知である左右の眼の位置を示す。尚、図8に示すhr、hl、及びvは、顔向き角度αによってそれぞれ変化するように定められていてもよい。特徴点検出マイコン133は、ステップS205の処理を完了すると、ステップS206へ処理を進める。
ステップS206において、特徴点検出マイコン133は、ステップS205で設定した左右の眼の瞼探索領域において、それぞれ瞬きを検出したか否かを判断する。より詳細には、特徴点検出マイコン133は、ステップS205で設定した左右の眼の瞼探索領域の顔画像に対して、エッジ検出処理やメモリ131に予め記憶されているテンプレート画像を用いたパターンマッチング処理などをして、左右の眼の瞼探索領域の画素の中からそれぞれ上瞼と下瞼との組み合わせの上下瞼候補となる画素を抽出する。このとき抽出される上下瞼候補は、左右の眼の瞼探索領域において、それぞれ1以上とする。
そして、特徴点検出マイコン133は、抽出した左右の眼の1以上の上下瞼候補毎の上瞼と下瞼との間隔を瞼開度としてそれぞれ検出して上下瞼候補毎に記憶する。より詳細には、特徴点検出マイコン133は、後述する両眼開度検出や瞬きの検出をするため、予め定められた長さの期間(以下、開度記憶期間と称する)における上下瞼候補の瞼開度を時間の経過に沿った時系列データとして上下瞼候補毎に記憶する。したがって、特徴点検出マイコン133は、ステップS206において、上下瞼候補毎に瞼開度を検出すると、検出した瞼開度と記憶した時系列データとを上下瞼候補毎に対応させて新たに記憶する。
さらに、特徴点検出マイコン133は、全ての上下瞼候補の時系列データを参照して、全ての上下瞼候補の中から瞬きをした上下瞼候補を左右の眼の瞼探索領域においてそれぞれ特定する。特徴点検出マイコン133は、ステップS206において、左右の眼の両方の瞼探索領域において瞬きをした上下瞼候補を特定したとき、ステップS207へ処理を進める。一方、特徴点検出マイコン133は、ステップS206において、左右の眼の両方の瞼探索領域において瞬きをした上下瞼候補を特定できないとき、すなわち、少なくともいずれか一方の片眼の瞬きを検出できないとき、ステップS212へ処理を進める。
ステップS207において、特徴点検出マイコン133は、ステップS201で検出した鼻孔の位置を正しい鼻孔の位置として確定する。さらに、特徴点検出マイコン133は、ステップS206で特定した左右の眼の上下瞼候補の下瞼の画素の内、垂直方向の最も下にある画素の位置をそれぞれ真の眼の位置であるとして確定する。特徴点検出マイコン133が、ステップS207の処理をすることにより、鼻孔の位置(鼻の位置)及び左右のそれぞれの眼の位置が、顔の感覚器の位置としてそれぞれ検出される。特徴点検出マイコン133は、ステップS207の処理を完了すると、ステップS208へ処理を進める。
ステップS208において、特徴点検出マイコン133は、前述の時系列データの内、ステップS207で確定した左右の眼の最新の瞼開度をそれぞれ示すデータを生成する両眼開度検出をする。特徴点検出マイコン133が、ステップS208の処理において生成したデータは他の装置(例えば、前述の車両制御システム2など)によって取得され、運転者の覚醒状態を推定する処理などに用いられてもよい。特徴点検出マイコン133は、ステップS208の処理を完了すると、ステップS209へ処理を進める。
ステップS209において、特徴点検出マイコン133は、メモリ131に記憶されている顔向き角度αと角度閾値θとをそれぞれ取得する。特徴点検出マイコン133は、ステップS209の処理を完了すると、ステップS210へ処理を進める。
ステップS210において、特徴点検出マイコン133は、ステップS209で取得した顔向き角度αの絶対値と角度閾値θとを比較する。より詳細には、特徴点検出マイコン133は、ステップS209で取得した顔向き角度αの絶対値を算出し、当該絶対値が角度閾値θを超えるか否かを判断する。特徴点検出マイコン133は、ステップS210において、顔向き角度αの絶対値が角度閾値θを超えると判断したとき、ステップS211へ処理を進める。一方、特徴点検出マイコン133は、ステップS210において、顔向き角度αの絶対値が角度閾値θを超えないと判断したとき、ステップS201へ処理を戻す。
ステップS211において、特徴点検出マイコン133は、メモリ131に記憶されている角度閾値θの値をステップS209で算出した顔向き角度αの絶対値に更新する。特徴点検出マイコン133は、ステップS211の処理を完了すると、ステップS201へ処理を戻す。
ステップS212において、特徴点検出マイコン133は、顔検出装置13によって取得された顔画像における運転者の左右のいずれか一方の片眼に対応する瞼探索領域を設定する。より詳細には、まず、特徴点検出マイコン133は、ステップS203で取得した顔向き角度αの符号に基づき、図2を参照しながら説明したように運転者が向いている方向を判断する。そして、運転者が向いている方向を判断すると、特徴点検出マイコン133は、判断した方向に基づいて、左右の瞼探索領域の内、設定するべき片眼の瞼探索領域を判断する。
より具体的には、特徴点検出マイコン133は、ステップS203で取得した顔向き角度αの符号が正であるとき、ステップS201において検出した鼻孔の位置を基準とする統計的に既知である左眼の位置に基づいて左眼の瞼探索領域を設定する。一方、特徴点検出マイコン133は、ステップS203で取得した顔向き角度αの符号が負であるとき、ステップS201において検出した鼻孔の位置を基準とする統計的に既知である右眼の位置に基づいて右眼の瞼探索領域を設定する。図9に示す(a)は、運転者が顔を大きく右へ向けているとき、すなわち、顔向き角度αの符号が正であるときに設定された左眼の瞼探索領域の一例を示す図である。また、図9に示す(b)は、図9(a)に示す2つの鼻孔とそれらの中心の位置関係をより明確に示すための拡大図である。特徴点検出マイコン133は、ステップS212の処理を完了するとステップS213へ処理を進める。
ステップS213において、特徴点検出マイコン133は、ステップS212で設定した片眼の瞼探索領域において瞬きを検出したか否かを判断する。より具体的には、特徴点検出マイコン133は、ステップS212で設定した片眼の瞼探索領域の顔画像に対して、エッジ検出処理やメモリ131に予め記憶されているテンプレート画像を用いたパターンマッチング処理などをして、片眼の瞼探索領域の画素の中から前述の上下瞼候補を抽出する。このとき抽出される上下瞼候補は、片眼の瞼探索領域において、1以上とする。
そして、特徴点検出マイコン133は、抽出した片眼の1以上の上下瞼候補毎に前述した瞼開度を検出してそれぞれ記憶する。より詳細には、特徴点検出マイコン133は、後述する片眼開度検出や瞬きの検出をするため、上下瞼候補毎に瞼開度を検出すると、ステップS206の処理と同様に、検出した瞼開度と前述の時系列データとを上下瞼候補毎に対応させて新たに記憶する。さらに、特徴点検出マイコン133は、片眼の瞼探索範囲における上下瞼候補毎に瞬きをしたか否かを判断するために、ステップS212で設定した瞼探索領域から抽出された上下瞼候補の時系列データを参照して、瞬きをした上下瞼候補を片眼の瞼探索領域において特定する。特徴点検出マイコン133は、ステップS213において、片眼の瞼探索領域において瞬きをした上下瞼候補を特定したとき、ステップS214へ処理を進める。一方、特徴点検出マイコン133は、ステップS213において、片眼の瞼探索領域において瞬きをした上下瞼候補を特定できないとき、ステップS201へ処理を戻す。
ステップS214において、特徴点検出マイコン133は、ステップS201で検出した鼻孔の位置を正しい鼻孔の位置として確定する。さらに、特徴点検出マイコン133は、ステップS213で特定した片眼の上下瞼候補の下瞼の画素の内、垂直方向の最も下にある画素の位置を真の片眼の位置であるとして確定する。特徴点検出マイコン133が、ステップS214の処理をすることにより、鼻孔の位置(鼻の位置)及び片眼の位置が、顔の感覚器の位置として検出される。特徴点検出マイコン133は、ステップS214の処理を完了すると、ステップS215へ処理を進める。
ステップS215において、特徴点検出マイコン133は、前述の時系列データの内、ステップS214で確定した片眼の上下瞼候補の時系列データを再度参照し、時系列データの中で最新の片眼の瞼開度を示すデータを生成する片眼開度検出をする。このとき、特徴点検出マイコン133が生成するデータは、左右の眼の内、ステップS212で設定した瞼探索領域に撮像されている眼の瞼開度を示すデータである。特徴点検出マイコン133が、ステップS215の処理において生成したデータは他の装置(例えば、前述の車両制御システム2)によって取得され、運転者の覚醒状態を推定する処理などに用いられてもよい。特徴点検出マイコン133は、ステップS215の処理を完了すると、ステップS216へ処理を進める。
ステップS216において、特徴点検出マイコン133は、メモリ131に記憶されている顔向き角度αと角度閾値θとをそれぞれ取得する。特徴点検出マイコン133は、ステップS216の処理を完了すると、ステップS217へ処理を進める。
ステップS217において、特徴点検出マイコン133は、ステップS216で取得した顔向き角度αの絶対値と角度閾値θとを比較する。より詳細には、特徴点検出マイコン133は、ステップS216で取得した顔向き角度αの絶対値を算出し、当該絶対値が角度閾値θ未満であるか否かを判断する。特徴点検出マイコン133は、ステップS217において、顔向き角度αの絶対値が角度閾値θ未満であると判断したとき、ステップS218へ処理を進める。一方、特徴点検出マイコン133は、ステップS217において、顔向き角度αの絶対値が角度閾値θを超えないと判断したとき、ステップS201へ処理を戻す。
ステップS218において、特徴点検出マイコン133は、メモリ131に記憶されている角度閾値θの値をステップS216で算出した顔向き角度αの絶対値に再設定する。特徴点検出マイコン133は、ステップS218の処理を完了すると、ステップS201へ処理を戻す。
以上が、本実施形態に係る特徴点検出マイコン133の処理の説明である。尚、図7のフローチャートに示す特徴点検出マイコン133の処理では、ステップS201〜ステップS205〜ステップS211の一連の処理が上述した第1の位置検出処理に相当し、ステップS201〜ステップS212〜ステップS218の一連の処理が上述した第2の位置検出処理に相当する。そして、特徴点検出マイコン133は、ステップS204において顔向き角度αの絶対値が角度閾値θ以下でないとき、ステップS212へ処理を進めることにより、第2の位置検出処理を選択して切り替える。特徴点検出マイコン133は、顔向き角度αの絶対値と角度閾値θとを比較するだけの低い負荷の処理をして、片眼、又は両眼のいずれが顔画像に撮像されているかを推定し、第1の位置検出処理及び第2の位置検出処理のいずれか一方の適した処理を選択することができる。
また、特徴点検出マイコン133は、ステップS206〜ステップS211の処理をすることにより、両眼の画像に基づいて両眼のそれぞれの瞼開度が検出できたのにも拘わらず、メモリ131に記憶されている最新の顔向き角度αの絶対値が角度閾値θを越えている、すなわち、左右のいずれか一方の片眼が近赤外カメラ12の死角に入ると判断されるときには、最新の顔向き角度αを角度閾値θとして再設定することにより、両眼の画像に基づいて両眼のそれぞれの瞼開度が検出できるときの顔向き角度αを角度閾値θとして再設定して、学習することができる。一方、特徴点検出マイコン133は、ステップS213〜ステップS218の処理をすることにより、片眼の画像に基づいて片眼の瞼開度が検出できたのにも拘わらず、メモリ131に記憶されている最新の顔向き角度αが角度閾値θ未満であるとき、すなわち、両眼の画像に基づいて両眼のそれぞれの瞼開度を検出できるときには、最新の顔向き角度αを角度閾値θとして設定することにより、片眼の画像に基づいて片眼の瞼開度が検出できるとき、すなわち、左右のいずれか一方の片眼が近赤外カメラ12の死角に入るときの顔向き角度αを角度閾値θとして再設定して、学習することができる。つまり、ステップS206〜ステップS211の処理、及びステップS213〜ステップS218の処理によれば、両眼の画像に基づいて両眼のそれぞれの瞼開度を検出できるときと、左右のいずれか一方の片眼が近赤外カメラ12の死角に入るときとの顔向き角度αの境界値を角度閾値θとして学習することができる。
また、特徴点検出マイコン133が、図7のフローチャートに示す処理を繰り返すときにおいて第1及び第2の位置検出処理が切り替わるときには、処理が切り替わる前の時系列データに、ステップS206、又はステップS213において新たに検出した瞼開度を上下瞼候補毎に対応させて加えて記憶してもよい。これにより、ステップS208の両眼開度検出及びステップS215における片眼開度検出において、第1及び第2の位置検出処理のいずれか一方に切り替えられて前述の時系列データが途切れることを防ぐことができ、より正確な両眼、及び片眼の開度検出をそれぞれすることができる。
また、図7のフローチャートの説明の内、ステップS201、ステップS205、ステップS206、ステップS212、及びステップS213の処理の説明は、それぞれ一例であり、それぞれの処理と同様の結果が得られるのであれば、他の任意の手法を用いてもよい。
また、図4及び図7に示すそれぞれの処理は、本発明に係る顔検出装置13を搭載する車両のイグニッションキーがONとなっている全ての期間だけにしてもよい。
また、第1の実施形態では、顔向き検出マイコン132、及び特徴点検出マイコン133は、それぞれ顔検出装置13によって取得された顔画像データを直接処理するものとして説明をした。しかしながら、顔検出装置13によって取得された顔画像データをメモリ131に記憶し、メモリ131に記憶された画像データを顔向き検出マイコン132、及び特徴点検出マイコン133が処理してもよい。
また、上述した顔検出装置13の処理は、記憶装置(ROM、RAM、ハードディスク等)に格納された上述した処理手順を実施可能な所定のプログラムデータが、顔向き検出マイコン132及び特徴点検出マイコン133にそれぞれ相当するCPUやマイクロコンピュータによって解釈実行されることで実現されてもよい。また、この場合、記憶装置は、メモリ131であってもよいし、顔向き検出マイコン132及び特徴点検出マイコン133にそれぞれ含まれる記憶装置であってもよいし、顔向き検出マイコン132及び特徴点検出マイコン133がアクセス可能な他のどのような記憶装置であってもよい。また、この場合、プログラムデータは、記憶媒体を介して記憶装置内に導入されてもよいし、記憶媒体上から直接実行されてもよい。尚、記憶媒体とは、ROMやRAMやフラッシュメモリなどの半導体メモリ、フレキシブルディスクやハードディスクなどの磁気ディスクメモリ、CD−ROMやDVDやBDなどの光ディスクメモリ、及びメモリカードなどであってもよい。
以上、本発明を詳細に説明してきたが、上述の説明はあらゆる点において本発明の一例にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることはいうまでもない。
本発明によれば、適した処理を選択するための前処理を短時間ですることのできる顔向き判定装置を提供でき、例えば、車両の運転者の顔の向きを判定する顔向き判定装置などに有用である。
第1の実施形態に係る運転者監視システム及び車両制御システムの機能構成を示す機能ブロック図 本発明の顔向き角度を説明する図 両眼が撮像される場合と片眼のみが撮像される場合をそれぞれ説明する図 第1の実施形態に係る顔向き検出マイコンの処理を示すフローチャート 顔画像領域の一例を示す図 除去する眼領域の一例を示す図 第1の実施形態に係る特徴点検出マイコンの処理を示すフローチャート 左右の瞼探索領域の一例を示す図 片眼の瞼探索領域の一例を示す図
符号の説明
1 運転者監視システム
2 車両制御システム
11 近赤外照明
12 近赤外カメラ
13 顔検出装置
131 メモリ
132 顔向き検出マイコン
133 特徴点検出マイコン

Claims (16)

  1. 撮像手段を用いて使用者の顔を撮像した顔画像に基づき瞼の開度を検出する顔検出装置であって、
    前記撮像手段によって撮像された前記顔画像に基づき前記使用者の左右方向の顔の向きの角度を検出する角度検出手段と、
    前記角度の絶対値が予め定められた閾値以下であるとき、前記顔画像の両眼の画像に基づき両眼のそれぞれの瞼の開度を検出する第1の検出手段と、
    前記角度の絶対値が前記閾値を超えるとき、前記顔画像の左右のいずれか一方の片眼の画像に基づき片眼の瞼の開度を検出する第2の検出手段とを備える、顔検出装置。
  2. 前記角度検出手段は、前記顔画像における前記使用者の2つの鼻孔の中点を垂直に通る中心線と、当該使用者の顔の輪郭の両端をそれぞれ垂直に通る2つの線とのそれぞれの間隔の比に基づき前記角度を検出する、請求項1に記載の顔検出装置。
  3. 前記第2の検出手段は、
    前記顔画像に基づき前記使用者の鼻の位置を前記感覚器の位置として検出する鼻検出手段と、
    前記角度の正負の符号に基づき、前記鼻の位置を基準としてそれぞれ予め定められる左右の眼の位置のいずれか一方を選択する選択手段と、
    前記片眼の位置を検出する処理の対象となる探索領域が前記片眼の画像を含むように、当該探索領域の前記顔画像上の位置を前記選択手段によって選択された位置に設定する設定手段と、
    前記設定手段によって設定された前記探索領域に含まれる前記片眼の画像に基づき当該片眼の瞼の開度を検出する開度検出手段とを含む、請求項1に記載の顔検出装置。
  4. 前記開度検出手段は、
    前記設定手段によって設定された前記探索領域の前記顔画像の画素の中から前記片眼の上下瞼の候補を抽出する抽出手段と、
    前記抽出手段によって抽出された前記上下瞼の候補の中から瞬きをした前記上下瞼を特定する特定手段と、
    前記特定手段によって特定された前記上下瞼の開度を前記片眼の瞼の開度として検出する特定開度検出手段とを含む、請求項3に記載の顔検出装置。
  5. 前記特定開度検出手段は、前記特定手段によって特定された前記上下瞼の垂直方向の間隔の内、最も長い間隔を前記片眼の瞼開度として検出し、当該瞼開度を示すデータを生成する生成手段をさらに含む、請求項4に記載の顔検出装置。
  6. 予め定められた間隔で前記角度検出手段によって検出されるたびに前記角度を更新して記憶する記憶手段をさらに備え、
    前記角度検出手段は、前記角度を検出するとき、前記記憶手段に記憶されている更新後の前記角度の絶対値が前記閾値を超えるとき、両眼を除く前記顔画像に基づいて次の前記角度を検出する、請求項2に記載の顔検出装置。
  7. 前記第1の検出手段が検出を完了したときに前記記憶手段に記憶されている更新後の前記角度の絶対値が前記閾値を超えるとき、当該閾値を当該絶対値に再設定する第1の再設定手段と、
    前記第2の検出手段が検出を完了したときに前記記憶手段に記憶されている更新後の前記角度の絶対値が前記閾値未満であるとき、当該閾値を当該絶対値に再設定する第2の再設定手段とをさらに備える、請求項6に記載の顔検出装置。
  8. 前記第1の検出手段は、両眼のそれぞれの瞬きの検出結果に基づき両眼の瞼の開度をそれぞれ検出し、当該両眼の瞬きを共に検出できないとき、前記第2の検出手段による検出処理に切り替えて瞼の開度の検出を続ける切替手段をさらに備える、請求項1に記載の顔検出装置。
  9. 撮像装置によって使用者の顔を撮像した顔画像に基づき当該使用者の顔の感覚器の位置を検出する顔検出装置において実行される検出方法であって、
    前記撮像装置によって撮像された前記顔画像に基づき前記使用者の左右方向の顔の向きの角度を検出する角度検出ステップと、
    前記角度の絶対値が予め定められた閾値以下であるとき、前記顔画像の両眼の画像に基づき両眼のそれぞれの瞼の開度を検出する第1の検出ステップと、
    前記角度の絶対値が前記閾値を超えるとき、前記顔画像の左右のいずれか一方の片眼の画像に基づき片眼の瞼の開度を検出する第2の検出ステップとを備える、検出方法。
  10. 前記角度検出ステップにおいて、前記使用者の2つの鼻孔の中点を垂直に通る中心線と、当該使用者の顔の輪郭の両端をそれぞれ垂直に通る2つの線とのそれぞれの間隔の比に基づき前記角度を検出する、請求項9に記載の検出方法。
  11. 前記第2の検出ステップは、
    前記顔画像に基づき前記使用者の鼻の位置を前記感覚器の位置として検出する鼻検出ステップと、
    前記角度の正負の符号に基づき、前記鼻の位置を基準としてそれぞれ予め定められる左右の眼の位置のいずれか一方を選択する選択ステップと、
    前記片眼の位置を検出する処理の対象となる探索領域が前記片眼の画像を含むように、当該探索領域の前記顔画像上の位置を前記選択ステップにおいて選択された位置に設定する設定ステップと、
    前記設定ステップにおいて設定された前記探索領域に含まれる前記片眼の画像に基づき当該片眼の瞼の開度を検出する開度検出ステップとを含む、請求項9に記載の検出方法。
  12. 前記開度検出ステップは、
    前記設定ステップにおいて設定された前記探索領域の前記顔画像の画素の中から前記片眼の上下瞼の候補を抽出する抽出ステップと、
    前記抽出ステップにおいて抽出された前記上下瞼の候補の中から瞬きをした前記上下瞼を特定する特定ステップと、
    前記特定ステップにおいて特定された前記上下瞼の開度を前記片眼の瞼の開度として検出する特定開度検出ステップとを含む、請求項11に記載の検出方法。
  13. 前記特定開度検出ステップは、前記特定ステップにおいて特定された前記上下瞼の垂直方向の間隔の内、最も長い間隔を前記片眼の瞼開度として検出し、当該瞼開度を示すデータを生成する生成ステップをさらに含む、請求項12に記載の検出方法。
  14. 予め定められた間隔で前記角度検出ステップを繰り返す繰り返しステップと、
    前記繰り返しステップによって前記角度検出ステップが繰り返されるたびに検出された前記角度を更新して記憶する記憶ステップと、
    前記繰り返しステップによって前記角度検出ステップを繰り返すとき、前記記憶ステップによる更新後の前記角度の絶対値が前記閾値を超えるか否かを判断する判断ステップと、
    前記判断ステップにおいて前記角度の絶対値が前記閾値を超えると判断したとき、両眼を除く前記顔画像に基づいて次の前記角度を検出する別角度検出ステップとをさらに備える、請求項10に記載の検出方法。
  15. 前記第1の検出ステップを完了したときの前記記憶ステップにおける更新後の前記角度の絶対値が前記閾値を超えるとき、当該閾値を当該絶対値に再設定する第1の再設定ステップと、
    前記第2の検出ステップを完了したときに前記記憶ステップにおける更新後の前記角度の絶対値が前記閾値未満であるとき、当該閾値を当該絶対値に再設定する第2の再設定ステップとをさらに備える、請求項14に記載の検出方法。
  16. 前記第1の検出ステップにおいて、両眼のそれぞれの瞬きの検出結果に基づき両眼の瞼の開度をそれぞれ検出し、当該両眼の瞬きを共に検出できないとき、前記第2の検出ステップに切り替えて瞼の開度の検出を続ける切替ステップをさらに備える、請求項9に記載の検出方法。
JP2008134276A 2008-05-22 2008-05-22 顔検出装置及び顔検出方法 Expired - Fee Related JP4992823B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008134276A JP4992823B2 (ja) 2008-05-22 2008-05-22 顔検出装置及び顔検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008134276A JP4992823B2 (ja) 2008-05-22 2008-05-22 顔検出装置及び顔検出方法

Publications (2)

Publication Number Publication Date
JP2009279186A JP2009279186A (ja) 2009-12-03
JP4992823B2 true JP4992823B2 (ja) 2012-08-08

Family

ID=41450284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008134276A Expired - Fee Related JP4992823B2 (ja) 2008-05-22 2008-05-22 顔検出装置及び顔検出方法

Country Status (1)

Country Link
JP (1) JP4992823B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011125620A (ja) * 2009-12-21 2011-06-30 Toyota Motor Corp 生体状態検出装置
CN101916496B (zh) * 2010-08-11 2013-10-02 无锡中星微电子有限公司 一种司机驾驶姿势检测的系统和方法
KR101231510B1 (ko) 2010-10-11 2013-02-07 현대자동차주식회사 운전자 주시방향 연동 전방충돌 위험경보 시스템, 그 방법 및 그를 이용한 차량
JP5776187B2 (ja) * 2011-01-27 2015-09-09 富士通株式会社 表情判定プログラムおよび表情判定装置
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
KR101655818B1 (ko) * 2014-12-11 2016-09-08 현대자동차주식회사 웨어러블 글래스, 그 제어 방법 및 차량 제어 시스템
JP6809262B2 (ja) 2017-02-08 2021-01-06 トヨタ自動車株式会社 ドライバ状態検出装置
JP2022138279A (ja) * 2021-03-10 2022-09-26 株式会社Jvcケンウッド 目開閉判定装置および目開閉判定方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3422183B2 (ja) * 1996-08-22 2003-06-30 トヨタ自動車株式会社 顔画像における目の検出方法
JPH1086696A (ja) * 1996-09-13 1998-04-07 Toyota Motor Corp 顔画像における特徴部位の検出方法
JPH10307923A (ja) * 1997-05-01 1998-11-17 Mitsubishi Electric Corp 顔部品抽出装置および顔の向き検出装置
JP3695990B2 (ja) * 1999-05-25 2005-09-14 三菱電機株式会社 顔画像処理装置
JP3858534B2 (ja) * 1999-09-28 2006-12-13 日産自動車株式会社 眼の状態検出装置
JP2001307076A (ja) * 2000-04-24 2001-11-02 Niles Parts Co Ltd 眼の状態検出装置、居眠り検出装置
JP4043973B2 (ja) * 2003-02-27 2008-02-06 株式会社東芝 顔検出システムとその方法
JP2005196567A (ja) * 2004-01-08 2005-07-21 Nissan Motor Co Ltd 顔向き検出装置
JP4501003B2 (ja) * 2005-07-15 2010-07-14 国立大学法人静岡大学 顔姿勢検出システム
JP4788319B2 (ja) * 2005-12-05 2011-10-05 日産自動車株式会社 開閉眼判定装置及び方法

Also Published As

Publication number Publication date
JP2009279186A (ja) 2009-12-03

Similar Documents

Publication Publication Date Title
JP4992823B2 (ja) 顔検出装置及び顔検出方法
KR102109941B1 (ko) 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치
JP4263737B2 (ja) 歩行者検知装置
WO2019179441A1 (zh) 智能设备的焦点跟随方法、装置、智能设备及存储介质
EP2860664B1 (en) Face detection apparatus
US9177202B2 (en) Red-eye detection device
US9202106B2 (en) Eyelid detection device
US9298995B2 (en) Red-eye determination device
JP4912206B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
JP6187817B2 (ja) 顔検出装置、方法およびプログラム
JP2001022933A (ja) 2次元テンプレートを用いた顔画像処理装置
JP6043933B2 (ja) 眠気レベルの推定装置、眠気レベルの推定方法および眠気レベルの推定処理プログラム
JP2010191793A (ja) 警告表示装置及び警告表示方法
JP2007164517A (ja) 図形中心検出方法、楕円検出方法、画像認識装置、制御装置
JP4989249B2 (ja) 目検知装置、居眠り検知装置及び目検知装置の方法
CN112101186A (zh) 用于车辆驾驶员识别的装置和方法及其应用
JP2012164026A (ja) 画像認識装置及び車両用表示装置
JP5092663B2 (ja) 車両制御装置
JP2009176005A (ja) 顔画像の特徴点検出方法およびその装置
JP6077785B2 (ja) 対象物検出装置及びプログラム
JP2021064154A (ja) 障害物識別装置および障害物識別プログラム
JP2010009093A (ja) 人物状態判定装置
JP7298436B2 (ja) 障害物識別装置および障害物識別プログラム
JP5655491B2 (ja) 開眼状態検出装置
JP2009044631A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101012

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120410

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4992823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees