JP4151341B2 - Face condition detection device - Google Patents
Face condition detection device Download PDFInfo
- Publication number
- JP4151341B2 JP4151341B2 JP2002226516A JP2002226516A JP4151341B2 JP 4151341 B2 JP4151341 B2 JP 4151341B2 JP 2002226516 A JP2002226516 A JP 2002226516A JP 2002226516 A JP2002226516 A JP 2002226516A JP 4151341 B2 JP4151341 B2 JP 4151341B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- detection means
- detected
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、車両の運転者の顔状態を検出する顔状態検出装置に関する。
【0002】
【従来の技術】
従来における顔状態検出装置として、例えば、特開平7−69139号公報に記載された「わき見運転防止装置」(以下、従来例という)が知られている。
【0003】
該従来例では、カメラにて撮影された顔画像を検査画像として取り込み、検査画像に基づき運転者の左右の眼画像の座標を求め、眼画像の座標に基づき左右の眼の距離を演算し、同眼距離データを所定回数取り込むことによって基準眼距離を演算し、基準眼距離と今回の眼距離から正面に顔がないことを検出している。
【0004】
この際、顔の向きを検出する対象者が、眼鏡を掛けている場合には、光環境の影響によって眼鏡のレンズ部に写り込みが生じ、顔画像から眼を検出できないことがある。また、対象者がサングラスを掛けている場合には眼を全く検出できなくなる。このように対象者の眼を検出できなくなった場合には、眼の代わりに、例えば鼻や口等の顔部位を検出し、その顔部位の位置の変化に基づいて顔の向きを検出していた。
【0005】
【発明が解決しようとする課題】
しかしながら、上述した従来例では、運転者がサングラス等の眼鏡を掛けている場合には、該眼鏡のレンズ部分に周囲の映像が映ってしまい、眼の状態を判別できないことがある。また、運転者が眼鏡を掛けている場合で、鼻或いは口の画像を用いて顔の向きを検出する際には、鼻或いは口の輪郭を精度良く検出できず、鼻或いは口の位置の変化や、顔画像での鼻或いは口の大きさの変化を正確に検出することができないので、顔の向きを精度良く検出することができなかったという欠点がある。
【0006】
【課題を解決するための手段】
本発明は、対象者の顔を顔画像撮像手段にて撮像し、撮像された顔画像に基づいて、当該対象者の顔の向きを検出する顔状態検出装置において、前記顔画像に基づいて、前記対象者が眼鏡を掛けているかどうかを検出する眼鏡検出手段と、前記眼鏡検出手段にて、対象者が眼鏡を掛けていることが検出された際には、この眼鏡に映り込みが存在するかどうかを検出する映り込み検出手段と、前記映り込み検出手段にて映り込みが検出された際に、この映り込み画像に含まれる車体構造物の画像を検出する車体構造物検出手段と、前記車体構造物検出手段で検出された前記車体構造物の画像の、前記眼鏡のレンズ上での位置を検出する車体構造物位置検出手段と、前記車体構造物位置検出手段で検出された、前記車体構造物の画像の前記レンズ上での位置に基づいて、前記対象者の顔の向きを検出する第1の顔の向き検出手段と、を具備したことを特徴とする。
【0007】
【発明の効果】
本発明によれば、モニタ対象者が映り込みを生じる眼鏡を掛けている場合で、直接眼の状態を検出することができない場合でも、眼鏡に生じる映り込み映像の状態、或いは眼鏡フレームの状態に基づいてモニタ対象者の顔の向きを検出することができるので、モニタ対象者が眼鏡を掛けているか否かに関わらず、高精度にモニタ対象者の顔の向きを検出することができる。
【0008】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0009】
<第1の実施形態>
[システムブロック図]
図1は、本発明の顔状態検出装置に係る第1の実施形態の構成を示すブロック図である。同図に示すように、この顔状態検出装置は、顔画像撮像手段CL1と、眼鏡検出手段CL2と、映り込み検出手段CL3と、車体構造物検出手段CL4(特徴量検出手段)と、車体構造物位置検出手段CL5と、第1の顔の向き検出手段CL6と、第3の顔の向き検出手段CL7と、を備えている。
【0010】
顔画像撮像手段CL1は、モニタ対象者の顔を撮像し、撮像により得られた顔画像データを出力する。
【0011】
眼鏡検出手段CL2は、顔画像撮像手段CL1にて撮像された画像に基づいて、モニタ対象者が眼鏡を掛けているかどうかを検出する。
【0012】
映り込み検出手段CL3は、顔画像撮像手段CL1より出力される顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズ表面上に、車内外の情景が映り込んでいるか否かを検出する。
【0013】
車体構造物検出手段CL4は、顔画像撮像手段CL1より出力される顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から、車体構造物を検出する。
【0014】
車体構造物位置検出手段CL5は、顔画像撮像手段CL1より出力される顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズフレームを検出し、車体構造物検出手段CL4によって検出されたモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車体構造物と、レンズフレームとの相対位置関係に基づいて、眼鏡上に映り込んでいる車体構造物の眼鏡上での位置を検出する。
【0015】
第1の顔の向き検出手段CL6は、車体構造物位置検出手段CL5によって検出された眼鏡上に映り込んでいる車体構造物の、眼鏡上での位置に基づいて、モニタ対象者の顔の方向を検出する。
【0016】
第3の顔の向き検出手段CL7は、眼鏡検出手段CL2で眼鏡が検出できなかった場合か、或いは、映り込み検出手段CL3にてドライバが掛けている眼鏡のレンズ表面上に、車内外の情景の映り込みが検出できなかった場合に、顔画像撮像手段CL1から出力された顔画像データを処理して、眼の位置を検出し、左右の眼の位置、もしくは検出された眼の位置を基準とした範囲から、画像処理によって得られる左右いずれかの眼の形状に基づいて、ドライバ(モニタ対象者)の顔の向きを検出する。
【0017】
本装置は、自動車、鉄道車両、船舶の運転手、プラントのオペレータ等のモニタに用いることができるが、以下に示す全ての実施形態で、自動車の運転手の眼に適用した場合を例に挙げて説明する。
【0018】
[機器の配置]
図2は、本実施形態に係る顔状態検出装置の、機器の配置図である。顔画像撮像手段CL1としてのTVカメラ1が、自動車のインストルメント上で運転者を略正面で撮像できる位置に設置され、運転者の顔部分を撮影する。TVカメラ1の入力画像は、本実施形態では、例えば横方向(X軸方向)640画素、縦方向(Y軸方向)480画素からなる。そして、TVカメラ1で撮像された入力画像は、インストルメント裏側等、車体内部に設置されたマイクロコンピュータ2に画像データとして入力される。
【0019】
マイクロコンピュータ2には、眼鏡検出手段CL2と、映り込み検出手段CL3と、車体構造物検出手段CL4と、車体構造物位置検出手段CL5と、第1の顔の向き検出手段CL6と、第3の顔の向き検出手段CL7の各処理に関するプログラムがプログラミングされている。次に、システムの処理状況について説明する。
【0020】
[システム全体の処理]
図3は、システムの全体の処理の流れを示している。まず、処理が開始されると、ステップS1(以下、「ステップS」は単に「S」と記す)で、TVカメラ1でモニタ対象者の顔画像を撮像し、マイクロコンピュータ2に画像データとして入力する。
【0021】
S2では、モニタ対象者が眼鏡を掛けているか否かを検出する。S3では、S2の検出結果に基づき、モニタ対象者が眼鏡を掛けている場合は(S3でYES)、S4へ処理を進め、モニタ対象者が眼鏡を掛けていない場合は(S3でNO)、S9へ処理を進める。
【0022】
S4では、マイクロコンピュータ2に入力された画像データを画像処理することによって、モニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込んでいるか否かを検出する。
【0023】
S5では、S4の検出結果に基づき、モニタ対象者が掛けている眼鏡のレンズ表面上に、車内外の情景が映り込んでいる場合は(S5でYES)、S6へ処理を進め、モニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込んでいない場合は(S5でNO)、S9へ処理を進める。
【0024】
S6では、マイクロコンピュータ2に入力された画像データを画像処理することによって、モニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から、車体構造物を検出する。
【0025】
S7では、マイクロコンピュータ2に入力された画像データを画像処理することによって、モニタ対象者が掛けている眼鏡のレンズフレームを検出し、車体構造物検出手段CL4によって検出されたモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車体構造物と、レンズフレームとの相対位置関係に基づいて、眼鏡上に映り込んでいる車体構造物の、眼鏡上での位置を検出する。
【0026】
S8では、S7によって検出された眼鏡上に映り込んでいる車体構造物の眼鏡上での位置に基づいて、モニタ対象者の顔の向きを検出し、処理を終了する。
【0027】
S9では、S3で眼鏡が検出できなかった場合、または、S5でモニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込みが検出できなかった場合に、マイクロコンピュータ2に入力された画像データを画像処理することによって、眼の位置を検出し、左右の眼の位置もしくは検出された眼の位置を基準にした範囲から画像処理によって得られる左右いずれかの眼の形状から顔の向きを検出しする。即ち、第3の顔の向き検出処理を行う。その後、処理を終了する。
【0028】
[眼鏡の検出処理]
眼鏡の検出方法としてはモニタ対象者がインストルメントパネル上に設置されたスイッチによって眼鏡を掛けていることを装置に対して操作してもよいし、また装置が、自動的に眼鏡装着か否かを判別してもよい。自動判別の方法については、例えば特許25416888号公報や特開平9−216611号公報で提案している方法を用いることができる。
【0029】
[映り込み検出処理]
眼鏡の映り込みは、眼鏡レンズの光の透過率が低いほど、また眼鏡レンズ表面の光の反射率が高いほど映り込みが大きい。眼鏡レンズの光の透過率が低い眼鏡としては、一般にサングラスと呼ばれている色つきレンズを使っている眼鏡がそれにあたる。一概にサングラスといっても色の種類や濃さは眼鏡によって千差万別であるが、色が濃く暗いほど映り込みははっきりとしてくる傾向がある。
【0030】
また、レンズ表面の反射率は同じ材質や色のレンズであれば、一般に無反射コーティングと呼ばれている反射低減のためのコーティングが施されているほど映り込みが少ない傾向がある。なお、同じ眼鏡であっても、外界の光環境によって映り込みの強弱は変化するので、たとえ無色透明で無反射コーティングを施しているレンズを使った眼鏡であっても、映り込みが発生しないとは限らない。
【0031】
図5に示すように、モニタ対象者が眼鏡を掛けていれば、モニタ対象者の画像上の眼は、眼鏡のフレーム内部に位置する。しかし、図7に示すように、眼鏡に車内外の情景がはっきりと映り込んでいれば、映り込みが眼鏡のフレーム内部に位置するはずのモニタ対象者の眼を隠してしまうことがわかっている。
【0032】
よって、モニタ対象者が眼鏡を掛けていることが判っていれば、顔画像全体から眼を検出して、その結果、眼を検出できなければ眼鏡上に映り込んでいると判断することができる。
【0033】
以下、映り込み検出処理S4を、図4に示すフローチャートを用いて説明する。まず、図4のS41では、眼の候補の位置の特定の処理が実行される。S42では、眼判定処理を行う。
【0034】
S43では、眼の候補の位置の特定の処理で検出した眼の候補点すべてを判定したかどうかを判定する。眼の候補点すべてを判定した場合は(S43でYES)、S44に処理が移る。眼の候補点すべてを判定し終わっていない場合は(S43でNO)、S42の眼判定処理に戻る。
【0035】
S44では、S42で眼判定処理を行った結果、眼と判定できた候補点があったか否かを判定する。眼と判定できた候補点があった場合は(S44でYES)、S45で、映り込みなしと判断され、眼と判定できた候補点がなかった場合は(S44でNO)、S45で映り込みありと判断して、S5に処理を移す。
【0036】
なお、S41の眼の候補の位置の特定の処理と、S42の眼判定処理の詳細については、後述する第3の顔の向き検出手段の、S91の眼の候補の位置の特定の処理と、S92の眼判定処理と同一であるため、ここでの説明は省略する。
【0037】
[車両構造物検出処理]
次に、車両構造物の検出処理S6(図3参照)について、図6,図7,図8を用いて説明する。図6は、眼鏡レンズ上に車室内外の情景が映り込んでいる顔画像を示している。図6〜図8では、モニタ対象者は正面を見ているときの図である。
【0038】
この顔画像から、図6の枠線で囲まれるような眼鏡を含む矩形エリアを抽出する。矩形エリアは画像上で眼があるエリアの相場値を用いて決定されてもよいし、鼻、口、耳といった眼以外の顔の構成物の位置から矩形エリアを決定してもよい。
【0039】
この矩形エリアの画像を抜き出したのが図7となり、この図7の画像について輪郭抽出した結果、図8のような輪郭データを生成することができる。
【0040】
図8の輪郭データからは、右サイドウインドウの輪郭、フロントウインドウの輪郭、ルームミラー、右サイドウインドウ輪郭とフロントウインドウの右端部の輪郭で囲まれたエリアからAピラーといった車体構造物を抽出することができる。
【0041】
[車両構造物の画像上の眼鏡上の位置の検出]
次に、車両構造物の画像上の眼鏡上の位置の検出処理S7について、図8を用いて説明する。
【0042】
車両構造物の検出処理S6の中で得られた輪郭データの中から、眼鏡フレームを抽出する。抽出された眼鏡フレーム内の、どの位置に車両構造物の検出処理S6で抽出された車両構造物が存在するか検出する。
【0043】
図8では、眼鏡の右フレーム内に右サイドウインドウの輪郭、フロントウインドウの右端部の輪郭、右サイドウインドウの輪郭とフロントウインドウの右端部の輪郭に囲まれた右Aピラーが存在し、眼鏡の左フレームにはフロントウインドウの中央上部の輪郭、ルームミラーが存在している。
【0044】
[第1の顔の向き検出処理]
第1の顔の向き検出処理S8について、図9〜図12を用いて説明する。図9は、モニタ対象者が右を向いたときの様子であり、同図(a)に原画像を示し、同図(b)に、(a)の原画像を輪郭抽出した輪郭データを示している。
【0045】
図9(b)では、眼鏡の右フレーム内に右サイドウインドウの上部の輪郭が存在し、眼鏡の左フレームには右サイドウインドウの前部の輪郭、フロントウインドウの右端部、右上端の輪郭、右サイドウインドウの前部の輪郭とフロントウインドウの右端部の輪郭に囲まれた右Aピラーが存在している。
【0046】
図8に示したモニタ対象者が正面を見ているときに映り込んでいる各車両構成物の位置を比較すると、右サイドウインドウの輪郭線はモニタ対象者が正面を見ているときは、眼鏡の右フレームの右側比較的低い位置にあるのに対して、モニタ対象者が右を向くと、眼鏡の右フレームの左側上部に移動するとともに、右サイドウインドウ前部の輪郭線が眼鏡の左フレームに移動している。
【0047】
また、フロントウインドウの右端の輪郭線は、モニタ対象者が正面を見ているときは眼鏡の右フレームに映っていたのがモニタ対象者が右を向くと眼鏡の左フレームに移動している。
【0048】
これによって、右側Aピラーは、左フレームに移動している。また、ルームミラー及びフロントウインドウの中央上部の輪郭線は、モニタ対象者が正面を見ているときは眼鏡の左フレーム左に映っていたのが、モニタ対象者が右を向くと眼鏡の左フレームの左側外に移動し、眼鏡のレンズ上には映りこんでいなくなっている。
【0049】
図10は、モニタ対象者が左を向いたときの様子を示しており、図10(a)に原画像を示し、図10(b)に図10(a)の原画像を輪郭抽出した輪郭データを示している。
【0050】
図10(b)では、眼鏡の右フレーム内にフロントウインドウの上部輪郭とルームミラーが存在し、眼鏡の左フレームにはフロントウインドウの左端部、左上端の輪郭、左サイドウインドウの輪郭、左サイドウインドウの前部の輪郭とフロントウインドウの左端部の輪郭に囲まれた左Aピラーが存在している。
【0051】
図8に示したモニタ対象者が正面を見ているときに映り込んでいる各車両構成物の位置を比較すると、右サイドウインドウの輪郭線はモニタ対象者が正面を見ているときは、右フレームの比較的低い位置にあるのに対して、モニタ対象者が左を向くと眼鏡の右フレームの右下側外に移動し、眼鏡のレンズ上には映りこんでいなくなっている。
【0052】
また、フロントウインドウの右端の輪郭線も、モニタ対象者が正面を見ているときは眼鏡の右フレーム映っていたのがモニタ対象者が、左を向くと眼鏡の右フレームの右側外に移動し、眼鏡のレンズ上には映りこんでいなくなっている。また、ルームミラー及びフロントウインドウの中央上部の輪郭はモニタ対象者が正面を見ているときは眼鏡の左フレーム左に映っていたのが、モニタ対象者が左を向くと眼鏡の右フレームの下部に移動している。
【0053】
変わって、モニタ対象者が正面を見ているときには映っていなかったフロントウインドウの左上端部、左端部の輪郭、左サイドウインドウ、左サイドウインドウの前部の輪郭とフロントウインドウの左端部の輪郭に囲まれた左Aピラーが眼鏡の左フレームに映りこんできている。
【0054】
図11〜図13には、モニタ対象者が正面から右方向を向くときの様子の原画像を示している。この画像は、1フレームあたり33ミリ秒(msec)でサンプリングしたものを、24フレーム分((1)〜(24))示している。
【0055】
この連続画像を見ると、モニタ対象者が正面から右側に向くに従い、右サイドウインドウの輪郭線が、眼鏡の右フレームの右側比較的低い位置から、左側上部に移動するとともに、右サイドウインドウ前部の輪郭線が、18フレーム目以降には眼鏡の左フレーム映り始めてその後、徐々に左側へと移動しているのがわかる。
【0056】
また、フロントウインドウの右端の輪郭線は、眼鏡の右フレームに映っていたのが、徐々に左に移動していき、7フレーム目で眼鏡の右フレームから消えている。一方、眼鏡の左フレームには6フレーム目からフロントウインドウの右端が映っている。
【0057】
右側Aピラーも4フレーム目までは眼鏡の右フレーム上を徐々に左へと移動していき、5フレーム目からは左右のフレームに映り出し、その後は眼鏡の右フレームからは徐々に消えていき、左フレームには徐々にその領域を左側へと広げていっている。
【0058】
18フレーム以降は、眼鏡の右フレームには右側Aピラーは映っておらず、眼鏡の左フレームにだけ右側Aピラーが映り、その後も眼鏡の左フレーム内を徐々に左側に移動している。
【0059】
また、ルームミラー及びフロントウインドウの中央上部の輪郭線もモニターが右を向くに従って徐々に左側へと移動し、17フレーム以降はルームミラーは眼鏡の左フレームの左側外に消えていくのがわかる。
【0060】
以上のようにして、眼鏡のフレーム内に映る車両構造物の眼鏡フレーム内での位置と顔の向きの相関をとることができ、これによってモニター対象者の顔がどの方向を向いているか検出することができる。
【0061】
[第3の顔の向き検出処理]
次に、第3の顔の向き検出処理S9(図3)を、図14のフローチャートを用いて説明する。
【0062】
まず、S91では、眼の候補の位置の特定の処理が実行される。S92では、眼判定処理を行う。S93では、S91で眼の候補の位置の特定の処理で検出した眼の候補点すべてを判定したかどうかを判定する。眼の候補点すべてを判定した場合には(S93でYES)、S94に処理が移る。眼の候補点すべてを判定し終わっていない場合には(S93でNO)、S92の眼判定処理に戻る。S94では、顔の向き判定処理を行いモニタ対象者の顔の向きを判定する。
【0063】
[眼の候補の位置の特定の処理]
眼の候補の位置の特定の処理S91の流れを、図15のフローチャートと、図16〜図20を用いて説明する。
【0064】
まず、図15のS911では、顔画像の撮像処理S1(図3参照)で撮像しマイクロコンピュータ2に入力された画像データ全体を、全体画像Gとして画像メモリに保存する。次に、S912では、縦方向に1ライン終了後に、一つ隣のラインの処理に移して行き、縦方向の全ラインでのポイント抽出が終了したか否かを判断する。
【0065】
S912で、全ラインにおいてポイント抽出が行われていないと判断された場合は(S912でNO)、S913に移行する。
【0066】
S913では、縦方向(Y軸方向)の1ラインの濃度値の相加平均演算を行う。この処理は、画像データ撮影時の濃度値の変化の小さなバラツキを無くすことを目的としており、濃度値の大局的な変化を捉えるためである。
【0067】
S914では、S913の演算結果である相加平均値における微分演算を行う。S915では、S914の演算結果である微分値によるポイント抽出を行う。この処理が1ライン終了した後、S916で、次のラインの処理に切り替えて行く。
【0068】
前述のS912の処理で、全ラインのポイント抽出が終了したと判断されると、S917へ移行し、隣り合う各ラインの抽出ポイントのY座標値を比較し、Y座標値が所定値以内の場合、連続データとして、▲1▼連続データのグループ番号、▲2▼連続開始ライン番号、▲3▼連続データ数、▲4▼連続データを構成する各抽出ポイントの縦方向位置の平均値(その連続データの代表上下位置)、▲5▼連続開始ラインと終了ラインの横方向位置の平均値(その連続データの代表左右位置)をメモリする。ここでの検出対象は眼としているため、その特徴量は横に比較的長く続くデータであるといえるので、横方向に所定値以上続くことを条件に連続データを選択することができる。
【0069】
このようにして選択した顔の特徴量を連続データGとして表したものを、図16に示す。なお、連続データGの抽出方法をフローチャートの流れのみで簡単に説明したが、処理状態の詳細については、「特開平10−40361号公報」「特開平10−143669号公報」などにも記載されている。
【0070】
連続データGがいわば眼の候補となり、この連続データGの代表座標値Cが眼の候補点の位置となる。
【0071】
次に、図15のS918において、図16に示すような各連続データGの代表座標値Cを基準に各連続データGを含む存在領域EAを設定する。この存在領域EAは、次のようにして決定する。
【0072】
(存在領域EAの大きさの決め方)
存在領域EAの大きさは、図17〜図20のようにして決定している。図17は、存在領域EAの大きさを示し、図18,図19は数人の眼の大きさを調べた横Xa、縦Yaの長さの統計データを示している。ここで、存在領域EAの大きさは、ノイズ(顔の皺や明暗などを抽出してしまう)の低減や処理速度を落とさないためにも、可能な限り小さい領域が良い。
【0073】
現在の居眠り検出などの処理で使っている大きさは数人の眼の大きさを調べ、それに余裕分(例えば×1.5倍)を加味した大きさにしている。数人の眼の大きさを統計的に求める方法としては、図18,図19のように、眼の縦、横寸法のデータを集め、その分布の、例えば95%をカバーする寸法に余裕分をみて決定する方法が考えられる。
【0074】
そしてこの95%をカバーする寸法、即ち、横寸法xa、縦寸法yaに、図17のように余裕分(×1.5)をみて決定している。なお、画像処理により眼の幅や高さを推定し、縦横の大きさに余裕分を加える方法も考えられる。
【0075】
(存在領域EAの位置の決め方)
図20は、例えば右眼の存在領域EAを位置決めする方法について示している。眼の座標値(x1,y1)を基準に、距離x2,y2の位置に存在領域EAを描く基準点Pを決め、P点から予め決めておいた存在領域EAの寸法x3,y3を描画し、位置を決める。x2及びy2はx3,y3の1/2で予め存在領域EAが眼の中心にくるような長さとしている。存在領域EAを画像全体で見つかった連続データGすべてについて設定する。
【0076】
[眼判定処理]
眼判定処理を、図21,図22に示すフローチャートと、図23〜図25を用いて説明する。まず、図21のS9201では、眼の候補点の存在領域EAの画像データを微少画像IGとして画像メモリに保存する。全体画像Gと保存される微小画像IGの状態を図23に示す。
【0077】
顔画像の撮像処理S1(図3参照)で撮像し、マイクロコンピュータ2に入力された画像データ全体を、全体画像Gとして画像メモリに保存する。
【0078】
次に、S9202では、全体画像Gの代表座標値Cに相当する微少画像IGの代表座標値ICを基準とした範囲ARの濃度情報をもとに、二値化閾値を設定する。
【0079】
この範囲ARは、前記存在領域EAより小さく、二値化閾値を正確に設定できるようにしている。
【0080】
各範囲ARでの二値化閾値の算出方法の一例を、図24を用いて説明する。範囲ARにおいて、縦方向に数ラインの濃度値の読み出しを行う。図24では、この縦方向へのラインが4本あることを示している。この各ラインにおいて、濃度値の最も高い(明るい)濃度値と、最も低い(暗い)濃度値をメモリして行き、全ラインのメモリが終了したら、各ラインの最も高い(明るい)濃度値の中で、一番低い濃度値(皮膚の部分)と、各ラインの最も低い(暗い)濃度値の中で、一番低い濃度値(眼の部分)とを求め、その中央値を二値化閾値とする。
【0081】
この二値化閾値のための範囲ARは、眼の黒い部分と眼の周囲の皮膚の白い部分が入るように設定し、また、画像の明るさのバラツキによる影響を少なくするために必要最小限の大きさにしている。また、二値化閾値は、その領域内の眼の一番低い(暗い)濃度値と、皮膚の部分の一番低い(暗い)濃度値の中央値とすることで、皮膚の部分から眼の部分を切り出すのに適した値となる。
【0082】
更に、二値化閾値を決定するのに皮膚の部分の濃度値の一番低い(暗い)濃度値を用いている理由は、次の通りである。前述したように眼の周囲の明るさのバラツキによる影響を少なくするために、濃度値を読み出す範囲ARを極力小さくしていても、該範囲ARの一部に直射光が当たっているような部分が外乱として入ることがあり、この部分を二値化閾値の決定に用いないようにするためである。
【0083】
S9203では、こうして決定した二値化閾値を用いて微少画像IGを二値化処理し、二値画像bGとして画像メモリに保存する。
【0084】
このような二値化閾値を用いて二値化した候補オブジェクトを検出することにより、眼を正確に捉えて候補オブジェクトの幾何形状を用いた判定をより正確に行うことができ、眼の位置検出精度をより向上することができる。
【0085】
次に、S9204に移行し、全体画像Gの代表座標値Cに相当する二値画像bGの位置bCを、初期位置に設定する。
【0086】
S9205で、設定位置が黒画素か否かを判定し、設定位置が黒画素と判定されれば(S9205でYES)、処理を図22のS9206へ移行し、設定位置が黒画素と判定されなければ(S9205でNO)、S9213にて、設定位置を上下左右に1画素ずつずらして、再度、設定位置が黒画素か否かを判定S9205を行い、設定位置が黒画素になるまで処理を行う。
【0087】
S9206では、その黒画素を包括する連結成分を候補オブジェクトとして設定する。S9207では、候補オブジェクトの幾何形状を算出し、S9208で特定したい眼テンプレートの幾何形状と候補オブジェクトの幾何形状を比較する。
【0088】
S9208の候補オブジェクトと眼テンプレートの幾何形状の比較方法の一例を、眼の場合について、図25を用いて説明する。
【0089】
眼の二値化した形状は光環境が良く安定した画像であれば、図25(a)に示すようなものになるが、車室内に直射日光が一側から当たる等して光環境が悪化したときは、図25(b),(c)のような形状になることもある。
【0090】
眼のテンプレートは、横幅が眼の相場値の2/3以上あり、且つ上に凸の所定範囲の曲率を持っていることの条件▲1▼と、黒眼の左側の凹み形状条件の▲2▼と、黒眼の右側の凹み形状条件の▲3▼とを組み合わせることにより設定し、図25(b),(c)の例を許容するために、▲1▼と▲2▼、または▲1▼と▲3▼の条件を満たすものであっても良いものとする。
【0091】
S9209では、S9208の結果、候補オブジェクトと眼テンプレートの幾何形状が一致するか否かを判定する。候補オブジェクトと眼テンプレートの幾何形状が一致する場合には(S9209でYES)、S9210で、その候補オブジェクトを眼と判定する。候補オブジェクトと眼テンプレートの幾何形状が一致しない場合には(S9209でNO)、S9214で、その候補オブジェクトを眼ではないと判定する。
【0092】
S9211では、眼と判定された候補オブジェクトの全体画像Gでの代表座標値Cをこの画像フレームでの眼の座標としてメモリする。
【0093】
S9212では、眼であると判定された代表候補点の微少画像IGを、眼画像MGiとして画像メモリに保存する。
【0094】
[顔の向きの判定処理]
次に、顔の向きの判定処理S94(図14参照)を、図26のフローチャートを参照して説明する。まず、S941では、眼の外周輪郭の検出の処理が実行される。S942では、眼の目頭・目尻の位置の検出の処理を行う。
【0095】
S943では、円弧状ラインのピーク位置の検出の処理を行う。S944では、S942で検出された目尻および目頭の位置、S943で検出された円弧状ラインのピーク位置に基づいて、顔の向きを判定する顔の向き算出処理を行う。
【0096】
[眼の外周輪郭の検出処理]
眼の外周輪郭の検出処理S941を、図27〜図30を参照して説明する。なお、本説明では画像上の右眼(実際の左眼)とする。
【0097】
図27は、眼位置特定処理によって特定された眼位置を中心とした微小画像を示している。ここでの微小画像は、眼判定処理のS9212(図22)で画像メモリの保管された微小画像MGiを用いるのが通常であるが、状況に応じて、画像メモリに保管されている全体画像Gからサイズや位置を再定義た微小画像を抽出して用いてもよい。
【0098】
図28の微小画像を二値化閾値より小さい画素を黒(濃度値0)、二値化閾値よりも大きいところを白(濃度値255)となるように二値化することによって、図27の二値化画像を得ることができる。ここで行う二値化処理の二値化閾値は、眼判定処理で行った二値化処理に用いた二値化閾値と同じとしてもよい。
【0099】
図29では、得られた二値化画像の左上から下向きに向かって画素値0の黒画素を検索する。一番下の画素まで検索し終わったら、一つ右の画素列を検索していく。その画素列で最初に見つかった黒画素と、最後に見つかった黒画素をそれぞれの画素列について求めていくと、図30に示すように、眼の外周輪郭を得ることができる。
【0100】
[眼の目頭・目尻の検出処理]
眼の目頭・目尻の検出処理S942を、図31を参照しながら説明する。眼の目頭・目尻の位置は、図31のように、画像上の右眼の場合では外周輪郭線の左端が目頭、右端が目尻位置となる。
【0101】
なお、平面座標として目頭、目尻位置を特定する場合、図31に示すように下側ラインの左右端を目頭位置、目尻位置として、その座標を使う方法のほかに、上側ラインの左右端を目頭位置、目尻位置として、その座標を使う方法や、上側ラインと下側ラインの左右端の中点を目頭位置、目尻位置として、その座標を使う方法もある。
【0102】
[円弧状ラインのピーク位置の検出処理]
円弧状ラインのピーク位置の検出処理S943について、図31〜図33を参照して説明する。
【0103】
円弧状ラインとして上瞼を用いる場合には、図31に示すように、眼の外周輪郭のラインで、上側ラインの最も高い位置をピーク位置とすることができる。
【0104】
また、図32のように、顔がカメラに対して正面を向いていないような場合には、図33に示すように画像上眼が傾き、必ずしも上側ラインの高さ方向で最も高い位置がピーク位置とはならない。このような場合も想定して、目頭位置と目尻位置を結んだ線分と眼の外周輪郭のラインで上側ラインの距離が最も大きいところをピーク位置とすることもできる。
【0105】
[顔の向きの算出処理]
顔の向き算出処理S944について、図31〜図34を参照して説明する。図31に示すように、顔を正面に向けている場合には、ピーク位置は眼のほぼ中心位置にあり、ピーク位置から目頭位置までの距離L1と、ピーク位置から目尻位置までの距離L2はほぼ等しくなる。次に、図32のように画像上で顔が右側を向いているような場合には、図33に示すように、ピーク位置から目頭位置までの距離L1は大きくなり、ピーク位置から目尻位置までの距離L2は小さくなる。
【0106】
L1とL2の関係をL2/L1というパラメータで表すと、正面に顔がある場合はL2/L1は1となり、顔を画像上の右側に向けていくと、L2/L1は次第に小さくなっていき、顔がカメラに対して真横を向いた時(顔を90度右向いたとき)に、円弧のピークは目尻側に寄り、L2の長さは0となるので、L2/L1は0となる。
【0107】
但し、実際は顔の向きが右45度程度を越えた後は、右目は顔の陰に隠れてカメラには写らなくなるため本来の処理においては両目を監視する。眼に斜視などの異常がなければ、左右両眼とも眼球は同様に動くので、片方の眼が見えないときは、もう片方の眼によって補完する様にする。
【0108】
反対に顔が左側を向いていくと、L2/L1は次第に大きくなっていき、顔がカメラに対して真横を向いた時(顔を90度左向いたとき)に円弧のピークは目頭側に寄り、L1の長さは0となるので、L2/L1は無限大となる。
【0109】
この関係を示したグラフを図34に示す。このグラフの関係から、L2/L1から顔の向き量を正面を向いたときを0度として右向きを正とした角度θfを求めることができる。
【0110】
ここで例示した顔の向き検出処理は一例であり、この方法のほかにも両目の間隔から顔の向きを検出する方法等が知られている。
【0111】
このようにして、本実施形態に係る顔状態検出装置では、車両の運転者(対象者)が眼鏡を掛けている場合であっても、眼鏡レンズへの映り込みに応じて、対象者の顔の向きを検出することができるので、対象者が眼鏡を掛けているかどうかに関わらず、高精度に顔の向きを検出することができるようになる。
【0113】
更に、車体構造物として、対象者よりも前方に存在するフロントウインドウの輪郭、サイドウインドウの輪郭、ルームミラー、或いはAピラー等を検出する構成とすることにより、より一層検出精度を向上させることができる。
【0119】
<第2の実施形態>
[システムブロック図]
図35は、本発明を適用した顔状態検出装置の、第2の実施形態の構成を示すブロック図である。この顔状態検出装置は、顔画像撮像手段CL1と、眼鏡検出手段CL2と、眼鏡レンズ径検出手段CL8と、第2の顔の向き検出手段CL9と、第3の顔の向き検出手段CL7と、を備えている。
【0120】
顔画像撮像手段CL1は、モニタ対象者の顔を撮像して顔画像データを出力する。眼鏡検出手段CL2は、モニタ対象者が眼鏡を掛けているかどうかを検出する。
【0121】
眼鏡レンズ径検出手段CL8は、顔画像撮像手段CL1から出力された顔画像データを処理してモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくともいずれか一方を検出する。
【0122】
第2の顔の向き検出手段CL9は、眼鏡レンズ径検出手段CL8によって検出されたモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくともいずれか一方から顔の方向を検出する。
【0123】
第3の顔の向き検出手段CL7は、眼鏡検出手段CL2で眼鏡が検出できなかった場合に、顔画像撮像手段CL1から出力された顔画像データを処理して眼の位置を検出し、左右の眼の位置もしくは検出された眼の位置を基準にした範囲にて、画像処理によって得られる左右いずれかの眼の形状から顔の向きを検出する。
【0124】
[機器の配置]
本発明の機器の配置、顔画像撮像手段CL1としてのTVカメラ1は、前述した第1の実施形態と同じであるので、その説明を省略する。マイクロコンピュータ2には、眼鏡検出手段CL2と、眼鏡レンズ径検出手段CL8と、第2の顔の向き検出手段CL9と、第3の顔の向き検出手段CL7の処理に関するプログラムがプログラミングされている。
【0125】
[システム全体の処理]
図36は、システムの全体の処理の流れを示している。まず、処理が開始されると、S1で、TVカメラ1でモニタ対象者の顔画像を撮像し、マイクロコンピュータ2に画像データとして入力される。
【0126】
S2では、モニタ対象者が眼鏡を掛けているか否かを検出する。S3では、S2の検出結果に基づいて、モニタ対象者が眼鏡を掛けている場合には(S3でYES)、S10へ処理を進め、モニタ対象者が眼鏡を掛けていない場合は(S3でNO)、S9へ処理を進める。
【0127】
S10では、マイクロコンピュータ2に入力された画像データを画像処理することによって、モニタ対象者が掛けている眼鏡のレンズの横径、或いは縦径の少なくとも一方を検出する。
【0128】
S11では、S10で検出されたモニタ対象者が掛けている眼鏡のレンズの横径、又は縦径の少なくとも一方のデータに基づいて、モニタ対象者の顔の向きを検出し(第2の顔の向き検出処理)、処理を終了する。
【0129】
S9では、S3で眼鏡が検出できなかった場合、又はS5でモニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込みが検出できなかった場合に、マイクロコンピュータ2に入力された画像データを画像処理することによって、眼の位置を検出し、左右の眼の位置から、或いは検出された眼の位置を基準にした範囲から画像処理によって得られる左右いずれかの眼の形状から、顔の向きを検出し(第3の顔の向き検出処理)、処理を終了する。
【0130】
[眼鏡の検出処理]
第1実施形態と同様であるので、その詳細説明を省略する。
【0131】
[眼鏡レンズ径の検出処理]
レンズ径の検出処理S10を、図37を用いて説明する。輪郭抽出することによって眼鏡フレーム輪郭データを原画像から抽出する。抽出された眼鏡フレームの輪郭線の右フレーム、及び左フレームの外接四角形を検出する。検出された右フレーム、及び左フレームの、外接四角形の横辺が右フレームの横径LHR、左フレームの横径LHL、縦辺が右フレームの縦径LVR、左フレームの縦径LVLとなる。
【0132】
[第2の顔の向き検出処理]
第2の顔の向き検出処理S11を、図37〜図40を用いて説明する。図37は、モニタ対象者が正面を向いているときの、眼鏡フレームの輪郭線であり、図38は、モニタ対象者が右を向いているときの、眼鏡フレームの輪郭線であり、図39は、モニタ対象者が左を向いているときの、眼鏡フレームの輪郭線である。
【0133】
この図から判るように、モニタ対象者が左右を顔を向けると向いた側の眼鏡フレームの横経が正面を向いている状態より小さくなっている。また、向いた側の眼鏡フレームの横径が、反対側の眼鏡フレームの横径よりも小さくなっている。の関係を示したのが、図40に示すグラフとなる。
【0134】
ここでは、モニタ対象者が左右に顔を向けた時のみ眼鏡フレームの横径を使って検出する方法を例示したが、上下方向に顔を向けた場合は眼鏡フレームの縦径を使って検出することができる。また、モニタ対象者の顔は上下左右の合成の動きをするので眼鏡フレームの横径、縦径を同時に使うことでより精度のよい顔の向き検出ができる。
【0135】
[第3の顔の向き検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0136】
このようにして、第2の実施形態に係る顔状態検出装置では、眼鏡のレンズ径の縦径、或いは横径に基づいて対象者の顔の向きを検出する第2の顔の向き検出手段を具備し、眼鏡に映り込んだ映像から車体構造物が検出されない場合には、この第2の顔の向き検出手段を用いて、対象者の顔の向きを検出するように構成するので、第1の実施形態に記載した効果に加え、より一層検出精度を向上させることができる。
【0137】
<第3の実施形態>
[システムブロック図]
図41は、本発明を適用した顔状態検出装置の、第3の実施形態の構成を示すブロック図である。この顔状態検出装置は、顔画像撮像手段CL1と、眼鏡検出手段CL2と、映り込み検出手段CL3と、車体構造物検出手段CL4と、車体構造物位置検出手段CL5と、第1の顔の向き検出手段CL6と、第3の顔の向き検出手段CL7と、眼鏡レンズ径検出手段CL8と、第2の顔の向き検出手段CL9と、備えている。
【0138】
顔画像撮像手段CL1は、モニタ対象者の顔を撮像して顔画像データを出力する。眼鏡検出手段CL2は、モニタ対象者が眼鏡を掛けているかどうかを検出する。
【0139】
映り込み検出手段CL3は、顔画像撮像手段CL1から出力された顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズ表面上に、車内外の情景が映り込んでいるか否かを検出する。
【0140】
車体構造物検出手段CL4は、顔画像撮像手段CL1から出力された顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から車体構造物を検出する。
【0141】
車体構造物位置検出手段CL5は、顔画像撮像手段CL1から出力された顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズフレームを検出し、車体構造物検出手段CL4によって、検出されたモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車体構造物とレンズフレームの相対位置関係によって眼鏡上に映り込んでいる車体構造物の眼鏡上での位置を検出する。
【0142】
第1の顔の向き検出手段CL6は、車体構造物位置検出手段CL5によって検出された眼鏡上に映り込んでいる車体構造物の眼鏡上での位置から顔の方向を検出する。
【0143】
第3の顔の向き検出手段CL7は、眼鏡検出手段CL2で眼鏡が検出できなかった場合か、映り込み検出手段CL3でドライバが掛けている眼鏡のレンズ表面上に車内外の情景の映り込みが検出できなかった場合に、顔画像撮像手段CL1から出力された顔画像データを処理して眼の位置を検出し、左右の眼の位置もしくは検出された眼の位置を基準にした範囲から画像処理によって得られる左右いずれかの眼の形状から顔の向きを検出する。
【0144】
眼鏡レンズ径検出手段CL8は、顔画像撮像手段CL1から出力された顔画像データを処理してモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくともいずれか一方を検出する。
【0145】
第2の顔の向き検出手段CL9は、眼鏡レンズ径検出手段CL8によって検出されたモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくともいずれか一方から顔の方向を検出する。
【0146】
[機器の配置]
本発明の機器の配置、顔画像撮像手段CL1としてのTVカメラ1は、前述した第1の実施形態と同一であるので、その説明を省略する。
【0147】
マイクロコンピュータ2には、眼鏡検出手段CL2と、映り込み検出手段CL3と車体構造物検出手段CL4と、車体構造物位置検出手段CL5と、第1の顔の向き検出手段CL6と、第3の顔の向き検出手段CL7と、眼鏡レンズ径検出手段CL8と、第2の顔の向き検出手段CL9の処理に関するプログラムがプログラミングされている。
【0148】
[システム全体の処理]
図42は、システムの全体の処理の流れを示している。まず、処理が開始されると、S1で、TVカメラ1でモニタ対象者の顔画像を撮像し、マイクロコンピュータ2に画像データとして入力される。S2では、モニタ対象者が眼鏡を掛けているか否かを検出する。
【0149】
S3では、S2の検出結果に基づき、モニタ対象者が眼鏡を掛けている場合には(S3でYES)、S4へ処理を進め、モニタ対象者が眼鏡を掛けていない場合は(S3でNO)、S9へ処理を進める。
【0150】
S4では、マイクロコンピュータ2に入力された画像データを画像処理することによって、モニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込んでいるか否かを検出する。
【0151】
S5では、S4の検出結果に基づき、モニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込んでいる場合は(S5でYES)、S6へ処理を進め、モニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込んでいない場合は(S5でNO)、S9へ処理を進める。
【0152】
S6では、マイクロコンピュータ2に入力された画像データを画像処理することによってモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から車体構造物を検出する。
【0153】
S12では、モニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から車体構造物が検出できた場合は(S12でYES)、S7へ処理を進め、図43に示すような状況でモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から車体構造物が検出できなかった場合は(S12でNO)、S10へ処理を進める。
【0154】
S7では、マイクロコンピュータ2に入力された画像データを画像処理することによってモニタ対象者が掛けている眼鏡のレンズフレームを検出し、車体構造物検出手段CL4によって検出されたモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車体構造物とレンズフレームの相対位置関係によって眼鏡上に映り込んでいる車体構造物の眼鏡上での位置を検出する。
【0155】
S8では、S7によって検出された眼鏡上に映り込んでいる車体構造物の眼鏡上での位置から、モニタ対象者の顔の向きを検出し(第1の顔の向き検出処理)、処理を終了する。
【0156】
S9では、S3で眼鏡が検出できなかった場合、又はS5でモニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込みが検出できなかった場合に、マイクロコンピュータ2に入力された画像データを画像処理することによって眼の位置を検出し、左右の眼の位置もしくは検出された眼の位置を基準にした範囲から画像処理によって得られる左右いずれかの眼の形状から顔の向きを検出し(第3の顔の向き検出処理)、処理を終了する。
【0157】
S10では、マイクロコンピュータ2に入力された画像データを画像処理することによってモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくともいずれか一方を検出する。
【0158】
S11では、S10で検出されたモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくとも一方から、モニタ対象者の顔の向きを検出し(第2の顔の向き検出処理)、処理を終了する。
【0159】
[眼鏡の検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0160】
[映り込み検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0161】
[車両構造物検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0162】
[車両構造物の画像上の眼鏡上の位置の検出]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0163】
[第1の顔の向き検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0164】
[第3の顔の向き検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0165】
[眼鏡レンズ径の検出処理]
前述した第2の実施形態と同様であるので、その詳細説明を省略する。
【0166】
[第2の顔の向き検出処理]
前述した第2の実施形態と同様であるので、その詳細説明を省略する。
【0167】
このようにして、本実施形態に係る顔状態検出装置では、対象者の顔画像から、眼の位置を検出し、眼の位置或いは眼の形状に基づいて、対象者の顔の向きを検出する第3の顔の位置検出手段を備え、眼鏡のレンズに映り込んだ映像から車体構造物を検出することができない場合に、第3の顔の向き検出手段により、対象者の顔の向きを検出するようにしているので、前述した第1,第2の実施形態に記載した顔状態検出装置に記載した効果に加え、より一層検出精度を向上させることができる。
【図面の簡単な説明】
【図1】本発明の、第1の実施形態に係る顔状態検出装置の構成を示すブロック図である。
【図2】本発明に係る顔状態検出装置の、各構成要素の配置図である。
【図3】第1の実施形態に係る顔状態検出装置の、全体の処理手順を示すフローチャートである。
【図4】映り込み判定処理の具体的な内容を示すフローチャートである。
【図5】眼鏡に映り込みが発生していないときの様子を示す説明図である。
【図6】眼鏡に映り込みが発生しているときの、モニタ対象者の顔画像である。
【図7】図6に示した画像から、眼鏡部分を抽出した画像を示す説明図である。
【図8】眼鏡、及び映り込み画像の輪郭データを示す説明図である。
【図9】モニタ対象者が右側を見たときの、眼鏡部分の原画像、及び輪郭データを示す説明図である。
【図10】モニタ対象者が左側を見たときの、眼鏡部分の原画像、及び輪郭データを示す説明図である。
【図11】モニタ対象者が、正面から右方向を向くときの変化の様子を示す説明図の、第1の分図である。
【図12】モニタ対象者が、正面から右方向を向くときの変化の様子を示す説明図の、第2の分図である。
【図13】モニタ対象者が、正面から右方向を向くときの変化の様子を示す説明図の、第3の分図である。
【図14】顔の向き判定処理の具体的な内容を示すフローチャートである。
【図15】眼の候補の位置特定処理の具体的な内容を示すフローチャートである。
【図16】眼のテンプレートを用いて、対象者の眼の位置を検出する様子を示す説明図である。
【図17】眼の存在領域の大きさを示す説明図である。
【図18】眼の横方向の長さの統計を示す説明図である。
【図19】眼の縦方向の長さの統計を示す説明図である。
【図20】眼の存在領域の位置を決める処理を示す説明図である。
【図21】眼判定処理の具体的な内容を示すフローチャートの、第1の分図である。
【図22】眼判定処理の具体的な内容を示すフローチャートの、第2の分図である。
【図23】微小画像を抽出する処理の説明図である。
【図24】二値化閾値を求める処理を示す説明図である。
【図25】眼のテンプレートを用いて、眼の位置を検出する処理を示す説明図である。
【図26】顔の向き判定処理の具体的な内容を示すフローチャートである。
【図27】眼の輪郭線を画像処理によって抽出する処理の説明図である。
【図28】眼の輪郭線を画像処理によって抽出する処理の説明図である。
【図29】眼の輪郭線を画像処理によって抽出する処理の説明図である。
【図30】眼の輪郭線を画像処理によって抽出する処理の説明図である。
【図31】目頭・目尻、円弧状ラインピーク位置を示す説明図である。
【図32】対象者が眼球を動かしたときの映像を示す説明図である。
【図33】対象者が眼球を動かしたときの、目頭・目尻、円弧状ラインピーク位置を示す説明図である。
【図34】顔の向きと目尻ピーク距離、目頭ピーク距離との関係を示す特性図である。
【図35】本発明の、第2の実施形態に係る顔状態検出装置の構成を示すブロック図である。
【図36】第2の実施形態に係る顔状態検出装置の、処理全体を示すフローチャートである。
【図37】モニタ対象者が正面を見ているときの、眼鏡のフレーム輪郭データを示す説明図である。
【図38】モニタ対象者が右側を見ているときの、眼鏡のフレーム輪郭データを示す説明図である。
【図39】モニタ対象者が左側を見ているときの、眼鏡のフレーム輪郭データを示す説明図である。
【図40】顔の向きと、眼鏡の横径との関係を示す特性図である。
【図41】第3の実施形態に係る顔状態検出装置の、処理全体を示すフローチャートである。
【図42】第3の実施形態に係る顔状態検出装置の、処理全体を示すフローチャートである。
【図43】モニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から、車体構造物を検出することができない場合の眼鏡部分の画像を示す説明図である。
【符号の説明】
1 カメラ
2 マイクロコンピュータ
CL1 顔画像撮像手段
CL2 眼鏡検出手段
CL3 映り込み検出手段
CL4 車体構造物検出手段
CL5 車体構造物位置検出手段
CL6 第1の顔の向き検出手段
CL7 第3の顔の向き検出手段
CL8 眼鏡レンズ径検出手段
CL9 第2の顔の向き検出手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a face state detection device that detects the face state of a driver of a vehicle.
[0002]
[Prior art]
As a conventional face state detection device, for example, a “side-view driving prevention device” (hereinafter referred to as a conventional example) described in Japanese Patent Application Laid-Open No. 7-69139 is known.
[0003]
In the conventional example, a face image captured by a camera is taken as an inspection image, the coordinates of the left and right eye images of the driver are obtained based on the inspection image, the distance between the left and right eyes is calculated based on the coordinates of the eye image, The reference eye distance is calculated by fetching the same eye distance data a predetermined number of times, and it is detected from the reference eye distance and the current eye distance that there is no face in front.
[0004]
At this time, when the subject who detects the orientation of the face is wearing spectacles, reflection may occur in the lens portion of the spectacles due to the influence of the light environment, and the eyes may not be detected from the face image. Further, when the subject wears sunglasses, the eyes cannot be detected at all. When the subject's eyes can no longer be detected in this way, instead of the eyes, for example, a face part such as the nose or mouth is detected, and the face orientation is detected based on the change in the position of the face part. It was.
[0005]
[Problems to be solved by the invention]
However, in the above-described conventional example, when the driver wears spectacles such as sunglasses, the surrounding image may be reflected on the lens portion of the spectacles, and the eye state may not be determined. In addition, when the driver wears glasses and detects the face orientation using the nose or mouth image, the contour of the nose or mouth cannot be detected accurately, and the position of the nose or mouth changes. In addition, since the change in the size of the nose or mouth in the face image cannot be detected accurately, there is a drawback that the face orientation cannot be detected with high accuracy.
[0006]
[Means for Solving the Problems]
The present invention is based on the face image in a face state detection device that captures the face of the subject with a face image capturing unit and detects the orientation of the face of the subject based on the captured face image. The eyeglass detection means for detecting whether or not the subject is wearing glasses, and when the eyeglass detection means detects that the subject is wearing glasses, there is a reflection in the glasses. Reflection detection means for detecting whether or not,When the reflection is detected by the reflection detection means, the vehicle body structure detection means detects an image of the vehicle body structure included in the reflection image.When,Vehicle body structure position detection means for detecting the position of the image of the vehicle body structure detected by the vehicle body structure detection means on the lens of the glasses.When,Position on the lens of the image of the vehicle body structure detected by the vehicle body structure position detection meansAnd a first face orientation detecting means for detecting the orientation of the face of the subject.
[0007]
【The invention's effect】
According to the present invention, even when the person to be monitored wears spectacles that cause reflection, and even when the eye state cannot be directly detected, the state of the reflection image generated on the spectacles or the state of the spectacle frame is detected. Therefore, the orientation of the face of the person to be monitored can be detected, so that the face direction of the person to be monitored can be detected with high accuracy regardless of whether or not the person to be monitored is wearing glasses.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0009]
<First Embodiment>
[System block diagram]
FIG. 1 is a block diagram showing the configuration of the first embodiment according to the face state detection apparatus of the present invention. As shown in the figure, this face state detection apparatus includes a face image imaging means CL1, a glasses detection means CL2, a reflection detection means CL3, a vehicle body structure detection means CL4 (feature amount detection means), and a vehicle body structure. An object position detecting means CL5, a first face orientation detecting means CL6, and a third face orientation detecting means CL7 are provided.
[0010]
The face image imaging means CL1 images the face of the person to be monitored and outputs face image data obtained by the imaging.
[0011]
The glasses detection means CL2 detects whether or not the person to be monitored is wearing glasses based on the image captured by the face image imaging means CL1.
[0012]
The reflection detection means CL3 processes the face image data output from the face image imaging means CL1, and determines whether or not a scene inside and outside the vehicle is reflected on the lens surface of the glasses worn by the person to be monitored. To detect.
[0013]
The vehicle body structure detection means CL4 processes the face image data output from the face image imaging means CL1, and determines the vehicle body structure from the inside and outside scenes reflected on the lens surface of the glasses worn by the person to be monitored. Detect objects.
[0014]
The vehicle body structure position detection means CL5 processes the face image data output from the face image imaging means CL1, detects the lens frame of the glasses worn by the person to be monitored, and is detected by the vehicle body structure detection means CL4. The position of the body structure reflected on the glasses on the glasses based on the relative positional relationship between the body frame reflected on the lens surface of the glasses worn by the person being monitored and the lens frame Is detected.
[0015]
The first face orientation detection means CL6 is based on the position of the body structure reflected on the glasses detected by the body structure position detection means CL5 on the glasses and the direction of the face of the person to be monitored. Is detected.
[0016]
The third face orientation detection means CL7 is a case where the glasses cannot be detected by the glasses detection means CL2, or on the lens surface of the glasses worn by the driver in the reflection detection means CL3. When the reflection of the image cannot be detected, the face image data output from the face image capturing means CL1 is processed to detect the position of the eyes, and the positions of the left and right eyes or the detected positions of the eyes are used as a reference. From the determined range, the face orientation of the driver (monitor target person) is detected based on the shape of the left or right eye obtained by image processing.
[0017]
This device can be used for monitoring automobiles, railway vehicles, ship drivers, plant operators, etc., but in all the embodiments shown below, examples are applied to the eyes of automobile drivers. I will explain.
[0018]
[Device layout]
FIG. 2 is a device layout diagram of the face state detection apparatus according to the present embodiment. The
[0019]
The
[0020]
[System-wide processing]
FIG. 3 shows the overall processing flow of the system. First, when processing is started, in step S1 (hereinafter, “step S” is simply referred to as “S”), a face image of the person to be monitored is captured by the
[0021]
In S2, it is detected whether or not the person to be monitored is wearing glasses. In S3, based on the detection result of S2, if the person to be monitored is wearing glasses (YES in S3), the process proceeds to S4, and if the person to be monitored is not wearing glasses (NO in S3), The process proceeds to S9.
[0022]
In S4, the image data input to the
[0023]
In S5, based on the detection result in S4, if a scene inside or outside the vehicle is reflected on the lens surface of the glasses worn by the person to be monitored (YES in S5), the process proceeds to S6. If a scene inside or outside the vehicle is not reflected on the lens surface of the glasses worn by (No in S5), the process proceeds to S9.
[0024]
In S6, the image data input to the
[0025]
In S7, the image data input to the
[0026]
In S8, the direction of the face of the person to be monitored is detected based on the position of the body structure reflected on the glasses detected in S7 on the glasses, and the process ends.
[0027]
In S9, if the spectacles cannot be detected in S3, or if a scene inside or outside the vehicle is not detected on the lens surface of the spectacles worn by the person to be monitored in S5, input to the
[0028]
[Glasses detection processing]
As a method for detecting glasses, it is possible to operate the device that the person to be monitored is wearing glasses with a switch installed on the instrument panel, or whether the device automatically wears glasses. May be determined. As a method for automatic discrimination, for example, a method proposed in Japanese Patent No. 2546188 and Japanese Patent Laid-Open No. 9-216611 can be used.
[0029]
[Reflection detection processing]
The reflection of spectacles increases as the light transmittance of the spectacle lens is lower and the reflectivity of light on the spectacle lens surface is higher. As spectacles having low light transmittance of spectacle lenses, spectacles using colored lenses generally called sunglasses correspond to this. Generally speaking, the types and darkness of sunglasses vary widely depending on the glasses, but the darker the color, the more the reflection tends to become clearer.
[0030]
In addition, if the lens surface has the same material and color, the reflection tends to decrease as the coating for reducing reflection, which is generally referred to as an anti-reflection coating, is applied. Even with the same glasses, the intensity of the reflection changes depending on the light environment of the outside world, so even if the glasses use lenses that are colorless and transparent and have a non-reflective coating, the reflection should not occur. Is not limited.
[0031]
As shown in FIG. 5, if the person to be monitored is wearing glasses, the eyes on the image of the person to be monitored are located inside the frame of the glasses. However, as shown in FIG. 7, it is known that if the spectacles inside and outside the vehicle are clearly reflected in the glasses, the reflection hides the eyes of the person to be monitored who should be located inside the frame of the glasses. .
[0032]
Therefore, if it is known that the person to be monitored is wearing glasses, the eyes are detected from the entire face image. As a result, if the eyes cannot be detected, it can be determined that the image is reflected on the glasses. .
[0033]
Hereinafter, the reflection detection process S4 will be described with reference to the flowchart shown in FIG. First, in S41 of FIG. 4, a process for specifying the position of the eye candidate is executed. In S42, an eye determination process is performed.
[0034]
In S43, it is determined whether all the eye candidate points detected in the specific processing of the position of the eye candidate have been determined. If all eye candidate points have been determined (YES in S43), the process proceeds to S44. If all the eye candidate points have not been determined (NO in S43), the process returns to the eye determination process in S42.
[0035]
In S44, it is determined whether or not there is a candidate point that can be determined as an eye as a result of performing the eye determination process in S42. If there is a candidate point that can be determined to be an eye (YES in S44), it is determined that there is no reflection in S45, and if there is no candidate point that can be determined to be an eye (NO in S44), it is reflected in S45. If it is determined that there is, the process proceeds to S5.
[0036]
For details of the eye candidate position specifying process in S41 and the eye determining process in S42, the third face orientation detecting means described later, the eye candidate position specifying process in S91, Since this is the same as the eye determination process in S92, a description thereof is omitted here.
[0037]
[Vehicle structure detection processing]
Next, the vehicle structure detection process S6 (see FIG. 3) will be described with reference to FIGS. FIG. 6 shows a face image in which a scene inside and outside the vehicle is reflected on the spectacle lens. In FIGS. 6 to 8, the monitoring target person is looking at the front.
[0038]
From this face image, a rectangular area including glasses surrounded by a frame line in FIG. 6 is extracted. The rectangular area may be determined using the market value of the area where the eye is present on the image, or the rectangular area may be determined from the position of facial components other than the eyes such as the nose, mouth and ears.
[0039]
An image of this rectangular area is extracted as shown in FIG. 7. As a result of extracting the contour of the image of FIG. 7, contour data as shown in FIG. 8 can be generated.
[0040]
From the contour data of FIG. 8, a vehicle body structure such as an A-pillar is extracted from the area surrounded by the contour of the right side window, the contour of the front window, the room mirror, the contour of the right side window and the contour of the right edge of the front window. Can do.
[0041]
[Detection of position on spectacles on vehicle structure image]
Next, the position detection processing S7 on the glasses on the image of the vehicle structure will be described with reference to FIG.
[0042]
A spectacle frame is extracted from the contour data obtained in the vehicle structure detection process S6. It is detected in which position in the extracted spectacle frame the vehicle structure extracted in the vehicle structure detection process S6 exists.
[0043]
In FIG. 8, there is a right A pillar surrounded by a right side window outline, a front window right edge outline, a right side window outline and a front window right edge outline in the right frame of the glasses. In the left frame, there is an outline at the top center of the front window and a rearview mirror.
[0044]
[First face orientation detection processing]
The first face orientation detection process S8 will be described with reference to FIGS. FIG. 9 shows the situation when the person to be monitored turns to the right. FIG. 9A shows the original image, and FIG. 9B shows the contour data obtained by extracting the contour of the original image of FIG. ing.
[0045]
In FIG. 9 (b), there is an upper contour of the right side window in the right frame of the glasses, and the front frame of the right side window, the right edge of the front window, the upper right contour of the left frame of the glasses, There is a right A pillar surrounded by the contour of the front portion of the right side window and the contour of the right end portion of the front window.
[0046]
Comparing the positions of the vehicle components reflected when the person to be monitored shown in FIG. 8 is looking at the front, the outline of the right side window shows the glasses when the person to be monitored is looking at the front. When the person to be monitored turns to the right, the right frame of the right frame of the eyeglass moves to the upper left part of the right frame of the glasses, and the contour of the front part of the right side window is the left frame of the glasses. Has moved to.
[0047]
In addition, the contour line at the right end of the front window is reflected in the right frame of the glasses when the person to be monitored is looking in front, but moves to the left frame of the glasses when the person to be monitored turns to the right.
[0048]
As a result, the right A pillar moves to the left frame. In addition, the outline of the center upper part of the room mirror and the front window was shown on the left frame of the glasses when the person being monitored was looking in front, but when the person to be monitored turned to the right, Moves out of the left side of, and is no longer reflected on the spectacle lens.
[0049]
FIG. 10 shows the situation when the person to be monitored turns to the left. FIG. 10 (a) shows the original image, and FIG. 10 (b) shows the contour extracted from the original image of FIG. 10 (a). Data are shown.
[0050]
In FIG. 10 (b), the upper contour of the front window and the rearview mirror are present in the right frame of the glasses, and the left edge of the front window, the contour of the upper left corner, the contour of the left side window, and the left side of the left frame of the glasses. There is a left A pillar surrounded by the contour of the front portion of the window and the contour of the left end portion of the front window.
[0051]
Comparing the positions of the vehicle components reflected when the monitoring subject shown in FIG. 8 is looking at the front, the contour of the right side window shows the right side when the monitoring subject is looking at the front. Although it is at a relatively low position in the frame, when the person to be monitored turns to the left, it moves out of the lower right side of the right frame of the glasses and does not appear on the lens of the glasses.
[0052]
In addition, the contour of the right edge of the front window was also reflected in the right frame of the glasses when the person being monitored was looking in front. , It is no longer reflected on the lens of the glasses. In addition, the outline of the center upper part of the rearview mirror and the front window was shown on the left frame of the glasses when the person being monitored was looking in front, but when the person to be monitored turned to the left, Has moved to.
[0053]
Changed to the front window left upper edge, left edge outline, left side window, left side window front outline and front window left edge outline that was not reflected when the person being monitored was looking in front The enclosed left A-pillar is reflected in the left frame of the glasses.
[0054]
FIGS. 11 to 13 show original images of a situation where the person to be monitored faces rightward from the front. This image shows 24 frames ((1) to (24)) sampled at 33 milliseconds (msec) per frame.
[0055]
Looking at this continuous image, the contour of the right side window moves from the relatively low position on the right side of the right frame of the glasses to the upper left side as the person to be monitored faces from the front to the right side. It can be seen that after the 18th frame, the contour line of No. 1 starts to appear in the left frame of the glasses and then gradually moves to the left.
[0056]
In addition, the outline at the right end of the front window, which was reflected in the right frame of the glasses, gradually moves to the left and disappears from the right frame of the glasses at the seventh frame. On the other hand, the right edge of the front window is shown from the sixth frame in the left frame of the glasses.
[0057]
The right A-pillar gradually moves to the left on the right frame of the glasses until the 4th frame, and appears on the left and right frames from the 5th frame, and then gradually disappears from the right frame of the glasses. The left frame gradually expands the area to the left.
[0058]
After the 18th frame, the right A-pillar is not reflected in the right frame of the glasses, the right A-pillar is reflected only in the left frame of the glasses, and then gradually moves to the left in the left frame of the glasses.
[0059]
Further, it can be seen that the contour line at the center upper part of the rearview mirror and the front window gradually moves to the left side as the monitor turns to the right, and after 17th frame, the rearview mirror disappears outside the left side of the left frame of the glasses.
[0060]
As described above, it is possible to correlate the position of the vehicle structure in the spectacle frame reflected in the spectacle frame and the direction of the face, thereby detecting which direction the face of the person to be monitored is facing. be able to.
[0061]
[Third face orientation detection processing]
Next, the third face orientation detection process S9 (FIG. 3) will be described with reference to the flowchart of FIG.
[0062]
First, in S91, a process for specifying the position of the eye candidate is executed. In S92, an eye determination process is performed. In S93, it is determined whether all the eye candidate points detected in the specific processing of the position of the eye candidate in S91 have been determined. If all eye candidate points have been determined (YES in S93), the process moves to S94. If all the eye candidate points have not been determined (NO in S93), the process returns to the eye determination process in S92. In S94, face orientation determination processing is performed to determine the face orientation of the person to be monitored.
[0063]
[Specific processing of eye candidate position]
The flow of the eye candidate position specifying process S91 will be described with reference to the flowchart of FIG. 15 and FIGS.
[0064]
First, in S911 in FIG. 15, the entire image data captured in the face image capturing process S1 (see FIG. 3) and input to the
[0065]
If it is determined in S912 that point extraction has not been performed on all lines (NO in S912), the process proceeds to S913.
[0066]
In S913, an arithmetic mean calculation of the density values of one line in the vertical direction (Y-axis direction) is performed. The purpose of this process is to eliminate small variations in density value changes during image data capture, and to capture global changes in density values.
[0067]
In S914, a differentiation operation is performed on the arithmetic mean value that is the calculation result of S913. In S915, point extraction is performed based on the differential value that is the calculation result of S914. After this process is completed for one line, the process is switched to the process for the next line in S916.
[0068]
If it is determined in the above-described processing of S912 that the point extraction of all lines has been completed, the process proceeds to S917, where the Y coordinate values of the extraction points of adjacent lines are compared, and the Y coordinate value is within a predetermined value. As continuous data, (1) group number of continuous data, (2) continuous start line number, (3) number of continuous data, (4) average value of vertical position of each extraction point constituting continuous data (5) The average value of the horizontal position of the continuous start line and the end line (representative horizontal position of the continuous data) is stored. Since the detection target here is the eye, it can be said that the feature amount is data that lasts for a relatively long time. Therefore, continuous data can be selected on the condition that it continues for a predetermined value or more in the horizontal direction.
[0069]
FIG. 16 shows the facial feature quantity selected in this way as continuous data G. FIG. Although the method for extracting the continuous data G has been described simply with the flow of the flowchart, the details of the processing state are also described in “JP 10-40361 A”, “JP 10-143669 A”, and the like. ing.
[0070]
The continuous data G is a so-called eye candidate, and the representative coordinate value C of the continuous data G is the position of the eye candidate point.
[0071]
Next, in S918 of FIG. 15, an existence area EA including each continuous data G is set based on the representative coordinate value C of each continuous data G as shown in FIG. This existence area EA is determined as follows.
[0072]
(How to determine the size of the existence area EA)
The size of the existence area EA is determined as shown in FIGS. FIG. 17 shows the size of the existence area EA, and FIGS. 18 and 19 show statistical data on the lengths of the horizontal Xa and the vertical Ya, in which the sizes of several eyes were examined. Here, the size of the existence area EA is preferably as small as possible in order to reduce noise (extract facial wrinkles, brightness and darkness) and not reduce the processing speed.
[0073]
The size used in the current process such as detection of snoozing is determined by examining the size of several people's eyes and adding a margin (for example, x1.5). As a method for statistically obtaining the eye sizes of several people, as shown in FIGS. 18 and 19, data on the vertical and horizontal dimensions of the eyes are collected, and a margin that covers 95% of the distribution is sufficient. A method of determining by looking at the above can be considered.
[0074]
Then, the dimensions covering 95%, that is, the horizontal dimension xa and the vertical dimension ya are determined by taking a margin (× 1.5) as shown in FIG. A method of estimating the eye width and height by image processing and adding a margin to the vertical and horizontal sizes is also conceivable.
[0075]
(How to determine the position of the existence area EA)
FIG. 20 shows a method for positioning the presence area EA of the right eye, for example. Based on the eye coordinate values (x1, y1), a reference point P for drawing the existence area EA is determined at the distance x2, y2, and the dimensions x3, y3 of the existence area EA determined in advance from the P point are drawn. Determine the position. x2 and y2 are 1/2 of x3 and y3, and have a length such that the existing area EA is in the center of the eye in advance. The existence area EA is set for all continuous data G found in the entire image.
[0076]
[Eye determination processing]
The eye determination process will be described with reference to the flowcharts shown in FIGS. 21 and 22 and FIGS. First, in S9201 of FIG. 21, the image data of the eye candidate point existence area EA is stored in the image memory as a minute image IG. The state of the whole image G and the stored minute image IG is shown in FIG.
[0077]
The entire image data captured by the face image capturing process S1 (see FIG. 3) and input to the
[0078]
Next, in S9202, a binarization threshold is set based on the density information of the range AR with reference to the representative coordinate value IC of the minute image IG corresponding to the representative coordinate value C of the entire image G.
[0079]
This range AR is smaller than the existence area EA so that the binarization threshold can be set accurately.
[0080]
An example of a binarization threshold calculation method in each range AR will be described with reference to FIG. In the range AR, density values of several lines are read in the vertical direction. FIG. 24 shows that there are four lines in the vertical direction. In each line, the highest (bright) density value and the lowest (dark) density value are stored in memory, and when all lines are stored, the highest (bright) density value in each line is stored. Then, find the lowest density value (skin part) and the lowest density value (eye part) among the lowest (dark) density values of each line, and calculate the median value as the binarization threshold. And
[0081]
The range AR for the binarization threshold is set so that the black part of the eye and the white part of the skin around the eye enter, and is the minimum necessary to reduce the influence of the brightness variation of the image. The size is In addition, the binarization threshold is set to the median value of the lowest (dark) density value of the eye in the region and the lowest (dark) density value of the skin portion, so that the eye can This value is suitable for cutting out a portion.
[0082]
Furthermore, the reason why the lowest (dark) density value of the density value of the skin portion is used to determine the binarization threshold is as follows. As described above, even if the range AR from which the density value is read is made as small as possible in order to reduce the influence due to the brightness variation around the eyes, a portion where direct light is hitting a part of the range AR This is to prevent this portion from being used for determining the binarization threshold.
[0083]
In step S9203, the minute image IG is binarized using the binarization threshold value determined in this manner, and stored in the image memory as a binary image bG.
[0084]
By detecting a binarized candidate object using such a binarization threshold, the eye can be accurately captured and a determination using the candidate object's geometric shape can be made more accurately. The accuracy can be further improved.
[0085]
Next, the process proceeds to S9204, where the position bC of the binary image bG corresponding to the representative coordinate value C of the entire image G is set as the initial position.
[0086]
In S9205, it is determined whether or not the setting position is a black pixel. If the setting position is determined to be a black pixel (YES in S9205), the process proceeds to S9206 in FIG. 22 and the setting position must be determined to be a black pixel. If (NO in S9205), in S9213, the set position is shifted one pixel up, down, left, and right, and it is determined again whether or not the set position is a black pixel, and processing is performed until the set position becomes a black pixel. .
[0087]
In step S9206, a connected component that includes the black pixel is set as a candidate object. In S9207, the geometric shape of the candidate object is calculated, and the geometric shape of the eye template to be specified in S9208 is compared with the geometric shape of the candidate object.
[0088]
An example of a method for comparing the candidate object and the geometric shape of the eye template in S9208 will be described with reference to FIG.
[0089]
The binarized shape of the eye is as shown in FIG. 25 (a) if the light environment is good and stable, but the light environment deteriorates due to direct sunlight hitting the vehicle interior from one side. In such a case, the shape shown in FIGS. 25B and 25C may be obtained.
[0090]
The eye template has a condition (1) that the lateral width is 2/3 or more of the market value of the eye and has an upwardly convex curvature, and a concave shape condition on the left side of the black eye (2) ▼ and the concave shape condition (3) on the right side of the black eye are set in combination, and in order to allow the example of FIGS. 25 (b) and (c), (1) and (2) or ▲ It may be that satisfying the conditions of 1 ▼ and (3).
[0091]
In S9209, as a result of S9208, it is determined whether the candidate object and the geometric shape of the eye template match. If the geometric shape of the candidate object matches the eye template (YES in S9209), the candidate object is determined to be an eye in S9210. If the geometric shape of the candidate object and the eye template do not match (NO in S9209), it is determined in S9214 that the candidate object is not an eye.
[0092]
In S9211, the representative coordinate value C in the entire image G of the candidate object determined to be the eye is stored as the eye coordinate in this image frame.
[0093]
In S9212, the micro image IG of the representative candidate point determined to be the eye is stored in the image memory as the eye image MGi.
[0094]
[Face orientation determination processing]
Next, face orientation determination processing S94 (see FIG. 14) will be described with reference to the flowchart of FIG. First, in S941, a process for detecting the outer peripheral contour of the eye is executed. In step S942, a process for detecting the positions of the top and bottom of the eyes is performed.
[0095]
In S943, processing for detecting the peak position of the arcuate line is performed. In S944, face orientation calculation processing is performed to determine the face orientation based on the positions of the corners and the eyes detected in S942 and the peak positions of the arcuate lines detected in S943.
[0096]
[Detection process of outer periphery of eye]
The eye outer peripheral contour detection process S941 will be described with reference to FIGS. In this description, the right eye on the image (the actual left eye) is assumed.
[0097]
FIG. 27 shows a minute image centered on the eye position specified by the eye position specifying process. As the micro image here, it is normal to use the micro image MGi stored in the image memory in S9212 (FIG. 22) of the eye determination process, but the entire image G stored in the image memory is used depending on the situation. A minute image with a redefined size and position may be extracted from the image and used.
[0098]
The binary image in FIG. 28 is binarized so that pixels smaller than the binarization threshold are black (density value 0) and areas larger than the binarization threshold are white (density value 255). A binarized image can be obtained. The binarization threshold of the binarization process performed here may be the same as the binarization threshold used in the binarization process performed in the eye determination process.
[0099]
In FIG. 29, a black pixel having a pixel value of 0 is searched from the upper left of the obtained binarized image downward. When the search is completed up to the bottom pixel, the pixel row on the right is searched. When the black pixel first found in the pixel row and the black pixel found last are obtained for each pixel row, the outer peripheral contour of the eye can be obtained as shown in FIG.
[0100]
[Detection of eye head and eye corners]
Eye head / eye corner detection processing S942 will be described with reference to FIG. In the case of the right eye on the image, as shown in FIG. 31, the left end of the outer peripheral contour line is the eye head and the right end is the eye corner position.
[0101]
When specifying the position of the eye and the corner of the eye as the plane coordinates, the left and right ends of the lower line are used as the head position and the position of the eye corner as shown in FIG. There are a method of using the coordinates as the position and the position of the corner of the eye, and a method of using the coordinates as the center position of the left and right ends of the upper line and the lower line as the eye position and the position of the eye corner.
[0102]
[Detection of peak position of arc-shaped line]
The arc-shaped line peak position detection processing S943 will be described with reference to FIGS.
[0103]
When the upper eyelid is used as the arc-shaped line, as shown in FIG. 31, the highest position of the upper line in the outer peripheral contour line of the eye can be set as the peak position.
[0104]
Also, as shown in FIG. 32, when the face is not facing the front with respect to the camera, the upper eye of the image is tilted as shown in FIG. 33, and the highest position is not necessarily the peak in the height direction of the upper line. It is not a position. Assuming such a case, it is also possible to set the peak position where the distance between the upper line is the largest among the line segment connecting the eye position and the eye corner position and the outer peripheral outline of the eye.
[0105]
[Face orientation calculation processing]
The face orientation calculation process S944 will be described with reference to FIGS. As shown in FIG. 31, when the face is faced to the front, the peak position is almost at the center of the eye, and the distance L1 from the peak position to the eye position and the distance L2 from the peak position to the eye corner position are Almost equal. Next, when the face is on the right side on the image as shown in FIG. 32, the distance L1 from the peak position to the eye position increases as shown in FIG. The distance L2 becomes smaller.
[0106]
When the relationship between L1 and L2 is expressed by the parameter L2 / L1, L2 / L1 is 1 when there is a face in the front, and L2 / L1 gradually decreases as the face is directed to the right side of the image. When the face is facing straight to the camera (when the face is turned 90 degrees to the right), the peak of the arc is closer to the corner of the eye and the length of L2 is 0, so L2 / L1 is 0. .
[0107]
However, after the face direction actually exceeds about 45 degrees to the right, the right eye is hidden behind the face and cannot be seen by the camera, so both eyes are monitored in the original processing. If there are no abnormalities such as strabismus, the eyeballs move in the same way for both the left and right eyes. If one eye is not visible, the other eye is used for complementation.
[0108]
On the other hand, as the face turns to the left, L2 / L1 gradually increases, and when the face turns straight to the camera (when the face is turned 90 degrees to the left), the peak of the arc is on the eye side. Since the length of L1 is 0, L2 / L1 is infinite.
[0109]
A graph showing this relationship is shown in FIG. From this graph relationship, it is possible to obtain an angle θf in which the amount of face orientation from L2 / L1 is 0 degrees when the face is directed to the front and the right direction is positive.
[0110]
The face orientation detection processing illustrated here is an example, and besides this method, a method of detecting the face orientation from the distance between both eyes is known.
[0111]
In this way, in the face state detection device according to the present embodiment, even if the driver (subject) of the vehicle is wearing glasses, the reflection on the spectacle lens is reflected.OnlyAccordingly, the orientation of the face of the subject can be detected, so that the orientation of the face can be detected with high accuracy regardless of whether the subject is wearing glasses.The
[0113]
Furthermore, the detection accuracy can be further improved by adopting a configuration that detects the contour of the front window, the contour of the side window, the room mirror, or the A-pillar that exists in front of the subject as the body structure. CanThe
[0119]
<Second Embodiment>
[System block diagram]
FIG. 35 is a block diagram showing the configuration of the second embodiment of the face state detection apparatus to which the present invention is applied. The face state detection device includes a face image capturing unit CL1, a spectacle detection unit CL2, a spectacle lens diameter detection unit CL8, a second face direction detection unit CL9, and a third face direction detection unit CL7. It has.
[0120]
The face image imaging means CL1 images the face of the person to be monitored and outputs face image data. The eyeglass detection means CL2 detects whether or not the person to be monitored is wearing eyeglasses.
[0121]
The spectacle lens diameter detection means CL8 processes the face image data output from the face image imaging means CL1 and detects at least one of the horizontal diameter and the vertical diameter of the spectacle lens worn by the person to be monitored.
[0122]
The second face orientation detection means CL9 detects the face direction from at least one of the horizontal diameter and the vertical diameter of the spectacle lens worn by the monitoring subject detected by the spectacle lens diameter detection means CL8.
[0123]
The third face orientation detection means CL7 detects the eye position by processing the face image data output from the face image imaging means CL1 when the eyeglass detection means CL2 cannot detect the eyeglasses. The face orientation is detected from the left or right eye shape obtained by image processing within the range based on the eye position or the detected eye position.
[0124]
[Device layout]
Since the arrangement of the apparatus of the present invention and the
[0125]
[System-wide processing]
FIG. 36 shows the overall processing flow of the system. First, when the process is started, a face image of the person to be monitored is picked up by the
[0126]
In S2, it is detected whether or not the person to be monitored is wearing glasses. In S3, based on the detection result of S2, if the person to be monitored is wearing glasses (YES in S3), the process proceeds to S10, and if the person to be monitored is not wearing glasses (NO in S3) ), The process proceeds to S9.
[0127]
In S10, the image data input to the
[0128]
In S11, the orientation of the face of the monitor target is detected based on the data of at least one of the horizontal diameter and the vertical diameter of the eyeglass lens worn by the monitor target detected in S10 (the second face of the second face). (Direction detection process), and the process ends.
[0129]
In S9, if the spectacles cannot be detected in S3, or if a scene inside or outside the vehicle is not detected on the lens surface of the spectacles worn by the person to be monitored in S5, it is input to the
[0130]
[Glasses detection processing]
Since it is the same as that of 1st Embodiment, the detailed description is abbreviate | omitted.
[0131]
[Detection processing of eyeglass lens diameter]
The lens diameter detection process S10 will be described with reference to FIG. By extracting the contour, the spectacle frame contour data is extracted from the original image. The circumscribed quadrangle of the right frame and the left frame of the contour line of the extracted spectacle frame is detected. The lateral sides of the circumscribed rectangle of the detected right frame and left frame are the horizontal diameter LHR of the right frame, the horizontal diameter LHL of the left frame, the vertical sides are the vertical diameter LVR of the right frame, and the vertical diameter LVL of the left frame.
[0132]
[Second face orientation detection process]
The second face orientation detection process S11 will be described with reference to FIGS. 37 is an outline of the spectacle frame when the person to be monitored is facing the front, and FIG. 38 is an outline of the spectacle frame when the person to be monitored is facing the right. Is the outline of the eyeglass frame when the person to be monitored is facing left.
[0133]
As can be seen from this figure, when the person to be monitored faces left and right, the lateral dimension of the eyeglass frame on the side facing the person is smaller than that on the front. Further, the lateral diameter of the spectacle frame on the facing side is smaller than the lateral diameter of the spectacle frame on the opposite side. A graph shown in FIG. 40 shows the relationship.
[0134]
Here, the method of detecting using the horizontal diameter of the spectacle frame only when the person to be monitored faces the left and right is illustrated, but when the face is directed in the vertical direction, detection is performed using the vertical diameter of the spectacle frame. be able to. Further, since the face of the person to be monitored moves vertically and horizontally, the face direction can be detected more accurately by using the horizontal and vertical diameters of the spectacle frame at the same time.
[0135]
[Third face orientation detection processing]
Since it is the same as that of 1st Embodiment mentioned above, the detailed description is abbreviate | omitted.
[0136]
Thus, in the face state detection device according to the second embodiment, the second face orientation detection means for detecting the orientation of the face of the subject based on the longitudinal or lateral diameter of the eyeglass lens diameter is provided. And when the vehicle body structure is not detected from the image reflected on the glasses, the second face direction detecting means is used to detect the face direction of the subject. In addition to the effects described in the embodiment, the detection accuracy can be further improved.The
[0137]
<Third Embodiment>
[System block diagram]
FIG. 41 is a block diagram showing the configuration of the third embodiment of the face state detection apparatus to which the present invention is applied. The face state detection device includes a face image capturing unit CL1, a glasses detection unit CL2, a reflection detection unit CL3, a vehicle body structure detection unit CL4, a vehicle body structure position detection unit CL5, and a first face orientation. Detecting means CL6, third face orientation detecting means CL7, spectacle lens diameter detecting means CL8, and second face orientation detecting means CL9 are provided.
[0138]
The face image imaging means CL1 images the face of the person to be monitored and outputs face image data. The eyeglass detection means CL2 detects whether or not the person to be monitored is wearing eyeglasses.
[0139]
The reflection detection means CL3 processes the face image data output from the face image imaging means CL1 to determine whether a scene inside or outside the vehicle is reflected on the lens surface of the glasses worn by the person to be monitored. To detect.
[0140]
The vehicle body structure detection means CL4 processes the face image data output from the face image imaging means CL1, and detects the vehicle body structure from the inside and outside scenes reflected on the lens surface of the glasses worn by the person to be monitored. Is detected.
[0141]
The vehicle body structure position detection means CL5 processes the face image data output from the face image imaging means CL1, detects the lens frame of the glasses worn by the person to be monitored, and detects it by the vehicle body structure detection means CL4. The position of the body structure reflected on the glasses is detected by the relative positional relationship between the body frame reflected on the lens surface of the glasses worn by the monitored person and the lens frame.
[0142]
The first face orientation detection means CL6 detects the face direction from the position of the body structure reflected on the glasses detected by the body structure position detection means CL5.
[0143]
The third face orientation detection means CL7 reflects the scene inside or outside the vehicle when the glasses cannot be detected by the glasses detection means CL2 or on the lens surface of the glasses worn by the driver by the reflection detection means CL3. If it cannot be detected, the face image data output from the face image capturing means CL1 is processed to detect the eye position, and image processing is performed from the range based on the left and right eye positions or the detected eye position. The direction of the face is detected from the shape of the left or right eye obtained by.
[0144]
The spectacle lens diameter detection means CL8 processes the face image data output from the face image imaging means CL1 and detects at least one of the horizontal diameter and the vertical diameter of the spectacle lens worn by the person to be monitored.
[0145]
The second face orientation detection means CL9 detects the face direction from at least one of the horizontal diameter and the vertical diameter of the spectacle lens worn by the monitoring subject detected by the spectacle lens diameter detection means CL8.
[0146]
[Device layout]
Since the arrangement of the apparatus of the present invention and the
[0147]
The
[0148]
[System-wide processing]
FIG. 42 shows the overall processing flow of the system. First, when the process is started, a face image of the person to be monitored is picked up by the
[0149]
In S3, based on the detection result of S2, if the person to be monitored is wearing glasses (YES in S3), the process proceeds to S4, and if the person to be monitored is not wearing glasses (NO in S3). , The process proceeds to S9.
[0150]
In S4, the image data input to the
[0151]
In S5, based on the detection result in S4, when a scene inside or outside the vehicle is reflected on the lens surface of the glasses worn by the person to be monitored (YES in S5), the process proceeds to S6. If a scene inside or outside the vehicle is not reflected on the lens surface of the glasses being worn (NO in S5), the process proceeds to S9.
[0152]
In S6, the vehicle body structure is detected from the inside and outside scenes reflected on the lens surface of the glasses worn by the person to be monitored by performing image processing on the image data input to the
[0153]
In S12, when a vehicle body structure can be detected from the inside and outside scenes reflected on the lens surface of the glasses worn by the person to be monitored (YES in S12), the process proceeds to S7, as shown in FIG. In such a situation, when the vehicle body structure cannot be detected from the inside / outside scene reflected on the lens surface of the glasses worn by the person to be monitored (NO in S12), the process proceeds to S10.
[0154]
In S7, the image data input to the
[0155]
In S8, the orientation of the face of the person to be monitored is detected from the position of the body structure reflected on the glasses detected in S7 on the glasses (first face orientation detection process), and the process ends. To do.
[0156]
In S9, if the spectacles cannot be detected in S3, or if a scene inside or outside the vehicle is not detected on the lens surface of the spectacles worn by the person to be monitored in S5, it is input to the
[0157]
In S10, image data input to the
[0158]
In S11, the orientation of the face of the monitoring subject is detected from at least one of the horizontal diameter or the longitudinal diameter of the glasses of the glasses worn by the monitoring subject detected in S10 (second face orientation detection process), The process ends.
[0159]
[Glasses detection processing]
Since it is the same as that of 1st Embodiment mentioned above, the detailed description is abbreviate | omitted.
[0160]
[Reflection detection processing]
Since it is the same as that of 1st Embodiment mentioned above, the detailed description is abbreviate | omitted.
[0161]
[Vehicle structure detection processing]
Since it is the same as that of 1st Embodiment mentioned above, the detailed description is abbreviate | omitted.
[0162]
[Detection of position on spectacles on vehicle structure image]
Since it is the same as that of 1st Embodiment mentioned above, the detailed description is abbreviate | omitted.
[0163]
[First face orientation detection processing]
Since it is the same as that of 1st Embodiment mentioned above, the detailed description is abbreviate | omitted.
[0164]
[Third face orientation detection processing]
Since it is the same as that of 1st Embodiment mentioned above, the detailed description is abbreviate | omitted.
[0165]
[Detection processing of eyeglass lens diameter]
Since it is the same as that of 2nd Embodiment mentioned above, the detailed description is abbreviate | omitted.
[0166]
[Second face orientation detection process]
Since it is the same as that of 2nd Embodiment mentioned above, the detailed description is abbreviate | omitted.
[0167]
In this manner, the face state detection device according to the present embodiment detects the position of the eye from the face image of the subject, and detects the orientation of the face of the subject based on the eye position or the eye shape. A third face position detection means is provided, and when the vehicle body structure cannot be detected from the image reflected on the glasses lens, the third face direction detection means detects the face direction of the subject. Therefore, in addition to the effects described in the face state detection devices described in the first and second embodiments, the detection accuracy can be further improved.The
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a face state detection apparatus according to a first embodiment of the present invention.
FIG. 2 is a layout diagram of each component of the face state detection device according to the present invention.
FIG. 3 is a flowchart showing an overall processing procedure of the face state detection apparatus according to the first embodiment.
FIG. 4 is a flowchart showing specific contents of a reflection determination process.
FIG. 5 is an explanatory diagram showing a state when no reflection occurs in the glasses.
FIG. 6 is a face image of a person to be monitored when reflection is generated in the glasses.
7 is an explanatory diagram showing an image obtained by extracting a spectacle portion from the image shown in FIG. 6. FIG.
FIG. 8 is an explanatory view showing contour data of glasses and a reflected image.
FIG. 9 is an explanatory diagram showing an original image of a spectacle portion and contour data when the monitoring target person looks at the right side.
FIG. 10 is an explanatory diagram showing an original image of a spectacle portion and contour data when the monitoring subject looks at the left side.
FIG. 11 is a first partial view of an explanatory view showing a change state when the monitoring subject turns to the right from the front.
FIG. 12 is a second partial view of an explanatory view showing a change state when the monitoring subject turns to the right from the front.
FIG. 13 is a third partial view of an explanatory view showing a change state when the monitoring subject turns to the right from the front.
FIG. 14 is a flowchart showing specific contents of face orientation determination processing;
FIG. 15 is a flowchart showing specific contents of eye candidate position specifying processing;
FIG. 16 is an explanatory diagram showing a state of detecting the eye position of a subject using an eye template.
FIG. 17 is an explanatory diagram showing the size of an eye presence region.
FIG. 18 is an explanatory diagram showing statistics of the length of the eye in the lateral direction.
FIG. 19 is an explanatory diagram showing statistics of the length of the eye in the vertical direction.
FIG. 20 is an explanatory diagram showing processing for determining the position of an eye presence region.
FIG. 21 is a first part of a flowchart showing the specific contents of the eye determination processing.
FIG. 22 is a second part of the flowchart showing the specific contents of the eye determination process.
FIG. 23 is an explanatory diagram of a process of extracting a minute image.
FIG. 24 is an explanatory diagram showing processing for obtaining a binarization threshold value.
FIG. 25 is an explanatory diagram illustrating processing for detecting the position of the eye using an eye template.
FIG. 26 is a flowchart showing specific contents of face orientation determination processing;
FIG. 27 is an explanatory diagram of processing for extracting an eye outline by image processing;
FIG. 28 is an explanatory diagram of a process of extracting an eye contour by image processing.
FIG. 29 is an explanatory diagram of a process of extracting an eye contour by image processing.
FIG. 30 is an explanatory diagram of a process of extracting an eye contour by image processing.
FIG. 31 is an explanatory diagram showing the positions of the top of the eyes, the corner of the eyes, and the arc-shaped line peak.
FIG. 32 is an explanatory diagram showing an image when the subject moves the eyeball.
FIG. 33 is an explanatory diagram showing an eye / eye corner and an arcuate line peak position when a subject moves his / her eyeball.
FIG. 34 is a characteristic diagram showing the relationship between the face direction, the peak peak peak distance, and the peak peak distance.
FIG. 35 is a block diagram showing a configuration of a face state detection apparatus according to a second embodiment of the present invention.
FIG. 36 is a flowchart showing the entire processing of the face state detection apparatus according to the second embodiment.
FIG. 37 is an explanatory diagram showing frame contour data of glasses when the person to be monitored is looking in front.
FIG. 38 is an explanatory diagram showing frame contour data of glasses when the monitoring subject is looking at the right side.
FIG. 39 is an explanatory diagram showing frame contour data of glasses when the monitoring subject is looking at the left side.
FIG. 40 is a characteristic diagram showing the relationship between the orientation of the face and the lateral diameter of the glasses.
FIG. 41 is a flowchart showing the overall processing of the face state detection apparatus according to the third embodiment.
FIG. 42 is a flowchart showing the entire processing of the face state detection apparatus according to the third embodiment.
FIG. 43 is an explanatory diagram showing an image of a spectacle portion when a vehicle body structure cannot be detected from a scene inside and outside the vehicle reflected on the lens surface of the spectacle worn by the person to be monitored.
[Explanation of symbols]
1 Camera
2 Microcomputer
CL1 face image capturing means
CL2 glasses detection means
CL3 Reflection detection means
CL4 body structure detection means
CL5 body structure position detection means
CL6 first face orientation detection means
CL7 Third face orientation detection means
CL8 Eyeglass lens diameter detection means
CL9 Second face orientation detection means
Claims (6)
前記顔画像に基づいて、前記対象者が眼鏡を掛けているかどうかを検出する眼鏡検出手段と、
前記眼鏡検出手段にて、対象者が眼鏡を掛けていることが検出された際には、この眼鏡に映り込みが存在するかどうかを検出する映り込み検出手段と、
前記映り込み検出手段にて映り込みが検出された際に、この映り込み画像に含まれる車体構造物の画像を検出する車体構造物検出手段と、
前記車体構造物検出手段で検出された前記車体構造物の画像の、前記眼鏡のレンズ上での位置を検出する車体構造物位置検出手段と、
前記車体構造物位置検出手段で検出された、前記車体構造物の画像の前記レンズ上での位置に基づいて、前記対象者の顔の向きを検出する第1の顔の向き検出手段と、
を具備したことを特徴とする顔状態検出装置。In a face state detection device that captures an image of a face of a subject with a face image capturing unit and detects the orientation of the face of the subject based on the captured face image.
Glasses detection means for detecting whether the subject is wearing glasses based on the face image;
When it is detected by the glasses detection means that the subject is wearing glasses, reflection detection means for detecting whether reflection is present in the glasses;
A vehicle body structure detection means for detecting an image of the vehicle body structure included in the reflection image when reflection is detected by the reflection detection means ;
Vehicle body structure position detection means for detecting the position of the image of the vehicle body structure detected by the vehicle body structure detection means on the lens of the glasses ;
First face direction detecting means for detecting the face direction of the subject based on the position of the image of the car body structure on the lens detected by the car body structure position detecting means ;
A face state detection apparatus comprising:
前記映り込み検出手段にて検出される映り込み画像に基づき、前記車両構造物の画像が検出されない場合には、前記第2の顔の向き検出手段により、前記対象者の顔の向きを検出することを特徴とする請求項1に記載の顔状態検出装置。 When the eyeglass detection means detects that the subject is wearing eyeglasses, the eyeglass lens frame image is detected from the face image, and based on the lens frame image, the face of the subject person is detected. A second face orientation detecting means for detecting the orientation;
When the image of the vehicle structure is not detected based on the reflection image detected by the reflection detection means, the orientation of the face of the subject is detected by the second face direction detection means. The face state detection apparatus according to claim 1.
前記眼検出手段で検出された眼の画像から、前記対象者の左右の眼の位置、及び眼の形状に基づいて、対象者の顔の向きを検出する第3の顔の向き検出手段と、を更に備え、
前記眼鏡検出手段にて、対象者が眼鏡を掛けていることが検出されない場合には、前記第3の顔の向き検出手段により前記対象者の顔の向きを検出することを特徴とする請求項1〜請求項5のいずれか1項に記載の顔状態検出装置。 Eye detection means for detecting an image of the eye of the subject from the face image;
Third face orientation detection means for detecting the orientation of the subject's face from the eye image detected by the eye detection means based on the positions of the left and right eyes of the subject and the shape of the eyes; Further comprising
The direction of the face of the subject is detected by the third face orientation detection means when the eyeglass detection means does not detect that the subject is wearing glasses. The face state detection apparatus of any one of Claims 1-5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002226516A JP4151341B2 (en) | 2002-08-02 | 2002-08-02 | Face condition detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002226516A JP4151341B2 (en) | 2002-08-02 | 2002-08-02 | Face condition detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004070514A JP2004070514A (en) | 2004-03-04 |
JP4151341B2 true JP4151341B2 (en) | 2008-09-17 |
Family
ID=32013830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002226516A Expired - Fee Related JP4151341B2 (en) | 2002-08-02 | 2002-08-02 | Face condition detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4151341B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8988597B2 (en) | 2012-02-24 | 2015-03-24 | Denso Corporation | Imaging control device and program for controlling facial image taking apparatus which radiates infrared light toward the face |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1977374A4 (en) * | 2005-11-30 | 2012-09-05 | Seeing Machines Pty Ltd | Visual tracking of eye glasses in visual head and eye tracking systems |
JP4895874B2 (en) * | 2007-03-15 | 2012-03-14 | アイシン精機株式会社 | Eye state determination device, eye state determination method, and eye state determination program |
JP4883013B2 (en) * | 2008-01-17 | 2012-02-22 | トヨタ自動車株式会社 | Face image processing device |
US10424342B2 (en) | 2010-07-28 | 2019-09-24 | International Business Machines Corporation | Facilitating people search in video surveillance |
US8515127B2 (en) | 2010-07-28 | 2013-08-20 | International Business Machines Corporation | Multispectral detection of personal attributes for video surveillance |
US8532390B2 (en) | 2010-07-28 | 2013-09-10 | International Business Machines Corporation | Semantic parsing of objects in video |
US9134399B2 (en) | 2010-07-28 | 2015-09-15 | International Business Machines Corporation | Attribute-based person tracking across multiple cameras |
US10621418B2 (en) | 2016-02-18 | 2020-04-14 | Mitsubishi Electric Corporation | Passenger detection device, passenger detection system, and passenger detection method |
JP6769077B2 (en) * | 2016-04-08 | 2020-10-14 | いすゞ自動車株式会社 | Face orientation identification device and face orientation identification method |
JP2018036778A (en) * | 2016-08-30 | 2018-03-08 | 株式会社デンソー | Face direction detector and input operation system |
JP6855872B2 (en) | 2017-03-24 | 2021-04-07 | アイシン精機株式会社 | Face recognition device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3364816B2 (en) * | 1994-12-27 | 2003-01-08 | 三菱電機株式会社 | Image processing device |
JP3316725B2 (en) * | 1995-07-06 | 2002-08-19 | 三菱電機株式会社 | Face image pickup device |
JPH0944680A (en) * | 1995-07-26 | 1997-02-14 | Mitsubishi Electric Corp | Eye zone extracting device for moving image |
JP3582324B2 (en) * | 1997-09-18 | 2004-10-27 | 日産自動車株式会社 | Eye position detector |
JPH11203455A (en) * | 1998-01-09 | 1999-07-30 | Omron Corp | Image generating device, its method and recording medium |
JP3813043B2 (en) * | 1999-12-06 | 2006-08-23 | 沖電気工業株式会社 | Glasses reflection detection apparatus and glasses reflection detection method |
-
2002
- 2002-08-02 JP JP2002226516A patent/JP4151341B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8988597B2 (en) | 2012-02-24 | 2015-03-24 | Denso Corporation | Imaging control device and program for controlling facial image taking apparatus which radiates infrared light toward the face |
Also Published As
Publication number | Publication date |
---|---|
JP2004070514A (en) | 2004-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2541688B2 (en) | Eye position detection device | |
EP2074550B1 (en) | Eye opening detection system and method of detecting eye opening | |
JP4151341B2 (en) | Face condition detection device | |
US8345922B2 (en) | Apparatus for detecting a pupil, program for the same, and method for detecting a pupil | |
EP1939582B1 (en) | Face center position detecting device, face center position detecting method, and program | |
EP1589485A2 (en) | Object tracking and eye state identification method | |
JP2002331835A (en) | Direct sunshine anti-glare device | |
JP2009254525A (en) | Pupil detecting method and apparatus | |
US11074431B2 (en) | Facial recognition device | |
JP2003150942A (en) | Eye position tracing method | |
JP3797253B2 (en) | Gaze direction detection device | |
JP2009265722A (en) | Face direction sensing device | |
JP2822799B2 (en) | Driver status detection device | |
JP4989249B2 (en) | Eye detection device, dozing detection device, and method of eye detection device | |
JP4313717B2 (en) | Gaze detection device | |
CN114565531A (en) | Image restoration method, device, equipment and medium | |
JP2001307076A (en) | Eye state detector and nap detector | |
JP4198542B2 (en) | Face presence / absence determination device and face presence / absence determination program | |
CN111417885A (en) | System and method for determining a pose of augmented reality glasses, system and method for calibrating augmented reality glasses, method for supporting pose determination of augmented reality glasses, and motor vehicle suitable for the method | |
JP2002015322A (en) | Inattentive driving condition detection device | |
US11851003B2 (en) | Driving assistance system and method for driver | |
KR20190044818A (en) | Apparatus for monitoring driver and method thereof | |
JP4996943B2 (en) | Facial feature point detection apparatus, facial feature point detection method, and program | |
JP4781292B2 (en) | Closed eye detection device, dozing detection device, closed eye detection method, and closed eye detection program | |
JP2677010B2 (en) | Eye position detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071120 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080610 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080623 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110711 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |