JP2004070514A - 顔状態検出装置 - Google Patents
顔状態検出装置 Download PDFInfo
- Publication number
- JP2004070514A JP2004070514A JP2002226516A JP2002226516A JP2004070514A JP 2004070514 A JP2004070514 A JP 2004070514A JP 2002226516 A JP2002226516 A JP 2002226516A JP 2002226516 A JP2002226516 A JP 2002226516A JP 2004070514 A JP2004070514 A JP 2004070514A
- Authority
- JP
- Japan
- Prior art keywords
- face
- detected
- eye
- detecting means
- glasses
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】対象者の顔を顔画像撮像手段CL1にて撮像し、撮像された顔画像に基づいて、当該対象者の顔の向きを検出する顔状態検出装置において、対象者が眼鏡を掛けているかどうかを検出する眼鏡検出手段CL2と、眼鏡検出手段CL2にて、対象者が眼鏡を掛けていることが検出された際には、当該眼鏡に映り込みが存在するかどうかを検出する映り込み検出手段CL3と、映り込み検出手段CL3にて検出される映り込み映像の位置、或いは検出された眼鏡の特徴量を検出する特徴量検出手段と、特徴量検出手段にて検出された特徴量に基づいて、前記対象者の顔の向きを検出する第1の顔の向き検出手段CL6と、を具備する。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、車両の運転者の顔状態を検出する顔状態検出装置に関する。
【0002】
【従来の技術】
従来における顔状態検出装置として、例えば、特開平7−69139号公報に記載された「わき見運転防止装置」(以下、従来例という)が知られている。
【0003】
該従来例では、カメラにて撮影された顔画像を検査画像として取り込み、検査画像に基づき運転者の左右の眼画像の座標を求め、眼画像の座標に基づき左右の眼の距離を演算し、同眼距離データを所定回数取り込むことによって基準眼距離を演算し、基準眼距離と今回の眼距離から正面に顔がないことを検出している。
【0004】
この際、顔の向きを検出する対象者が、眼鏡を掛けている場合には、光環境の影響によって眼鏡のレンズ部に写り込みが生じ、顔画像から眼を検出できないことがある。また、対象者がサングラスを掛けている場合には眼を全く検出できなくなる。このように対象者の眼を検出できなくなった場合には、眼の代わりに、例えば鼻や口等の顔部位を検出し、その顔部位の位置の変化に基づいて顔の向きを検出していた。
【0005】
【発明が解決しようとする課題】
しかしながら、上述した従来例では、運転者がサングラス等の眼鏡を掛けている場合には、該眼鏡のレンズ部分に周囲の映像が映ってしまい、眼の状態を判別できないことがある。また、運転者が眼鏡を掛けている場合で、鼻或いは口の画像を用いて顔の向きを検出する際には、鼻或いは口の輪郭を精度良く検出できず、鼻或いは口の位置の変化や、顔画像での鼻或いは口の大きさの変化を正確に検出することができないので、顔の向きを精度良く検出することができなかったという欠点がある。
【0006】
【課題を解決するための手段】
本発明は、対象者の顔を顔画像撮像手段にて撮像し、撮像された顔画像に基づいて、当該対象者の顔の向きを検出する顔状態検出装置において、前記対象者が眼鏡を掛けているかどうかを検出する眼鏡検出手段と、前記眼鏡検出手段にて、対象者が眼鏡を掛けていることが検出された際には、当該眼鏡に映り込みが存在するかどうかを検出する映り込み検出手段と、当該映り込み検出手段にて検出される映り込み映像の位置、或いは検出された眼鏡の特徴量を検出する特徴量検出手段と、前記特徴量検出手段にて検出された特徴量に基づいて、前記対象者の顔の向きを検出する第1の顔の向き検出手段と、を具備したことを特徴とする。
【0007】
【発明の効果】
本発明によれば、モニタ対象者が映り込みを生じる眼鏡を掛けている場合で、直接眼の状態を検出することができない場合でも、眼鏡に生じる映り込み映像の状態、或いは眼鏡フレームの状態に基づいてモニタ対象者の顔の向きを検出することができるので、モニタ対象者が眼鏡を掛けているか否かに関わらず、高精度にモニタ対象者の顔の向きを検出することができる。
【0008】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0009】
<第1の実施形態>
[システムブロック図]
図1は、本発明の顔状態検出装置に係る第1の実施形態の構成を示すブロック図である。同図に示すように、この顔状態検出装置は、顔画像撮像手段CL1と、眼鏡検出手段CL2と、映り込み検出手段CL3と、車体構造物検出手段CL4(特徴量検出手段)と、車体構造物位置検出手段CL5と、第1の顔の向き検出手段CL6と、第3の顔の向き検出手段CL7と、を備えている。
【0010】
顔画像撮像手段CL1は、モニタ対象者の顔を撮像し、撮像により得られた顔画像データを出力する。
【0011】
眼鏡検出手段CL2は、顔画像撮像手段CL1にて撮像された画像に基づいて、モニタ対象者が眼鏡を掛けているかどうかを検出する。
【0012】
映り込み検出手段CL3は、顔画像撮像手段CL1より出力される顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズ表面上に、車内外の情景が映り込んでいるか否かを検出する。
【0013】
車体構造物検出手段CL4は、顔画像撮像手段CL1より出力される顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から、車体構造物を検出する。
【0014】
車体構造物位置検出手段CL5は、顔画像撮像手段CL1より出力される顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズフレームを検出し、車体構造物検出手段CL4によって検出されたモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車体構造物と、レンズフレームとの相対位置関係に基づいて、眼鏡上に映り込んでいる車体構造物の眼鏡上での位置を検出する。
【0015】
第1の顔の向き検出手段CL6は、車体構造物位置検出手段CL5によって検出された眼鏡上に映り込んでいる車体構造物の、眼鏡上での位置に基づいて、モニタ対象者の顔の方向を検出する。
【0016】
第3の顔の向き検出手段CL7は、眼鏡検出手段CL2で眼鏡が検出できなかった場合か、或いは、映り込み検出手段CL3にてドライバが掛けている眼鏡のレンズ表面上に、車内外の情景の映り込みが検出できなかった場合に、顔画像撮像手段CL1から出力された顔画像データを処理して、眼の位置を検出し、左右の眼の位置、もしくは検出された眼の位置を基準とした範囲から、画像処理によって得られる左右いずれかの眼の形状に基づいて、ドライバ(モニタ対象者)の顔の向きを検出する。
【0017】
本装置は、自動車、鉄道車両、船舶の運転手、プラントのオペレータ等のモニタに用いることができるが、以下に示す全ての実施形態で、自動車の運転手の眼に適用した場合を例に挙げて説明する。
【0018】
[機器の配置]
図2は、本実施形態に係る顔状態検出装置の、機器の配置図である。顔画像撮像手段CL1としてのTVカメラ1が、自動車のインストルメント上で運転者を略正面で撮像できる位置に設置され、運転者の顔部分を撮影する。TVカメラ1の入力画像は、本実施形態では、例えば横方向(X軸方向)640画素、縦方向(Y軸方向)480画素からなる。そして、TVカメラ1で撮像された入力画像は、インストルメント裏側等、車体内部に設置されたマイクロコンピュータ2に画像データとして入力される。
【0019】
マイクロコンピュータ2には、眼鏡検出手段CL2と、映り込み検出手段CL3と、車体構造物検出手段CL4と、車体構造物位置検出手段CL5と、第1の顔の向き検出手段CL6と、第3の顔の向き検出手段CL7の各処理に関するプログラムがプログラミングされている。次に、システムの処理状況について説明する。
【0020】
[システム全体の処理]
図3は、システムの全体の処理の流れを示している。まず、処理が開始されると、ステップS1(以下、「ステップS」は単に「S」と記す)で、TVカメラ1でモニタ対象者の顔画像を撮像し、マイクロコンピュータ2に画像データとして入力する。
【0021】
S2では、モニタ対象者が眼鏡を掛けているか否かを検出する。S3では、S2の検出結果に基づき、モニタ対象者が眼鏡を掛けている場合は(S3でYES)、S4へ処理を進め、モニタ対象者が眼鏡を掛けていない場合は(S3でNO)、S9へ処理を進める。
【0022】
S4では、マイクロコンピュータ2に入力された画像データを画像処理することによって、モニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込んでいるか否かを検出する。
【0023】
S5では、S4の検出結果に基づき、モニタ対象者が掛けている眼鏡のレンズ表面上に、車内外の情景が映り込んでいる場合は(S5でYES)、S6へ処理を進め、モニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込んでいない場合は(S5でNO)、S9へ処理を進める。
【0024】
S6では、マイクロコンピュータ2に入力された画像データを画像処理することによって、モニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から、車体構造物を検出する。
【0025】
S7では、マイクロコンピュータ2に入力された画像データを画像処理することによって、モニタ対象者が掛けている眼鏡のレンズフレームを検出し、車体構造物検出手段CL4によって検出されたモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車体構造物と、レンズフレームとの相対位置関係に基づいて、眼鏡上に映り込んでいる車体構造物の、眼鏡上での位置を検出する。
【0026】
S8では、S7によって検出された眼鏡上に映り込んでいる車体構造物の眼鏡上での位置に基づいて、モニタ対象者の顔の向きを検出し、処理を終了する。
【0027】
S9では、S3で眼鏡が検出できなかった場合、または、S5でモニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込みが検出できなかった場合に、マイクロコンピュータ2に入力された画像データを画像処理することによって、眼の位置を検出し、左右の眼の位置もしくは検出された眼の位置を基準にした範囲から画像処理によって得られる左右いずれかの眼の形状から顔の向きを検出しする。即ち、第3の顔の向き検出処理を行う。その後、処理を終了する。
【0028】
[眼鏡の検出処理]
眼鏡の検出方法としてはモニタ対象者がインストルメントパネル上に設置されたスイッチによって眼鏡を掛けていることを装置に対して操作してもよいし、また装置が、自動的に眼鏡装着か否かを判別してもよい。自動判別の方法については、例えば特許25416888号公報や特開平9−216611号公報で提案している方法を用いることができる。
【0029】
[映り込み検出処理]
眼鏡の映り込みは、眼鏡レンズの光の透過率が低いほど、また眼鏡レンズ表面の光の反射率が高いほど映り込みが大きい。眼鏡レンズの光の透過率が低い眼鏡としては、一般にサングラスと呼ばれている色つきレンズを使っている眼鏡がそれにあたる。一概にサングラスといっても色の種類や濃さは眼鏡によって千差万別であるが、色が濃く暗いほど映り込みははっきりとしてくる傾向がある。
【0030】
また、レンズ表面の反射率は同じ材質や色のレンズであれば、一般に無反射コーティングと呼ばれている反射低減のためのコーティングが施されているほど映り込みが少ない傾向がある。なお、同じ眼鏡であっても、外界の光環境によって映り込みの強弱は変化するので、たとえ無色透明で無反射コーティングを施しているレンズを使った眼鏡であっても、映り込みが発生しないとは限らない。
【0031】
図5に示すように、モニタ対象者が眼鏡を掛けていれば、モニタ対象者の画像上の眼は、眼鏡のフレーム内部に位置する。しかし、図7に示すように、眼鏡に車内外の情景がはっきりと映り込んでいれば、映り込みが眼鏡のフレーム内部に位置するはずのモニタ対象者の眼を隠してしまうことがわかっている。
【0032】
よって、モニタ対象者が眼鏡を掛けていることが判っていれば、顔画像全体から眼を検出して、その結果、眼を検出できなければ眼鏡上に映り込んでいると判断することができる。
【0033】
以下、映り込み検出処理S4を、図4に示すフローチャートを用いて説明する。まず、図4のS41では、眼の候補の位置の特定の処理が実行される。S42では、眼判定処理を行う。
【0034】
S43では、眼の候補の位置の特定の処理で検出した眼の候補点すべてを判定したかどうかを判定する。眼の候補点すべてを判定した場合は(S43でYES)、S44に処理が移る。眼の候補点すべてを判定し終わっていない場合は(S43でNO)、S42の眼判定処理に戻る。
【0035】
S44では、S42で眼判定処理を行った結果、眼と判定できた候補点があったか否かを判定する。眼と判定できた候補点があった場合は(S44でYES)、S45で、映り込みなしと判断され、眼と判定できた候補点がなかった場合は(S44でNO)、S45で映り込みありと判断して、S5に処理を移す。
【0036】
なお、S41の眼の候補の位置の特定の処理と、S42の眼判定処理の詳細については、後述する第3の顔の向き検出手段の、S91の眼の候補の位置の特定の処理と、S92の眼判定処理と同一であるため、ここでの説明は省略する。
【0037】
[車両構造物検出処理]
次に、車両構造物の検出処理S6(図3参照)について、図6,図7,図8を用いて説明する。図6は、眼鏡レンズ上に車室内外の情景が映り込んでいる顔画像を示している。図6〜図8では、モニタ対象者は正面を見ているときの図である。
【0038】
この顔画像から、図6の枠線で囲まれるような眼鏡を含む矩形エリアを抽出する。矩形エリアは画像上で眼があるエリアの相場値を用いて決定されてもよいし、鼻、口、耳といった眼以外の顔の構成物の位置から矩形エリアを決定してもよい。
【0039】
この矩形エリアの画像を抜き出したのが図7となり、この図7の画像について輪郭抽出した結果、図8のような輪郭データを生成することができる。
【0040】
図8の輪郭データからは、右サイドウインドウの輪郭、フロントウインドウの輪郭、ルームミラー、右サイドウインドウ輪郭とフロントウインドウの右端部の輪郭で囲まれたエリアからAピラーといった車体構造物を抽出することができる。
【0041】
[車両構造物の画像上の眼鏡上の位置の検出]
次に、車両構造物の画像上の眼鏡上の位置の検出処理S7について、図8を用いて説明する。
【0042】
車両構造物の検出処理S6の中で得られた輪郭データの中から、眼鏡フレームを抽出する。抽出された眼鏡フレーム内の、どの位置に車両構造物の検出処理S6で抽出された車両構造物が存在するか検出する。
【0043】
図8では、眼鏡の右フレーム内に右サイドウインドウの輪郭、フロントウインドウの右端部の輪郭、右サイドウインドウの輪郭とフロントウインドウの右端部の輪郭に囲まれた右Aピラーが存在し、眼鏡の左フレームにはフロントウインドウの中央上部の輪郭、ルームミラーが存在している。
【0044】
[第1の顔の向き検出処理]
第1の顔の向き検出処理S8について、図9〜図12を用いて説明する。図9は、モニタ対象者が右を向いたときの様子であり、同図(a)に原画像を示し、同図(b)に、(a)の原画像を輪郭抽出した輪郭データを示している。
【0045】
図9(b)では、眼鏡の右フレーム内に右サイドウインドウの上部の輪郭が存在し、眼鏡の左フレームには右サイドウインドウの前部の輪郭、フロントウインドウの右端部、右上端の輪郭、右サイドウインドウの前部の輪郭とフロントウインドウの右端部の輪郭に囲まれた右Aピラーが存在している。
【0046】
図8に示したモニタ対象者が正面を見ているときに映り込んでいる各車両構成物の位置を比較すると、右サイドウインドウの輪郭線はモニタ対象者が正面を見ているときは、眼鏡の右フレームの右側比較的低い位置にあるのに対して、モニタ対象者が右を向くと、眼鏡の右フレームの左側上部に移動するとともに、右サイドウインドウ前部の輪郭線が眼鏡の左フレームに移動している。
【0047】
また、フロントウインドウの右端の輪郭線は、モニタ対象者が正面を見ているときは眼鏡の右フレームに映っていたのがモニタ対象者が右を向くと眼鏡の左フレームに移動している。
【0048】
これによって、右側Aピラーは、左フレームに移動している。また、ルームミラー及びフロントウインドウの中央上部の輪郭線は、モニタ対象者が正面を見ているときは眼鏡の左フレーム左に映っていたのが、モニタ対象者が右を向くと眼鏡の左フレームの左側外に移動し、眼鏡のレンズ上には映りこんでいなくなっている。
【0049】
図10は、モニタ対象者が左を向いたときの様子を示しており、図10(a)に原画像を示し、図10(b)に図10(a)の原画像を輪郭抽出した輪郭データを示している。
【0050】
図10(b)では、眼鏡の右フレーム内にフロントウインドウの上部輪郭とルームミラーが存在し、眼鏡の左フレームにはフロントウインドウの左端部、左上端の輪郭、左サイドウインドウの輪郭、左サイドウインドウの前部の輪郭とフロントウインドウの左端部の輪郭に囲まれた左Aピラーが存在している。
【0051】
図8に示したモニタ対象者が正面を見ているときに映り込んでいる各車両構成物の位置を比較すると、右サイドウインドウの輪郭線はモニタ対象者が正面を見ているときは、右フレームの比較的低い位置にあるのに対して、モニタ対象者が左を向くと眼鏡の右フレームの右下側外に移動し、眼鏡のレンズ上には映りこんでいなくなっている。
【0052】
また、フロントウインドウの右端の輪郭線も、モニタ対象者が正面を見ているときは眼鏡の右フレーム映っていたのがモニタ対象者が、左を向くと眼鏡の右フレームの右側外に移動し、眼鏡のレンズ上には映りこんでいなくなっている。また、ルームミラー及びフロントウインドウの中央上部の輪郭はモニタ対象者が正面を見ているときは眼鏡の左フレーム左に映っていたのが、モニタ対象者が左を向くと眼鏡の右フレームの下部に移動している。
【0053】
変わって、モニタ対象者が正面を見ているときには映っていなかったフロントウインドウの左上端部、左端部の輪郭、左サイドウインドウ、左サイドウインドウの前部の輪郭とフロントウインドウの左端部の輪郭に囲まれた左Aピラーが眼鏡の左フレームに映りこんできている。
【0054】
図11〜図13には、モニタ対象者が正面から右方向を向くときの様子の原画像を示している。この画像は、1フレームあたり33ミリ秒(msec)でサンプリングしたものを、24フレーム分((1)〜(24))示している。
【0055】
この連続画像を見ると、モニタ対象者が正面から右側に向くに従い、右サイドウインドウの輪郭線が、眼鏡の右フレームの右側比較的低い位置から、左側上部に移動するとともに、右サイドウインドウ前部の輪郭線が、18フレーム目以降には眼鏡の左フレーム映り始めてその後、徐々に左側へと移動しているのがわかる。
【0056】
また、フロントウインドウの右端の輪郭線は、眼鏡の右フレームに映っていたのが、徐々に左に移動していき、7フレーム目で眼鏡の右フレームから消えている。一方、眼鏡の左フレームには6フレーム目からフロントウインドウの右端が映っている。
【0057】
右側Aピラーも4フレーム目までは眼鏡の右フレーム上を徐々に左へと移動していき、5フレーム目からは左右のフレームに映り出し、その後は眼鏡の右フレームからは徐々に消えていき、左フレームには徐々にその領域を左側へと広げていっている。
【0058】
18フレーム以降は、眼鏡の右フレームには右側Aピラーは映っておらず、眼鏡の左フレームにだけ右側Aピラーが映り、その後も眼鏡の左フレーム内を徐々に左側に移動している。
【0059】
また、ルームミラー及びフロントウインドウの中央上部の輪郭線もモニターが右を向くに従って徐々に左側へと移動し、17フレーム以降はルームミラーは眼鏡の左フレームの左側外に消えていくのがわかる。
【0060】
以上のようにして、眼鏡のフレーム内に映る車両構造物の眼鏡フレーム内での位置と顔の向きの相関をとることができ、これによってモニター対象者の顔がどの方向を向いているか検出することができる。
【0061】
[第3の顔の向き検出処理]
次に、第3の顔の向き検出処理S9(図3)を、図14のフローチャートを用いて説明する。
【0062】
まず、S91では、眼の候補の位置の特定の処理が実行される。S92では、眼判定処理を行う。S93では、S91で眼の候補の位置の特定の処理で検出した眼の候補点すべてを判定したかどうかを判定する。眼の候補点すべてを判定した場合には(S93でYES)、S94に処理が移る。眼の候補点すべてを判定し終わっていない場合には(S93でNO)、S92の眼判定処理に戻る。S94では、顔の向き判定処理を行いモニタ対象者の顔の向きを判定する。
【0063】
[眼の候補の位置の特定の処理]
眼の候補の位置の特定の処理S91の流れを、図15のフローチャートと、図16〜図20を用いて説明する。
【0064】
まず、図15のS911では、顔画像の撮像処理S1(図3参照)で撮像しマイクロコンピュータ2に入力された画像データ全体を、全体画像Gとして画像メモリに保存する。次に、S912では、縦方向に1ライン終了後に、一つ隣のラインの処理に移して行き、縦方向の全ラインでのポイント抽出が終了したか否かを判断する。
【0065】
S912で、全ラインにおいてポイント抽出が行われていないと判断された場合は(S912でNO)、S913に移行する。
【0066】
S913では、縦方向(Y軸方向)の1ラインの濃度値の相加平均演算を行う。この処理は、画像データ撮影時の濃度値の変化の小さなバラツキを無くすことを目的としており、濃度値の大局的な変化を捉えるためである。
【0067】
S914では、S913の演算結果である相加平均値における微分演算を行う。S915では、S914の演算結果である微分値によるポイント抽出を行う。この処理が1ライン終了した後、S916で、次のラインの処理に切り替えて行く。
【0068】
前述のS912の処理で、全ラインのポイント抽出が終了したと判断されると、S917へ移行し、隣り合う各ラインの抽出ポイントのY座標値を比較し、Y座標値が所定値以内の場合、連続データとして、▲1▼連続データのグループ番号、▲2▼連続開始ライン番号、▲3▼連続データ数、▲4▼連続データを構成する各抽出ポイントの縦方向位置の平均値(その連続データの代表上下位置)、▲5▼連続開始ラインと終了ラインの横方向位置の平均値(その連続データの代表左右位置)をメモリする。ここでの検出対象は眼としているため、その特徴量は横に比較的長く続くデータであるといえるので、横方向に所定値以上続くことを条件に連続データを選択することができる。
【0069】
このようにして選択した顔の特徴量を連続データGとして表したものを、図16に示す。なお、連続データGの抽出方法をフローチャートの流れのみで簡単に説明したが、処理状態の詳細については、「特開平10−40361号公報」「特開平10−143669号公報」などにも記載されている。
【0070】
連続データGがいわば眼の候補となり、この連続データGの代表座標値Cが眼の候補点の位置となる。
【0071】
次に、図15のS918において、図16に示すような各連続データGの代表座標値Cを基準に各連続データGを含む存在領域EAを設定する。この存在領域EAは、次のようにして決定する。
【0072】
(存在領域EAの大きさの決め方)
存在領域EAの大きさは、図17〜図20のようにして決定している。図17は、存在領域EAの大きさを示し、図18,図19は数人の眼の大きさを調べた横Xa、縦Yaの長さの統計データを示している。ここで、存在領域EAの大きさは、ノイズ(顔の皺や明暗などを抽出してしまう)の低減や処理速度を落とさないためにも、可能な限り小さい領域が良い。
【0073】
現在の居眠り検出などの処理で使っている大きさは数人の眼の大きさを調べ、それに余裕分(例えば×1.5倍)を加味した大きさにしている。数人の眼の大きさを統計的に求める方法としては、図18,図19のように、眼の縦、横寸法のデータを集め、その分布の、例えば95%をカバーする寸法に余裕分をみて決定する方法が考えられる。
【0074】
そしてこの95%をカバーする寸法、即ち、横寸法xa、縦寸法yaに、図17のように余裕分(×1.5)をみて決定している。なお、画像処理により眼の幅や高さを推定し、縦横の大きさに余裕分を加える方法も考えられる。
【0075】
(存在領域EAの位置の決め方)
図20は、例えば右眼の存在領域EAを位置決めする方法について示している。眼の座標値(x1,y1)を基準に、距離x2,y2の位置に存在領域EAを描く基準点Pを決め、P点から予め決めておいた存在領域EAの寸法x3,y3を描画し、位置を決める。x2及びy2はx3,y3の1/2で予め存在領域EAが眼の中心にくるような長さとしている。存在領域EAを画像全体で見つかった連続データGすべてについて設定する。
【0076】
[眼判定処理]
眼判定処理を、図21,図22に示すフローチャートと、図23〜図25を用いて説明する。まず、図21のS9201では、眼の候補点の存在領域EAの画像データを微少画像IGとして画像メモリに保存する。全体画像Gと保存される微小画像IGの状態を図23に示す。
【0077】
顔画像の撮像処理S1(図3参照)で撮像し、マイクロコンピュータ2に入力された画像データ全体を、全体画像Gとして画像メモリに保存する。
【0078】
次に、S9202では、全体画像Gの代表座標値Cに相当する微少画像IGの代表座標値ICを基準とした範囲ARの濃度情報をもとに、二値化閾値を設定する。
【0079】
この範囲ARは、前記存在領域EAより小さく、二値化閾値を正確に設定できるようにしている。
【0080】
各範囲ARでの二値化閾値の算出方法の一例を、図24を用いて説明する。範囲ARにおいて、縦方向に数ラインの濃度値の読み出しを行う。図24では、この縦方向へのラインが4本あることを示している。この各ラインにおいて、濃度値の最も高い(明るい)濃度値と、最も低い(暗い)濃度値をメモリして行き、全ラインのメモリが終了したら、各ラインの最も高い(明るい)濃度値の中で、一番低い濃度値(皮膚の部分)と、各ラインの最も低い(暗い)濃度値の中で、一番低い濃度値(眼の部分)とを求め、その中央値を二値化閾値とする。
【0081】
この二値化閾値のための範囲ARは、眼の黒い部分と眼の周囲の皮膚の白い部分が入るように設定し、また、画像の明るさのバラツキによる影響を少なくするために必要最小限の大きさにしている。また、二値化閾値は、その領域内の眼の一番低い(暗い)濃度値と、皮膚の部分の一番低い(暗い)濃度値の中央値とすることで、皮膚の部分から眼の部分を切り出すのに適した値となる。
【0082】
更に、二値化閾値を決定するのに皮膚の部分の濃度値の一番低い(暗い)濃度値を用いている理由は、次の通りである。前述したように眼の周囲の明るさのバラツキによる影響を少なくするために、濃度値を読み出す範囲ARを極力小さくしていても、該範囲ARの一部に直射光が当たっているような部分が外乱として入ることがあり、この部分を二値化閾値の決定に用いないようにするためである。
【0083】
S9203では、こうして決定した二値化閾値を用いて微少画像IGを二値化処理し、二値画像bGとして画像メモリに保存する。
【0084】
このような二値化閾値を用いて二値化した候補オブジェクトを検出することにより、眼を正確に捉えて候補オブジェクトの幾何形状を用いた判定をより正確に行うことができ、眼の位置検出精度をより向上することができる。
【0085】
次に、S9204に移行し、全体画像Gの代表座標値Cに相当する二値画像bGの位置bCを、初期位置に設定する。
【0086】
S9205で、設定位置が黒画素か否かを判定し、設定位置が黒画素と判定されれば(S9205でYES)、処理を図22のS9206へ移行し、設定位置が黒画素と判定されなければ(S9205でNO)、S9213にて、設定位置を上下左右に1画素ずつずらして、再度、設定位置が黒画素か否かを判定S9205を行い、設定位置が黒画素になるまで処理を行う。
【0087】
S9206では、その黒画素を包括する連結成分を候補オブジェクトとして設定する。S9207では、候補オブジェクトの幾何形状を算出し、S9208で特定したい眼テンプレートの幾何形状と候補オブジェクトの幾何形状を比較する。
【0088】
S9208の候補オブジェクトと眼テンプレートの幾何形状の比較方法の一例を、眼の場合について、図25を用いて説明する。
【0089】
眼の二値化した形状は光環境が良く安定した画像であれば、図25(a)に示すようなものになるが、車室内に直射日光が一側から当たる等して光環境が悪化したときは、図25(b),(c)のような形状になることもある。
【0090】
眼のテンプレートは、横幅が眼の相場値の2/3以上あり、且つ上に凸の所定範囲の曲率を持っていることの条件▲1▼と、黒眼の左側の凹み形状条件の▲2▼と、黒眼の右側の凹み形状条件の▲3▼とを組み合わせることにより設定し、図25(b),(c)の例を許容するために、▲1▼と▲2▼、または▲1▼と▲3▼の条件を満たすものであっても良いものとする。
【0091】
S9209では、S9208の結果、候補オブジェクトと眼テンプレートの幾何形状が一致するか否かを判定する。候補オブジェクトと眼テンプレートの幾何形状が一致する場合には(S9209でYES)、S9210で、その候補オブジェクトを眼と判定する。候補オブジェクトと眼テンプレートの幾何形状が一致しない場合には(S9209でNO)、S9214で、その候補オブジェクトを眼ではないと判定する。
【0092】
S9211では、眼と判定された候補オブジェクトの全体画像Gでの代表座標値Cをこの画像フレームでの眼の座標としてメモリする。
【0093】
S9212では、眼であると判定された代表候補点の微少画像IGを、眼画像MGiとして画像メモリに保存する。
【0094】
[顔の向きの判定処理]
次に、顔の向きの判定処理S94(図14参照)を、図26のフローチャートを参照して説明する。まず、S941では、眼の外周輪郭の検出の処理が実行される。S942では、眼の目頭・目尻の位置の検出の処理を行う。
【0095】
S943では、円弧状ラインのピーク位置の検出の処理を行う。S944では、S942で検出された目尻および目頭の位置、S943で検出された円弧状ラインのピーク位置に基づいて、顔の向きを判定する顔の向き算出処理を行う。
【0096】
[眼の外周輪郭の検出処理]
眼の外周輪郭の検出処理S941を、図27〜図30を参照して説明する。なお、本説明では画像上の右眼(実際の左眼)とする。
【0097】
図27は、眼位置特定処理によって特定された眼位置を中心とした微小画像を示している。ここでの微小画像は、眼判定処理のS9212(図22)で画像メモリの保管された微小画像MGiを用いるのが通常であるが、状況に応じて、画像メモリに保管されている全体画像Gからサイズや位置を再定義た微小画像を抽出して用いてもよい。
【0098】
図28の微小画像を二値化閾値より小さい画素を黒(濃度値0)、二値化閾値よりも大きいところを白(濃度値255)となるように二値化することによって、図27の二値化画像を得ることができる。ここで行う二値化処理の二値化閾値は、眼判定処理で行った二値化処理に用いた二値化閾値と同じとしてもよい。
【0099】
図29では、得られた二値化画像の左上から下向きに向かって画素値0の黒画素を検索する。一番下の画素まで検索し終わったら、一つ右の画素列を検索していく。その画素列で最初に見つかった黒画素と、最後に見つかった黒画素をそれぞれの画素列について求めていくと、図30に示すように、眼の外周輪郭を得ることができる。
【0100】
[眼の目頭・目尻の検出処理]
眼の目頭・目尻の検出処理S942を、図31を参照しながら説明する。眼の目頭・目尻の位置は、図31のように、画像上の右眼の場合では外周輪郭線の左端が目頭、右端が目尻位置となる。
【0101】
なお、平面座標として目頭、目尻位置を特定する場合、図31に示すように下側ラインの左右端を目頭位置、目尻位置として、その座標を使う方法のほかに、上側ラインの左右端を目頭位置、目尻位置として、その座標を使う方法や、上側ラインと下側ラインの左右端の中点を目頭位置、目尻位置として、その座標を使う方法もある。
【0102】
[円弧状ラインのピーク位置の検出処理]
円弧状ラインのピーク位置の検出処理S943について、図31〜図33を参照して説明する。
【0103】
円弧状ラインとして上瞼を用いる場合には、図31に示すように、眼の外周輪郭のラインで、上側ラインの最も高い位置をピーク位置とすることができる。
【0104】
また、図32のように、顔がカメラに対して正面を向いていないような場合には、図33に示すように画像上眼が傾き、必ずしも上側ラインの高さ方向で最も高い位置がピーク位置とはならない。このような場合も想定して、目頭位置と目尻位置を結んだ線分と眼の外周輪郭のラインで上側ラインの距離が最も大きいところをピーク位置とすることもできる。
【0105】
[顔の向きの算出処理]
顔の向き算出処理S944について、図31〜図34を参照して説明する。図31に示すように、顔を正面に向けている場合には、ピーク位置は眼のほぼ中心位置にあり、ピーク位置から目頭位置までの距離L1と、ピーク位置から目尻位置までの距離L2はほぼ等しくなる。次に、図32のように画像上で顔が右側を向いているような場合には、図33に示すように、ピーク位置から目頭位置までの距離L1は大きくなり、ピーク位置から目尻位置までの距離L2は小さくなる。
【0106】
L1とL2の関係をL2/L1というパラメータで表すと、正面に顔がある場合はL2/L1は1となり、顔を画像上の右側に向けていくと、L2/L1は次第に小さくなっていき、顔がカメラに対して真横を向いた時(顔を90度右向いたとき)に、円弧のピークは目尻側に寄り、L2の長さは0となるので、L2/L1は0となる。
【0107】
但し、実際は顔の向きが右45度程度を越えた後は、右目は顔の陰に隠れてカメラには写らなくなるため本来の処理においては両目を監視する。眼に斜視などの異常がなければ、左右両眼とも眼球は同様に動くので、片方の眼が見えないときは、もう片方の眼によって補完する様にする。
【0108】
反対に顔が左側を向いていくと、L2/L1は次第に大きくなっていき、顔がカメラに対して真横を向いた時(顔を90度左向いたとき)に円弧のピークは目頭側に寄り、L1の長さは0となるので、L2/L1は無限大となる。
【0109】
この関係を示したグラフを図34に示す。このグラフの関係から、L2/L1から顔の向き量を正面を向いたときを0度として右向きを正とした角度θfを求めることができる。
【0110】
ここで例示した顔の向き検出処理は一例であり、この方法のほかにも両目の間隔から顔の向きを検出する方法等が知られている。
【0111】
このようにして、本実施形態に係る顔状態検出装置では、車両の運転者(対象者)が眼鏡を掛けている場合であっても、眼鏡レンズへの映り込み、或いは、当該眼鏡の特徴量に応じて、対象者の顔の向きを検出することができるので、対象者が眼鏡を掛けているかどうかに関わらず、高精度に顔の向きを検出することができるようになる(請求項1の効果)。
【0112】
また、特徴量検出手段は、車体構造物検出手段と、車体構造物位置検出手段を具備しており、眼鏡レンズに映り込んでいる映像から、車体構造物を検出し、更に、レンズ中における車体構造物の位置に基づいて、対象者の顔の向きを検出するようにしているので、高精度な顔の向きの検出ができる(請求項2の効果)。
【0113】
更に、車体構造物として、対象者よりも前方に存在するフロントウインドウの輪郭、サイドウインドウの輪郭、ルームミラー、或いはAピラー等を検出する構成とすることにより、より一層検出精度を向上させることができる(請求項3,4の効果)。
【0114】
また、レンズフレーム検出手段を具備し、レンズフレーム検出手段により検出されるレンズフレームの位置と、車体構造物検出手段にて検出される車体構造物の位置(映り込みの位置)との相対的な関係に基づいて、対象者の顔の向きを検出する構成としているので、検出精度を向上させることができる(請求項5の効果)。
【0115】
更に、対象者の眼の位置を検出し、対象者の眼が検出されないときに、第1の顔の位置検出手段により、対象者の顔の位置を検出するので、より高精度に顔状態を検出することができる(請求項6の効果)。
【0116】
また、眼鏡検出手段により、眼鏡のフレーム位置を検出し、このフレーム位置と、レンズに映り出されたフロントウインドウの輪郭、サイドウインドウの輪郭、ルームミラー、或いはAピラー等の車体構造物の映像の位置とに基づいて、対象者の顔の向きを検出するようにしているので、高精度な検出が可能となる(請求項7の効果)。
【0117】
更に、特徴量検出手段は、眼鏡のレンズ部の横径、或いは縦径を特徴量として検出し、この横径、縦径に基づいて、対象者の顔の状態を検出するので、高精度な検出が可能となる(請求項8の効果)。
【0118】
また、レンズフレームの横方向の最大幅を横径、縦方向の最大幅を縦径とするので、検出が容易となる(請求項9の効果)。
【0119】
<第2の実施形態>
[システムブロック図]
図35は、本発明を適用した顔状態検出装置の、第2の実施形態の構成を示すブロック図である。この顔状態検出装置は、顔画像撮像手段CL1と、眼鏡検出手段CL2と、眼鏡レンズ径検出手段CL8と、第2の顔の向き検出手段CL9と、第3の顔の向き検出手段CL7と、を備えている。
【0120】
顔画像撮像手段CL1は、モニタ対象者の顔を撮像して顔画像データを出力する。眼鏡検出手段CL2は、モニタ対象者が眼鏡を掛けているかどうかを検出する。
【0121】
眼鏡レンズ径検出手段CL8は、顔画像撮像手段CL1から出力された顔画像データを処理してモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくともいずれか一方を検出する。
【0122】
第2の顔の向き検出手段CL9は、眼鏡レンズ径検出手段CL8によって検出されたモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくともいずれか一方から顔の方向を検出する。
【0123】
第3の顔の向き検出手段CL7は、眼鏡検出手段CL2で眼鏡が検出できなかった場合に、顔画像撮像手段CL1から出力された顔画像データを処理して眼の位置を検出し、左右の眼の位置もしくは検出された眼の位置を基準にした範囲にて、画像処理によって得られる左右いずれかの眼の形状から顔の向きを検出する。
【0124】
[機器の配置]
本発明の機器の配置、顔画像撮像手段CL1としてのTVカメラ1は、前述した第1の実施形態と同じであるので、その説明を省略する。マイクロコンピュータ2には、眼鏡検出手段CL2と、眼鏡レンズ径検出手段CL8と、第2の顔の向き検出手段CL9と、第3の顔の向き検出手段CL7の処理に関するプログラムがプログラミングされている。
【0125】
[システム全体の処理]
図36は、システムの全体の処理の流れを示している。まず、処理が開始されると、S1で、TVカメラ1でモニタ対象者の顔画像を撮像し、マイクロコンピュータ2に画像データとして入力される。
【0126】
S2では、モニタ対象者が眼鏡を掛けているか否かを検出する。S3では、S2の検出結果に基づいて、モニタ対象者が眼鏡を掛けている場合には(S3でYES)、S10へ処理を進め、モニタ対象者が眼鏡を掛けていない場合は(S3でNO)、S9へ処理を進める。
【0127】
S10では、マイクロコンピュータ2に入力された画像データを画像処理することによって、モニタ対象者が掛けている眼鏡のレンズの横径、或いは縦径の少なくとも一方を検出する。
【0128】
S11では、S10で検出されたモニタ対象者が掛けている眼鏡のレンズの横径、又は縦径の少なくとも一方のデータに基づいて、モニタ対象者の顔の向きを検出し(第2の顔の向き検出処理)、処理を終了する。
【0129】
S9では、S3で眼鏡が検出できなかった場合、又はS5でモニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込みが検出できなかった場合に、マイクロコンピュータ2に入力された画像データを画像処理することによって、眼の位置を検出し、左右の眼の位置から、或いは検出された眼の位置を基準にした範囲から画像処理によって得られる左右いずれかの眼の形状から、顔の向きを検出し(第3の顔の向き検出処理)、処理を終了する。
【0130】
[眼鏡の検出処理]
第1実施形態と同様であるので、その詳細説明を省略する。
【0131】
[眼鏡レンズ径の検出処理]
レンズ径の検出処理S10を、図37を用いて説明する。輪郭抽出することによって眼鏡フレーム輪郭データを原画像から抽出する。抽出された眼鏡フレームの輪郭線の右フレーム、及び左フレームの外接四角形を検出する。検出された右フレーム、及び左フレームの、外接四角形の横辺が右フレームの横径LHR、左フレームの横径LHL、縦辺が右フレームの縦径LVR、左フレームの縦径LVLとなる。
【0132】
[第2の顔の向き検出処理]
第2の顔の向き検出処理S11を、図37〜図40を用いて説明する。図37は、モニタ対象者が正面を向いているときの、眼鏡フレームの輪郭線であり、図38は、モニタ対象者が右を向いているときの、眼鏡フレームの輪郭線であり、図39は、モニタ対象者が左を向いているときの、眼鏡フレームの輪郭線である。
【0133】
この図から判るように、モニタ対象者が左右を顔を向けると向いた側の眼鏡フレームの横経が正面を向いている状態より小さくなっている。また、向いた側の眼鏡フレームの横径が、反対側の眼鏡フレームの横径よりも小さくなっている。の関係を示したのが、図40に示すグラフとなる。
【0134】
ここでは、モニタ対象者が左右に顔を向けた時のみ眼鏡フレームの横径を使って検出する方法を例示したが、上下方向に顔を向けた場合は眼鏡フレームの縦径を使って検出することができる。また、モニタ対象者の顔は上下左右の合成の動きをするので眼鏡フレームの横径、縦径を同時に使うことでより精度のよい顔の向き検出ができる。
【0135】
[第3の顔の向き検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0136】
このようにして、第2の実施形態に係る顔状態検出装置では、眼鏡のレンズ径の縦径、或いは横径に基づいて対象者の顔の向きを検出する第2の顔の向き検出手段を具備し、眼鏡に映り込んだ映像から車体構造物が検出されない場合には、この第2の顔の向き検出手段を用いて、対象者の顔の向きを検出するように構成するので、第1の実施形態に記載した効果に加え、より一層検出精度を向上させることができる(請求項10の効果)。
【0137】
<第3の実施形態>
[システムブロック図]
図41は、本発明を適用した顔状態検出装置の、第3の実施形態の構成を示すブロック図である。この顔状態検出装置は、顔画像撮像手段CL1と、眼鏡検出手段CL2と、映り込み検出手段CL3と、車体構造物検出手段CL4と、車体構造物位置検出手段CL5と、第1の顔の向き検出手段CL6と、第3の顔の向き検出手段CL7と、眼鏡レンズ径検出手段CL8と、第2の顔の向き検出手段CL9と、備えている。
【0138】
顔画像撮像手段CL1は、モニタ対象者の顔を撮像して顔画像データを出力する。眼鏡検出手段CL2は、モニタ対象者が眼鏡を掛けているかどうかを検出する。
【0139】
映り込み検出手段CL3は、顔画像撮像手段CL1から出力された顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズ表面上に、車内外の情景が映り込んでいるか否かを検出する。
【0140】
車体構造物検出手段CL4は、顔画像撮像手段CL1から出力された顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から車体構造物を検出する。
【0141】
車体構造物位置検出手段CL5は、顔画像撮像手段CL1から出力された顔画像データを処理して、モニタ対象者が掛けている眼鏡のレンズフレームを検出し、車体構造物検出手段CL4によって、検出されたモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車体構造物とレンズフレームの相対位置関係によって眼鏡上に映り込んでいる車体構造物の眼鏡上での位置を検出する。
【0142】
第1の顔の向き検出手段CL6は、車体構造物位置検出手段CL5によって検出された眼鏡上に映り込んでいる車体構造物の眼鏡上での位置から顔の方向を検出する。
【0143】
第3の顔の向き検出手段CL7は、眼鏡検出手段CL2で眼鏡が検出できなかった場合か、映り込み検出手段CL3でドライバが掛けている眼鏡のレンズ表面上に車内外の情景の映り込みが検出できなかった場合に、顔画像撮像手段CL1から出力された顔画像データを処理して眼の位置を検出し、左右の眼の位置もしくは検出された眼の位置を基準にした範囲から画像処理によって得られる左右いずれかの眼の形状から顔の向きを検出する。
【0144】
眼鏡レンズ径検出手段CL8は、顔画像撮像手段CL1から出力された顔画像データを処理してモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくともいずれか一方を検出する。
【0145】
第2の顔の向き検出手段CL9は、眼鏡レンズ径検出手段CL8によって検出されたモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくともいずれか一方から顔の方向を検出する。
【0146】
[機器の配置]
本発明の機器の配置、顔画像撮像手段CL1としてのTVカメラ1は、前述した第1の実施形態と同一であるので、その説明を省略する。
【0147】
マイクロコンピュータ2には、眼鏡検出手段CL2と、映り込み検出手段CL3と車体構造物検出手段CL4と、車体構造物位置検出手段CL5と、第1の顔の向き検出手段CL6と、第3の顔の向き検出手段CL7と、眼鏡レンズ径検出手段CL8と、第2の顔の向き検出手段CL9の処理に関するプログラムがプログラミングされている。
【0148】
[システム全体の処理]
図42は、システムの全体の処理の流れを示している。まず、処理が開始されると、S1で、TVカメラ1でモニタ対象者の顔画像を撮像し、マイクロコンピュータ2に画像データとして入力される。S2では、モニタ対象者が眼鏡を掛けているか否かを検出する。
【0149】
S3では、S2の検出結果に基づき、モニタ対象者が眼鏡を掛けている場合には(S3でYES)、S4へ処理を進め、モニタ対象者が眼鏡を掛けていない場合は(S3でNO)、S9へ処理を進める。
【0150】
S4では、マイクロコンピュータ2に入力された画像データを画像処理することによって、モニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込んでいるか否かを検出する。
【0151】
S5では、S4の検出結果に基づき、モニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込んでいる場合は(S5でYES)、S6へ処理を進め、モニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込んでいない場合は(S5でNO)、S9へ処理を進める。
【0152】
S6では、マイクロコンピュータ2に入力された画像データを画像処理することによってモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から車体構造物を検出する。
【0153】
S12では、モニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から車体構造物が検出できた場合は(S12でYES)、S7へ処理を進め、図43に示すような状況でモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から車体構造物が検出できなかった場合は(S12でNO)、S10へ処理を進める。
【0154】
S7では、マイクロコンピュータ2に入力された画像データを画像処理することによってモニタ対象者が掛けている眼鏡のレンズフレームを検出し、車体構造物検出手段CL4によって検出されたモニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車体構造物とレンズフレームの相対位置関係によって眼鏡上に映り込んでいる車体構造物の眼鏡上での位置を検出する。
【0155】
S8では、S7によって検出された眼鏡上に映り込んでいる車体構造物の眼鏡上での位置から、モニタ対象者の顔の向きを検出し(第1の顔の向き検出処理)、処理を終了する。
【0156】
S9では、S3で眼鏡が検出できなかった場合、又はS5でモニタ対象者が掛けている眼鏡のレンズ表面上に車内外の情景が映り込みが検出できなかった場合に、マイクロコンピュータ2に入力された画像データを画像処理することによって眼の位置を検出し、左右の眼の位置もしくは検出された眼の位置を基準にした範囲から画像処理によって得られる左右いずれかの眼の形状から顔の向きを検出し(第3の顔の向き検出処理)、処理を終了する。
【0157】
S10では、マイクロコンピュータ2に入力された画像データを画像処理することによってモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくともいずれか一方を検出する。
【0158】
S11では、S10で検出されたモニタ対象者が掛けている眼鏡のレンズの横径または縦径の少なくとも一方から、モニタ対象者の顔の向きを検出し(第2の顔の向き検出処理)、処理を終了する。
【0159】
[眼鏡の検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0160】
[映り込み検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0161】
[車両構造物検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0162】
[車両構造物の画像上の眼鏡上の位置の検出]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0163】
[第1の顔の向き検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0164】
[第3の顔の向き検出処理]
前述した第1の実施形態と同様であるので、その詳細説明を省略する。
【0165】
[眼鏡レンズ径の検出処理]
前述した第2の実施形態と同様であるので、その詳細説明を省略する。
【0166】
[第2の顔の向き検出処理]
前述した第2の実施形態と同様であるので、その詳細説明を省略する。
【0167】
このようにして、本実施形態に係る顔状態検出装置では、対象者の顔画像から、眼の位置を検出し、眼の位置或いは眼の形状に基づいて、対象者の顔の向きを検出する第3の顔の位置検出手段を備え、眼鏡のレンズに映り込んだ映像から車体構造物を検出することができない場合に、第3の顔の向き検出手段により、対象者の顔の向きを検出するようにしているので、前述した第1,第2の実施形態に記載した顔状態検出装置に記載した効果に加え、より一層検出精度を向上させることができる(請求項11の効果)。
【図面の簡単な説明】
【図1】本発明の、第1の実施形態に係る顔状態検出装置の構成を示すブロック図である。
【図2】本発明に係る顔状態検出装置の、各構成要素の配置図である。
【図3】第1の実施形態に係る顔状態検出装置の、全体の処理手順を示すフローチャートである。
【図4】映り込み判定処理の具体的な内容を示すフローチャートである。
【図5】眼鏡に映り込みが発生していないときの様子を示す説明図である。
【図6】眼鏡に映り込みが発生しているときの、モニタ対象者の顔画像である。
【図7】図6に示した画像から、眼鏡部分を抽出した画像を示す説明図である。
【図8】眼鏡、及び映り込み画像の輪郭データを示す説明図である。
【図9】モニタ対象者が右側を見たときの、眼鏡部分の原画像、及び輪郭データを示す説明図である。
【図10】モニタ対象者が左側を見たときの、眼鏡部分の原画像、及び輪郭データを示す説明図である。
【図11】モニタ対象者が、正面から右方向を向くときの変化の様子を示す説明図の、第1の分図である。
【図12】モニタ対象者が、正面から右方向を向くときの変化の様子を示す説明図の、第2の分図である。
【図13】モニタ対象者が、正面から右方向を向くときの変化の様子を示す説明図の、第3の分図である。
【図14】顔の向き判定処理の具体的な内容を示すフローチャートである。
【図15】眼の候補の位置特定処理の具体的な内容を示すフローチャートである。
【図16】眼のテンプレートを用いて、対象者の眼の位置を検出する様子を示す説明図である。
【図17】眼の存在領域の大きさを示す説明図である。
【図18】眼の横方向の長さの統計を示す説明図である。
【図19】眼の縦方向の長さの統計を示す説明図である。
【図20】眼の存在領域の位置を決める処理を示す説明図である。
【図21】眼判定処理の具体的な内容を示すフローチャートの、第1の分図である。
【図22】眼判定処理の具体的な内容を示すフローチャートの、第2の分図である。
【図23】微小画像を抽出する処理の説明図である。
【図24】二値化閾値を求める処理を示す説明図である。
【図25】眼のテンプレートを用いて、眼の位置を検出する処理を示す説明図である。
【図26】顔の向き判定処理の具体的な内容を示すフローチャートである。
【図27】眼の輪郭線を画像処理によって抽出する処理の説明図である。
【図28】眼の輪郭線を画像処理によって抽出する処理の説明図である。
【図29】眼の輪郭線を画像処理によって抽出する処理の説明図である。
【図30】眼の輪郭線を画像処理によって抽出する処理の説明図である。
【図31】目頭・目尻、円弧状ラインピーク位置を示す説明図である。
【図32】対象者が眼球を動かしたときの映像を示す説明図である。
【図33】対象者が眼球を動かしたときの、目頭・目尻、円弧状ラインピーク位置を示す説明図である。
【図34】顔の向きと目尻ピーク距離、目頭ピーク距離との関係を示す特性図である。
【図35】本発明の、第2の実施形態に係る顔状態検出装置の構成を示すブロック図である。
【図36】第2の実施形態に係る顔状態検出装置の、処理全体を示すフローチャートである。
【図37】モニタ対象者が正面を見ているときの、眼鏡のフレーム輪郭データを示す説明図である。
【図38】モニタ対象者が右側を見ているときの、眼鏡のフレーム輪郭データを示す説明図である。
【図39】モニタ対象者が左側を見ているときの、眼鏡のフレーム輪郭データを示す説明図である。
【図40】顔の向きと、眼鏡の横径との関係を示す特性図である。
【図41】第3の実施形態に係る顔状態検出装置の、処理全体を示すフローチャートである。
【図42】第3の実施形態に係る顔状態検出装置の、処理全体を示すフローチャートである。
【図43】モニタ対象者が掛けている眼鏡のレンズ表面上に映り込んでいる車内外の情景から、車体構造物を検出することができない場合の眼鏡部分の画像を示す説明図である。
【符号の説明】
1 カメラ
2 マイクロコンピュータ
CL1 顔画像撮像手段
CL2 眼鏡検出手段
CL3 映り込み検出手段
CL4 車体構造物検出手段
CL5 車体構造物位置検出手段
CL6 第1の顔の向き検出手段
CL7 第3の顔の向き検出手段
CL8 眼鏡レンズ径検出手段
CL9 第2の顔の向き検出手段
Claims (11)
- 対象者の顔を顔画像撮像手段にて撮像し、撮像された顔画像に基づいて、当該対象者の顔の向きを検出する顔状態検出装置において、
前記対象者が眼鏡を掛けているかどうかを検出する眼鏡検出手段と、
前記眼鏡検出手段にて、対象者が眼鏡を掛けていることが検出された際には、当該眼鏡に映り込みが存在するかどうかを検出する映り込み検出手段と、
当該映り込み検出手段にて検出される映り込み映像の位置、或いは検出された眼鏡の特徴量を検出する特徴量検出手段と、
前記特徴量検出手段にて検出された特徴量に基づいて、前記対象者の顔の向きを検出する第1の顔の向き検出手段と、
を具備したことを特徴とする顔状態検出装置。 - 前記特徴量検出手段は、前記対象者が掛けている眼鏡のレンズに映し出されている車体構造物を検出する車体構造物検出手段と、当該車体構造物のレンズ上での位置を検出する車体構造物位置検出手段と、を有し、
前記第1の顔の向き検出手段は、前記車体構造物位置検出手段にて検出された車体構造物の位置に基づいて、前記対象者の顔の位置を検出することを特徴とする請求項1に記載の顔状態検出装置。 - 前記車体構造物は、前記対象者よりも前方に存在するものとすることを特徴とする請求項2に記載の顔状態検出装置。
- 前記車体構造物は、フロントウインドウの輪郭、サイドウインドウの輪郭、ルームミラー、或いはAピラーのうちの、少なくとも1つであることを特徴とする請求項2または請求項3のいずれかに記載の顔状態検出装置。
- 前記眼鏡検出手段は、前記対象者が掛けている眼鏡のレンズフレームを検出するレンズフレーム検出手段を具備し、前記第1の顔の向き検出手段は、レンズフレーム検出手段により検出されたレンズフレームの位置と、車体構造物位置検出手段にて検出される車体構造物の位置との相対関係から、前記対象者の顔の位置を検出することを特徴とする請求項2〜請求項4のいずれか1項に記載の顔状態検出装置。
- 前記映り込み検出手段は、前記顔画像撮像手段にて撮像された画像から、前記対象者の眼を検出する眼検出手段を具備し、当該眼検出手段にて前記対象者の眼が検出された際には、この眼の画像に基づいて、前記対象者の顔位置を検出し、
対象者の眼が検出されない場合には、前記第1の顔位置検出手段による顔位置検出を行うことを特徴とする請求項1〜請求項5のいずれか1項に記載の顔状態検出装置。 - 前記眼鏡検出手段は、前記顔画像撮像手段にて撮像された画像から眼鏡のフレーム位置を検出し、
前記第1の顔位置検出手段は、前記車体構造物検出手段により検出される、フロントウインドウの輪郭、サイドウインドウの輪郭、ルームミラー、或いはAピラーのうちの、少なくとも1つの位置と、前記検出された眼鏡のフレーム位置と、の相対関係に基づいて、前記対象者の顔の向きを検出することを特徴とする請求項1〜請求項6のいずれか1項に記載の顔状態検出装置。 - 前記特徴量検出手段は、顔画像に含まれる眼鏡のレンズ部の横径、或いは縦径を特徴量として検出し、前記第1の顔の向き検出手段は、レンズ部の横径、或いは縦径の大きさに基づいて、前記対象者の顔の向きを検出することを特徴とする請求項1に記載の顔状態検出装置。
- 前記眼鏡検出手段は、前記画像撮像手段にて撮像された画像から眼鏡のレンズフレームを検出し、
前記特徴量検出手段は、検出されたレンズフレームの横方向の最大幅をレンズの横径、レンズフレームの縦方向の最大幅をレンズの縦径とすることを特徴とする請求項8に記載の顔状態検出装置。 - 前記眼鏡検出手段は、前記顔画像撮像手段にて撮像された顔画像から、眼鏡のレンズの縦径、或いは横径の少なくとも一方を検出し、
検出された眼鏡のレンズの縦径、或いは横径の大きさに基づいて、前記対象者の顔の向きを検出する第2の顔の向き検出手段を有し、
前記特徴量検出手段にて、車体構造物を検出することができなかった際に、前記第2の顔の向き検出手段により、対象者の顔の向きを検出することを特徴とする請求項1に記載の顔状態検出装置。 - 前記対象者の眼の位置を検出し、左右の眼の位置、或いは眼の形状に基づいて、対象者の顔の向きを検出する第3の顔の向き検出手段を具備し、前記特徴量検出手段にて、対象者の眼鏡に映し出される車体構造物、及び眼鏡の特徴量を検出することができない場合には、当該第3の顔の向き検出手段により対象者の顔の向きを検出することを特徴とする請求項1に記載の顔状態検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002226516A JP4151341B2 (ja) | 2002-08-02 | 2002-08-02 | 顔状態検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002226516A JP4151341B2 (ja) | 2002-08-02 | 2002-08-02 | 顔状態検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004070514A true JP2004070514A (ja) | 2004-03-04 |
JP4151341B2 JP4151341B2 (ja) | 2008-09-17 |
Family
ID=32013830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002226516A Expired - Fee Related JP4151341B2 (ja) | 2002-08-02 | 2002-08-02 | 顔状態検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4151341B2 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008224565A (ja) * | 2007-03-15 | 2008-09-25 | Aisin Seiki Co Ltd | 目状態判別装置、目状態判別方法及び目状態判別プログラム |
JP2009517745A (ja) * | 2005-11-30 | 2009-04-30 | シーイング・マシーンズ・プロプライエタリー・リミテッド | 視覚的に頭と目を追跡するシステムにおける眼鏡の視覚的追跡 |
JP2009169740A (ja) * | 2008-01-17 | 2009-07-30 | Toyota Motor Corp | 顔画像処理装置 |
US8515127B2 (en) | 2010-07-28 | 2013-08-20 | International Business Machines Corporation | Multispectral detection of personal attributes for video surveillance |
US8532390B2 (en) | 2010-07-28 | 2013-09-10 | International Business Machines Corporation | Semantic parsing of objects in video |
US9134399B2 (en) | 2010-07-28 | 2015-09-15 | International Business Machines Corporation | Attribute-based person tracking across multiple cameras |
WO2017141401A1 (ja) * | 2016-02-18 | 2017-08-24 | 三菱電機株式会社 | 搭乗者検出装置、搭乗者検出システムおよび搭乗者検出方法 |
JP2017188017A (ja) * | 2016-04-08 | 2017-10-12 | いすゞ自動車株式会社 | 顔向き特定装置及び顔向き特定方法 |
JP2018036778A (ja) * | 2016-08-30 | 2018-03-08 | 株式会社デンソー | 顔向き検出装置及び入力操作システム |
US10424342B2 (en) | 2010-07-28 | 2019-09-24 | International Business Machines Corporation | Facilitating people search in video surveillance |
US11074431B2 (en) | 2017-03-24 | 2021-07-27 | Aisin Seiki Kabushiki Kaisha | Facial recognition device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5761074B2 (ja) | 2012-02-24 | 2015-08-12 | 株式会社デンソー | 撮像制御装置及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08185503A (ja) * | 1994-12-27 | 1996-07-16 | Mitsubishi Electric Corp | 画像処理装置 |
JPH0921611A (ja) * | 1995-07-06 | 1997-01-21 | Mitsubishi Electric Corp | 顔画像撮像装置 |
JPH0944680A (ja) * | 1995-07-26 | 1997-02-14 | Mitsubishi Electric Corp | 動画像の目領域抽出装置 |
JPH1196379A (ja) * | 1997-09-18 | 1999-04-09 | Nissan Motor Co Ltd | 眼位置検出装置 |
JPH11203455A (ja) * | 1998-01-09 | 1999-07-30 | Omron Corp | 画像生成装置、画像生成方法および記録媒体 |
JP2001167284A (ja) * | 1999-12-06 | 2001-06-22 | Oki Electric Ind Co Ltd | 眼鏡反射検出装置及び眼鏡反射検出方法 |
-
2002
- 2002-08-02 JP JP2002226516A patent/JP4151341B2/ja not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08185503A (ja) * | 1994-12-27 | 1996-07-16 | Mitsubishi Electric Corp | 画像処理装置 |
JPH0921611A (ja) * | 1995-07-06 | 1997-01-21 | Mitsubishi Electric Corp | 顔画像撮像装置 |
JPH0944680A (ja) * | 1995-07-26 | 1997-02-14 | Mitsubishi Electric Corp | 動画像の目領域抽出装置 |
JPH1196379A (ja) * | 1997-09-18 | 1999-04-09 | Nissan Motor Co Ltd | 眼位置検出装置 |
JPH11203455A (ja) * | 1998-01-09 | 1999-07-30 | Omron Corp | 画像生成装置、画像生成方法および記録媒体 |
JP2001167284A (ja) * | 1999-12-06 | 2001-06-22 | Oki Electric Ind Co Ltd | 眼鏡反射検出装置及び眼鏡反射検出方法 |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009517745A (ja) * | 2005-11-30 | 2009-04-30 | シーイング・マシーンズ・プロプライエタリー・リミテッド | 視覚的に頭と目を追跡するシステムにおける眼鏡の視覚的追跡 |
US8165347B2 (en) | 2005-11-30 | 2012-04-24 | Seeing Machines Pty Ltd | Visual tracking eye glasses in visual head and eye tracking systems |
JP2008224565A (ja) * | 2007-03-15 | 2008-09-25 | Aisin Seiki Co Ltd | 目状態判別装置、目状態判別方法及び目状態判別プログラム |
JP2009169740A (ja) * | 2008-01-17 | 2009-07-30 | Toyota Motor Corp | 顔画像処理装置 |
US9245186B2 (en) | 2010-07-28 | 2016-01-26 | International Business Machines Corporation | Semantic parsing of objects in video |
US10424342B2 (en) | 2010-07-28 | 2019-09-24 | International Business Machines Corporation | Facilitating people search in video surveillance |
US8588533B2 (en) | 2010-07-28 | 2013-11-19 | International Business Machines Corporation | Semantic parsing of objects in video |
US8774522B2 (en) | 2010-07-28 | 2014-07-08 | International Business Machines Corporation | Semantic parsing of objects in video |
US9002117B2 (en) | 2010-07-28 | 2015-04-07 | International Business Machines Corporation | Semantic parsing of objects in video |
US9134399B2 (en) | 2010-07-28 | 2015-09-15 | International Business Machines Corporation | Attribute-based person tracking across multiple cameras |
US8515127B2 (en) | 2010-07-28 | 2013-08-20 | International Business Machines Corporation | Multispectral detection of personal attributes for video surveillance |
US9330312B2 (en) | 2010-07-28 | 2016-05-03 | International Business Machines Corporation | Multispectral detection of personal attributes for video surveillance |
US9679201B2 (en) | 2010-07-28 | 2017-06-13 | International Business Machines Corporation | Semantic parsing of objects in video |
US8532390B2 (en) | 2010-07-28 | 2013-09-10 | International Business Machines Corporation | Semantic parsing of objects in video |
WO2017141401A1 (ja) * | 2016-02-18 | 2017-08-24 | 三菱電機株式会社 | 搭乗者検出装置、搭乗者検出システムおよび搭乗者検出方法 |
JPWO2017141401A1 (ja) * | 2016-02-18 | 2018-03-29 | 三菱電機株式会社 | 搭乗者検出装置、搭乗者検出システムおよび搭乗者検出方法 |
CN108701345A (zh) * | 2016-02-18 | 2018-10-23 | 三菱电机株式会社 | 搭乘者检测装置、搭乘者检测系统及搭乘者检测方法 |
DE112016005939T5 (de) | 2016-02-18 | 2018-10-31 | Mitsubishi Electric Corporation | Fahrgasterkennungsvorrichtung, Fahrgasterkennungssystem und Fahrgasterkennungsverfahren |
US10621418B2 (en) | 2016-02-18 | 2020-04-14 | Mitsubishi Electric Corporation | Passenger detection device, passenger detection system, and passenger detection method |
CN108701345B (zh) * | 2016-02-18 | 2022-07-12 | 三菱电机株式会社 | 搭乘者检测装置、搭乘者检测系统及搭乘者检测方法 |
JP2017188017A (ja) * | 2016-04-08 | 2017-10-12 | いすゞ自動車株式会社 | 顔向き特定装置及び顔向き特定方法 |
JP2018036778A (ja) * | 2016-08-30 | 2018-03-08 | 株式会社デンソー | 顔向き検出装置及び入力操作システム |
US11074431B2 (en) | 2017-03-24 | 2021-07-27 | Aisin Seiki Kabushiki Kaisha | Facial recognition device |
Also Published As
Publication number | Publication date |
---|---|
JP4151341B2 (ja) | 2008-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2541688B2 (ja) | 眼位置検出装置 | |
CN107472135B (zh) | 图像生成装置、图像生成方法以及记录介质 | |
JP4151341B2 (ja) | 顔状態検出装置 | |
EP1939582B1 (en) | Face center position detecting device, face center position detecting method, and program | |
EP2293588A1 (en) | Method for using a stereovision camera arrangement | |
WO2014130049A1 (en) | Systems and methods for augmented rear-view displays | |
JPH06247184A (ja) | 車上表示装置 | |
JP2002331835A (ja) | 直射光防眩装置 | |
JP2009254525A (ja) | 瞳孔検知方法及び装置 | |
US11079840B2 (en) | Operation determination device and operation determination method | |
JP2007288657A (ja) | 車両用表示装置、車両用表示装置の表示方法 | |
WO2017206042A1 (zh) | 基于智能眼镜的遮挡物透视方法及装置 | |
JP2009265722A (ja) | 顔向き検知装置 | |
JP2822799B2 (ja) | 運転者の状態検出装置 | |
CN110462625A (zh) | 面部识别装置 | |
JP3797253B2 (ja) | 視線方向検出装置 | |
JP4552636B2 (ja) | ドライバモニタシステムおよびその処理方法 | |
CN111417885B (zh) | 用于确定增强现实眼镜的姿态的系统和方法 | |
JP6880252B2 (ja) | 自動車両および自動車両の環境領域の少なくとも1つの合成俯瞰表示画像を生成する方法、カメラシステムおよび自動車両 | |
JP4198542B2 (ja) | 顔有無判定装置及び顔有無判定プログラム | |
TWI773958B (zh) | 車輛盲點影像顯示方法、裝置及系統 | |
JP2022040819A (ja) | 画像処理装置及び画像処理方法 | |
JP2002015322A (ja) | 脇見状態検出装置 | |
US11851003B2 (en) | Driving assistance system and method for driver | |
JP3185522B2 (ja) | 車両用視線方向計測装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071120 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080610 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080623 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110711 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |