JP2004070411A - Driver monitor device - Google Patents

Driver monitor device Download PDF

Info

Publication number
JP2004070411A
JP2004070411A JP2002224843A JP2002224843A JP2004070411A JP 2004070411 A JP2004070411 A JP 2004070411A JP 2002224843 A JP2002224843 A JP 2002224843A JP 2002224843 A JP2002224843 A JP 2002224843A JP 2004070411 A JP2004070411 A JP 2004070411A
Authority
JP
Japan
Prior art keywords
driver
face
image
monitor device
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002224843A
Other languages
Japanese (ja)
Inventor
Masayuki Kaneda
金田 雅之
Kinya Iwamoto
岩本 欣也
Yasushi Ueno
上野 裕史
Shinobu Nagaya
長屋 忍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002224843A priority Critical patent/JP2004070411A/en
Publication of JP2004070411A publication Critical patent/JP2004070411A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driver monitor device capable of easily detecting the status of a driver by means of a simple arrangement. <P>SOLUTION: The driver monitor device is mounted in a vehicle to monitor the status of a driver based on an image of the driver's face. The device comprises an image pickup means 1 for picking up images of the driver's face; an image storage means 2 for storing in time series the face images picked up by the image pickup means 1 at predetermined sampling intervals; a differential computing means 3 for computing differences in density at each pixel among the face images stored in time series; and a movement detecting means 5 for calculating the number of pixels where density has varied based on the differential computing means 3 and for determining that the driver has moved his face when the number of pixels is equal to or greater than a predetermined reference value. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、車両のドライバの運転状態を検出するドライバモニタ装置に関する。
【0002】
【従来の技術】
従来におけるドライバの状態検出装置として、例えば、特開平11−161798号公報(以下、従来例という)に記載されたものが知られている。該従来例では、カメラで順次撮影したドライバの顔画像間の時間差分演算を行い、差分値が一定値以上の部分を顔位置として切り出し、切り出された顔画像に基づいてドライバの顔の方向を検出する。そして、この検出結果に基づいて、ドライバの脇見や意識低下を判定している。
【0003】
【発明が解決しようとする課題】
しかしながら、上述した従来例では、切り出した顔部分の画像に対して、ニューラルネットワークを用いて顔の方向を検出する構成としているため、複雑、且つ多岐にわたる演算が必要となり、更に、学習を行う上での大容量のメモリも必須となり装置構成が複雑化するという問題があった。
【0004】
本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、簡単な構成で、且つ容易にドライバの状態を検出することのできるドライバモニタ装置を提供することにある。
【0005】
【課題を解決するための手段】
上記目的を達成するため、本発明は、車両に搭載され、ドライバの顔部位の画像に基づいて、該ドライバの状態をモニタするドライバモニタ装置において、前記ドライバの顔を撮像する画像撮像手段と、該画像撮像手段にて所定サンプリング時間毎に撮像された顔画像を時系列的に記憶する画像記憶手段と、前記時系列的に記憶された顔画像同士の、各画素毎の濃度差を演算する差分演算手段と、前記差分演算手段より、濃度差が生じた画素数を求め、当該画素数が所定の基準値以上となった際に、前記ドライバが顔を動かしたものと判断する動き検出手段と、を具備したことを特徴とする。
【0006】
【発明の効果】
本発明によれば、所定のサンプリング周期毎に撮影された顔画像を時系列的に記憶し、記憶された時系列の画像データの濃度値の差分値を求め、この差分値が所定の値よりも大きくなる画素数を求める。そして、この画素数が所定値を越えたときに、ドライバの顔が動いているものと判断する。従って、運転中のドライバの顔の動きの特徴量を精度良く捉えることができ、ドライバの前方注視状態や、一旦停止時、車線変更時、左折時の目視による安全確認行動や、脇見行動などのドライバの状態検出を容易に検出することができる。また、従来装置と比較して、装置構成を簡素化することができる。
【0007】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。図1は、本発明の第1の実施形態に係るドライバモニタ装置の構成を示すブロック図である。同図に示すように、該ドライバモニタ装置100は、ドライバの顔を連続的に撮像する画像撮像手段1と、該画像撮像手段にて所定のサンプリング時間毎に撮像されたドライバの顔画像を、時系列に記憶する画像記憶手段2と、所定サンプリング時間毎に記憶された顔画像同士の間で各画素毎に、時系列的に変化する濃度の差を演算する差分演算手段3と、該差分演算手段3にて演算された差分データに基づいて、ドライバの顔画像を再作成する顔画像再作成手段4と、再作成された顔画像に基づいてドライバの顔の動きを検出する顔の動き検出手段5と、を有している。
【0008】
そして、本実施形態では、画像記憶手段2にて時系列的に記憶される画像データの、各画素毎の濃度変化を検出し、更に、濃度変化の生じた画素数が多い場合(後述する基準値よりも大きい場合)には、ドライバが顔を動かしたものと判定するものである。
【0009】
以下、本実施形態の動作を、図2,図3に示すフローチャートを参照しながら説明する。
【0010】
まず、図2に示すステップ201で、画像撮像手段101による、ドライバの顔部位画像の撮像が行われると、ステップ202で、画像記憶手段3が有する画像メモリIMAGE_NEWに画像データを記憶する処理が行われる。
【0011】
次いで、ステップ203に移行し、画像メモリIMAGE_OLDに、画像データが記憶されているかどうかを確認する。
【0012】
本処理の起動直後であれば、画像メモリIMAGE_OLDには画像データは記憶されていないので、ステップ214に移行する。ステップ214では、画像メモリIMAGE_NEWの画像データを、画像メモリIMAGE_OLDに代入してステップ201に戻り、次の画像入力を行う。
【0013】
ステップ202では、新たに取り込んだ画像データを画像メモリIMAGE_NEWに記憶する。前述した処理ループが一度行われた後は、画像メモリIMAGE_OLDに画像データが記憶されているので、ステップ204に移行して画像メモリIMAGE_NEWとIMAGE_OLDとの間の濃度差分値の演算を行う。
【0014】
ここまでの具体的な処理内容を、図4〜図8を用いて説明する。図4〜図8は、ドライバの顔の状態、及び、画像撮像手段1により撮像された画像の、一部の領域「a」に含まれる各画素の、時系列的な濃度変化を示す説明図であり、(a)〜(j)に示す領域「a」に含まれる各画素の濃度値が、▲1▼〜(10)の順で変化していることを示している。また、前回の濃度値と今回の濃度値との差分をそれぞれ示している(例えば、「▲2▼−▲1▼」に示すデータは、▲2▼の画像データと▲1▼の画像データの濃度値の差分を示している)。
【0015】
最初に取り込まれる画像データを▲1▼(図4)とすると、▲1▼の画像データが画像メモリIMAGE_NEWに一旦記憶され、その後、画像メモリIMAGE_OLDに代入される。そして、2番目に取り込まれた▲2▼の画像データ(図4)が新たに画像メモリIMAGE_NEWに記憶される。
【0016】
この時、ステップ204での濃度差分値の演算を行う領域を、図4の領域「a」に限定して説明する。領域「a」は横方向に20画素1ラインの領域で顔の右側端を含む領域で、画像の絶対位置は固定しているという条件で示している。
【0017】
なお、この位置に固定している理由は、濃度変化が顕著で説明に適しているからであって、通常処理では全画面を対象としており、顔位置が特定できている場合は、該位置を対象として領域を切り出すこともある。
【0018】
また、撮像画像の検出タクトとなる、▲1▼と▲2▼の画像データの濃度差分値の演算時間、すなわち顔画像同士で各画素毎の濃度差の演算を開始した時間から次に顔画像同士で各画素毎の濃度差の演算を開始する時間までの時間間隔は、一般的なTVカメラの画像の取り込みタイミング(サンプリングタイム)が33msec/フレームであり、差分演算を画像データの取り込み中の裏処理として行うことを想定すると、この33msecとなる。
【0019】
また、差分演算の裏処理を行わない場合は、33msec+αの演算時間となり、この場合には、処理する領域の大きさによって、演算時間は異なってくる。よって、差分演算を裏処理で行う場合の検出タクトの固定値は、33msecとなり、差分演算を裏処理で行わない場合の検出タクトの固定値は、処理面積の大きさに比例した処理時間をプラスしたものになる。
【0020】
差分演算の裏処理を行うことのできないハード構成で、且つ全画面を対象とした処理を行う場合、固定される検出タクトがドライバの速い動きを検出するには長すぎるという時の対応策としては、顔幅や眼の領域に限定して処理を行うことによって検出タクトを短めに変更する方法を用いることができる。
【0021】
次に、図2のステップ204の濃度差分値の演算方法を、図4の▲1▼と▲2▼の画像データを用いて説明する。図4に示す各四角形は。領域「a」の各画素を示しており、この四角形の中に記載した数字は、その画素の濃度値を示している。この際、濃度値は256階調の濃淡値で、0を黒、255を白としている。ステップ204の、濃度差分値の演算結果は、▲2▼の画像データの濃度値から▲1▼の画像データの濃度値を減算したものを「▲2▼−▲1▼」に示す四角形の中に記載している。
【0022】
こうして、新たな画像データが取り込まれる毎に、画像メモリIMAGE_NEWとIMAGE_OLDが更新され、これらの差分値「▲3▼−▲2▼、▲4▼−▲3▼、・・・」の演算が順次繰り返される。
【0023】
ステップ205では、差分画像メモリDIFF_IMAGE1〜5に画像データが代入されているかどうかを確認する。そして、画像記憶手段102が有する差分画像メモリDIFF_IMAGEに、図4〜図8の「▲2▼−▲1▼、▲3▼−▲2▼、▲4▼−▲3▼、・・」に示す濃度差のデータの絶対値をとったデータを記憶させる。その結果、図9のI〜IXに示す如くの差分データを得ることができる。ここで、図9に示す差分データは、図4〜図8に示した各差分データの、絶対値をとったものとなっている。
【0024】
本実施形態では、差分画像メモリDIFF_IMAGEの数を「5」とし、これらの総和(後述する図10参照)に基づいて、濃度変化を検出する。なお、ここでは、濃度値の蓄積数を「5」で固定した状態で説明するが、検出タクトの長さや、画像の濃度状態や、車両が走行している環境に応じてこの数を変化させることもできる。
【0025】
ステップ205で、差分画像メモリDIFF_IMAGE1〜5に画像データが代入されるまでは、ステップ206、ステップ214を経て、ステップ201からの処理を繰り返し、差分画像メモリDIFF_IMAGE1〜5に画像データが代入された場合には、ステップ207で差分画像メモリの更新を行う。
【0026】
この処理は、濃度差を蓄積する5個のDIFF_IMAGEに、1個ずつ新しいデータを取り込みながら、古いデータを吐き出していくもので、最初の処理ではDIFF_IMAGE1には、図9に示す「▲2▼−▲1▼」の濃度差の絶対値データIが代入され、それ以降の処理では、DIFF_IMAGE2に「▲3▼−▲2▼」の濃度差の絶対値データII、DIFF_IMAGE3に「▲4▼−▲3▼」の濃度差の絶対値データIII、DIFF_IMAGE4に「▲5▼−▲4▼」の濃度差の絶対値データIV、DIFF_IMAGE5に「▲6▼−▲5▼」の濃度差の絶対値データVが各々代入される。
【0027】
ステップ207では、DIFF_IMAGE2に代入されているIIのデータをDIFF_IMAGE1へ、DIFF_IMAGE3に代入されているIIIのデータをDIFF_IMAGE2へと順次更新して行き、最新の濃度差の絶対値データVIをDIFF_IMAGE5に代入する。
【0028】
図3に示すステップ208では、DIFF_IMAGE1〜5に記憶された各画素単位の濃度差の絶対値の総和を演算する。この演算内容を具体的に濃度値を用いて説明する。図9のI〜IXに示す各画素単位の濃度差の絶対値の蓄積数を「5」に固定した状態で、図10に示すように、1回目の処理ではII+III+IV+V+VI、2回目の処理ではIII+IV+V+VI+VII、・・・と新たに画像が取り込まれる毎に総和の演算が行われる。
【0029】
ステップ209では、ステップ208で演算された総和が、所定階調以上となる画素を検出し、検出された画素に基づいて画像を再作成し、これを表示する処理を行う。
【0030】
図4に示した領域「a」を対象とし、所定階調を50階調とした場合は、図10の、斜線を加えた画素が検出され、これらの画素に基づいて、画像が再作成されることになる。
【0031】
ステップ210では、ステップ209で検出された画素数が所定の範囲内にあるかどうかを判定し、所定階調(この場合は、50階調)以上となる画素数が、この範囲内にある場合には、ステップ211に移行して、前方注視状態であると判定する。つまり、濃度差が50階調以上となる画素数が多い場合には、ドライバの顔が大きく動いたものと判断し、反対にこの画素数が少ない場合には、ドライバの顔は大きく動いていないものと判断するので、この場合(ステップ210でNOの場合)には、ドライバは前方を注視しているものと判断する。
【0032】
ステップ210、及びステップ211における判定原理を、図11を用いて説明する。車両が走行していると、車両の微振動による上下動で、顔の位置も常にその影響を受けて動いている。この顔の動きを効果的に捉えるのに、所定数の処理画像に渡って表示画素数を蓄積することが好ましく、ドライバが前方を注視して運転している状態では、図11に示すように、顔の輪郭や眼、鼻、口に当たる部分が強調されて表示される。よって、この面積を構成する表示画素数を判定対象とすることによってドライバの前方注視状態を判定することができる。
【0033】
図11は、車両のエンジンがかかっており、その車両のドライバが顔を前方に向けている状態において、上記の画像再作成処理によって得られた顔画像を模式的に示している。実際に再作成した顔画像においては、顔や頭部、目、鼻、口、耳などの輪郭線の幅が、車両の微振動の振幅に応じた幅となっており、その輪郭線によって顔が構成されている。
【0034】
なお、図11では、記載の都合上ドライバの顔を黒の線で記載しているが、実際には、黒地に白い線で表示される。
【0035】
このフローチャートに記載した処理によらない2フレーム間だけでの差分処理の表示画素数による判定では(即ち、図10に示す5回分の総和を演算する方式を用いない判定では)、図9の斜線を記載した画素のように、多くの画素が濃度変化が大きい対象画像として検出される場合もあれば(例えば、「▲6▼−▲5▼」)、対象画素が存在しない場合(例えば、「▲7▼−▲6▼」)も発生し、判定を安定させて続けることが容易でない。なお、図9に斜線を記載した画素は、図10の濃度差の蓄積数が5で判定値を50階調としていることに合わせて、その5分の1の、10階調を判定基準としている。
【0036】
図3に示すステップ210で、表示画素数(即ち、50階調を越えた画素数)が所定の範囲内でない場合には、ステップ212に移行し、ステップ209で検出された画素数が所定値を超えたかどうかを判定する。そして、所定値を超えた場合はステップ213に移行して脇見状態であると判定する。
【0037】
このときの、ドライバの顔の動き、及び各タクト毎に得られる領域「b」の画素値、各タクト毎に得られた画素値の差分データを、図12〜図16に示す。図12〜図16に示す(a)〜(j)は、前述した図4〜図8の(a)〜(j)に対応しており、図4〜図8は、ドライバが前方を注視しているときのデータを示し、図12〜図16は、ドライバが顔を横に向けたときのデータを示している。
【0038】
また、図17は、図9に対応しており、図18は、図10に対応している。図17より、ドライバが顔を横に向けた場合には、各画素の濃度値の差分データは、ドライバが前方を注視しているときに比べて大きな値となっていることが理解され、更に、図18から、差分データの総和の値も同様に、ドライバが前方を注視しているときに比べて大きな値となっている。
【0039】
このときの、判定原理を図19を用いて説明する。ドライバが前方以外を見ようとして顔を動かした場合には、同図に示すように、顔の動きに伴い強調される面積が大きくなる。よって、この面積を構成する表示画素数を判定対象とすることによってドライバの脇見状態を判定することができる。
【0040】
この図19も図11と同様に、実際に再作成した画像を模式的に示すものであり、実際に再作成した画像においては、図11に示したような輪郭線の移動した軌跡が全て表示画像となる。
【0041】
図19における表示画素数は、図11における表示画素数よりも大きくなっており、これらの表示画素数の差は、桁が1桁か2桁異なるほどの大きなものとなっている。従って、図3のステップ212の判定で用いる基準値(所定値)を、図11に示される表示画素数と図19に示される表示画素数とのほぼ中間の値に設定することにより、ステップ212の判定でドライバが顔を動かしたかどうかを判定することができる。
【0042】
具体的には、ドライバの顔が車両前方を向き続けている状態での表示画素数の相場値と、ドライバが顔を車両前方から車両横方向に向けた際の表示画素数の相場値を予め求めておき、それらの相場値のほぼ中間の値を、基準値として設定すれば良い。あるいは、ドライバが車両に乗車した際に、該ドライバの顔が車両前方を向き続けている状態での表示画素数を検出し、その検出結果に基づいて基準値を設定しても良い。
【0043】
このような構成によれば、適切な基準値を設定することができ、より高精度にドライバの顔の動きを検出することができる。
【0044】
また、画像撮像手段1により撮像された画像を、画像記憶手段2に記憶する際の、検出タクトを調整するように構成すれば、運転状況に応じた高精度なドライバ状態の検出が可能となる。
【0045】
更に、画像撮像手段1により撮像される画像の明るさに応じて、設定する基準値を変化させるように構成すれば、車室内の光環境変化に対するロバスト性の高いドライバの状態検出が可能となる。
【0046】
また、昼間時、夜間時や、晴天時、雨天時等の、車両の走行環境に応じて、設定する基準値を変化させるように構成すれば、走行環境に適合したより高精度なドライバ状態検出が可能となる。
【0047】
また、図2、図3に示したフローチャートでは、図11、図19に示すように、全画素を対象として検出面積の増減でドライバの顔の向きを検出する構成としているが、顔幅を対象とした顔の向き検出を行う場合は、図20に示すように、横方向への任意の数ラインを対象とした画素の検出し、該画素の縦方向への連続性を検出することによって、縦方向への検出ライン数としても行うことができる。
【0048】
つまり、所定階調数(50階調)を越える画素が、縦方向に連続して発生する個数(ライン数)を求め、この個数が所定範囲内に存在するかどうかを判定することにより、ドライバが前方を注視しているか、或いは脇見状態にあるかを検出することができる。
【0049】
次に、本発明の第2の実施形態に係るドライバモニタ装置について説明する。装置構成は、図1に示したものと同様であるので、構成説明を省略する。以下、第2の実施形態の動作を、図21,図22に示すフローチャートを参照しながら説明する。
【0050】
本実施形態では、各画素単位で時間差分をとった際に、所定階調以上とされた画素を対象として、所定の処理画像に渡って表示画素数の蓄積を行う。そして、第1の実施形態と同様のドライバの前方注視状態や、脇見状態を判定する。
【0051】
図21,図22に示す各ステップでの処理内容は、前述した図2,図3に示したものと略同一であり、以下、相違する部分のみを説明する。
【0052】
図21に示すステップ1205では、ステップ1204で演算した画像メモリIMAGE_NEWとIMAGE_OLDの各画素単位で濃度差分値が所定階調以上あるかどうかを判定し、所定階調以上である画素を特定する。この後、ステップ1206で、差分画像メモリDIFF_IMAGE1〜5に画像データが代入されているかどうかを判定する。
【0053】
初期状態ではDIFF_IMAGEに画像データは代入されていないので、ステップ1207で、ステップ1205で特定した画素を対象として差分画像メモリDIFF_IMAGE1〜5に順次代入する。
【0054】
このときの様子を図23を用いて説明する。図23には、図4に示した領域「a」内の濃度差分値▲2▼−▲1▼、▲3▼−▲2▼、・・・、(10)−▲9▼のデータを示している。そして、本実施形態では、ステップ1205での判定基準値を、+10階調以上、−10階調以下としており、その条件を満たす濃度差分値を、ハッチングにて示している。
【0055】
最初の処理では、DIFF_IMAGE1に、図23に示す▲2▼−▲1▼の濃度差分値で特定された画素からなる画像データIが代入される。それ以降の処理では、DIFF_IMAGE2に▲3▼−▲2▼の濃度差分値で特定された画素からなる画像データIIが代入され、DIFF_IMAGE3に▲4▼−▲3▼の濃度差分値で特定された画素からなる画像データIII、DIFF_IMAGE4に▲5▼−▲4▼の濃度差分値で特定された画素からなる画像データIV、DIFF_IMAGE5に▲6▼−▲5▼の濃度差分値で特定された画素からなる画像データVが各々代入される。
【0056】
ステップ1208では、DIFF_IMAGE2に代入されているIIのデータをDIFF_IMAGE1へ移動し、DIFF_IMAGE3に代入されているIIIのデータをDIFF_IMAGE2へと順次移動していき、最新の濃度差分値で特定された画素からなる画像データVIを、DIFF_IMAGE5に代入する。
【0057】
図22に示すステップ1209では、DIFF_IMAGE1〜5に記憶されている濃度差分値で特定された画素の総和を、再作成した処理画像の表示画素数として検出する。この濃度差分値で特定された画素の総和を求める方法を、図23に示す濃度値のデータを用いて具体的に説明する。
【0058】
1回目の処理では、DIFF_IMAGE1(図23のII)の画素データ中の、階調が10以上または−10以下となる画素が検出され、同様に、DIFF_IMAGE2(図23のIII)で、階調が10以上または−10以下となる画素が検出される(この場合は、該当する画素無し)。同様に、DIFF_IMAGE3(IV)、DIFF_IMAGE4(V)、DIFF_IMAGE5(VI)で、階調が10以上または−10以下となる画素が検出され、これらの総和となる画素数が求められる。但し、同一画素が対象となる場合は、重複してのカウントはしない。
【0059】
図22のステップ1210では、ステップ1209で検出された画素数が所定範囲内にあるかどうかを判定し、所定範囲内にある場合はステップ1211に移行して前方注視状態であると判定する。
【0060】
ステップ1210で、表示画素数が所定範囲内にないと判定された場合は、ステップ1212に移行し、ステップ1209で検出された画素数が所定値を超えているかどうかを判定し、所定値を超えた場合はステップ1213に移行して脇見状態であると判定する。
【0061】
図24は、第1の実施形態の図12〜図16で説明した、ドライバの顔が動いたときの、各画素の濃度値を示している。同図より、ドライバの顔が動いた場合には、大きい濃度値となる画素数が増加していることが理解される。
【0062】
こうして、第2の実施形態による方法を用いた場合においても、前述した第1の実施形態と同様に、簡単な構成で精度の高いドライバの状態検出を行うことができる。
【0063】
次に、本発明の第3の実施形態について説明する。図25は、第3の実施形態に係るドライバモニタ装置の構成を示すブロック図である。同図に示すように、該ドライバモニタ装置200は、図1に示したものと比較し、車両走行状態検出手段6と、顔の動き判定基準設定手段7を搭載している点で相違している。
【0064】
車両走行状態検出手段6は、車両の走行速度等の、車両の走行に関する情報を取得する。
【0065】
顔の動き判定基準設定手段7は、車両走行状態検出手段6にて検出されるデータに基づいて、ドライバの顔が動いているかどうかを判定する際の基準値を変更する処理を行う。
【0066】
以下、本実施形態の動作を、図26〜図28に示すフローチャートを参照しながら説明する。本実施形態では、車両走行状態信号を用いることによって、より一層ドライバの前方注視状態や、脇見状態の判定精度を向上させることができる。
【0067】
図26〜図28に示す各ステップでの処理内容の説明は、図2,図3に示した第1の実施形態と相違する部分についてのみ行う。
【0068】
ステップ1610では、ドライバの前方注視時の基準表示画素数が学習できているかどうかを判定する。この基準画素数とは、図11に示したように、車両が走行状態にあり、ドライバが車両前方を注視している場合は、車両の上下微振動により顔の輪郭、眼、鼻、口などの部分が強調されて検出できる面積値を意味している。この基準画素数の学習は、図28のフローチャートに示す各ステップで行われる。
【0069】
つまり、ステップ1701で車両のハンドル操作量が小さいかどうか、ステップ1702で車両は所定車速以上で走行しているかどうか、等を判定し、それらの条件が満たされているときに、ドライバは前方注視状態にある可能性が高いとして、ステップ1703でドライバの前方注視時の基準表示画素数を学習する。
【0070】
ステップ1704では、学習量が規定値に達したかどうかを判定し、規定量に達していない場合は、同様のループを繰り返して、ドライバの前方注視時の基準表示画素数の学習を続ける。
【0071】
ステップ1704で、学習量が規定量に達していると判定された場合は、ステップ1705に移行し、顔の動きの検出基準値の学習完了フラグを立てる。
【0072】
これ以降のフローでは、図26のステップ1601からステップ1611の処理に移行する。本実施形態では、車両走行状態信号の確認によりドライバが、車線変更、左折、一旦停止時など安全確認を必要としている状態を検出し、ステップ1616では、ステップ1609で検出された表示画素数が所定値を越えたかどうかを判定することにより、ドライバが安全確認を必要とする場面で、それを施行したか(ステップ1617)、否か(ステップ1618)を検出することができる。
【0073】
ステップ1611で、安全確認が必要な車両走行状態にないと判定された場合は、第1の実施形態と同様に、ステップ1612に移行してドライバの前方注視状態や、脇見状態の判定を行う。
【0074】
図26〜図28のフローチャートで説明してきたように、前方注視状態時の基準表示画素数を学習することによって、眼鏡やサングラスを掛けている場合も含めた個人差に対応させた顔の動きの検出基準値とすることができるので、より一層ドライバの状態検出精度を向上させることができる。また、前方注視状態や脇見状態の検出に加え、安全確認の施行も検出することができる。
【0075】
また、走行開始の初期段階で、ドライバの個人差による特徴量を学習するので、個人差に対するロバスト性の高いドライバの状態検出が可能となる。
【0076】
第1〜第3の実施形態では、濃度差が生じた画素数が基準値を超えたか否かによって、ドライバが顔を動かしたか否かを判定している。これに対して、図11や図19のように画像を作成した後に、その画像での表示面積、すなわち濃度差が生じた面積を画像処理によって算出し、算出した面積が面積基準値を超えたか否かによって、ドライバが顔を動かしたか否かを判定しても良い。
【0077】
即ち、濃度差が生じた画素数の算出によってではなく、顔画像において濃度差が生じた面積の算出によってドライバ状態の判定を行う構成としてもよい。
【図面の簡単な説明】
【図1】本発明の第1の実施形態、及び第2の実施形態に係るドライバモニタ装置の構成を示すブロック図である。
【図2】第1の実施形態に係るドライバモニター装置の、処理動作を示すフローチャートの第1の分図である。
【図3】第1の実施形態に係るドライバモニター装置の、処理動作を示すフローチャートの第2の分図である。
【図4】前方注視時のドライバの顔画像と、領域「a」における各画素の濃度値、及び濃度差を示す第1の説明図である。
【図5】前方注視時のドライバの顔画像と、領域「a」における各画素の濃度値、及び濃度差を示す第2の説明図である。
【図6】前方注視時のドライバの顔画像と、領域「a」における各画素の濃度値、及び濃度差を示す第3の説明図である。
【図7】前方注視時のドライバの顔画像と、領域「a」における各画素の濃度値、及び濃度差を示す第4の説明図である。
【図8】前方注視時のドライバの顔画像と、領域「a」における各画素の濃度値、及び濃度差を示す第5の説明図である。
【図9】前方注視時に各タクト毎に検出された濃度値の、濃度差を示す説明図である。
【図10】前方注視時における、5回分の濃度差データの総和を示す説明図である。
【図11】前方注視時における、再作成画像を示す説明図である。
【図12】脇見状態のドライバの顔画像と、領域「b」における各画素の濃度値、及び濃度差を示す第1の説明図である。
【図13】脇見状態のドライバの顔画像と、領域「b」における各画素の濃度値、及び濃度差を示す第2の説明図である。
【図14】脇見状態のドライバの顔画像と、領域「b」における各画素の濃度値、及び濃度差を示す第3の説明図である。
【図15】脇見状態のドライバの顔画像と、領域「b」における各画素の濃度値、及び濃度差を示す第4の説明図である。
【図16】脇見状態のドライバの顔画像と、領域「b」における各画素の濃度値、及び濃度差を示す第5の説明図である。
【図17】脇見状態における各タクト毎に検出された濃度値の、濃度差を示す説明図である。
【図18】脇見状態における、5回分の濃度差データの総和を示す説明図である。
【図19】脇見状態における、再作成画像を示す説明図である。
【図20】複数のライン上に、検出ラインを設定する様子を示す説明図である。
【図21】第2の実施形態に係るドライバモニター装置の、処理動作を示すフローチャートの第1の分図である。
【図22】第2の実施形態に係るドライバモニター装置の、処理動作を示すフローチャートの第2の分図である。
【図23】第2の実施形態に係り、前方注視時における各画素の濃度差データを示す説明図である。
【図24】第2の実施形態に係り、脇見状態における各画素の濃度差データを示す説明図である。
【図25】本発明の第3の実施形態に係るドライバモニタ装置の構成を示すブロック図である。
【図26】第3の実施形態に係るドライバモニタ装置の処理動作を示すフローチャートの、第1の分図である。
【図27】第3の実施形態に係るドライバモニタ装置の処理動作を示すフローチャートの、第2の分図である。
【図28】第3の実施形態に係るドライバモニタ装置の処理動作を示すフローチャートの、第3の分図である。
【符号の説明】
1 画像撮像手段
2 画像記憶手段
3 差分演算手段
4 顔画像再作成手段
5 顔の動き検出手段
6 車両走行状態検出手段
7 顔の動き判断基準設定手段
100,200 ドライバモニタ装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a driver monitoring device that detects a driving state of a driver of a vehicle.
[0002]
[Prior art]
As a conventional driver state detecting device, for example, a device described in Japanese Patent Application Laid-Open No. H11-161798 (hereinafter, referred to as a conventional example) is known. In the conventional example, a time difference between driver's face images sequentially photographed by a camera is calculated, a portion where the difference value is equal to or more than a predetermined value is cut out as a face position, and the direction of the driver's face is determined based on the cut out face image. To detect. Then, based on the detection result, the driver's inattentiveness or consciousness reduction is determined.
[0003]
[Problems to be solved by the invention]
However, in the above-described conventional example, since the direction of the face is detected by using a neural network with respect to the image of the cut out face portion, complicated and various operations are required, and furthermore, learning is performed. However, there is a problem that a large-capacity memory is required and the device configuration becomes complicated.
[0004]
The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a driver monitor device having a simple configuration and capable of easily detecting a driver state. It is in.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a driver monitoring device mounted on a vehicle and monitoring the state of the driver based on an image of the driver's face portion, wherein the image capturing means captures the driver's face, An image storage means for storing the face images captured at predetermined sampling times by the image capturing means in time series, and a density difference for each pixel between the face images stored in time series. Difference calculating means, and motion detecting means for determining the number of pixels having a density difference from the difference calculating means, and determining that the driver has moved the face when the number of pixels is equal to or greater than a predetermined reference value. And characterized in that:
[0006]
【The invention's effect】
According to the present invention, face images taken at predetermined sampling intervals are stored in chronological order, and a difference value between density values of the stored time-series image data is obtained. Is obtained. When the number of pixels exceeds a predetermined value, it is determined that the driver's face is moving. Therefore, it is possible to accurately capture the feature amount of the face movement of the driver while driving, such as the driver's gaze state in front, temporary stoppage, lane change, visual safety confirmation action when turning left, and inattentive action. Driver status can be easily detected. Further, the device configuration can be simplified as compared with the conventional device.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the driver monitor device according to the first embodiment of the present invention. As shown in FIG. 1, the driver monitor device 100 includes an image capturing unit 1 that continuously captures a driver's face, and a driver's face image captured at predetermined sampling times by the image capturing unit. Image storage means 2 for storing in time series, difference calculating means 3 for calculating a difference in density which changes in time series for each pixel between face images stored for each predetermined sampling time, Face image recreating means 4 for recreating the driver's face image based on the difference data computed by the computing means 3, and face movement for detecting the driver's face motion based on the recreated face image Detecting means 5.
[0008]
In the present embodiment, a change in the density of each pixel of the image data stored in the image storage unit 2 in time series is detected. If it is larger than the value), it is determined that the driver has moved his / her face.
[0009]
Hereinafter, the operation of the present embodiment will be described with reference to the flowcharts shown in FIGS.
[0010]
First, in step 201 shown in FIG. 2, when the image of the driver's face is captured by the image capturing unit 101, a process of storing image data in the image memory IMAGE_NEW of the image storage unit 3 is performed in step 202. Is
[0011]
Next, the routine proceeds to step 203, where it is checked whether image data is stored in the image memory IMAGE_OLD.
[0012]
Immediately after the start of this processing, since image data is not stored in the image memory IMAGE_OLD, the process proceeds to step 214. In step 214, the image data in the image memory IMAGE_NEW is assigned to the image memory IMAGE_OLD, and the process returns to step 201 to input the next image.
[0013]
In step 202, the newly acquired image data is stored in the image memory IMAGE_NEW. After the above-described processing loop has been performed once, the image data is stored in the image memory IMAGE_OLD. Therefore, the process proceeds to step 204 to calculate the density difference value between the image memories IMAGE_NEW and IMAGE_OLD.
[0014]
The specific processing contents up to this point will be described with reference to FIGS. FIGS. 4 to 8 are explanatory diagrams showing the state of the driver's face and the time-series density change of each pixel included in a partial area “a” of the image captured by the image capturing unit 1. This indicates that the density value of each pixel included in the area “a” shown in (a) to (j) changes in the order of (1) to (10). Also, the difference between the previous density value and the current density value is shown, respectively (for example, the data shown in “(2)-(1)” is the difference between the image data (2) and the image data (1). The difference between the density values is shown).
[0015]
Assuming that the image data to be taken in first is (1) (FIG. 4), the image data of (1) is temporarily stored in the image memory IMAGE_NEW, and is thereafter substituted into the image memory IMAGE_OLD. Then, the image data (2) (FIG. 4) captured secondly is newly stored in the image memory IMAGE_NEW.
[0016]
At this time, the region where the calculation of the density difference value in step 204 is performed will be described as being limited to the region “a” in FIG. The area “a” is an area including 20 pixels and one line in the horizontal direction and including the right end of the face, and is shown under the condition that the absolute position of the image is fixed.
[0017]
The reason why the position is fixed at this position is that the density change is remarkable and is suitable for explanation. In the normal processing, the entire screen is targeted, and when the face position can be specified, the position is determined. An area may be cut out as a target.
[0018]
In addition, the calculation time of the density difference value of the image data of (1) and (2), which is the detection tact of the captured image, that is, the time when the calculation of the density difference of each pixel between the face images is started, and then the face image The time interval between the start of the calculation of the density difference for each pixel is 33 msec / frame when the image capture timing (sampling time) of a general TV camera is set, and the difference calculation is performed during image data capture. Assuming that the process is performed as a back process, the length is 33 msec.
[0019]
If the back processing of the difference calculation is not performed, the calculation time is 33 msec + α. In this case, the calculation time differs depending on the size of the region to be processed. Therefore, the fixed value of the detection tact when the difference calculation is performed in the back processing is 33 msec, and the fixed value of the detection tact when the difference calculation is not performed in the back processing is to add a processing time proportional to the size of the processing area. It will be something.
[0020]
When performing processing for the entire screen with a hardware configuration that cannot perform back processing of the difference operation, as a countermeasure when the fixed detection tact is too long to detect the fast movement of the driver, Alternatively, a method of shortening the detection tact by performing the processing only on the face width or the eye region can be used.
[0021]
Next, the method of calculating the density difference value in step 204 in FIG. 2 will be described using the image data (1) and (2) in FIG. Each square shown in FIG. Each pixel in the area “a” is shown, and the number described in this square indicates the density value of that pixel. At this time, the density value is a gray value of 256 gradations, where 0 is black and 255 is white. The calculation result of the density difference value in step 204 is obtained by subtracting the density value of the image data of (1) from the density value of the image data of (2) in the square indicated by (2)-(1). It is described in.
[0022]
Thus, each time new image data is taken in, the image memories IMAGE_NEW and IMAGE_OLD are updated, and the calculation of these difference values “(3)-(2), (4)-(3),...” Is sequentially performed. Repeated.
[0023]
In step 205, it is confirmed whether or not image data has been substituted into the difference image memories DIFF_IMAGE1 to DIFF_IMAGE5. Then, the difference image memory DIFF_IMAGE included in the image storage means 102 is shown in “(2)-(1), (3)-(2), (4)-(3),...” In FIGS. Data obtained by taking the absolute value of the density difference data is stored. As a result, difference data as shown by I to IX in FIG. 9 can be obtained. Here, the difference data shown in FIG. 9 is obtained by taking the absolute value of each difference data shown in FIGS.
[0024]
In the present embodiment, the number of difference image memories DIFF_IMAGE is set to “5”, and a density change is detected based on the sum of these (see FIG. 10 described later). Note that, here, the description will be made in a state where the accumulation number of density values is fixed at “5”, but this number is changed according to the length of the detection tact, the density state of the image, and the environment in which the vehicle is running. You can also.
[0025]
Until the image data is substituted into the difference image memories DIFF_IMAGE1 to DIFF5 in Step 205, the processing from Step 201 is repeated through Steps 206 and 214, and the image data is substituted into the difference image memories DIFF_IMAGE1 to 5 In step 207, the difference image memory is updated.
[0026]
In this processing, old data is ejected while new data is taken in one by one into five DIFF_IMAGEs for accumulating density differences. In the first processing, DIFF_IMAGE1 includes "[2]-" shown in FIG. The absolute value data I of the density difference of (1) is substituted. In the subsequent processing, the absolute value data II of the density difference of (3)-(2) is written in DIFF_IMAGE2, and the (4)-▲ is written in DIFF_IMAGE3. 3), the absolute value data IV of the density difference of "5-5" in DIFF_IMAGE4, and the absolute value data of the density difference of "6-5" in DIFF_IMAGE5. V are respectively substituted.
[0027]
In step 207, the II data substituted for DIFF_IMAGE2 is sequentially updated to DIFF_IMAGE1 and the III data substituted for DIFF_IMAGE3 is sequentially updated to DIFF_IMAGE2, and the latest density difference absolute value data VI is substituted for DIFF_IMAGE5. .
[0028]
In step 208 shown in FIG. 3, the sum of the absolute values of the density differences for each pixel stored in DIFF_IMAGE1 to DIFF_IMAGE5 is calculated. The content of this calculation will be specifically described using a density value. In the state where the accumulation number of the absolute value of the density difference of each pixel shown by I to IX in FIG. 9 is fixed to “5”, as shown in FIG. 10, in the first processing, II + III + IV + V + VI, and in the second processing, III + IV + V + VI + VII ,..., Are calculated each time a new image is captured.
[0029]
In step 209, a process is performed in which pixels whose total sum calculated in step 208 is equal to or higher than a predetermined gradation are detected, an image is re-created based on the detected pixels, and the image is displayed.
[0030]
When the predetermined gradation is set to 50 gradations for the area “a” shown in FIG. 4, the hatched pixels in FIG. 10 are detected, and an image is re-created based on these pixels. Will be.
[0031]
In step 210, it is determined whether or not the number of pixels detected in step 209 is within a predetermined range, and if the number of pixels having a predetermined gradation (in this case, 50 gradations) is within this range. Moves to step 211 to determine that the vehicle is in the forward gaze state. In other words, when the number of pixels at which the density difference is equal to or more than 50 gradations is large, it is determined that the driver's face has moved significantly. Conversely, when the number of pixels is small, the driver's face has not moved significantly. In this case (NO in step 210), it is determined that the driver is gazing forward.
[0032]
The determination principle in steps 210 and 211 will be described with reference to FIG. When the vehicle is running, the position of the face is constantly moving due to the vertical movement caused by the minute vibration of the vehicle. In order to effectively capture this facial movement, it is preferable to accumulate the number of display pixels over a predetermined number of processed images. In a state where the driver is gazing forward and driving, as shown in FIG. , The contours of the face and the parts corresponding to the eyes, nose, and mouth are displayed in an emphasized manner. Therefore, the driver's forward gaze state can be determined by using the number of display pixels constituting this area as the determination target.
[0033]
FIG. 11 schematically shows a face image obtained by the above-described image re-creating process in a state where the engine of the vehicle is running and the driver of the vehicle faces his / her front. In the face image that was actually recreated, the width of the outline of the face, head, eyes, nose, mouth, and ears was the width corresponding to the amplitude of the micro vibration of the vehicle. Is configured.
[0034]
In FIG. 11, the driver's face is indicated by a black line for convenience of description, but is actually displayed by a white line on a black background.
[0035]
In the determination based on the number of display pixels in the difference processing only between two frames not based on the processing described in this flowchart (that is, in the determination not using the method of calculating the sum of five times shown in FIG. 10), the hatching in FIG. May be detected as a target image having a large density change (for example, “[6]-[5]”), and if no target pixel exists (for example, “ (7)-(6) ”) also occurs, and it is not easy to continue stabilizing the determination. Note that the pixels indicated by diagonal lines in FIG. 9 correspond to the fact that the accumulation number of the density difference is 5 and the judgment value is 50 gradations in FIG. I have.
[0036]
In step 210 shown in FIG. 3, if the number of display pixels (that is, the number of pixels exceeding 50 gradations) is not within the predetermined range, the process proceeds to step 212, and the number of pixels detected in step 209 is reduced to the predetermined value. Is determined. If the value exceeds the predetermined value, the process proceeds to step 213 to determine that the vehicle is in the inattentive state.
[0037]
At this time, the movement of the driver's face, the pixel value of the area “b” obtained for each tact, and the difference data of the pixel value obtained for each tact are shown in FIGS. (A) to (j) shown in FIGS. 12 to 16 correspond to (a) to (j) in FIGS. 4 to 8 described above, and FIGS. 12 to 16 show data when the driver turns his / her face sideways.
[0038]
FIG. 17 corresponds to FIG. 9, and FIG. 18 corresponds to FIG. From FIG. 17, it is understood that when the driver turns his / her face sideways, the difference data of the density value of each pixel is larger than when the driver is gazing forward. From FIG. 18, the sum of the difference data similarly has a larger value than when the driver gazes ahead.
[0039]
The principle of the determination at this time will be described with reference to FIG. When the driver moves his / her face to look at something other than the front, as shown in the figure, the area emphasized with the movement of the face increases. Therefore, the driver's inattentive state can be determined by using the number of display pixels constituting this area as the determination target.
[0040]
This FIG. 19 also schematically shows an actually recreated image, similarly to FIG. 11, and in the actually recreated image, all the trajectories of the contour lines as shown in FIG. 11 are displayed. It becomes an image.
[0041]
The number of display pixels in FIG. 19 is larger than the number of display pixels in FIG. 11, and the difference between the numbers of display pixels is so large that the digits differ by one or two digits. Therefore, the reference value (predetermined value) used in the determination in step 212 of FIG. 3 is set to a value substantially intermediate between the number of display pixels shown in FIG. 11 and the number of display pixels shown in FIG. It can be determined whether or not the driver has moved his / her face by the determination of.
[0042]
Specifically, the market value of the number of display pixels when the driver's face continues to face the front of the vehicle and the market value of the number of display pixels when the driver turns the face from the front of the vehicle to the side of the vehicle are determined in advance. It is sufficient to set a value which is approximately intermediate between these market values as a reference value. Alternatively, when the driver gets on the vehicle, the number of display pixels in a state where the driver's face continues to face the front of the vehicle may be detected, and the reference value may be set based on the detection result.
[0043]
According to such a configuration, an appropriate reference value can be set, and the movement of the driver's face can be detected with higher accuracy.
[0044]
Further, if the detection tact is adjusted when the image captured by the image capturing unit 1 is stored in the image storage unit 2, it is possible to detect the driver state with high accuracy according to the driving situation. .
[0045]
Further, if the reference value to be set is changed according to the brightness of the image picked up by the image pickup means 1, it is possible to detect the state of the driver having high robustness to the change in the light environment in the vehicle compartment. .
[0046]
In addition, if the reference value to be set is changed according to the driving environment of the vehicle, such as during the daytime, at nighttime, when the weather is fine, when it is raining, etc., more accurate driver state detection adapted to the driving environment can be performed. Becomes possible.
[0047]
Also, in the flowcharts shown in FIGS. 2 and 3, as shown in FIGS. 11 and 19, the configuration is such that the face direction of the driver is detected by increasing or decreasing the detection area for all pixels. In the case of performing the face direction detection, as shown in FIG. 20, by detecting pixels targeted for arbitrary lines in the horizontal direction and detecting the continuity of the pixels in the vertical direction, This can also be performed as the number of detection lines in the vertical direction.
[0048]
That is, the number of pixels (the number of lines) in which pixels exceeding a predetermined number of gradations (50 gradations) are continuously generated in the vertical direction is obtained, and it is determined whether or not this number is within a predetermined range. Can be detected whether the user is gazing forward or looking aside.
[0049]
Next, a driver monitor device according to a second embodiment of the present invention will be described. The configuration of the device is the same as that shown in FIG. Hereinafter, the operation of the second embodiment will be described with reference to the flowcharts shown in FIGS.
[0050]
In the present embodiment, when a time difference is calculated for each pixel, the number of display pixels is accumulated over a predetermined processed image for pixels having a predetermined gradation or higher. Then, the driver's forward gaze state and inattentive state are determined as in the first embodiment.
[0051]
The processing contents in each step shown in FIGS. 21 and 22 are substantially the same as those shown in FIGS. 2 and 3 described above, and only different portions will be described below.
[0052]
In step 1205 shown in FIG. 21, it is determined whether or not the density difference value is equal to or greater than a predetermined gradation for each pixel of the image memories IMAGE_NEW and IMAGE_OLD calculated in step 1204, and a pixel having the predetermined gradation or more is specified. Thereafter, in step 1206, it is determined whether or not image data has been assigned to the difference image memories DIFF_IMAGE1 to DIFF_IMAGE5.
[0053]
In the initial state, no image data is assigned to DIFF_IMAGE, and therefore, in step 1207, the pixels specified in step 1205 are sequentially assigned to the difference image memories DIFF_IMAGE1 to DIFF_IMAGE5.
[0054]
The situation at this time will be described with reference to FIG. FIG. 23 shows data of the density difference values (2)-(1), (3)-(2),..., (10)-(9) in the area "a" shown in FIG. ing. In the present embodiment, the determination reference value in step 1205 is set to be greater than or equal to +10 gradations and smaller than or equal to −10 gradations, and the density difference values satisfying the conditions are indicated by hatching.
[0055]
In the first process, the image data I including the pixels specified by the density difference values of (2)-(1) shown in FIG. 23 is substituted into DIFF_IMAGE1. In the subsequent processing, the image data II composed of the pixel specified by the density difference value of (3)-(2) is substituted for DIFF_IMAGE2, and the image data II specified by the density difference value of (4)-(3) is set for DIFF_IMAGE3. Image data III consisting of pixels, image data IV consisting of pixels specified by density difference values of (5)-(4) in DIFF_IMAGE4, and pixel data specified by density difference values of (6)-(5) in DIFF_IMAGE5 Are respectively substituted.
[0056]
In step 1208, the II data substituted for DIFF_IMAGE2 is moved to DIFF_IMAGE1, the III data substituted for DIFF_IMAGE3 is sequentially moved to DIFF_IMAGE2, and is composed of the pixels specified by the latest density difference value. The image data VI is substituted for DIFF_IMAGE5.
[0057]
In step 1209 shown in FIG. 22, the sum of the pixels specified by the density difference values stored in DIFF_IMAGE1 to DIFF_IMAGE5 is detected as the number of display pixels of the re-created processed image. A method of calculating the sum of the pixels specified by the density difference value will be specifically described using density value data shown in FIG.
[0058]
In the first processing, a pixel having a gradation of 10 or more or −10 or less is detected in the pixel data of DIFF_IMAGE1 (II in FIG. 23), and similarly, the gradation is calculated in DIFF_IMAGE2 (III in FIG. 23). Pixels that are greater than or equal to 10 or less than or equal to −10 are detected (in this case, there are no corresponding pixels). Similarly, in DIFF_IMAGE3 (IV), DIFF_IMAGE4 (V), and DIFF_IMAGE5 (VI), pixels having a gray scale of 10 or more or -10 or less are detected, and the number of pixels that are the sum of these is obtained. However, if the same pixel is the target, no duplicate counting is performed.
[0059]
In step 1210 of FIG. 22, it is determined whether or not the number of pixels detected in step 1209 is within a predetermined range. If it is within the predetermined range, the process shifts to step 1211 to determine that the vehicle is in the forward gaze state.
[0060]
If it is determined in step 1210 that the number of display pixels is not within the predetermined range, the process proceeds to step 1212, where it is determined whether the number of pixels detected in step 1209 exceeds a predetermined value. If it has, the process moves to step 1213 to determine that it is in an inattentive state.
[0061]
FIG. 24 shows the density value of each pixel when the driver's face moves as described in FIGS. 12 to 16 of the first embodiment. It can be understood from the figure that when the driver's face moves, the number of pixels having a large density value increases.
[0062]
Thus, even when the method according to the second embodiment is used, a highly accurate driver state detection can be performed with a simple configuration, similarly to the above-described first embodiment.
[0063]
Next, a third embodiment of the present invention will be described. FIG. 25 is a block diagram illustrating a configuration of a driver monitor device according to the third embodiment. As shown in the figure, the driver monitor device 200 is different from that shown in FIG. 1 in that a vehicle running state detection means 6 and a face movement judgment reference setting means 7 are mounted. I have.
[0064]
The vehicle running state detecting means 6 acquires information on the running of the vehicle, such as the running speed of the vehicle.
[0065]
The face movement determination reference setting unit 7 performs a process of changing a reference value for determining whether the driver's face is moving based on the data detected by the vehicle running state detection unit 6.
[0066]
Hereinafter, the operation of the present embodiment will be described with reference to the flowcharts shown in FIGS. In the present embodiment, by using the vehicle traveling state signal, it is possible to further improve the accuracy of determining the driver's forward gaze state and inattentive state.
[0067]
The description of the processing contents in each step shown in FIGS. 26 to 28 will be made only for parts different from the first embodiment shown in FIGS.
[0068]
In step 1610, it is determined whether the reference display pixel number when the driver gazes forward has been learned. As shown in FIG. 11, when the vehicle is in a running state and the driver is gazing at the front of the vehicle as shown in FIG. Indicates an area value that can be detected by being emphasized. The learning of the reference pixel number is performed in each step shown in the flowchart of FIG.
[0069]
That is, it is determined in step 1701 whether the steering wheel operation amount of the vehicle is small, or not, in step 1702, whether the vehicle is running at a predetermined vehicle speed or more. When these conditions are satisfied, the driver looks ahead. It is determined that there is a high possibility of being in the state, and the reference display pixel number when the driver gazes forward is learned in step 1703.
[0070]
In step 1704, it is determined whether or not the learning amount has reached a specified value. If the learning amount has not been reached, the same loop is repeated to continue learning the reference display pixel number when the driver gazes forward.
[0071]
If it is determined in step 1704 that the learning amount has reached the specified amount, the process proceeds to step 1705 to set a learning completion flag for the face movement detection reference value.
[0072]
In the subsequent flow, the processing shifts from step 1601 to step 1611 in FIG. In the present embodiment, the driver detects a state that requires safety confirmation, such as changing lanes, turning left, or temporarily stopping, by confirming the vehicle traveling state signal. In step 1616, the number of display pixels detected in step 1609 is determined by By judging whether or not the value has been exceeded, it is possible to detect whether or not the driver has performed the safety confirmation (Step 1617) or not (Step 1618) when the driver needs to confirm the safety.
[0073]
If it is determined in step 1611 that the vehicle is not in the vehicle traveling state that requires safety confirmation, the process proceeds to step 1612 to determine the driver's forward gaze state and inattentive state, as in the first embodiment.
[0074]
As described in the flowcharts of FIGS. 26 to 28, by learning the reference display pixel number in the forward gaze state, the face movement corresponding to the individual difference including the case of wearing glasses or sunglasses is learned. Since the reference value can be used as the detection reference value, the state detection accuracy of the driver can be further improved. Further, in addition to the detection of the forward gaze state and the inattentive state, the execution of the safety check can also be detected.
[0075]
In addition, at the initial stage of the start of traveling, since the feature amount based on the individual difference of the driver is learned, the state of the driver having high robustness to the individual difference can be detected.
[0076]
In the first to third embodiments, it is determined whether or not the driver has moved his / her face based on whether or not the number of pixels having a density difference has exceeded a reference value. On the other hand, after an image is created as shown in FIGS. 11 and 19, the display area in the image, that is, the area where the density difference has occurred is calculated by image processing, and the calculated area exceeds the area reference value. Whether or not the driver has moved his / her face may be determined based on whether or not the face has been moved.
[0077]
That is, the driver state may be determined not by calculating the number of pixels having a density difference but by calculating the area of the face image where the density difference has occurred.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a driver monitor device according to a first embodiment and a second embodiment of the present invention.
FIG. 2 is a first partial diagram of a flowchart illustrating a processing operation of the driver monitor device according to the first embodiment;
FIG. 3 is a second partial diagram of a flowchart showing a processing operation of the driver monitor device according to the first embodiment.
FIG. 4 is a first explanatory diagram showing a driver's face image at the time of forward gaze, a density value of each pixel in an area “a”, and a density difference.
FIG. 5 is a second explanatory diagram illustrating a driver's face image at the time of forward gaze, a density value of each pixel in an area “a”, and a density difference.
FIG. 6 is a third explanatory diagram illustrating a driver's face image at the time of forward gaze, a density value of each pixel in an area “a”, and a density difference.
FIG. 7 is a fourth explanatory diagram illustrating a driver's face image at the time of forward gaze, a density value of each pixel in an area “a”, and a density difference.
FIG. 8 is a fifth explanatory diagram showing a driver's face image at the time of forward gaze, a density value of each pixel in an area “a”, and a density difference.
FIG. 9 is an explanatory diagram showing a density difference of a density value detected for each tact at the time of forward gaze.
FIG. 10 is an explanatory diagram showing a total sum of density difference data for five times during forward gaze.
FIG. 11 is an explanatory diagram showing a re-created image at the time of forward gaze.
FIG. 12 is a first explanatory diagram illustrating a face image of a driver in an inattentive state, a density value of each pixel in a region “b”, and a density difference.
FIG. 13 is a second explanatory diagram illustrating a face image of a driver in an inattentive state, a density value of each pixel in a region “b”, and a density difference.
FIG. 14 is a third explanatory diagram illustrating a face image of a driver in an inattentive state, a density value of each pixel in a region “b”, and a density difference.
FIG. 15 is a fourth explanatory diagram illustrating a face image of a driver in an inattentive state, a density value of each pixel in a region “b”, and a density difference.
FIG. 16 is a fifth explanatory diagram illustrating a face image of a driver in an inattentive state, a density value of each pixel in a region “b”, and a density difference.
FIG. 17 is an explanatory diagram showing a density difference between density values detected for each tact in an inattentive state;
FIG. 18 is an explanatory diagram showing a total sum of density difference data for five times in an inattentive state;
FIG. 19 is an explanatory diagram showing a re-created image in an inattentive state;
FIG. 20 is an explanatory diagram showing how a detection line is set on a plurality of lines.
FIG. 21 is a first partial diagram of a flowchart showing a processing operation of the driver monitor device according to the second embodiment.
FIG. 22 is a second partial diagram of the flowchart showing the processing operation of the driver monitor device according to the second embodiment.
FIG. 23 is an explanatory diagram showing density difference data of each pixel when gazing forward, according to the second embodiment.
FIG. 24 is an explanatory diagram showing density difference data of each pixel in an inattentive state according to the second embodiment.
FIG. 25 is a block diagram illustrating a configuration of a driver monitor device according to a third embodiment of the present invention.
FIG. 26 is a first partial diagram of a flowchart showing the processing operation of the driver monitor device according to the third embodiment.
FIG. 27 is a second partial diagram of the flowchart showing the processing operation of the driver monitor device according to the third embodiment.
FIG. 28 is a third partial diagram of the flowchart showing the processing operation of the driver monitor device according to the third embodiment.
[Explanation of symbols]
1 Image capturing means
2 Image storage means
3 Difference calculation means
4 Face image re-creating means
5 Face movement detection means
6 Vehicle running state detecting means
7 Face movement judgment standard setting means
100, 200 driver monitor device

Claims (9)

車両に搭載され、ドライバの顔部位の画像に基づいて、該ドライバの状態をモニタするドライバモニタ装置において、
前記ドライバの顔を撮像する画像撮像手段と、
該画像撮像手段にて所定サンプリング時間毎に撮像された顔画像を時系列的に記憶する画像記憶手段と、
前記時系列的に記憶された顔画像同士の、各画素毎の濃度差を演算する差分演算手段と、
前記差分演算手段より、濃度差が生じた画素数を求め、当該画素数が所定の基準値以上となった際に、前記ドライバが顔を動かしたものと判断する動き検出手段と、
を具備したことを特徴とするドライバモニタ装置。
A driver monitoring device mounted on the vehicle and monitoring the state of the driver based on an image of the driver's face,
Image capturing means for capturing the driver's face;
Image storage means for storing the face images imaged at predetermined sampling times by the image imaging means in time series;
Difference calculation means for calculating the density difference of each pixel between the face images stored in time series,
From the difference calculation means, determine the number of pixels in which a density difference has occurred, and when the number of pixels is equal to or greater than a predetermined reference value, motion detection means for determining that the driver has moved the face,
A driver monitor device comprising:
前記動き検出手段は、前記差分演算手段により、時系列的に得られる同一画素の複数の濃度差データに基づいてドライバが顔を動かしたかどうかを判断することを特徴とする請求項1に記載のドライバモニタ装置。2. The motion detection unit according to claim 1, wherein the difference calculation unit determines whether the driver has moved a face based on a plurality of pieces of density difference data of the same pixel obtained in time series. 3. Driver monitor device. 前記基準値は、ドライバの顔が車両前方を向いているときの、前記差分演算手段により得られる濃度差の演算結果に基づいて設定されることを特徴とする請求項1または請求項2のいずれかに記載のドライバモニタ装置。3. The reference value according to claim 1, wherein the reference value is set based on a calculation result of a density difference obtained by the difference calculation unit when the driver's face faces forward of the vehicle. A driver monitor device according to any one of the above. 前記ドライバの顔が動いたかどうかを判断する際の基準値を、可変値とすることを特徴とする請求項1または請求項2のいずれかに記載のドライバモニタ装置。3. The driver monitor device according to claim 1, wherein a reference value for determining whether the driver's face has moved is a variable value. 前記撮像手段により撮像された顔画像の明るさに基づいて、前記基準値を変化させることを特徴とする請求項4に記載のドライバモニタ装置。5. The driver monitor device according to claim 4, wherein the reference value is changed based on brightness of a face image captured by the imaging unit. 6. 当該車両の走行環境に応じて、前記基準値を変化させることを特徴とする請求項4に記載のドライバモニタ装置。The driver monitor device according to claim 4, wherein the reference value is changed according to a traveling environment of the vehicle. 前記差分演算手段は、顔画像同士で各画素毎の濃度差の演算を開始した時間から、次に顔画像同士で各画素毎の濃度差の演算を開始する時間までの時間間隔である検出タクトを適宜変更することを特徴とする請求項1〜請求項6のいずれか1項に記載のドライバモニタ装置。The difference calculation means is a detection tact that is a time interval from a time when the calculation of the density difference for each pixel between the face images is started to a time when the calculation of the density difference for each pixel is next started between the face images. The driver monitor device according to any one of claims 1 to 6, wherein is appropriately changed. 前記再作成した処理画像の表示画素数を検出する手段は、画像の横方向に設定された複数ラインに対して、複数の縦方向ライン上に、濃度値が所定値を越えた際の、ライン数に基づいて、検出することを特徴とする請求項1〜請求項7のいずれか1項に記載のドライバモニタ装置。The means for detecting the number of display pixels of the re-created processed image includes a line when a density value exceeds a predetermined value, on a plurality of vertical lines, for a plurality of lines set in the horizontal direction of the image. The driver monitor device according to claim 1, wherein the detection is performed based on a number. 車両の走行状態を検出する走行状態検出手段を具備し、当該車両状態検出手段による検出結果に基づいて、前記基準値を設定することを特徴とする請求項1〜請求項8のいずれか1項に記載のドライバモニタ装置。9. The vehicle according to claim 1, further comprising: a traveling state detection unit configured to detect a traveling state of the vehicle, wherein the reference value is set based on a detection result of the vehicle state detection unit. A driver monitor device according to claim 1.
JP2002224843A 2002-08-01 2002-08-01 Driver monitor device Pending JP2004070411A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002224843A JP2004070411A (en) 2002-08-01 2002-08-01 Driver monitor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002224843A JP2004070411A (en) 2002-08-01 2002-08-01 Driver monitor device

Publications (1)

Publication Number Publication Date
JP2004070411A true JP2004070411A (en) 2004-03-04

Family

ID=32012695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002224843A Pending JP2004070411A (en) 2002-08-01 2002-08-01 Driver monitor device

Country Status (1)

Country Link
JP (1) JP2004070411A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5799179B2 (en) * 2013-03-29 2015-10-21 楽天株式会社 TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD, PROGRAM, AND INFORMATION STORAGE MEDIUM

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5799179B2 (en) * 2013-03-29 2015-10-21 楽天株式会社 TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD, PROGRAM, AND INFORMATION STORAGE MEDIUM
US9646576B2 (en) 2013-03-29 2017-05-09 Rakuten, Inc. Terminal device, control method for terminal device, program, and information storage medium

Similar Documents

Publication Publication Date Title
US8068639B2 (en) Image pickup apparatus, control method therefor, and computer program for detecting image blur according to movement speed and change in size of face area
US8009869B2 (en) Vehicle surrounding monitoring system and vehicle surrounding monitoring method
CN110738150B (en) Camera linkage snapshot method and device and computer storage medium
US20100253495A1 (en) In-vehicle image processing device, image processing method and memory medium
JP2004145852A (en) Method for detecting position of lane marker, apparatus for detecting position of lane marker and alarm apparatus for lane deviation
JPH10512694A (en) Method and apparatus for detecting movement of an object in a continuous image
US20110135158A1 (en) Image processing device, image processing method and program
CN111932596B (en) Method, device and equipment for detecting camera occlusion area and storage medium
JP3063504B2 (en) Image data feature detection device
JP2007011815A (en) Driving recorder
JP2008171108A (en) Face condition determining device and imaging device
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
Suryawanshi et al. Driver drowsiness detection system based on lbp and haar algorithm
JP5498183B2 (en) Behavior detection device
KR101987184B1 (en) Intelligent transport system managing risk situation using VMS and CCTV
JP6657646B2 (en) Obstacle detection device, obstacle detection method, and obstacle detection program
JP4925498B2 (en) Outside vehicle monitoring device with fail-safe function
JP5004923B2 (en) Vehicle driving support device
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP3984863B2 (en) Start notification device
CN100391232C (en) Digital image flashing scene detecting and eliminating method
JP2003296712A (en) Device and method for detecting facial state
TWI718410B (en) Method and apparatus for pre-load display of object information
JP2004070411A (en) Driver monitor device
JP2004070512A (en) Detector for detecting driver&#39;s face condition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080909