JPH08249454A - 車両運転者のわき見検出装置 - Google Patents

車両運転者のわき見検出装置

Info

Publication number
JPH08249454A
JPH08249454A JP7074458A JP7445895A JPH08249454A JP H08249454 A JPH08249454 A JP H08249454A JP 7074458 A JP7074458 A JP 7074458A JP 7445895 A JP7445895 A JP 7445895A JP H08249454 A JPH08249454 A JP H08249454A
Authority
JP
Japan
Prior art keywords
face
driver
image
face width
detecting means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7074458A
Other languages
English (en)
Inventor
Masayuki Kaneda
雅之 金田
Yasushi Ueno
裕史 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP7074458A priority Critical patent/JPH08249454A/ja
Publication of JPH08249454A publication Critical patent/JPH08249454A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms

Landscapes

  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

(57)【要約】 【目的】 運転者のわき見を車室内の光環境に関係なく
正確に捉える。 【構成】 運転者の顔面を撮像するTVカメラ11から
の入力画像がA−D変換器12で変換され、画像メモリ
13に入力される。顔幅検出回路14はこの画像を2値
化、ノイズ除去を行い、X座標方向の中央より左右方向
に白画素の減少傾向を調べ、急激に減少した後減少が止
まったx座標を顔幅とする。基準位置学習回路15は先
に複数回検出された顔幅を学習して顔の基準位置を設定
し、顔の向き検出回路16が顔幅座標の顔の基準位置か
らのずれ量によって顔の向きを検出する。そしてわき見
判定回路17は1方向への向きが所定時間継続するとわ
き見状態と判定し、報知装置18を作動させる。光環境
の変化による影響の少ない運転者の顔幅を検出するから
光環境に関係なく顔の向きを正確に捉らえる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、車両運転者のわき見検
出装置に関する。
【0002】
【従来の技術】車両運転者の挙動を把握するものとし
て、わき見検出装置がある。従来の車両運転者のわき見
検出装置としては、例えば、特開平3−42337号公
報および特開平4−25706号公報に開示されたもの
がある。これは、図20に示されるような運転者の眼を
含む範囲領域Rを検出領域として、2値化した運転者の
顔面像中のその領域内で眼の虹彩部を検出し、虹彩部の
検出結果が1つであるか2つであるかをチェックするこ
とによって、運転者のわき見状態を判定するようになっ
ている。
【0003】このほか、特開平2−303933号公報
には、図21に示すように、赤外線照射装置60を、例
えば眼鏡61に取り付けることにより、運転者Dの頭部
(顔面)に装着し、赤外線照射装置60から照射する赤
外線を、車室内前部に取り付けた赤外線受光装置62が
受光するか否かで運転者のわき見を判定する装置が開示
されている。
【0004】さらに、特開平3−254291号公報に
は、運転者の顔面像の眼を含む領域内においての濃度分
布変化を捉らえることによって、運転者のわき見状態を
判定する装置が提案されている。
【0005】
【発明が解決しようとする課題】しかしながら、特開平
3−42337号公報および特開平4−25706号公
報に開示された従来例にあっては、虹彩部の検出が1つ
であるときに、わき見状態であると判定していたので、
常に両眼が正しく検出されていないと運転者のわき見状
態を正確に捉らえることが困難であるという問題があっ
た。すなわち、例えば図7の(a)および図8の(a)
に示すように、車両右側に太陽があり、顔の右側面に直
射光が当たっているときには、2値化画像において右眼
が潰れてしまうことがあり、運転者のわき見状態を正確
に捉らえられない恐れがある。
【0006】特開平2−303933号公報に開示され
た従来例にあっては、運転者の頭部に赤外線照射装置を
取り付ける必要があり、運転者に眼鏡等の装着を強いる
ために不快感を与えるという問題がある。また、昼間走
行においては、赤外線照射装置の発光出力では、太陽光
の影響により正確に赤外線を受光できない恐れもある。
【0007】また、特開平3−254291号公報に開
示された従来例にあっては、眼を含む領域内の濃度分布
の変化により、眼の状態を捉らえるため、光環境の変化
に非常に弱く、実際に顔が動いていなくても、光環境が
変化すると、濃度分布に影響を与えるので、顔が動いて
いるのか、光環境が変化しているのかの区別ができな
い。そのため、光環境が目まぐるしく変わる車室内で
は、正確に運転者のわき見を正確に捉らえることができ
ないという問題がある。本発明は、このような従来の問
題点に着目してなされたものであり、運転者のわき見を
車室内の光環境に関係なく常に正確に捉らえることので
きる車両運転者のわき見検出装置を提供することを目的
としている。
【0008】
【課題を解決するための手段】このため、請求項1記載
の本発明は、図1に示すように、運転者の前方から撮像
して顔面の画像を得る画像入力手段1と、画像入力手段
1から送出される入力画像を2値化処理する画像処理手
段2と、画像処理手段2で得た2値化画像において、顔
の左端と右端とを検出する顔幅検出手段3と、顔幅検出
手段3により検出された顔幅の変化から顔の向きを検出
する顔の向き検出手段4と、顔の向き検出手段4で検出
した顔の向きの変化から運転者のわき見状態を判定する
わき見判定手段5とを有するものとした。
【0009】また、請求項3記載の発明は、上記構成に
加えて、車両の走行速度を検出する車速検出手段6を有
し、わき見判定手段は、車速検出手段より送出される車
速信号によりわき見判定基準を可変させるよう構成され
ているものとした。
【0010】上記の顔の向き検出手段は、顔幅検出手段
で検出された顔幅を学習して設定する顔の基準位置学習
回路と、顔幅検出手段により検出される顔幅と顔の基準
位置との比較に基づいて顔の向きを検出する顔の向き検
出回路とを備えるものとするのが好ましい。そして、上
記顔の基準位置は、顔幅検出手段により検出された顔幅
が前記顔の基準位置の顔幅以内であるとき、当該検出さ
れた顔幅の位置で更新することができる。さらには、上
記顔の基準位置学習回路も、車速検出手段より送出され
る車速信号により前記学習する顔幅を選択するものとす
ることができる。また、顔の向き検出手段は、顔幅検出
手段で検出された顔幅の時系列変化により顔の向きを検
出するモニタ回路により構成してもよい。
【0011】請求項8記載の発明は、運転者の前方から
撮像して顔面の画像を得る画像入力手段と、画像入力手
段から送出される入力画像を2値化処理する画像処理手
段と、画像処理手段で得た2値化画像において、顔の左
端と右端とを検出する顔幅検出手段と、顔幅検出手段に
より検出された顔幅内において、その中心から左右方向
片側に設定した眼の検出領域での眼の検出状態から顔の
向きを検出する顔の向き検出手段と、顔の向き検出手段
で検出した顔の向きの変化から運転者のわき見状態を判
定するわき見判定手段とを有するものとした。
【0012】
【作用】請求項1記載のものでは、画像入力手段1から
送出される運転者の顔面の入力画像が画像処理手段2で
2値化処理され、顔幅検出手段3によりこの2値化画像
において顔の左端と右端とが検出される。顔の向き検出
手段4では、顔幅検出手段3により検出された顔幅の変
化から顔の向きが検出される。わき見判定手段5がこの
検出された顔の向きの変化から運転者のわき見状態を判
定する。この判定結果を用いて、例えば報知装置により
運転者に注意を促すことができる。光環境の変化による
影響の少ない運転者の顔幅を検出するとともに、運転者
が通常の運転姿勢をとったときの顔の位置を表わす顔基
準位置に対する顔幅の変化状態から顔の向きを検出する
ので、光環境に関係なく正確に変化を捉らえることがで
きる。
【0013】請求項3のものでは、わき見判定手段が、
車速検出手段より送出される車速信号によりわき見判定
基準を可変させる。このため、車速が大きいほど判定の
ための継続所定時間を短く設定することにより、高速走
行時に早期報知ができ、あるいは低速走行時または停止
時に報知することを防止できる。
【0014】請求項8のものは、とくに顔の向き検出手
段において、顔幅の中心から片側に設定した眼の検出領
域で眼が正しく検出されているかどうかにより顔が横方
向を向いているかどうかが検出される。上下に長く左右
方向が狭い検出領域内で眼を探索するので、処理データ
が少なくて済み、処理速度が向上する。
【0015】
【実施例】図2は、本発明をわき見報知装置に適用した
第1の実施例を示すブロック図である。画像入力手段と
して、運転者Dの顔部分を正面から撮影するTVカメラ
11がインストルメントパネルに設置されている。TV
カメラ11の入力画像は、図3の(e)に示すように、
横(x)方向に0〜511の512画素、縦(y)方向
に0〜431の432画素からなり、縦方向に顔部分が
ほぼ一杯になるように画角が調整されている。TVカメ
ラ11は、その撮影した入力画像をA−D変換するA−
D変換器12を介して、デジタル量の入力画像データを
格納する画像メモリ13に接続されている。
【0016】画像メモリ13には、これに格納された入
力画像データに基づいて顔幅を検出する顔幅検出回路1
4、この顔幅検出回路14より送出される顔幅データか
ら運転者が通常の運転姿勢をとったときの顔の位置を示
す顔の基準位置を学習する顔の基準位置学習回路15、
学習により設定された顔の基準位置からの顔幅を表わす
x座標のずれ量によって顔の向きを検出する顔の向き検
出回路16が順次接続されている。
【0017】上記顔幅検出回路14では、眼球存在領域
の横方向の位置を決定するために顔の最大幅を検出す
る。顔の向き検出回路16には、これから送出される顔
の向きデータの変化により、運転者Dのわき見を判定す
るわき見判定回路17が接続され、わき見判定回路17
には、該回路の判定結果に基づいて運転者Dに報知を発
する報知装置18が接続されている。
【0018】次に、上記構成における処理操作について
説明する。まず、顔幅検出回路14における顔幅検出の
手法について、図3を用いて説明する。運転者Dの前方
に配置したTVカメラ11で撮影され、2値化処理され
た2値化画像は、例えば図3の(a)のような画像デー
タとなる。次ぎに粒子除去の準備のため、この2値画像
に対して白黒反転処理を行い、図3の(b)に示すよう
な画像を得る。
【0019】そして、眉、眼、鼻、口など粒子除去を行
う対象の白画素をラベリングし、その面積を求めたあ
と、所定面積以下の除去対象とする白画素を黒画素に変
換する粒子除去を行い、図3の(c)のような画像を得
る。ここで、除去対象とする眉、鼻、口などの部分は、
顔幅検出のために残すべき対象に対して面積が極めて小
さいので、容易にその面積以下の白画素を除去するしき
い値を設定することができる。ついで、白黒反転して反
転画像を元に戻すと、図3の(d)の画像となる。
【0020】ついで、髪の毛またはアゴの部分は、顔の
最大幅となる可能性がないため、図3の(e)に示すよ
うに、顔の上方部(y=0〜100)と下方部(y=3
00〜431)にマスク処理を行う。マスク処理は、画
像データの処理範囲を制限するために、強制的に指令領
域の画素値を変更するために用いられている。この顔幅
検出の場合には、2値化画像での運転者の髪の毛やアゴ
を同じ黒画素(0階調)にマスク処理して、処理領域の
範囲を変更している。これは、顔幅を検出するために、
あまり関係ない上方や下方の画像データを消去して、よ
り正確な顔幅検出を行うためである。また、マスクは髪
の毛などの黒い部分と同一階調となるよう設定している
ため、マスク領域に接している髪の毛などの黒い画素の
集まりは、マスク処理によって一つの大きな黒画素の集
まり(ラベル)とすることができる。
【0021】ここでラベリング処理について説明する。
ラベリング処理とは、2値化された画像データ内の黒画
素もしくは、白画素の集まりを、個々に認識させる手法
のことをいい、認識されたラベルは、そのラベル毎に大
きさ(面積)、位置 (座標)などを同時に把握するこ
ともできる。しかし、ラベリング処理が行えるラベル数
には限りがあり、ラベル数の多さは処理速度の低下を招
くデメリットもある。そのため、前述した粒子除去にお
いて除去対象が多いときには、マスクはラベル数を削減
するための重要な処理となってくる。なお、本実施例で
は粒子除去をマスク処理の前で行っているが、マスク処
理後に行うとラベリング処理の際に、前述したマスクに
より顔の輪郭部に存在する髪の毛などの黒画素の集まり
が接続されるため、ラベル数をかなり削減することがで
きる。
【0022】つぎに、顔幅の検出方法を説明する。図3
の(f)は、横軸にX座標、縦軸に図3の(e)の画像
データの各X座標上の白画素(255階調)数を積算
し、縦軸に示したものである。この白画素積算値をX座
標方向の中央(255)より、左右方向に白画素の減少
傾向を調べて行う。これにより、白画素数が急減少しそ
の減少が止まるX座標(x1,x2)、あるいは、白画
素数がある所定値になるX座標位置を、顔幅として正確
かつ、容易に掴むことができる。
【0023】顔の基準位置学習回路15においては、学
習による顔基準位置(xk1,xk2)の設定が行なわ
れる。顔の基準位置とは、運転者Dが通常の運転姿勢を
とったときの顔の位置と定義する。顔の基準位置は通常
の運転を行っているときには、ほぼ定まった位置にあ
り、大きくずれることはない。顔の基準位置学習回路1
5は運転者Dによる体格、顔の大きさ、乗車姿勢などの
違いに対応させたもので、学習方法は複数回の顔幅検出
結果を平均することによって求める。普通、運転者は安
全確認、スイッチの操作などの場合を除いて前方を注視
している頻度が高く、運転開始直後に複数回顔幅を検出
し平均することで、通常の運転状態での顔位置である顔
の基準位置(xk1,xk2)を学習することができ
る。
【0024】つぎに、顔の向き検出回路16による顔の
向き検出手法を説明する。先の図3は、太陽が運転者D
の正面に位置し、正面を注視している場合の各段階にお
ける画像を示している。この場合には、図3の(a)に
示すように、背景は、2値化した際に黒画素に変換され
た画像データとなり、顔幅を表わすX座標(x1,x
2)は、図3の(f)に示すように、運転開始直後に複
数回顔幅を検出して平均することで求めた顔基準位置
(xk1,xk2)とほぼ等しくなる。そして、顔幅を
表わすX座標(x1,x2)と顔基準位置(xk1,x
k2)との関係は後述する左向きあるいは、右向きの関
係にはならず、(x2−xk2≧0)を満たしても(x
1−xk1>5)となっていない。
【0025】つぎに図4は、太陽が運転者の正面に位置
し、運転者Dが、左方向のわき見をしている場合を示
す。(a)に示すように2値化した画像データをもと
に、反転、粒子除去、再反転およびマスク処理を行なっ
た画像は同図の(b)のようになる。これは図3の
(e)の画像に対応する。この場合には、白画素の減少
が止まる顔幅を表わすx座標(x1,x2)と顔の基準
座標(x1k,x2k)との関係は、図4の(c)に示
すように、x1>xk1、x2≧xk2となっており x1−xk1>5 x2−xk2>0 の両方を満足している。このように、これら両方の式を
満足するか否かで左向きか否かを判定することができ
る。左向きの判定式(x1−xk1>5)における5画
素分の変化余裕は、顔のちょっとした動きに対応させる
ためである。なお、本実施例では5としたが、これに限
定されるものではない。
【0026】図4では、左方向のわき見の場合を説明し
たが、右方向のわき見の場合は、耳および髪の毛また
は、もみあげに当たる部分が、顔の左右逆となるので、
首の回転による顔幅のx座標(x1,x2)の変化は、
右向きは左向きの場合に対して正負が逆になるが、同様
の関係となる。そのため、 x1−xk1≦0、x2−xk2<5 の両式を満足したときに、右向きと判定する。
【0027】つぎに、図5および図6により、太陽が運
転者Dの後方または左側にある場合について説明する。
図5は、運転者Dが正面を注視している場合を示す。図
5の(a)、(b)、(c)は、図4の(a)、
(b)、(c)に対応している。図5の(a)に示すよ
うに、2値化した際に左側の背景が白画素に変換された
画像データとなる。しかし、白画素の減少の止まるポイ
ントとして求められる顔幅を表わすx座標(x1,x
2)は、(c)に示すように、顔基準座標(xk1,x
k2)とほぼ等しくなり、左向きおよび左向きの判定式
を満足しない。
【0028】図6は、運転者Dが左方向のわき見をして
いる場合を示す。図6の(a)、(b)、(c)は、図
4の(a)、(b)、(c)に対応している。図6の
(c)に示すように、顔幅を表わすx座標(x1,x
2)と顔基準座標(xk1,xk2)との関係はx1−
xk1>5、x2−xk2≧0となり、左向きと判定さ
れる。2値化の際、背景が白画素に変換される場合は、
運転者の左側の髪の毛またはもみあげに当たる部分が画
像上見えなくなってしまうので、x2>>xk2となる
が、左向き検出の判定条件であるx1−xk1>5、x
2−xk2≧0は満たされる。
【0029】太陽が運転者Dの右側にある場合の例を、
図7および図8により説明する。図7は、運転者Dが正
面を注視している場合を示す。図7の(a)、(b)、
(c)は、図4の(a)、(b)、(c)に対応してい
る。図7の(a)に示すように、2値化した際に背景が
白画素に変換されるだけでなく、髪の毛や右眼、右眉ま
で白画素に変換されてしまう。しかし、この場合にも、
(c)に示すように、顔幅を表わす座標(x1,x2)
は顔基準座標(xk1,xk2)に対してx1−xk1
<0、x2−xk2=0となり、左右いずれの方向にも
向いていないと判定できる。
【0030】図8は、運転者Dが左方向のわき見をして
いる場合を示す。図8の(a)、(b)、(c)は、図
4の(a)、(b)、(c)に対応している。ここで
は、顔幅を表わす座標(x1,x2)は、顔の回転によ
り運転者の右側の髪の毛または、もみあげに当たる部分
の影が発生しているため、図8の(c)に示すように、
顔の基準座標(xk1,xk2)に対してx1−xk1
>5、x2−xk2≧0となっている。したがって、こ
のような光環境においても左向きおよび右向きの検出を
正確に行うことができる。
【0031】図9は、上述の判定における制御動作の流
れを示すフローチャートである。まず、ステップ101
において、TVカメラ11により運転者Dの顔部分を撮
影して画像を入力する。ステップ102では、1フレー
ム分の入力画像をA−D変換器12でデジタル信号に変
換したうえで、画像メモリ13に格納する。
【0032】つぎに画像データの前処理として、2値化
およびノイズ除去を行う。すなわち、ステップ103で
は、画像メモリ13に格納された入力画像データを顔幅
検出回路14に取り込み、所定のしきい値で2値化し
て、図3の(a)に例示される2値化画像を得る。この
2値化は顔部分の明暗をはっきりさせるため、しきい値
は眼球を識別して抽出できるレベルに設定される。すな
わち、ビデオ信号を256階調(0〜255)のデジタ
ルデータに変換して、白い部分を「255」黒い部分を
「0」とし、しきい値によるスレッシュホールドレベル
で2値化して2値化画像を得る。このステップではさら
に、顔幅の検出精度を上げるために、この2値化画像に
おいて黒画素の小さい集まり(ノイズ)を除去する。こ
のノイズ除去の手法としては、白画素を対象とした膨脹
処理やメジアンフィルター処理などがある、(前述の顔
幅検出回路14における顔幅検出手法参照)。
【0033】つぎにステップ104において、顔幅検出
回路14で顔の左右端となるx座標(x1,x2)の抽
出を行う。(前述の顔幅検出回路14における顔幅検出
手法参照)。ステップ105では、顔の基準位置(xk
1,xk2)が設定されているか否かをチェックする。
顔の基準位置とは、前述のように運転者が通常の運転
姿勢をとったときの顔の位置と定義され、顔の向きの判
定はこの顔の基準位置(xk1,xk2)と顔の座標
(x1,x2)との位置関係を基に行う。顔の基準位置
がまだ設定されていないときは、ステップ106へ進
み、設定されているときはステップ109へ進む。
【0034】ステップ106では、顔の基準位置学習回
路15により顔の基準位置の学習を行い、ステップ10
7では、顔幅データ数が学習対象回数に達したか否かを
判断し、所定回数に達しない間は学習を続ける。学習が
所定回数に達すると、ステップ108へ進み、顔の基準
位置(xk1,xk2)の設定を行う。ステップ106
〜108については、前述の顔の基準位置学習回路15
における顔の基準位置の設定を参照。
【0035】顔の基準位置が設定されているときには、
まずステップ109で、顔の向き検出回路16におい
て、顔幅を表わすX座標(x1,x2)と顔基準置(x
k1,xk2)との関係が、左向きの判定式(x1−x
k1>0)および(x2−xk2≧0)を満足するか否
かがチェックされ、この関係にあればステップ110へ
進み、上記関係を満足しなければステップ111へ進
む。ステップ110では左向きと判定して、HM=1と
し、カウントアップする。なお、ここでHMは、運転者
Dが左方を所定時間向いていたことを表わすユニット時
間を示す。
【0036】ステップ111では、顔幅を表わすX座標
(x1,x2)と顔基準置(xk1,xk2)とが右向
きの判定式(x1−xk1≦0)および(x2−xk2
<5)の関係にあるか否かがチェックされ、この関係に
あればステップ112へ進み、上記関係を満足しなけれ
ばステップ113へ進む。ステップ112では、右向き
と判定して、MM=1とし、カウントアップする。ここ
でMMは、運転者Dが右方を所定時間向いていたことを
表わすユニット時間を示す。
【0037】ステップ113では、左向きの判定式(x
1−xk1>5)および(x2−xk2≧0)と、右向
きの判定式(x1−xk1≦0)および(x2−xk2
<5)のいずれにも該当しないので、運転者Dは正面を
注視しているものとして、HMおよびMMをクリアす
る。
【0038】それぞれの向きの判定のあと、ステップ1
14では、わき見判定回路17において、左向きあるい
は右向きの連続検出回数(わき見時間)、すなわちHM
あるいはMMのカウント数が所定数以上のときにわき見
運転状態と判定し、ステップ115で、報知装置18か
ら報知信号を出力させて運転者Dに注意を促す。ステッ
プ114でHMあるいはMMのカウント数が所定数に達
していないときは、ステップ101へ戻る。また、ステ
ップ115で報知を行なったあともステップ101へ戻
って、上記のフローが繰り返される。上記のステップ1
01が発明の画像入力手段を構成し、ステップ102、
103が画像処理手段を、ステップ104が顔幅検出手
段を、ステップ105〜113が顔の向き検出手段を、
そしてステップ114がわき見判定手段をそれぞれ構成
している。
【0039】本実施例は以上のように構成され、2値化
画像において顔の左端と右端と検出して顔幅とし、その
変化すなわち顔の基準位置とのずれが所定の判定式を満
足するかどうかによって顔の向きを検出するものとし、
わき方向を向いている状態が所定時間継続したときわき
見状態と判定し、報知装置により運転者に注意を促す。
したがって光環境の変化による影響の少ない運転者の顔
幅を検出と顔の基準位置とに基づくので光環境に関係な
く顔の向きを正確に捉らえることができる。そして上記
顔の基準位置も先に検出した顔幅を学習することによっ
て設定するから、構成簡単ながら容易に信頼性の高い基
準位置が求められる。
【0040】図10は、本発明の第2の実施例を示す。
この実施例は、前実施例のわき見判定回路17が顔幅の
変化すなわち左向きあるいは右向きの時間が所定時間以
上継続したときにわき見と判定するのに対して、判定の
ための所定時間を車速信号により可変とするとともに、
車速信号により顔幅データを選択できるようにしたもの
である。すなわち、第1の実施例における顔の基準位置
学習回路15のかわりに顔の基準位置学習回路25を備
え、わき見判定回路17のかわりにわき見判定回路27
が用いられている、そして、顔の基準位置学習回路25
およびわき見判定回路27には、車速検出手段としての
車速センサ20が接続されている。その他の構成は図2
に示された第1の実施例と同じである。
【0041】顔の基準位置学習回路25では、車両の走
行速度に応じて顔の基準位置を学習する。すなわち、走
行速度領域が変わるごとに顔幅検出結果を用いて学習を
行ない、顔の基準位置を設定する。一般に高速になるほ
ど運転者の顔の動き小さくなるが、この学習により、車
速により変化する顔幅の基準位置が精度よく設定され
る。また、わき見判定回路27は、車速が大きいほど判
定のための左向きあるいは右向きの継続時間を短く設定
するようになっている。
【0042】この実施例は以上のように構成されている
ので、高速走行時の早期報知を可能とし、また、低速走
行時または停止時に報知することを防止できる効果があ
る。さらに、顔の基準位置の学習においても、車両走行
時の顔幅データを選択できるので、顔基準位置の精度を
向上させることができる。
【0043】図11には、本発明の第3の実施例を示
す。この実施例は、図2の第1の実施例における顔の基
準位置学習回路15と顔の向き検出回路16とを、顔の
動きのモニタ回路35に置き換えるとともに、わき見判
定回路17を首振りの時系列変化から判定をおこなうわ
き見判定回路37としたものである。顔の動きのモニタ
回路35は、顔の動きを左向き首振り、右向き首振り、
首の動きがない状態の3つを時系列変化により捉らえ
る。
【0044】図12、図13は、本実施例における判定
の制御動作を示すフローチャートである。ステップ20
1からステップ204までは、図9における第1の実施
例のステップ101〜104と同じである。ステップ2
05では、顔の動きモニタ回路35において、1つ前の
フレームによる顔幅が抽出されているか、すなわち1つ
前のフレームの値(xo1,xo2)が設定されている
か否かがチェックされ、設定されていればステップ20
6へ進み、設定されていなければステップ207へ進
む。
【0045】ステップ206では、顔幅の現在の値(x
n1,xn2)として、今回の検出結果である(x1,
x2)を用いて、xn1=x1、xn2=x2とする。
一方、ステップ207では、1つ前のフレームの値(x
o1,xo2)と現在の値(xn1,xn2)の双方に
(x1,x2)を用いて、xo1=x1、xo2=x
2、xn1=x1、xn2=x2とする。
【0046】ステップ208では、1つ前のフレームの
値(xo1,xo2)と現在の値(xn1,xn2)と
が、首を左に振ったときの判定式(xn1−xo1>
5)および(xn2−xo2≧0)を満足するか否かが
チェックされる。上記判定式が満足されているときには
ステップ209へ進み、満足されていなければステップ
210へ進む。ステップ209では、顔の動きモニタ回
路35において、左向き首振りと判定し、ステップ21
3へ進む。
【0047】ステップ210では、顔の動きモニタ回路
35において、首を右に振ったときの判定式(xn1−
xo1≦0)および(xn2−xo2<−5)を満足す
るか否かがチェックされる。上記判定式が満足されてい
れば、ステップ211へ進み、右向き首振りと判定し、
ステップ213へ進む。 満足されていなければステッ
プ212へ進み、左向き首振りでも右向き首振りでもな
く、首は停止状態にあると判定してステップ213へ進
む。各首振り方向の判定のあとステップ213では、現
在の値をxn1、xn2を1つ前の値xo1、xo2に
それぞれ代入して、ステップ214に進む。
【0048】ステップ214では、わき見判定回路37
において、上述の判定結果による左右の首振り、停止状
態の時系列変化から、顔の動きを連続的にモニタして、
わき見か、安全確認のための動作か等の判定を行う。こ
こでわき見と判断されるとステップ215へ進み、報知
装置18から報知信号を出力させて運転者Dに注意を促
す。報知の要がないときはステップ201へ戻る。ま
た、ステップ215で報知を行なったあともステップ2
01へ戻って、上記のフローが繰り返される。上記のス
テップ201が発明の画像入力手段を構成し、ステップ
202、203が画像処理手段を、ステップ204が顔
幅検出手段を、ステップ205〜212が顔の向き検出
手段を、そしてステップ214がわき見判定手段をそれ
ぞれ構成している。
【0049】本実施例は以上のように構成され、顔幅に
ついて1つ前のフレームの値(xo1,xo2)と現在
の値(xn1,xn2)を使用し、1つ前の値に対する
現在の値の変化によって首が左または右に振られたこと
を検出するようにしたので、顔の基準位置の学習を行う
時間を必要としない。これにより、運転開始直後から、
わき見、安全確認の有無等の判定を行うことができる。
【0050】つぎに、第1の実施例の適用範囲をさらに
向上させた第4の実施例について説明する。これは、運
転開始直後の顔基準位置学習のあとの姿勢の崩れによる
顔位置の移動に対応するものである。構成は第1の実施
例と同様で、制御処理が図14のフローチャートにした
がって行なわれる。すなわち、ステップ105とステッ
プ109の間にステップ306が設けられている。ステ
ップ105で顔基準位置の設定確認後、ステップ306
では、顔幅検出回路において、検出された顔幅(x2−
x1)が基準値内かどうかがチェックされる。ここで
は、ステップ106で学習した顔幅(xk2−xk1)
を基準値としている。
【0051】運転者が左右を見たときには顔幅(x2−
x1)は基準値に対して変化する。したがって顔幅が基
準値内であれば、顔が平行移動したものと判断して、ス
テップ307へ進む。ステップ307では、基準値(x
k1,xk2)を(x1,x2)に入れ換えて、ステッ
プ101へ戻る。ステップ306のチェックで顔幅が基
準値内からはずれている場合は、基準値入れ換えを行な
わずにステップ109へ進む。その他のステップは第1
の実施例における図9のフローチャートと同じであるの
で、図示省略してある。
【0052】本実施例では、ステップ105〜113、
306、307が顔の向き検出手段を、そしてステップ
114がわき見判定手段をそれぞれ構成している。この
実施例によれば、走行開始後運転者の姿勢が崩れてもあ
らたな基準位置が設定されるから、誤検出が防止され、
わき見検出の精度が向上する。また、とくに図示しない
が、本実施例においても、第2の実施例と同様に車速セ
ンサを顔の基準位置学習回路やわき見判定回路に接続し
て、走行速度によって学習や判定時間の変化を行なうよ
うにすることができる。
【0053】図15は第5の実施例を示す。 この実施
例は、図2の第1の実施例における顔の基準位置学習回
路15、顔の向き検出回路16、わき見判定回路17
を、眼の検出回路45、顔の向き検出回路46、わき見
判定回路47に置き換えたものである。すなわち、眼の
検出回路45では、顔幅検出回路14より送出される顔
幅データ(顔の最大幅)を基に、眼の検出領域を設定
し、その領域をマスク処理してラベリングすることによ
り、眼を検出する。顔の向き検出回路46は、この眼の
検出結果から顔の向きを検出する。顔の向き検出回路4
6で検出された顔の向きデータがわき見判定回路47に
送られる。その他の構成は図2に示された第1の実施例
と同じである。
【0054】図16は、本実施例における判定の制御動
作を示すフローチャートである。ステップ401からス
テップ404までは、図9における第1の実施例のステ
ップ101〜104と同じである。ステップ405で
は、眼の検出回路45において、前ステップにおける顔
幅の検出データから所定領域を設定して、以下の要領で
眼の検出が行なわれる。
【0055】まず、図17の(a)に示すように、顔幅
の左右のラインx1、x2から顔の中心線を求め、左右
の眼に対して上記顔幅内で個別に眼の検出領域を設定す
る。なお、例えば図7の(a)に示すような片陽の状態
では、左右両方の顔幅を正確に捉えることはできない
が、車両内側となる運転者の左側の顔幅は、片陽のよう
な悪光環境下においても正確に捉えることができる。し
たがって、運転者の左眼が存在するおおよその領域を特
定することができ、眼の検出領域Sを設定することがで
きる。
【0056】次に、上記眼の検出領域Sを残して、マス
ク処理を行い、ラベリング処理を行なう。所定の面積値
以下のラベルは、黒白変換により除去することができ、
図17の(b)のように、マスクと接する黒画素の集ま
りであるラベルは単独ラベルとならないので、眉、眼、
鼻の穴、口などの黒画素のラベルが抽出できる。 そし
て、このなかからその面積の大きさ、座標、縦横比を用
いて、眼に相当するラベルの選択を行う。すなわち、眼
は開眼時においても閉眼時においても、形状的に横長の
ラベルとなるから、鼻の穴に相当するラベルデータをま
ず始めに除いてやることができる。また、眉の上に眼が
あることはないし、口や眼や眉より顔の外側には存在し
得ないから、これらの座標データによる位置関係で候補
を絞っていく。これにより、眼のラベルが比較的容易に
抽出される。各ラベルの縦横比についても、図18に示
すような画像データの垂直、水平成分の最小値を求める
フィレ径の画像処理手法を用いて、眼を識別することが
できる。
【0057】次のステップ406において、顔の向き検
出回路46により、眼が正しく検出できているか否かが
チェックされる。正しく検出されていればステップ41
0へ進み、眼が正しく捉えられていないと判断された場
合は、ステップ407に進む。ステップ406でのチェ
ックは、運転者の顔の向きを眼の検出状態から判断する
ものである。運転者が正面を注視している状態で設定さ
れた上述の眼の検出領域Sにおいては、図19の(a)
のように運転者がわき見をすると、同図の(b)のよう
に、顔の中心線に対し眼、眉等の位置が左右にズレてく
るため、眼や眉もマスクに接するようになる。その結
果、候補ラベルが抽出されないという状態になる。すな
わち、眼が抽出できないとき運転者は横を向いているわ
き見状態であるといえる。
【0058】ステップ407では、わき見判定回路47
において、わき見判定カウンタMがクリアされ、次の画
像入力のためステップ401に戻る。これにより、わき
見判定カウンタは、眼が正しく捉えられている間は常に
クリアされた状態にある。一方、ステップ408では、
わき見判定カウンタがカウントアップされる。そして、
ステップ409で、眼が正しく捉えられなかった連続的
な回数である上記カウンタ値が所定数を越えるか否かに
より、わき見状態かどうかを判定する。カウンタ値が所
定数を越えたときには、わき見状態としてステップ41
0に進み、報知装置により運転者に注意を捉す報知が発
せられる。また、カウンタ値が所定数を越えるまでの間
は、ステップ401に始まる上記フローが繰り返され
る。本実施例では、上記のステップ401が発明の画像
入力手段を構成し、ステップ402、403が画像処理
手段を、ステップ404が顔幅検出手段を、ステップ4
05、406が顔の向き検出手段を、そしてステップ4
07、408、409がわき見判定手段をそれぞれ構成
している。
【0059】この実施例は以上のように構成され、運転
者の顔画像内に上下方向の狭い検出領域を設定し、その
中でラベリング処理を行なって眼を抽出するようにし、
眼が正しく検出されるかどうかで顔が横方向を向いてい
るか否かを判断するものとしたので、処理すべきラベル
数が低減され、処理速度が向上するという効果を有す
る。また、本実施例においても、第2の実施例と同様に
車速センサをわき見判定回路に接続して、走行速度によ
って判定時間の変化を行なうようにすることができる。
【0060】なお各実施例においては、右ハンドルの車
両の場合について説明したが、左ハンドルの車両の場合
にも同様にして、左向きおよび右向きを正確に検出する
ことができる。
【0061】
【発明の効果】以上のとおり本発明は、運転者の顔面を
撮像した画像を2値化処理し、この2値化画像において
顔幅検出手段により顔幅を検出するとともに、顔の向き
検出手段により顔幅の変化から顔の向きを検出し、わき
見判定手段がこの検出された顔の向きの変化から運転者
のわき見状態を判定するものとしたので、光環境に関係
なく正確に運転者の状態変化を捉らえることができ、運
転者に注意を促す報知装置に用いてとくに有用である。
【0062】また、さらに車速検出手段を備え、その車
速信号によりわき見判定基準を可変させるものとした場
合には、車速が大きいほど判定のための継続所定時間を
短く設定することにより、高速走行時に早期報知がで
き、あるいは低速走行時または停止時に報知することを
防止できるという利点がある。
【0063】上記の顔の向き検出手段として、顔幅検出
手段で検出された顔幅を学習して設定する顔の基準位置
学習回路と、顔幅検出手段により検出される顔幅と顔の
基準位置との比較に基づいて顔の向きを検出する顔の向
き検出回路とを備えることにより、簡単な構成で精度の
高い顔の向き検出が行なえる。さらに、顔の向き検出手
段において、顔幅検出手段により検出された顔幅が顔の
基準位置の顔幅以内であるとき、当該検出された顔幅の
位置で顔の基準位置を更新するものとすることにより、
運転者の姿勢が崩れてもあらたな基準位置が設定される
から、誤検出が防止され、わき見検出の精度が一層向上
する。
【0064】また、顔の向き検出手段を顔幅検出手段で
検出された顔幅の時系列変化により顔の向きを検出する
モニタ回路により構成した場合には、顔の基準位置の学
習を行う時間を要しないので、運転開始直後から、わき
見、安全確認の有無等の判定を行うことができる利点が
ある。
【0065】また、顔の向き検出手段を、顔幅検出手段
により検出された顔幅内において、その中心から左右方
向片側に設定した眼の検出領域での眼の検出状態から顔
の向きを検出するものとすることにより、画像処理の処
理データが少なくて済み、処理速度が向上するという効
果が得られる。
【図面の簡単な説明】
【図1】本発明の構成を示すブロック図である。
【図2】本発明の第1の実施例の構成を示すブロック図
である。
【図3】顔幅検出回路における画像処理および顔幅検出
要領を示す説明図である。
【図4】左向きの場合の顔幅検出を示す説明図である。
【図5】太陽が運転者の左側にある状態で正面を注視し
ている場合の顔幅検出を示す説明図である。
【図6】太陽が運転者の左側にある状態で左方向のわき
見をしている場合の顔幅検出を示す説明図である。
【図7】太陽が運転者の右側にある状態で正面を注視し
ている場合の顔幅検出を示す説明図である。
【図8】太陽が運転者の右側にある状態で左方向のわき
見をしている場合の顔幅検出を示す説明図である。
【図9】判定の制御動作の流れを示すフローチャートで
ある。
【図10】本発明の第2の実施例の構成を示すブロック
図である。
【図11】本発明の第3の実施例の構成を示すブロック
図である。
【図12】第3の実施例における判定の制御動作の流れ
を示すフローチャートである。
【図13】第3の実施例における判定の制御動作の流れ
を示すフローチャートである。
【図14】第4の実施例を示すフローチャートである。
【図15】第5の実施例の構成を示すブロック図であ
る。
【図16】第5の実施例における判定の制御動作の流れ
を示すフローチャートである。
【図17】眼の検出領域の設定要領を示す図である。
【図18】画像処理におけるフィレ径の概念を示す図で
ある。
【図19】運転者の顔の向きの検出要領を示す説明図で
ある。
【図20】従来例における運転者の眼を含む検出領域を
示す図である。
【図21】従来例を示す図である。
【符号の説明】
1 画像入力手段 2 画像処理手段 3 顔幅検出手段 4 顔の向き検出手段 5 わき見判定手段 11 TVカメラ 12 A−D変換器 13 画像メモリ 14 顔幅検出回路 15、25 顔の基準位置学習回路 16、46 顔の向き検出回路 17、27、37、47 わき見判定回路 18 報知装置 20 車速センサ 35 顔の動きのモニタ回路 45 眼の検出回路 D 運転者 S 眼の検出領域

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 運転者の前方から撮像して顔面の画像を
    得る画像入力手段と、該画像入力手段から送出される入
    力画像を2値化処理する画像処理手段と、該画像処理手
    段で得た2値化画像において、顔の左端と右端とを検出
    する顔幅検出手段と、該顔幅検出手段により検出された
    顔幅の変化から顔の向きを検出する顔の向き検出手段
    と、該顔の向き検出手段で検出した顔の向きの変化から
    運転者のわき見状態を判定するわき見判定手段とを有す
    ることを特徴とする車両運転者のわき見検出装置。
  2. 【請求項2】 前記顔の向き検出手段は、前記顔幅検出
    手段で検出された顔幅を学習して設定する顔の基準位置
    学習回路と、前記顔幅検出手段により検出された顔幅と
    前記顔の基準位置との比較に基づいて顔の向きを検出す
    る顔の向き検出回路とを備えることを特徴とする請求項
    1記載の車両運転者のわき見検出装置。
  3. 【請求項3】 運転者の前方から撮像して顔面の画像を
    得る画像入力手段と、該画像入力手段から送出される入
    力画像を2値化処理する画像処理手段と、該画像処理手
    段で得た2値化画像において、顔の左端と右端とを検出
    する顔幅検出手段と、該顔幅検出手段により検出された
    顔幅の変化から顔の向きを検出する顔の向き検出手段
    と、該顔の向き検出手段で検出した顔の向きの変化から
    運転者のわき見状態を判定するわき見判定手段と、車両
    の走行速度を検出する車速検出手段とを有し、前記わき
    見判定手段は、前記車速検出手段より送出される車速信
    号によりわき見判定基準を可変させるよう構成されてい
    ることを特徴とする車両運転者のわき見検出装置。
  4. 【請求項4】 前記顔の向き検出手段は、前記顔幅検出
    手段で検出された顔幅を学習して設定する顔の基準位置
    学習回路と、前記顔幅検出手段により検出される顔幅と
    前記顔の基準位置との比較に基づいて顔の向きを検出す
    る顔の向き検出回路とを備えることを特徴とする請求項
    3記載の車両運転者のわき見検出装置。
  5. 【請求項5】 前記顔の向き検出手段は、前記顔幅検出
    手段により検出された顔幅が前記顔の基準位置の顔幅以
    内であるとき、当該検出された顔幅の位置を新たな顔の
    基準位置とするものであることを特徴とする請求項4記
    載の車両運転者のわき見検出装置。
  6. 【請求項6】 前記顔の基準位置学習回路は、前記車速
    検出手段より送出される車速信号により前記学習する顔
    幅を選択するよう構成されていることを特徴とする請求
    項5記載の車両運転者のわき見検出装置。
  7. 【請求項7】 前記顔の向き検出手段は、前記顔幅検出
    手段で検出された顔幅の時系列変化により顔の向きを検
    出するモニタ回路により構成されていることを特徴とす
    る請求項1記載の車両運転者のわき見検出装置。
  8. 【請求項8】 運転者の前方から撮像して顔面の画像を
    得る画像入力手段と、該画像入力手段から送出される入
    力画像を2値化処理する画像処理手段と、該画像処理手
    段で得た2値化画像において、顔の左端と右端とを検出
    する顔幅検出手段と、該顔幅検出手段により検出された
    顔幅内において、その中心から左右方向片側に設定した
    眼の検出領域での眼の検出状態から顔の向きを検出する
    顔の向き検出手段と、該顔の向き検出手段で検出した顔
    の向きの変化から運転者のわき見状態を判定するわき見
    判定手段とを有することを特徴とする車両運転者のわき
    見検出装置。
JP7074458A 1995-03-07 1995-03-07 車両運転者のわき見検出装置 Pending JPH08249454A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7074458A JPH08249454A (ja) 1995-03-07 1995-03-07 車両運転者のわき見検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7074458A JPH08249454A (ja) 1995-03-07 1995-03-07 車両運転者のわき見検出装置

Publications (1)

Publication Number Publication Date
JPH08249454A true JPH08249454A (ja) 1996-09-27

Family

ID=13547835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7074458A Pending JPH08249454A (ja) 1995-03-07 1995-03-07 車両運転者のわき見検出装置

Country Status (1)

Country Link
JP (1) JPH08249454A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921611A (ja) * 1995-07-06 1997-01-21 Mitsubishi Electric Corp 顔画像撮像装置
WO2007046477A1 (ja) * 2005-10-20 2007-04-26 Aisin Seiki Kabushiki Kaisha 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム
CN109410519A (zh) * 2018-10-25 2019-03-01 衢州学院 一种基于大数据的车辆人员安全监控方法及系统
CN113491101A (zh) * 2019-02-25 2021-10-08 五十铃自动车株式会社 控制装置及拍摄系统
JP2022012829A (ja) * 2020-07-02 2022-01-17 トヨタ自動車株式会社 ドライバモニタ装置及びドライバモニタ方法
JP2022077281A (ja) * 2020-11-11 2022-05-23 株式会社コムテック 検出システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921611A (ja) * 1995-07-06 1997-01-21 Mitsubishi Electric Corp 顔画像撮像装置
WO2007046477A1 (ja) * 2005-10-20 2007-04-26 Aisin Seiki Kabushiki Kaisha 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム
US7907752B2 (en) 2005-10-20 2011-03-15 Aisin Seiki Kabushiki Kaisha Face center position detecting device, face center position detecting method, and computer-readable medium
CN109410519A (zh) * 2018-10-25 2019-03-01 衢州学院 一种基于大数据的车辆人员安全监控方法及系统
CN113491101A (zh) * 2019-02-25 2021-10-08 五十铃自动车株式会社 控制装置及拍摄系统
US11956525B2 (en) 2019-02-25 2024-04-09 Isuzu Motors Limited Control device and photographing system
JP2022012829A (ja) * 2020-07-02 2022-01-17 トヨタ自動車株式会社 ドライバモニタ装置及びドライバモニタ方法
US11694449B2 (en) 2020-07-02 2023-07-04 Toyota Jidosha Kabushiki Kaisha Driver monitor and method for monitoring driver
JP2022077281A (ja) * 2020-11-11 2022-05-23 株式会社コムテック 検出システム

Similar Documents

Publication Publication Date Title
JP2541688B2 (ja) 眼位置検出装置
EP1426898B1 (en) Human detection through face detection and motion detection
JP3350296B2 (ja) 顔画像処理装置
Feris et al. Detection and tracking of facial features in video sequences
KR101653278B1 (ko) 색상 기반 얼굴 검출을 통한 실시간 얼굴 추적 시스템
Bhaskar et al. Blink detection and eye tracking for eye localization
JP3063504B2 (ja) 画像データの特徴量検出装置
EP1703480B1 (en) System and method to determine awareness
EP2060993B1 (en) An awareness detection system and method
JP2010191793A (ja) 警告表示装置及び警告表示方法
JP4989249B2 (ja) 目検知装置、居眠り検知装置及び目検知装置の方法
JP3312562B2 (ja) 居眠り状態検出装置
JPH08249454A (ja) 車両運転者のわき見検出装置
JP3088880B2 (ja) 人物認識装置
JP3036319B2 (ja) 運転者状態監視装置
JP2836238B2 (ja) 運転車の眼位置検出装置及び状態検出装置
JPH1044824A (ja) 車両運転者の開閉眼判定装置
JPH07311833A (ja) 人物の顔の検出装置
JPH10143669A (ja) 居眠り状態検出装置
Xie et al. The research of traffic cones detection based on Haar-like features and adaboost classification
JPH03202045A (ja) 虹彩位置検出装置及び運転者の状態検出装置
JP2677010B2 (ja) 眼位置検出装置
JP3109230B2 (ja) 車両運転者の眼球位置検出装置
Schmidt Feris et al. Detection and tracking of facial features in video sequences
JP2004110543A (ja) 顔画像処理装置及びプログラム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020903