JP4412253B2 - 覚醒度推定装置及び方法 - Google Patents

覚醒度推定装置及び方法 Download PDF

Info

Publication number
JP4412253B2
JP4412253B2 JP2005213463A JP2005213463A JP4412253B2 JP 4412253 B2 JP4412253 B2 JP 4412253B2 JP 2005213463 A JP2005213463 A JP 2005213463A JP 2005213463 A JP2005213463 A JP 2005213463A JP 4412253 B2 JP4412253 B2 JP 4412253B2
Authority
JP
Japan
Prior art keywords
eye
detected
open
arousal level
level estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005213463A
Other languages
English (en)
Other versions
JP2007034436A (ja
Inventor
治夫 松尾
雅之 金田
欣也 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005213463A priority Critical patent/JP4412253B2/ja
Publication of JP2007034436A publication Critical patent/JP2007034436A/ja
Application granted granted Critical
Publication of JP4412253B2 publication Critical patent/JP4412253B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、覚醒度推定装置及び方法に関する。
従来、被検出者の眼の閉眼持続時間に基づいて、被検出者の覚醒度を推定する覚醒度推定装置が多数知られている。その1つとして、検出された眼の位置がばらつく場合、すなわち眼が動いている場合に、推定した覚醒度を覚醒側に補正する覚醒度推定装置が知られている(特許文献1参照)。
特開平2004−341954号公報
しかしながら、特許文献1に記載の装置では、眼鏡のフレームや眉などを眼であると誤検出してしまう可能性があり、誤検出してしまった場合には、被検出者の覚醒度の推定精度が低下してしまう。
本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、眼を誤検出してしまった場合において覚醒度の推定精度を向上させることが可能な覚醒度推定装置及び方法を提供することにある。
本発明に係る覚醒度推定装置は、眼検出手段と、開閉眼判定手段と、覚醒度推定手段とを備えている。眼検出手段は被検出者の顔を含む画像データを入力し、この画像から被検出者の眼を検出するものである。開閉眼判定手段は、眼検出手段により検出された眼について開閉眼を判定するものである。覚醒度推定手段は、開閉眼判定手段により判定された開閉眼判定結果に基づいて、被検出者の覚醒度を推定するものである。さらに、眼検出手段は、検出した被検出者の眼が誤検出によるものかを判断し、覚醒度推定手段は、開閉眼判定手段により判定された開閉眼判定結果に加えて、眼検出手段による誤検出判断結果に基づいて、被検出者の覚醒度を推定する。眼検出手段は、検出した眼が誤検出によるものであると判断する条件と、その条件が成立した場合に誤検出と判断すべき画像数とを記憶し、前記条件の成立時には誤検出と判断すべき数の画像に基づく眼の開閉眼判定結果が誤りであるとの情報を、覚醒度推定手段に出力する
本発明によれば、検出された眼について開閉眼を判定し、判定された開閉眼判定結果に基づいて被検出者の覚醒度を推定するため、閉眼が頻繁に出現するときなどに覚醒度の低下を推定することができる。さらに、検出した被検出者の眼が誤検出によるものかを判断し、眼が誤検出によるものかの判断結果に基づいて、被検出者の覚醒度を推定する。このため、例えば、眼鏡のフレームや眉などを眼であると誤って検出した場合には、その誤検出の情報を加味して覚醒度を推定することができる。従って、眼を誤検出してしまった場合において覚醒度の推定精度を向上させることができる。
以下、本発明の好適な実施形態を図面に基づいて説明する。なお、以下の実施形態では、覚醒度推定装置を車両に搭載した場合を例に説明する。
図1は、本発明の実施形態に係るの覚醒度推定システム1のハード構成図である。同図に示すように、本実施形態の覚醒度推定システム1は、被検出者の眼の閉眼頻度から被検出者の覚醒度を推定するものであって、好適には車両運転者の覚醒度を推定するものとして利用される。以下、車両運転者の覚醒度を推定する覚醒度推定システム1を例に説明する。
覚醒度推定システム1は、カメラ10と、照明装置20と、覚醒度推定装置30とからなっている。カメラ10は、被検出者である車両運転者の顔を撮影するものであって、運転者の顔のほぼ全体が撮像可能に運転者の正面下方すなわち運転席前の計器類の近傍に設置されている。このカメラ10は、例えばCCDやC−MOSなどの撮像素子を用いた構成となっている。また、カメラ10は、運転者の顔を撮影するとビデオ信号として出力する構成となっている。
照明装置20は、カメラ10の近傍に設けられ、運転者の顔を照らすように光を出射可能となっている。この照明装置20は、運転者が運転中に眩しくならないように、例えば白色光でなく赤外光を出射する構成となっている。
覚醒度推定装置30は、カメラ10からのビデオ信号を入力すると、入力したビデオ信号を解析し、被検出者の眼の閉眼頻度を判断して覚醒度を推定するものである。また、覚醒度推定装置30は、覚醒度を推定すると、その情報を覚醒度信号として出力する構成となっている。この覚醒度信号は例えば報知装置に接続されている。報知装置は、オーディオ機器などを制御して警告音、音楽及び音声等を出力して覚醒度の低下等を報知する構成となっている。また、報知装置は、LEDや液晶モニタなどの表示により運転者に報知する構成とされていてもよいし、シートベルトやエアコンを制御して運転者に報知する構成とされていてもよい。さらに、報知装置は、シートやハンドルに振動を与えることにより運転者に報知する構成とされていてもよいし、パワーウインドウの開閉制御やアクセル又はブレーキ制御などにより運転者に報知する構成とされていてもよい。
図2は、図1に示した覚醒度推定装置30の詳細構成図である。同図に示すように、覚醒度推定装置30は、顔画像取得部31、眼検出部(眼検出手段)32、開閉眼判定部(開閉眼判定手段)33、覚醒度判定部(覚醒度判定手段)34、開閉判定結果処理部(遅延出力手段)35、処理状態出力部36、及び覚醒度信号出力部37を備えている。
顔画像取得部31は、カメラ10からのビデオ信号を入力して、ビデオ信号から運転者の顔を含む画像(以下顔画像という)のデータを取得するものである。
眼検出部32は、顔画像取得部31により取得された顔画像のデータを入力し、この顔画像から運転者の眼を検出するものである。ここで、眼検出部32は、眼位置検出部(第1検出手段)32aと、眼位置追跡部(第2検出手段)32bとからなっている。眼位置検出部32aは、顔画像全体から運転者の眼を検出するものである。眼位置追跡部32bは、顔画像の一部領域から運転者の眼を検出するものである。
より詳しく説明すると、眼位置検出部32aは、運転者の眼の位置が検出できていない場合に顔画像全体から眼の位置を検出するものであり、眼位置追跡部32bは、前回処理サイクルにおいて眼が検出されていた場合に、その眼の位置を含んで一部領域を設定し、その領域内から眼の位置を検出するものである。このため、本装置1は、少なくとも一度は画像全体に対して処理を行うものの、一度眼が検出されると、その後は画像の一部に対して処理を行うこととなり、常に画像全体に処理を行う場合に比して、迅速な処理を行うことができるようになっている。
開閉眼判定部33は、眼検出部32により検出された眼について開閉眼を判定するものである。この開閉眼判定部33は、眼検出部32により検出された眼の縦幅に基づいて眼の開閉眼を判定するようになっている。ここで、開閉眼判定部33は、開閉眼学習部(閾値設定手段)33aと、開閉眼決定部(開閉眼決定手段)33bとを有している。
開閉眼学習部33aは、眼検出部32により検出された眼の縦幅を計測して開閉眼を判断するための閾値を設定するものである。開閉眼決定部33bは、眼検出部32により検出された眼の縦幅が開閉眼学習部33aにより設定された閾値以上の場合に開眼と決定し、
閾値未満の場合に閉眼と決定するものである。
このように、開閉眼判定部33は、眼の縦幅を計測し、計測した眼の縦幅に基づいて開閉眼を決定するための閾値を設定するため、運転者個人の眼の縦幅を学習したうえで、適切な閾値を設定できることとなる。
覚醒度推定部34は、開閉眼判定部33により判定された開閉眼判定結果に基づいて、運転者の覚醒度を推定するものである。例えば、覚醒度推定部34は、開閉眼判定部33により運転者の閉眼割合が高いと判定された場合、覚醒度の低下を推定することとなる。
また、上記した眼検出部32は、検出した眼が誤検出によるものか判断する機能を有している。例えば、眼検出部32は、検出した左右の眼の距離が短すぎる場合や、検出した眼の画像上方に眉が存在しない場合などに、検出した眼が誤検出によるものと判断する。さらに、眼検出部32は、検出した眼が誤検出によるものと判断した場合、その旨の情報を覚醒度推定部34に出力する。これにより、本実施形態の覚醒度推定部34は、開閉眼判定部33により判定された開閉眼判定結果に加えて、眼検出部32による誤検出判断結果に基づいて、運転者の覚醒度を推定することとなる。すなわち、本実施形態の覚醒度推定装置30は、誤検出の情報を加味したうえで覚醒度を推定することとなり、推定精度の向上を図ることができるようになっている。
より詳しく説明すると、眼検出部32は、検出した眼が誤検出によるものであると判断するための条件と、その条件が成立した場合に誤検出と判断すべき画像数とを記憶している。ここで、或る画像から眼の誤検出が判断された場合、その画像以前から眼を誤検出している可能性が高い。このため、眼検出部32は、誤検出の条件成立時には誤検出と判断すべき数の画像(誤検出と判断すべき画像数分の画像)に基づく眼の開閉眼判定結果が誤りであるとの情報を、覚醒度推定部34に出力する。これにより、覚醒度推定部34は、一層適切に覚醒度を推定できることとなる。
ここで、誤検出の例を示す。図3は、誤検出の例を示す説明図であり、(a)は第1の例を示し、(b)は第2の例を示している。図3(a)に示すように、例えば、車両運転者が眼鏡を掛けている場合、本装置30は眼鏡のフレームを眼であると誤検出することがある。さらに、図3(b)に示すように本装置30は運転者の眉を眼であると誤検出することがある。このような場合に誤検出を判断するために、眼検出部32は検出した眼が誤検出によるものであると判断するための条件(図18参照)を記憶している。
なお、参考として図4を示す。図4は、開閉眼の誤判定の例を示す説明図であり、(a)は第1の例を示し、(b)は第2の例を示している。図4(a)及び(b)において、運転者の顔の向きが傾いている(運転者が左右に顔を向けている)ときには開眼を閉眼と誤って判定してしまう可能性が高まることを付け加えておく。
再度、図2を参照する。開閉判定結果処理部35は、開閉眼判定部33により判定された開閉眼判定結果を入力し、所定時間遅延させて覚醒度推定部34に出力するものである。すなわち、開閉眼判定部33により判定された開閉眼判定結果は、開閉判定結果処理部35によって直ちに覚醒度推定部34に入力されなくなり、所定時間経過後でなければ覚醒度推定に用いられないこととなる。上記眼検出部32は、この所定時間の遅延の間に、検出した運転者の眼が誤検出によるものかを判断する構成となっている。すなわち、本実施形態に係る覚醒度推定装置30は、開閉判定結果処理部35による遅延によって、開閉眼判定結果が直ちに覚醒度推定に用いられることを防止し、確実に誤検出か否かを加味した覚醒度推定を行うようにしている。
処理状態出力部36は、各部31〜35の作動状況等に応じて覚醒度推定装置30の状態を判断し、判断した状態の情報を出力するものである。具体的に処理状態出力部36は、少なくとも「検出中」「学習中」及び「推定中」の3つの状態を判別し、出力するようになっている。ここで、「検出中」とは、顔画像全体から眼の検出を行っている状態をいう。「学習中」とは、開閉眼を決定する閾値を学習している状態をいう。「推定中」とは、運転者の覚醒度を推定している状態をいう。
覚醒度信号出力部37は、覚醒度推定部34によって推定された覚醒度の情報から、覚醒度信号を生成して出力するものである。この覚醒度信号出力部37は、上記したように、報知装置などに覚醒度信号を出力することとなる。
次に、本実施形態に係る覚醒度推定装置30の動作の概略を説明する。図5は、本実施形態に係る覚醒度推定装置30の動作を示す説明図であり、(a)は状態遷移図であり、(b)は本装置30が「検出中」であるときの各部31〜37の動作の様子を示している。また、(c)は本装置30が「学習中」であるときの各部31〜37の動作の様子を示し、(d)は本装置30が「推定中」であるときの各部31〜37の動作の様子を示している。
まず、車両のイグニッションスイッチがオンされると、覚醒度推定装置30が起動して、図5(a)に示す「検出中」の状態Aとなる。この状態Aにおいて覚醒度推定装置30は顔画像全体から車両運転者の眼の検出を行う。そして、覚醒度推定装置30は検出が完了するまでこの状態を繰り返す。このとき、図5(b)に示すように、覚醒度推定装置30のうち顔画像取得部31、眼位置検出部32a及び処理状態出力部36が作動することで、眼の検出が行われることとなる。そして、眼が検出されると、状態Aから他の状態B,Cへ移行することとなる。
「検出中」の状態Aにおいて眼が検出されると、眼の学習が完了していない場合、覚醒度推定装置30は「学習中」の状態Bとなり、眼の学習(すなわち閾値の設定)を行う。そして、覚醒度推定装置30は学習が完了するまでこの状態を繰り返す。このとき、図5(c)に示すように、覚醒度推定装置30のうち顔画像取得部31、眼位置追跡部32b、開閉眼学習部33a及び処理状態出力部36が作動することで、眼の学習が行われることとなる。そして、学習が完了すると、状態Bから「推定中」の状態Cへ移行することとなる。他方、眼の学習中において、眼を完全に見失った場合、覚醒度推定装置30は、再度「検出中」の状態Aに遷移する。
「検出中」の状態Aにおいて眼が検出され眼の学習が完了している場合、又は「学習中」の状態Bにおいて眼の学習が完了した場合、覚醒度推定装置30は図5(a)に示す「推定中」の状態Cとなり、運転者の覚醒度の推定を行う。その後、覚醒度推定装置30は、覚醒度の推定を繰り返し行う。そして、覚醒度信号出力部37は覚醒度信号を報知装置などに出力することとなる。なお、状態Cにおいては、図5(d)に示すように、覚醒度推定装置30のうち顔画像取得部31、眼位置追跡部32b、開閉眼学習部33a、開閉眼決定部33b、覚醒度推定部34、開閉判定結果処理部35、処理状態出力部36、及び覚醒度信号出力部37が作動することとなる。また、覚醒度推定装置30は、覚醒度の推定中において眼を完全に見失った場合、再度「検出中」の状態Aに遷移する。
次に、本発明の実施形態に係る覚醒度推定方法を説明する。図6は、本実施形態に係る覚醒度推定方法の詳細を示すフローチャートである。まず、覚醒度推定装置30は、カメラ10からビデオ信号を入力する。そして、図6に示すように、眼検出部32は前回処理において眼が検出されていたか否かを判断する(ST1)。ここで、前回処理において眼が検出されていなかった場合(ST1:NO)、眼検出部32の眼位置検出部32aは眼検出処理を実行する(ST2)。
図7〜図9は、図6に示した眼検出処理(ST2)の概要を示す説明図であり、図7は眼検出部32が入力する画像データの一例を示す説明図であり、図8は、図7に示す画像縦方向の画素列Ybの濃度値を示すグラフであり、図9は、眼の検出の様子を示す説明図である。
眼位置検出部32aは、図7に示すような画像を入力すると、画像の縦方向の画素列(縦ライン)に沿って画素の濃度を検出し、前記画素列における濃度の局所的な高まりごとに1個ずつの要素を定めて抽出点とする。そして、眼位置検出部32aは、画像縦方向の画素列の全ラインについて抽出点を定める。
ここで、図8に示すように、画像縦方向の画素列Ybの濃度値は、眼や眼鏡枠や口の部分で局所的に低下している。このため、眼位置検出部32aは、Ybラインについて、眼や眼鏡枠や口部分の画素を抽出点として定めることとなる。
その後、眼位置検出部32aは、抽出点を集合させた画素群を得る。これにより、眼、眼鏡枠、及び口付近に画素群が得られる。ここで、眼は、横方向に延びる形状を為している。このため、図9に示す眼の画素群は、形状的に画像横方向に連なるものとなる。よって、眼位置検出部32aは、横方向に延びる画素群を選択することで、眼の画素群を抽出することができる。なお、眼鏡枠なども横方向に延びるものであるため、眼位置検出部32aは、より正確には予め設定される眼の長さや、眼が左右対称であることを利用して、眼を特定してもよい。また、眼位置検出部32aは、テンプレートマッチング処理を併用するようにしても良い。
このように、眼位置検出部32aは、顔画像全体から眼を検出する。図10は、図6に示した眼検出処理(ST2)の詳細を示すフローチャートである。なお、本実施形態において、眼位置検出部32aは、まず片眼の位置を検出し、その後検出した片眼をもとに両眼を検出するようになっている。従って、初期的には片眼の位置検出が実行される。
図10に示すように、まず、眼位置検出部32aは、片眼候補検出を行うか、両眼確定処理を行うを判断する(ST21)。ここで、片眼候補検出を行うと判断した場合(ST21:片眼候補検出)、眼位置検出部32aは片眼候補検出用の処理エリアを顔画像上に設ける(ST22)。
図11は、図6に示した眼検出処理(ST2)の詳細を示す説明図であり、(a)は片眼候補検出用の処理エリアを示しており、(b)は検出された連続データ等を示し、(c)は両眼確定用の処理エリアを示している。図11(a)に示すように、眼位置検出部32aは顔画像上に片眼候補検出用の処理エリアを設定する。この処理エリアは、例えば画像の右半分又は左半分に設定される。
再度、図10を参照する。処理エリアを設定した後、眼位置検出部32aは処理エリア内から連続データを求める(ST23)。このとき、眼位置検出部32aは、図7〜図9を参照して説明したようにして連続データを求める。なお、図11に示す例において、眼位置検出部32aは、10画素間隔で縦方向の画素列ごとに抽出点を定めている。
その後、眼位置検出部32aは、片眼候補の絞り込みを行う(ST24)。すなわち、眼位置検出部32aは、図11(b)に示すように、複数の連続データから眼である連続データを絞り込む。このとき、眼位置検出部32aは、上瞼については上に凸の形状を元に眼である連続データを絞り込む。また、眼位置検出部32aは、上記したように予め定めた眼の長さや、左右対称性から連続データを絞り込むようにしてもよい。ここで、図11(b)に示す例では、連続データG1,G2のうち上に凸である連続データG1が眼の連続データとして絞り込まれることとなる。
再度、図10を参照する。片眼候補の絞り込みを行った後、眼位置検出部32aは、次フレームで片眼候補検出を行うか、両眼確定処理を行うかを判断しておく(ST25)。ここで、ステップST23,ST24の処理において、片眼候補の検出に失敗していた場合、眼位置検出部32aは次フレームで片眼候補検出を行うと判断する。一方、片眼候補の検出に成功していた場合、眼位置検出部32aは次フレームで両眼確定処理を行うと判断する。そして、処理は図6のステップST5に移行する。なお、眼位置検出部32aは、片眼候補の検出に成功していたとしても数回に亘り片眼候補の検出に成功するまでは連続して片眼候補検出を行うようにしてもよい。
ところで、両眼確定処理を行うと判断した場合(ST21:両眼確定処理)、眼位置検出部32aは両眼確定用の処理エリアを顔画像上に設ける(ST22)。このとき、眼位置検出部32aは、図11(c)に示すように、先に検出した片眼の位置をもとに、顔画像上に両眼確定用の処理エリアを設定する。
次いで、眼位置検出部32aは、眼位置検出部32aは処理エリア内から連続データを求め(ST27)、両目候補の検出を行う(ST28)。このとき、眼位置検出部32aは、ステップST23,ST24と同様にして、連続データを求め且つ両眼候補の検出を行う。なお、ステップST28において、眼位置検出部32aは、パターン認識(テンプレーマッチング)を行い、両眼候補が運転者の両眼であるか否かを判定するようになっている。ここで、パターン認識に用いられるテンプレートは予め複数個登録されており、両眼であるかの判定にあたっては相互相関法が採用される。なお、眼位置検出部32aは、ニューラルネットワークを備え、ニューラルネットワークの学習を経て両眼であるかの判定を行う構成であってもよい。
その後、眼位置検出部32aは、次フレームで片眼候補検出を行うか、両眼確定処理を行うか、眼の追跡(すなわち一部領域からの眼の検出)を行うかを判断しておく(ST29)。ここで、ステップST27,ST28の処理において、両眼確定に失敗し且つ片眼候補の位置まで見失ったり検出した片眼候補がそもそも眼でなかったりした場合などには、眼位置検出部32aは次フレームで片眼候補検出を行うと判断する。また、両眼確定に失敗したが片眼候補の位置を見失うなどなかった場合、眼位置検出部32aは次フレームで両眼確定処理を行うと判断する。また、両眼確定に成功した場合、眼位置検出部32aは次フレームで眼の追跡を行うと判断する。そして、処理は図6のステップST5に移行する。
再度、図6を参照する。図6のステップST1において、前回処理で眼が検出された場合(ST1:YES)、眼検出部32の眼位置追跡部32bは、顔部位探査領域(一部領域)を設定する(ST3)。このとき、眼位置追跡部32bは、前回検出された眼の位置を含んで、眼の位置の周囲に顔部位探査領域を設定する。図12は、眼位置追跡部32bの動作の概略を示す説明図であり、(a)は顔部位探査領域を示し、(b)は反対側の眼の検出の様子を示している。図12(a)に示すように、眼位置追跡部32bは、前回検出された一方の眼(基準眼)の位置を中心にして長方形状の顔部位探査領域を顔画像上に設定する。この顔部位探査領域は、例えば、眼全体の大きさに余裕分(例えば眼の大きさの0.5倍分)を加えた大きさとされる。
図6を参照する。顔部位探査領域の設定後、眼位置追跡部32bは、眼追跡処理を実行する(ST4)。眼追跡処理では、図12(a)に示す顔部位探査領域から基準眼が検出される。そして、検出された基準眼の位置と、前回処理までに算出された眼間距離とをもとに、図12(b)に示すような他方の眼(反対眼)の顔部位探査領域が設定される。次いで、反対眼の顔部位探査領域から反対眼が検出される。
図13は、図6に示した眼追跡処理(ST4)の詳細を示すフローチャートである。まず、眼位置追跡部32bは、顔部位探査領域から基準眼を検出する(ST31)。基準眼の検出は図7〜図9を参照して説明した場合と同様に行われる。その後、眼位置追跡部32bは、基準眼を検出できたか否かを判断する(ST32)。
基準眼を検出できたと判断した場合(ST32:YES)、処理はステップST37に移行する。一方、基準眼を検出できなかったと判断した場合(ST32:NO)、眼位置追跡部32bは、反対眼を基準眼とし(ST33)、その基準眼を検出する(ST34)。そして、眼位置追跡部32bは、基準眼を検出できたか否かを判断する(ST35)。
ここで、基準眼を検出できなかったと判断した場合(ST35:NO)、眼位置追跡部32bは、眼の追跡に失敗したと判断し、処理は図6のステップST5に移行することとなる。他方、基準眼を検出できたと判断した場合(ST35:YES)、処理はステップST37に移行する。
ステップST37において、眼位置追跡部32bは反対眼を検出する(ST37)。そして、眼位置追跡部32bは、反対眼を検出できたか否かを判断する(ST38)。反対眼を検出できたと判断した場合(ST38:YES)、検出した眼の座標位置を基準眼及び反対眼として確定させる(ST39)。その後、処理は図6のステップST5に移行する。
一方、反対眼を検出できなかったと判断した場合(ST38:NO)、眼位置追跡部32bは、検出した基準眼の座標を基準眼の位置として確定させると共に、前回の基準眼から今回の基準眼への移動量分だけ、反対眼が移動したと仮定し、その仮定をもとに得られた位置を反対眼の位置として確定する。その後、処理は図6のステップST5に移行する。
図6のステップST5において、眼検出部32は、眼の検出をできたか否かを判断する(ST5)。眼の検出ができなかった場合(ST5:NO)、眼検出部32は未検出である旨の情報を覚醒度推定部34に出力する(ST6)。そして、処理は終了する。一方、眼の検出ができた場合(ST5:YES)、開閉眼判定部33は開閉眼判定を行う(ST7)。
図14は、図6に示した開閉眼判定(ST7)の詳細を示すフローチャートである。図14に示すように、開閉眼判定部33は、まず、開閉診断用パラメータを設定する(ST41)。図15は、図6に示した開閉眼判定(ST7)の説明図であり、(a)は図14のステップST41の詳細を示している。図15(a)に示すように、開閉眼判定部33は、開閉診断用パラメータとして閉眼時及び開眼時の眼の上下左右端を設定する。これにより、開閉眼判定部33は、眼の画像から、開眼時及び閉眼時の双方の眼の上端、下端、右端、及び左端位置を認識できるようになる。
再度、図14を参照する。開閉診断用パラメータの設定後、開閉眼判定部33は、ステップST2又はステップST4において検出した眼の開度を求める(ST42)。図15(b)は図14のステップST42の詳細を示している。同図に示すように、眼の開度とは、眼の縦幅をいう。このため、開閉眼判定部33は、眼の上端及び下端位置を検出し、これら位置の差から眼の縦幅を求める。
再度、図14を参照する。開度を求めた後、開閉眼判定部33は、眼が上に凸か、下に凸か、又は水平かを判断する(ST43)。次に、開閉眼判定部33は開閉学習終了か否かを判断する(ST44)。開閉学習終了でないと判断した場合(ST44:NO)、開閉眼学習部33aは、学習を行う(ST45)。このとき、開閉眼学習部33aは、ステップST43において上に凸と判断された眼の開度を学習して、開閉眼を判断するための閾値を求める。
図16は、図15に示したステップST45の詳細を示す説明図である。同図に示すように、開閉眼学習部33aは内部にカウンタを備えており、ステップST42において検出された開度の値をカウンタに記録する。そして、カウンタへの記録後、処理は図6のステップST8に移行する。また、カウンタに記録された開度値の個数が一定量に達した場合、開閉眼学習部33aは、カウンタに記録された値のうち連続する3つの値を合計し、この合計値が一定値(図16では例えば「20」)を超える場合には、上に凸の眼から検出された開度であると判断して学習を行う。そして、開閉眼学習部33aは、学習した開度値の平均値を求め、この平均値の約30%の値を、開閉眼を判断するための閾値とする。閾値を求めた後、処理は図6のステップST8に移行する。
ところで、開閉学習終了と判断した場合(ST44:YES)、開閉眼決定部33bは、ステップST42において検出された開度と閾値を比較し、開度が閾値以上の場合に開眼と決定し、開度が閾値未満の場合に閉眼と決定する。図17は、図15に示したステップST45の詳細を示す第2の説明図である。同図に示すように、開度が閾値を下回る場合を閉眼と決定することとなる。そして、開閉眼の決定後、処理は図6のステップST8に移行する。
なお、このステップST7の処理において得られた開閉眼判定結果は、上記したように直ちに覚醒度推定部34に出力されるわけでなく、(後述のステップST12に示すように)所定時間遅延されて覚醒度推定部34に出力されることとなる。
図6を参照する。ステップST8において、開閉眼判定部33は、学習が完了しているか否かを判断する(ST8)。学習が完了していない場合(ST8:NO)、処理は終了する。一方、学習が終了している場合(ST8:YES)、眼検出部32は誤検出判断を行う(ST9)。このとき、眼検出部32は、上記したように、検出した左右の眼の距離が短すぎる場合や、検出した眼の画像上方に眉が存在しない場合などに、誤検出と判断する。
図18は、図6に示したステップST8の詳細を示す説明図である。図18に示すように、眼検出部32は検出した眼が誤検出によるものであると判断する条件2〜8のいずれか1つ以上が成立するときに、誤検出と判断する。そして、眼検出部32は誤検出を判断した場合、その旨の情報を覚醒度推定部34に出力する。また、眼検出部32は、誤検出である画像を画像数の情報をもとに特定し、それら画像から得られた開閉眼判定結果が誤りであるとの情報を覚醒度推定部34に出力する。
さらに、眼検出部32は、ステップST8において眼の未検出についても判断する。具体的には、図18の条件1、条件9〜13の成立時に眼の未検出、すなわち眼の検出自体を行えない状態と判断する。なお、未検出判断はステップST8において実行されてもよいが、上記したステップST2やステップST4において実行されてもよい。
図6を参照する。誤検出判断の後、開閉判定結果処理部35は、置き換えを要するか否かを判断する(ST10)。ここで、置き換えについて説明する。図19は、図6に示した置き換え判断(ST10)の詳細を示す説明図であり、(a)は置き換え要の場合を示し、(b)は置き換え不要の場合を示している。
具体的に開閉判定結果処理部35は、所定時間の遅延中に入力した時系列の開閉眼判定結果が運転者の眼の不適切な開閉であって予め記憶されるパターンに該当する場合に、運転者の眼の適切な開閉であって予め記憶されるパターンに置き換えることとする。例えば、図19(a)に示すように、時系列の開閉眼判定結果が「閉眼」「開眼」「閉眼」と連続したとする。ここで、一般的に人間の眼の動きとして閉眼中に一瞬だけ開眼となり再び閉眼に戻るという動きは考えにくい。このため、開閉判定結果処理部35は「閉眼」「開眼」「閉眼」のうち「開眼」が誤りであったと判断し、「開眼」との判定結果を「閉眼」に置き換えるべきと判断する。
また、図19(b)に示すように、時系列の開閉眼判定結果が「開眼」「閉眼」「開眼」と連続したとする。ここで、開眼中に一瞬だけ閉眼となることは通常の瞬きの動作が行われたことを意味し、人間の動作としてあり得るものである。このため、開閉判定結果処理部35は誤りがないと判断し、置き換え不要と判断する。
図6を参照する。ステップST10において置き換えが不要と判断された場合(ST10:NO)、開閉判定結果処理部35は置き換えを行うことなく、処理はステップST12に移行する。一方、置き換え要と判断された場合(ST10:YES)、開閉判定結果処理部35は置き換えを行い、その後処理はステップST12に移行する。
ステップST12において開閉判定結果処理部35は、取得された開閉眼判定結果うち、取得後所定時間経過(遅延)した開閉眼判定結果を覚醒度推定部34に出力する(ST12)。
図20は、図6に示した遅延処理(ST12)の詳細を示す説明図である。図20に示すように、開閉判定結果処理部35は複数の格納領域を備えており、開閉眼判定部33からの開閉眼判定結果を格納領域に随時格納していく。そして、格納後、所定時間経過した開閉眼判定結果を覚醒度推定部34に出力する。
図6を参照する。出力後、覚醒度推定部34は、入力した開閉眼判定結果に基づいて運転者の覚醒度を推定する(ST13)。その後、処理は終了する。なお、上記処理は、車両のイグニッションスイッチがオフされて覚醒度推定装置30が停止するまで繰り返し実行される。
図21は、図6に示した覚醒度推定処理(ST13)の詳細を示す説明図である。覚醒度推定部34は、覚醒度の推定にあたり、閉眼時間比率を求める。具体的に説明すると、覚醒度推定部34は、規定時間t1から、眼が検出できなかった時間t4及び眼が誤検出であった時間t3を除いた時間t2のうち、閉眼t6(=t2−t5)であった時間が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定する。このように、覚醒度推定部34は、未検出及び誤検出を除いた時間t2のうち、閉眼であった時間t6が占める割合を閉眼時間比率とするので、未検出及び誤検出により覚醒度が不正確になることを抑制することとなり、正確に覚醒度を推定することができることとなる。
図22は、図6に示した覚醒度推定処理(ST13)の詳細を示す第2の説明図である。覚醒度推定部34は、規定時間t1から、眼が検出できなかった時間t4を除いた時間t2’のうち、閉眼であった時間t6(t2’−t6’+t7+t8)が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定してもよい。ここで、誤検出の時間t7+t8を閉眼時間t6に加えると過度に閉眼時間比率が高くなってしまう。一方、誤検出の時間t7+t8を開眼時間t5に加えて新たな開眼時間t5’としても、閉眼時間比率に与える影響は少ない。このため、覚醒度推定部34は、規定時間t1から未検出時間t4を除いた閉眼時間t6、開眼時間t5、及び誤検出時間t7+t8のうち、閉眼であった時間t6が占める割合を閉眼時間比率とすることで、正確に覚醒度を推定することができる。
次に、覚醒度推定部34が複数の覚醒度推定手法を実行可能に構成されている場合を説明する。覚醒度推定部34が複数の覚醒度推定手法に基づいて覚醒度推定手法ごとに覚醒を推定する場合、開閉判定結果処理部35は、覚醒度推定手法ごとに遅延させる所定時間を異ならせる。
より具体的に説明する。図23は、図6に示した遅延処理(ST12)の詳細を示す第2の説明図であり、複数の覚醒度推定手法を実行するのときの遅延の様子を示している。
例えば、第1覚醒度推定手法は閉眼時間比率に基づいて覚醒度の低下を推定する方法であり、第2覚醒度推定手法は閉眼時間比率の推移に基づいて覚醒度の低下を推定する方法であるとする。ここで、第2覚醒度推定手法のように閉眼時間比率の推移に基づいて覚醒度の低下を推定する場合、閉眼時間比率の推移の様子を可能な限りリアルタイムでチェックすることが望ましいため、例えば、3秒など或る程度短めの時間に占める閉眼時間比率の推移に基づいて覚醒度の低下を推定することとなる。他方、変化の様子を確認する必要がない第1覚醒度推定手法では、30秒など或る程度長めの時間に占める閉眼時間比率に基づいて覚醒度の低下を推定することとなる。
この場合において、第1覚醒度推定手法では遅延させる時間は上記に対応させて30秒程度であることが望ましく、第2覚醒度推定手法では遅延させる時間も同様に対応させて3秒程度であることが望ましい。このように、第2覚醒度推定手法の所定時間を第1覚醒度推定手法の所定時間よりも短くすることで、覚醒度推定手法ごとに遅延が短すぎず且つ長期過ぎないようにすることができる。
図24は、本実施形態に係る覚醒度推定装置30による閉眼時間比率の算出結果を示す説明図である。なお、図24に示す例では、運転者に通常の運転をさせた場合、運転者の顔を振った場合、運転者の覚醒度が低下している場合で閉眼時間比率の算出を行った。また、図24に示す例では、閉眼時間比率が閾値よりも大きくなると、運転者の覚醒度が低下していると判断するようになっている。
図24に示すように、従来手法では、誤検出によって通常運転時に閉眼時間比率が閾値を超えてしまう場合がある。ところが、本実施形態では誤検出時の情報が加味されて閉眼時間比率が算出されるため、算出された閉眼時間比率が閾値を超えることなく、正確に覚醒度が推定されることとなる。また、運転者の顔を振った場合、従来手法及び本実施形態の双方について閉眼時間比率は閾値を超えていない。また、本実施形態では、運転者の覚醒度が低下している場合において、閉眼時間比率が低下することなく、従来手法と同様に高く算出される。
図25は、本実施形態に係る覚醒度推定装置30による閉眼時間比率の算出結果と警報出力とを示す説明図である。なお、図25に示す例では、単純に運転者に長時間運転を行ってもらい閉眼時間比率の算出を行った。また、警報出力の判断閾値を閉眼時間比率25%に設定した。
従来手法では、誤検出によって閉眼時間比率が高まってしまう。このため、図25に示す時間13分の時点で不要な警報出力を招いている。ところが、本実施形態では、誤検出による閉眼時間比率の上昇を抑制することができるため、時間13分の時点で警報出力されることなく、運転者の覚醒度が低下した時間16分の時点のみで警報が出力されている。
このようにして、本実施形態に係る覚醒度推定装置30及び方法によれば、検出された眼について開閉眼を判定し、判定された開閉眼判定結果に基づいて運転者の覚醒度を推定するため、閉眼が頻繁に出現するときなどに覚醒度の低下を推定することができる。さらに、検出した被検出者の眼が誤検出によるものかを判断し、眼が誤検出によるものかの判断結果に基づいて、被検出者の覚醒度を判断する。このため、例えば、眼鏡のフレームや眉などを眼であると誤って検出した場合には、その誤検出の情報を加味して覚醒度を推定することができる。従って、眼を誤検出してしまった場合において覚醒度の推定精度を向上させることができる。
また、眼位置追跡部32bは、眼位置検出部32aによって検出された眼の位置、又は、前回眼位置追跡部32bが検出した眼の位置のいずれかを含んで顔部位探査領域(一部領域)を設定する。このため、一度眼位置検出部32aによって眼が検出されると、その後眼位置追跡部32bが眼の検出に失敗するまでは、一部領域から被検出者の眼が検出されることとなる。これにより、毎フレームで顔画像全体から眼を検出する必要がなくなり、処理の迅速化を図ることができる。
また、検出された眼の縦幅を計測して開閉眼を判断するための閾値を設定し、検出された眼の縦幅が設定された閾値以上の場合に開眼と決定し、縦幅が閾値未満の場合に閉眼と決定することとしている。このため、被検出者個人の眼の縦幅を学習したうえで、適切な閾値を設定できることとなり、開閉眼の判定を正確に行うことができる。
また、眼検出部32は、検出した眼が誤検出によるものであると判断する条件と、その条件が成立した場合に誤検出と判断すべき画像数とを記憶し、条件の成立時には誤検出と判断された画像に基づく眼の開閉眼判定結果が誤りであるとの情報を、覚醒度推定部34に出力することとしている。このため、覚醒度推定部34は、誤検出である可能性がある画像から覚醒度を推定しないなど、適切な対応を取ることができる。従って、覚醒度の推定精度を向上させることができる。
また、判定された開閉眼判定結果を入力し、所定時間遅延させて覚醒度推定部34に出力する開閉判定結果処理部35をさらに備え、眼検出部32は、開閉判定結果処理部35による所定時間の遅延の間に、検出した被検出者の眼が誤検出によるものかを判断することとしている。このため、遅延しないことにより眼検出部32が誤検出と判断したときには覚醒度の推定を終えているという事態が確実に防止される。従って、確実に誤検出か否かを加味して覚醒度を推定することができる。
また、所定時間の遅延中に入力した時系列の開閉眼判定結果が、被検出者の眼の不適切な開閉であって予め記憶されるパターンに該当する場合、被検出者の眼の適切な開閉であって予め記憶されるパターンに置き換えることとしている。このため、例えば閉眼継続中にスパイクノイズによって1フレームだけ開眼が発生した場合などには、1フレームの閉眼を開眼に置き換えることが可能となり、スパイクノイズによる覚醒度の推定精度低下を抑制することができる。
また、規定時間t1から、眼が検出できなかった時間t4及び眼が誤検出であった時間t3を除いた時間t2のうち、閉眼であった時間t6が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定する。このため、未検出時間t4及び誤検出時間t3を除いた閉眼時間t6及び開眼時間t5のうち、閉眼であった時間t6が占める割合を閉眼時間比率とするので、誤検出及び未検出が除かれることとなり、正確に覚醒度を推定することができる。
または、規定時間t1から、眼が検出できなかった時間t4を除いた時間のうち、閉眼であった時間t6が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定する。ここで、誤検出の時間t4を閉眼時間t6に加えると過度に閉眼時間比率が高くなってしまう。一方、誤検出の時間t4を開眼時間t5に加えても、閉眼時間比率に与える影響は少ない。このため、未検出時間t4を除いた閉眼時間t6、開眼時間t5、及び誤検出時間t7+t8のうち、閉眼であった時間t5が占める割合を閉眼時間比率とすることで、正確に覚醒度を推定することができる。
また、複数の覚醒度推定手法のそれぞれに応じて、遅延させる所定時間を異ならせることとしているので、覚醒度推定手法に応じた時間だけ遅延されることとなり、遅延が短すぎず且つ長期過ぎないようにすることができる。
特に、閉眼時間比率に基づいて覚醒度の低下を推定する第1覚醒度推定手法と、閉眼時間比率の推移に基づいて覚醒度の低下を推定する第2覚醒度推定手法とについて、第2覚醒度推定手法の所定時間は第1覚醒度推定手法の所定時間よりも短くされる。例えば、第1覚醒度推定手法は閉眼時間比率に基づいて覚醒度の低下を推定する。すなわち、第1覚醒度推定手法は、30秒など或る程度長めの時間に占める閉眼時間比率に基づいて覚醒度の低下を推定する方法であるとする。また、第2覚醒度推定手法は、3秒など或る程度短めの時間に占める閉眼時間比率の推移に基づいて覚醒度の低下を推定する方法であるとする。
この場合、第1覚醒度推定手法では遅延させる時間は30秒程度であることが望ましく、第2覚醒度推定手法では遅延させる時間は3秒程度であることが望ましい。このように、第2覚醒度推定手法の所定時間を第1覚醒度推定手法の所定時間よりも短くすることで、覚醒度推定手法ごとに遅延が短すぎず且つ長期過ぎないようにすることができる。
以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で、変更を加えてもよい。例えば、上記実施形態では、車両運転者を被検出者とする例を説明したが、これに限らず、他の乗り物の運転者を被検出者として撮像するようにしてもよい。また、覚醒度推定装置30は、被撮像者の眼を追跡して被撮像者の視線移動を記録するテスト装置の類であってもよい。
本発明の実施形態に係るの覚醒度推定システムのハード構成図である。 図1に示した覚醒度推定装置の詳細構成図である。 誤検出の例を示す説明図であり、(a)は第1の例を示し、(b)は第2の例を示している。 開閉眼の誤判定の例を示す説明図であり、(a)は第1の例を示し、(b)は第2の例を示している。 本実施形態に係る覚醒度推定装置の動作を示す説明図であり、(a)は状態遷移図であり、(b)は本装置が「検出中」であるときの各部の動作の様子を示し、(c)は本装置が「学習中」であるときの各部の動作の様子を示し、(d)は本装置が「推定中」であるときの各部の動作の様子を示している。 本実施形態に係る覚醒度推定方法の詳細を示すフローチャートである。 図6に示した眼検出処理(ST2)の概要を示す説明図であり、眼検出部が入力する画像データの一例を示す説明図である。 図6に示した眼検出処理(ST2)の概要を示す説明図であり、図7に示す画像縦方向の画素列Ybの濃度値を示すグラフである。 図6に示した眼検出処理(ST2)の概要を示す説明図であり、眼の検出の様子を示す説明図である。 図6に示した眼検出処理(ST2)の詳細を示すフローチャートである。 図6に示した眼検出処理(ST2)の詳細を示す説明図であり、(a)は片眼候補検出用の処理エリアを示しており、(b)は検出された連続データ等を示し、(c)は両眼確定用の処理エリアを示している。 眼位置追跡部の動作の概略を示す説明図であり、(a)は顔部位探査領域を示し、(b)は反対側の眼の検出の様子を示している。 図6に示した眼追跡処理(ST4)の詳細を示すフローチャートである。 図6に示した開閉眼判定(ST7)の詳細を示すフローチャートである。 図6に示した開閉眼判定(ST7)の説明図であり、(a)は図14のステップST41の詳細を示し、(b)は図14のステップST42の詳細を示している。 図15に示したステップST45の詳細を示す説明図である。 図15に示したステップST45の詳細を示す第2の説明図である。 図6に示したステップST8の詳細を示す説明図である。 図6に示した置き換え判断(ST10)の詳細を示す説明図であり、(a)は置き換え要の場合を示し、(b)は置き換え不要の場合を示している。 図6に示した遅延処理(ST12)の詳細を示す説明図である。 図6に示した覚醒度推定処理(ST13)の詳細を示す説明図である。 図6に示した覚醒度推定処理(ST13)の詳細を示す第2の説明図である。 図6に示した遅延処理(ST12)の詳細を示す第2の説明図であり、複数の覚醒度推定手法を実行するのときの遅延の様子を示している。 本実施形態に係る覚醒度推定装置による閉眼時間比率の算出結果を示す説明図である。 本実施形態に係る覚醒度推定装置による閉眼時間比率の算出結果と警報出力とを示す説明図である。
符号の説明
1…覚醒度推定システム
10…カメラ
20…照明装置
30…覚醒度推定装置
31…顔画像取得部
32…眼検出部(眼検出手段)
32a…眼位置検出部(第1検出手段)
32b…眼位置追跡部(第2検出手段)
33…開閉眼判定部(開閉眼判定手段)
33a…開閉眼学習部(閾値設定手段)
33b…開閉眼決定部(開閉眼決定手段)
34…覚醒度推定部(覚醒度判定手段)
35…開閉判定結果処理部(遅延出力手段)
36…処理状態出力部
37…覚醒度信号出力部

Claims (9)

  1. 被検出者の顔を含む画像データを入力し、この画像から被検出者の眼を検出する眼検出手段と、
    前記眼検出手段により検出された眼について開閉眼を判定する開閉眼判定手段と、
    前記開閉眼判定手段により判定された開閉眼判定結果に基づいて、被検出者の覚醒度を推定する覚醒度推定手段と、を備え、
    前記眼検出手段は、検出した被検出者の眼が誤検出によるものかを判断し、
    前記覚醒度推定手段は、前記開閉眼判定手段により判定された開閉眼判定結果に加えて、前記眼検出手段による誤検出判断結果に基づいて、被検出者の覚醒度を推定し、
    前記眼検出手段は、検出した眼が誤検出によるものであると判断する条件と、その条件が成立した場合に誤検出と判断すべき画像数とを記憶し、前記条件の成立時には誤検出と判断すべき数の画像に基づく眼の開閉眼判定結果が誤りであるとの情報を、前記覚醒度推定手段に出力することを特徴とする覚醒度推定装置。
  2. 前記眼検出手段は、
    被検出者の顔を含む画像全体から被検出者の眼を検出する第1検出手段と、
    被検出者の顔を含む画像の一部領域から被検出者の眼を検出する第2検出手段と、を有し、
    前記第2検出手段は、前記第1検出手段によって検出された眼の位置、又は、前回前記第2検出手段が検出した眼の位置のいずれかを含んで一部領域を設定する
    ことを特徴とする請求項1に記載の覚醒度推定装置。
  3. 前記開閉眼判定手段は、
    前記眼検出手段により検出された眼の縦幅を計測して開閉眼を判断するための閾値を設定する閾値設定手段と、
    前記眼検出手段により検出された眼の縦幅が前記閾値設定手段により設定された閾値以上の場合に開眼と決定し、前記眼検出手段により検出された眼の縦幅が前記閾値未満の場合に閉眼と決定する開閉眼決定手段と、
    を有することを特徴とする請求項1又は請求項2のいずれかに記載の覚醒度推定装置。
  4. 前記開閉眼判定手段により判定された開閉眼判定結果を入力し、所定時間遅延させて前記覚醒度推定手段に出力する遅延出力手段をさらに備え、
    前記眼検出手段は、前記遅延出力手段による所定時間の遅延の間に、検出した被検出者の眼が誤検出によるものかを判断する ことを特徴とする請求項1〜請求項のいずれか1項に記載の覚醒度推定装置。
  5. 前記遅延出力手段は、所定時間の遅延中に入力した時系列の開閉眼判定結果が、被検出者の眼の不適切な開閉であって予め記憶されるパターンに該当する場合、被検出者の眼の適切な開閉であって予め記憶されるパターンに置き換えることを特徴とする請求項に記載の覚醒度推定装置。
  6. 前記覚醒度推定手段は、複数の覚醒度推定手法に基づいて、覚醒度推定手法ごとに覚醒度を推定し、
    前記遅延出力手段は、覚醒度推定手法ごとに遅延させる所定時間を異ならせる
    ことを特徴とする請求項又は請求項のいずれかに記載の覚醒度推定装置。
  7. 前記眼検出手段は、眼が検出できなかった場合、その旨の情報を前記覚醒度推定手段に出力し、
    前記覚醒度推定手段は、規定時間から、眼が検出できなかった時間及び眼が誤検出であった時間を除いた時間のうち、閉眼であった時間が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定し、又は、規定時間から、眼が検出できなかった時間を除いた時間のうち、閉眼であった時間が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定する
    ことを特徴とする請求項に記載の覚醒度推定装置。
  8. 前記覚醒度推定手段は、閉眼時間比率に基づいて覚醒度の低下を推定する第1覚醒度推定手法と、閉眼時間比率の推移に基づいて覚醒度の低下を推定する第2覚醒度推定手法とを有し、
    前記遅延出力手段は、第2覚醒度推定手法の所定時間を第1覚醒度推定手法の所定時間よりも短くする
    ことを特徴とする請求項に記載の覚醒度推定装置。
  9. 被検出者の顔を含む画像データを入力し、この画像から被検出者の眼を検出する眼検出ステップと、
    前記眼検出ステップにおいて検出された眼について開閉眼を判定する開閉眼判定ステップと、
    前記眼検出ステップにおいて検出された眼が誤検出によるものかを判断する誤検出判断ステップと、
    前記開閉眼判定ステップにおいて判定された開閉眼判定結果と、前記眼検出ステップにおける誤検出判断結果とに基づいて、被検出者の覚醒度を推定する覚醒度推定ステップとを有し、
    前記眼検出ステップは、検出した眼が誤検出によるものであると判断する条件と、その条件が成立した場合に誤検出と判断すべき画像数とを記憶し、前記条件の成立時には誤検出と判断すべき数の画像に基づく眼の開閉眼判定結果が誤りであるとの情報を、前記覚醒度推定ステップのために出力することを特徴とする覚醒度推定方法。
JP2005213463A 2005-07-22 2005-07-22 覚醒度推定装置及び方法 Expired - Fee Related JP4412253B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005213463A JP4412253B2 (ja) 2005-07-22 2005-07-22 覚醒度推定装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005213463A JP4412253B2 (ja) 2005-07-22 2005-07-22 覚醒度推定装置及び方法

Publications (2)

Publication Number Publication Date
JP2007034436A JP2007034436A (ja) 2007-02-08
JP4412253B2 true JP4412253B2 (ja) 2010-02-10

Family

ID=37793664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005213463A Expired - Fee Related JP4412253B2 (ja) 2005-07-22 2005-07-22 覚醒度推定装置及び方法

Country Status (1)

Country Link
JP (1) JP4412253B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5365374B2 (ja) * 2009-06-30 2013-12-11 日産自動車株式会社 欠伸判定装置及び方法
JP5789578B2 (ja) * 2012-09-20 2015-10-07 富士フイルム株式会社 眼の開閉判断方法及び装置、プログラム、並びに監視映像システム
JP2014071519A (ja) * 2012-09-27 2014-04-21 Aisin Seiki Co Ltd 状態判定装置、運転支援システム、状態判定方法及びプログラム
US11200417B2 (en) 2018-02-13 2021-12-14 Mitsubishi Electric Corporation Determination apparatus and method to enhance accuracy in determining the presence of an erroneously detected eyelid
JP6947131B2 (ja) * 2018-07-12 2021-10-13 トヨタ自動車株式会社 乗員状態認識装置
CN111626240B (zh) * 2020-05-29 2023-04-07 歌尔科技有限公司 一种人脸图像识别方法、装置、设备及可读存储介质

Also Published As

Publication number Publication date
JP2007034436A (ja) 2007-02-08

Similar Documents

Publication Publication Date Title
CN106687037B (zh) 用于检测瞬时睡眠的设备、方法和计算机程序
JP4412253B2 (ja) 覚醒度推定装置及び方法
KR101386823B1 (ko) 동작, 안면, 눈, 입모양 인지를 통한 2단계 졸음운전 방지 장치
JP5177011B2 (ja) 開眼度特定装置
JP5737400B2 (ja) 赤目検出装置
JP2008210239A (ja) 視線推定装置
JP6187817B2 (ja) 顔検出装置、方法およびプログラム
JP2008146356A (ja) 視線方向推定装置及び視線方向推定方法
US20190141264A1 (en) Driver's eye position detecting device and method, imaging device having image sensor with rolling shutter driving system, and illumination control method thereof
US10552694B2 (en) Drowsiness estimating apparatus
JP2000235648A (ja) 目の抽出装置および瞬き検出装置
JP2008099884A (ja) 状態推定装置
JP2016209231A (ja) 居眠り検知装置
JP4622439B2 (ja) 覚醒度判定装置
JP4788319B2 (ja) 開閉眼判定装置及び方法
JP2011229741A (ja) 眠気度推定装置および眠気度推定方法
WO2021112048A1 (ja) 運転分析装置、及び運転分析方法
US11161470B2 (en) Occupant observation device
JP2011125620A (ja) 生体状態検出装置
US11077814B2 (en) Occupant eye(s) observation device
JP2019068933A (ja) 推定装置及び推定方法
JP4692006B2 (ja) 画像処理装置及び画像処理方法
JP7325687B2 (ja) 眠気推定装置及び眠気推定システム
JP2006178676A (ja) 覚醒度判断装置
JP6698966B2 (ja) 誤検出判定装置及び誤検出判定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091027

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees