JP2011125620A - 生体状態検出装置 - Google Patents

生体状態検出装置 Download PDF

Info

Publication number
JP2011125620A
JP2011125620A JP2009289313A JP2009289313A JP2011125620A JP 2011125620 A JP2011125620 A JP 2011125620A JP 2009289313 A JP2009289313 A JP 2009289313A JP 2009289313 A JP2009289313 A JP 2009289313A JP 2011125620 A JP2011125620 A JP 2011125620A
Authority
JP
Japan
Prior art keywords
driver
biological state
face
eye
eye opening
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009289313A
Other languages
English (en)
Inventor
Kashu Takemae
嘉修 竹前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009289313A priority Critical patent/JP2011125620A/ja
Publication of JP2011125620A publication Critical patent/JP2011125620A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】生体状態の検出精度低下を防止することができる生体状態検出装置を提供する。
【解決手段】画像を用いて運転者の生体状態を検出する生体状態検出装置1であって、画像に基づいて運転者の顔特徴点を取得する顔特徴点検出部21と、顔特徴点に基づいて運転者の顔姿勢を取得する顔姿勢検出部22と、顔特徴点の特徴量のうち運転者の顔姿勢が所定範囲にある顔特徴点の特徴量に基づいて、運転者の生体状態を検出する眠気推定部27とを備えることにより、例えば運転者の顔向きが顔特徴点の特徴量を誤検出する可能性のある範囲に向いている場合には、当該特徴量を運転者の生体状態を検出するための情報として利用することを回避して生体状態の検出精度低下を防止する。
【選択図】図1

Description

本発明は、生体状態を検出する装置に関するものである。
従来、生体状態を検出する装置として、画像を用いて運転者の眠気を検出するものが知られている(例えば、特許文献1参照)。特許文献1記載の装置は、運転者の顔画像を撮像し、撮像した画像領域を探索して眼を表す眼領域を抽出し、抽出された眼領域の画像に基づいて眼が開いている度合いを示す開眼度を算出する。そして、開眼度に基づいて眠気状態の判定を行う。
特開2008−212298号公報
しかしながら、従来の装置にあっては、運転者の生体状態を正確に検出できないおそれがある。例えば、運転者の顔の向きがカメラの正面に向いていない場合には、開眼度を誤検知することがあるため、結果として生体状態を正確に検出することが困難となる場合がある。
そこで、本発明はこのような技術課題を解決するためになされたものであって、生体状態の検出精度低下を防止することができる生体状態検出装置を提供することを目的とする。
すなわち本発明に係る生体状態検出装置は、画像を用いて運転者の生体状態を検出する生体状態検出装置であって、前記画像に基づいて前記運転者の顔特徴点を取得する顔特徴点取得手段と、前記顔特徴点に基づいて前記運転者の顔姿勢を取得する顔姿勢取得手段と、前記顔特徴点の特徴量のうち前記運転者の顔姿勢が所定範囲にあるときの前記顔特徴点の特徴量に基づいて、前記運転者の生体状態を検出する生体状態検出手段と、を備えて構成される。
本発明に係る生体状態検出装置では、顔特徴点取得手段により、画像に基づいて運転者の顔特徴点が取得され、顔姿勢取得手段により、顔特徴点に基づいて運転者の顔姿勢が取得され、生体状態検出手段により、画像から取得された顔特徴点の特徴量のうち運転者の顔姿勢が所定範囲にあるときの顔特徴点の特徴量に基づいて運転者の生体状態が検出される。このため、例えば運転者の顔向きが顔特徴点の特徴量を誤検出する可能性のある範囲に向いている場合には、当該特徴量を運転者の生体状態を検出するための情報として利用することを回避することができる。よって、生体状態の検出精度低下を防止することが可能となる。
ここで、顔姿勢取得手段は、前記運転者の顔姿勢として、ヨー方向、ピッチ方向又はロール方向における顔向きを取得し、前記生体状態検出手段は、前記顔特徴点の特徴量のうち前記運転者の顔向きがヨー方向、ピッチ方向又はロール方向の所定範囲にあるときの前記顔特徴点の特徴量に基づいて、前記運転者の生体状態を検出することが好適である。
このように構成することで、例えばヨー方向、ピッチ方向又はロール方向において顔向きが特徴量を誤検出する可能性のある範囲に向いている場合には、当該特徴量を運転者の生体状態を検出するための情報として利用することを回避することができる。よって、生体状態の検出精度低下を防止することが可能となる。
また、前記生体状態検出手段は、前記顔特徴点の特徴量に基づいて運転者の眼が開いている度合いを示す開眼度を算出し、算出した開眼度に基づいて前記運転者の生体状態を検出することが好適である。このように構成することで、例えば生体状態として運転者が感じる眠気を検出することができる。
また、前記生体状態検出手段は、前記運転者のヨー方向の顔向きが所定範囲にない場合には、左右何れかの眼の開眼度を前記運転者の生体状態を検出するための情報として利用せずに、前記運転者の生体状態を検出することが好適である。
このように構成することで、ヨー方向の顔向きが顔特徴量を誤検出する可能性のある範囲に向いている場合には、左右何れかの眼の開眼度を誤検出するおそれがあるため、左右何れかの眼の開眼度を運転者の生体状態を検出するための情報として利用しないことによって、不確かな情報を利用して運転者の生体状態を検出することを回避することができる。よって、生体状態の検出精度低下を防止することが可能となる。
さらに、前記生体状態検出手段は、前記運転者の生体状態と相関のある瞬き特徴量に基づいて、前記運転者の生体状態を検出することが好適である。このように構成することで、目の瞼の開閉運動に関する情報を用いて運転者の生体状態を精度良く判定することができる。
本発明によれば、生体状態の検出精度低下を防止することができる。
実施形態に係る生体状態検出装置を備える車両の構成概要を示すブロック図である。 実施形態に係る生体状態検出装置の動作を示すフローチャートである。 実施形態に係る生体状態検出装置の入力画像の一例である。 実施形態に係る生体状態検出装置の顔特徴量検出処理を説明する概要図である。 顔姿勢を説明する概要図である。 実施形態に係る生体状態検出装置の開眼度算出処理を説明する概要図である。 実施形態に係る生体状態検出装置の未検出判定処理を説明する概要図である。 実施形態に係る生体状態検出装置の開眼・閉眼判定処理を説明する概要図である。 実施形態に係る生体状態検出装置の瞬き特徴量算出処理を説明する概要図である。 実施形態に係る生体状態検出装置の眠気推定処理を説明する概要図である。 実施形態に係る生体状態検出装置の作用効果を説明する概要図である。
以下、添付図面を参照して本発明の実施形態について説明する。なお、各図において同一又は相当部分には同一の符号を付し、重複する説明を省略する。
本実施形態に係る生体状態検出装置は、例えば走行支援機能や運転支援機能を有する車両に好適に採用されるものである。
最初に、本実施形態に係る生体状態検出装置を備える車両の概要から説明する。図1は、本実施形態に係る生体状態検出装置1を備える車両の概要図である。図1に示す車両3は、画像センサ31及びECU(Electronic Control Unit)2を備えている。ECUは、電子制御する自動車デバイスのコンピュータであり、CPU(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random AccessMemory)等のメモリ、及び入出力インターフェイスなどを備えて構成されている。
画像センサ31は、運転者の画像を撮像するセンサである。画像センサ31として、例えばCCDカメラ等が用いられる。また、画像センサ31は、撮像した画像情報をECU2へ出力する機能を有している。
ECU2は、画像センサ31に接続されており、顔位置検出部20、顔特徴点検出部(顔特徴点取得手段)21、顔姿勢検出部(顔姿勢取得手段)22、開眼度算出部23、未検出判定部24、開眼・閉眼判定部25、瞬き特徴量算出部26及び眠気推定部27を備えている。なお、開眼度算出部23、未検出判定部24、開眼・閉眼判定部25、瞬き特徴量算出部26及び眠気推定部27が生体状態検出手段に相当する。
顔位置検出部20は、画像センサ31が出力した画像に写された顔の位置を検出する機能を有している。例えば、顔位置検出部20は、ニューラルネットワーク等の統計手法を用いて運転者の顔位置を画像の中から発見する。また、顔位置検出部20は、発見された顔位置を顔特徴点検出部21へ出力する機能を有している。
顔特徴点検出部21は、顔位置検出部により発見された顔位置の画像領域の中から、顔の特徴点を検出する機能を有している。例えば、顔特徴点検出部21は、ニューラルネットワーク等の統計手法を用いて運転者の顔の特徴点を発見する。顔特徴点としては、例えば、目尻、目頭、鼻腔中心、口端等が用いられる。顔特徴点検出部21は、検出された顔特徴点を顔姿勢検出部22及び開眼度算出部23へ出力する機能を有している。
開眼度算出部23は、顔特徴点検出部21が出力した顔特徴点の特徴量(画像情報)に基づいて、運転者の眼が開いている度合いを示す開眼度を算出する機能を有している。例えば、開眼度算出部23は、顔特徴点が含まれる所定の画像領域に対してフィルタをかけてエッジを強調した画像を生成する。そして、開眼度算出部23は、生成されたエッジ画像上に目尻及び目頭を結ぶ複数の曲線を投影し、その曲線上のエッジ強度から上瞼及び下瞼の位置を検出する。そして、開眼度算出部23は、上瞼の位置と下瞼の位置との差分を用いて開眼度を算出する。特徴量としては、例えば輝度値や画像上の位置情報等が用いられる。また、開眼度算出部23は、算出された開眼度を開眼・閉眼判定部25へ出力するとともに、ECU2の記録部等に蓄積する機能を有している。
開眼・閉眼判定部25は、開眼度算出部23が出力した開眼度に基づいて、運転者の眼が開眼状態であるのか、閉眼状態であるのかを判定する機能を有している。例えば、開眼・閉眼判定部25は、予めシミュレーション等により得られた開眼を判定するための閾値及び閉眼を判定するための閾値と、開眼度算出部23が出力した開眼度とを比較して、開眼状態及び閉眼状態を判定する。また、開眼・閉眼判定部25は、判定した結果を瞬き特徴量算出部26へ出力する機能を有している。
顔姿勢検出部22は、顔特徴点検出部21が出力した顔特徴点に基づいて、画像に映された顔の姿勢を検出する機能を有している。例えば、顔姿勢検出部22は、検出された顔特徴点の座標位置に顔の3Dモデルをフィッティングさせて運転者の位置、向きを算出する。また、顔姿勢検出部22は、検出された顔姿勢を未検出判定部24へ出力する機能を有している。
未検出判定部24は、顔姿勢検出部22が出力した顔姿勢に基づいて、開眼度算出部23が出力した開眼度を無効(未検出)とする機能を有している。例えば、未検出判定部24は、運転者の顔向きが正面を向いていない場合には、開眼度を誤検出するおそれがあるので、運転者の生体情報の検出のために利用する情報として採用しないように、その時点における開眼度を未検出とする。また、未検出判定部24は、判定した結果を瞬き特徴量算出部26へ出力するとともに、ECU2の記録部等に蓄積する機能を有している。
瞬き特徴量算出部26は、眠気と相関のある瞬き特徴量を算出する機能を有している。瞬き特徴量は、目の瞼の開閉運動に関する情報である。瞬き特徴量として、例えば、目を閉じている時間等が用いられる。瞬き特徴量算出部26は、例えば、ECU2の記録部等に蓄積された時系列の開眼度及び未検出とした開眼度の情報を参照し、所定時間において、開眼・閉眼判定部25により判定された閉眼状態の時間が占める割合を算出する。ここで、瞬き特徴量算出部26は、未検出判定部24により未検出とされた開眼度を検出した期間を除いて、所定時間に対する閉眼状態時間の割合を算出する。すなわち、瞬き特徴量算出部26は、誤検出する可能性のある開眼度以外のデータを用いて瞬き特徴量を算出する機能を有している。また、瞬き特徴量算出部26は、算出された瞬き特徴量を眠気推定部27へ出力する機能を有している。
眠気推定部27は、瞬き特徴量算出部26が出力した瞬き特徴量に基づいて、運転者の眠気の度合いを推定する機能を有している。眠気推定部27は、例えば、事前に学習した眠気の度合いと瞬き特徴量との関係を用いて、運転者の眠気の度合いを推定する機能を有している。
生体状態検出装置1は、上述した顔位置検出部20、顔特徴点検出部21、顔姿勢検出部22、開眼度算出部23、未検出判定部24、開眼・閉眼判定部25、瞬き特徴量算出部26及び眠気推定部27を備えて構成されている。
次に、本実施形態に係る生体状態検出装置1の動作について説明する。図2は、本実施形態に係る生体状態検出装置1の眠気推定動作を示すフローチャートである。図2に示す制御処理は、例えばイグニッションオンされたタイミングから所定の間隔で繰り返し実行される。
図2に示すように、生体状態検出装置1は、最初に顔位置検出処理から開始する(S10)。S10の処理では、顔位置検出部20が画像センサ31から画像を入力して、運転者の顔位置を検出する。例えば、顔位置検出部20は、図3に示す運転者の顔が写された画像F1を入力する。そして、顔位置検出部20は、ニューラルネットワークを用いて入力した画像F1全体の範囲を探索して顔位置を発見する。なお、顔位置を発見するアルゴリズムは、ニューラルネットワークに限られる事は無く、Boosting等の他の手法であってもよい。S10の処理が終了すると、顔特徴点検出処理へ移行する(S12)。
S12の処理では、顔特徴点検出部21が、S10の処理で入力された画像F1のうち、顔を含む所定領域の画像(顔の存在範囲の画像領域)に対して、ニューラルネットワーク等を用いて顔の特徴点の位置を検出する。この処理について、図4を用いて説明する。図4は、顔を含む所定領域の画像G1に対する特徴点検出処理を説明するための概要図である。図4に示す画像G1は、S10の処理で入力された画像F1の一部である。顔特徴点検出部21は、例えば図4に示すように、右目尻、右目頭、左目尻、左目頭、鼻腔中心、左右口端等を特徴点Hとして検出する。なお、特徴点を検出するアルゴリズムは、ニューラルネットワークに限られる事は無く、Boosting等の他の手法であってもよい。S12の処理が終了すると、顔姿勢推定処理へ移行する(S14)。
S14の処理では、顔姿勢検出部22が、S12の処理で得られた顔特徴点に基づいて、顔姿勢を推定する。この処理について、図5を用いて説明する。図5は、3D顔モデルの一例を示す概要図である。図5に示すように、顔の上下方向に沿ったYm方向、顔の左右方向に沿ったXm方向、顔の前後方向に沿ったZm方向において頭部回転中心からの距離を特徴点ごとに保持したものを3D顔モデルとしている。Ym軸周りの回転をヨー、Xm軸周りの回転をピッチ、Zm軸周りの回転をロールとしている。顔姿勢検出部22は、図5に示すように、3D顔モデルを図4の画像G1に示す顔特徴点にフィッティングさせて最も一致するときの位置及び回転(ヨー、ピッチ、ロール)をその時点での顔姿勢とする。なお、顔姿勢の推定方法は、この手法に限られるものではなく、公知の他の手法を用いてもよい。S14の処理が終了すると、開眼度算出処理へ移行する(S16)。
S16の処理では、開眼度算出部23が、S12の処理で得られた顔特徴点における特徴量を取得し、取得された特徴量に基づいて左右の眼の開眼度を算出する。この処理について、図6を用いて説明する。図6は、眼の開眼度算出処理を説明するための概要図である。図6に示すように、開眼度算出部23は、S12の処理で得られた顔特徴点である目尻H1,目頭H2を含む所定領域の画像に対して、例えばソーベルフィルタを適用して、エッジを強調した画像であるエッジ画像G2を生成する。そして、開眼度算出部23は、目尻H1,目頭H2に基づいて作成した複数の曲線QN(N:整数)をエッジ画像に投影し、その曲線上のエッジの強度(エッジ画像の画素値)を算出する。曲線QNとして、例えば、ベジェ曲線が用いられる。そして、開眼度算出部23は、算出されたエッジ強度の中からエッジ強度が強い曲線QNを選択し、上瞼曲線,下瞼曲線とする。そして、開眼度算出部23は、上瞼曲線の中点のY座標及び下瞼曲線の中点のY座標を算出し、上下瞼のY座標の差分に基づいて開眼度[pix]を算出する。なお、開眼度の算出方法は、この手法に限られるものではなく、公知の他の手法を用いてもよい。S16の処理が終了すると、未検出処理へ移行する(S18)。
S18の処理では、未検出判定部24が、S14の処理で得られた顔姿勢に基づいて運転者の顔向きが正面を向いているか否かを判定し、運転者の顔向きが正面を向いていない場合には、その時点での開眼度を未検出とする。未検出判定部24は、顔のヨー方向(左右方向)、ピッチ方向(上下方向)及びロール方向(傾き)の値の何れか一つが所定の範囲内に無い場合、例えば−15°〜+15°の範囲内に無い場合には、運転者の顔向きが正面を向いていないと判定する。そして、未検出判定部24は、運転者の顔向きが正面を向いていない場合には、開眼度の誤検出が生じやすいため、その時点での開眼度を未検出とする。上記手法の他に、顔のヨー方向の値に応じて左右何れかの眼の開眼度を未検出とする手法を採用してもよい。この手法について、図7を用いて説明する。図7は、ヨー方向の顔向きに応じて右目又は左目の開眼度を未検出とする処理を説明するための概要図である。図7(A)は、運転者の顔が左向きとなる場合の画像F2、図7(B)は、運転者の顔が正面を向いている場合の画像F3、図7(C)は、運転者の顔が右向きとなる場合の画像F4である。なお、以下では、画像センサ31側からみた左右方向を用いて説明する。例えば、運転者の顔が左向きとは、画像センサ31側からみて左側であり、左目とは、画像センサ31側からみて左側の目である。未検出判定部24は、運転者の顔向きが所定の範囲内に無い場合、例えば−15°〜+15°の範囲内に無い場合であって、図7(A)に示すように左向きである場合には、左目の開眼度を未検出とする。一方、未検出判定部24は、運転者の顔向きが所定の範囲内に無い場合、例えば−15°〜+15°の範囲内に無い場合であって、図7(C)に示すように右向きである場合には、右目の開眼度を未検出とする。このように、カメラからの距離が遠くなる眼については、誤検出が生じやすいため、その時点での開眼度を未検出とする。S18の処理が終了すると、開眼・閉眼判定処理へ移行する(S20)。
S20の処理では、開眼・閉眼判定部25が、S18の処理で未検出とされた開眼度以外の開眼度に基づいて、眼を開けた状態である開眼状態及び眼を閉じた状態である閉眼状態を、閾値を用いて検出する。開眼・閉眼判定部25は、例えば、時間に依存した開眼度の波形を用いて開眼状態及び閉眼状態を検出する。この処理について、図8を用いて説明する。図8は、時間に依存した開眼度の波形K1を示している。図8に示すように、開眼・閉眼判定部25は、波形K1が開眼閾値A1以上である場合には、開眼状態であると判定する。一方、開眼・閉眼判定部25は、波形K1が閉眼閾値A2以下である場合には、閉眼状態であると判定する。また、開眼・閉眼判定部25は、波形K1が開眼閾値A1より小さく閉眼閾値A2より大きい場合には、中間状態であると判定する。このように、開眼・閉眼判定部25は、閾値A1,A2を用いて眼の状態を判定する。なお、閾値A1,A2は、予め学習等で定めてもよいが、事前に設定した値以外のものを用いてもよい。また、開眼・閉眼判定部25は、左右の眼について眼の状態を判定できる場合、すなわち、左右の眼の開眼度が検出されている場合には、両目の開眼度の平均値を用いて閾値判定を行い、運転者の眼の状態を判定する。一方、開眼・閉眼判定部25は、左右の眼について何れか一方の眼の状態のみを判定できる場合、すなわち、左右の眼の開眼度の一方のみが検出されている場合には、検出された開眼度のみを利用して閾値判定を行い、運転者の眼の状態を判定する。S20の処理が終了すると、瞬き特徴量算出処理へ移行する(S22)。
S22の処理では、瞬き特徴量算出部26が、S20の処理で判定した眼の状態(開眼状態、閉眼状態、中間状態)に基づいて、眠気と相関のある瞬き特徴量を算出する。例えば、瞬き特徴量算出部26は、所定の期間(例えば10秒)における眼の状態のうち、閉眼状態となっていた閉眼期間を取得し、所定の期間に対する閉眼期間の割合を算出して瞬き特徴量とする。この処理について、図9を用いて説明する。図9は、時間に依存した開眼度の波形K2を示している。期間T1〜T3は、開眼度が閉眼閾値A2以下となった期間、すなわち閉眼期間である。ここで、S18の処理において期間T3は開眼度が未検出とされた区間であるとする。この場合、瞬き特徴量算出部26は、期間T3を除く所定期間を設定し、設定された所定期間に対して閉眼期間が占める割合を瞬き特徴量として算出する。すなわち、瞬き特徴量算出部26は、S18の処理で未検出とされた期間の情報を除外して瞬き特徴量を算出する。なお、S22の処理において、眠気と相関のある物理量であれば瞬き特徴量以外の特徴量を用いてもよい。S22の処理が終了すると、眠気推定処理へ移行する(S24)。
S24の処理では、眠気推定部27が、S24の処理で算出した瞬き特徴量、及び眠気の度合いと瞬き特徴量との関係を用いて、運転者の眠気の度合いを推定する。この処理について図10を用いて説明する。図10は、眠気推定処理を説明するための概要図である。図10では、眠気の度合いが低い場合の統計分布(瞬き特徴量に依存した確率密度)をSA、眠気の度合いが高い場合の統計分布(瞬き特徴量に依存した確率密度)をSBとして示している。統計分布SA,SBは、例えば、オフライン処理で行われる事前学習で取得される。ここで、S24の処理で算出した瞬き特徴量をR1とすると、眠気推定部27は、統計分布SA,SB及び瞬き特徴量R1に基づいて確率密度S1を算出し、大小関係によって眠気の度合いを推定する。なお、眠気の度合いの算出方法は、この手法に限られるものではなく、公知の他の手法を用いてもよい。S24の処理が終了すると、図2に示す制御処理を終了する。
以上で図2に示す制御処理を終了する。図2に示す制御処理を実行することにより、運転者の顔向きによって誤検出される可能性の高いと判定された開眼度については未検出とされ、それ以外の開眼度に基づいて運転者の眠気の度合いが推定される。このため、眠気の度合いの推定精度が低下することを回避することができる。この作用効果について、従来技術と対比しながら詳細に説明する。例えば、図11に示すように、時間に依存した開眼度の波形Kbには、高周波のノイズ成分N1、及び低周波のノイズ成分N2が存在しているものとする。低周波のノイズ成分N2は、例えば、運転者の顔の動きによって生じる誤検出等により発生する。この場合、従来の装置であれば、過去の一定期間の開眼度の波形を平滑化してノイズ成分を除去した波形Kaを生成し、生成された波形Kaを用いて眠気の推定を行う。しかしながら、図11に示すように、平滑化処理のみでは低周波のノイズ成分N2を除去することは困難である。このため、従来の装置にあっては、低周波のノイズ成分N2が存在する場合には、誤った情報に基づいて運転者の眠気の度合いを推定するおそれがある。
これに対して、本実施形態に係る生体状態検出装置1によれば、顔特徴点検出部21により、画像に基づいて運転者の顔特徴点が取得され、顔姿勢検出部22により、顔特徴点に基づいて運転者の顔姿勢が取得され、眠気推定部27により、画像から取得された顔特徴点の特徴量のうち運転者の顔姿勢が所定範囲にある顔特徴点の特徴量に基づいて運転者の生体状態が検出される。このため、例えば運転者の顔向きが顔特徴点の特徴量を誤検出する可能性のある範囲に向いている場合には、当該特徴量を運転者の生体状態を検出するための情報として利用することを回避することができる。すなわち、低周波のノイズ成分N2が存在する場合であっても、ノイズ成分を用いて運転者の生体状態を検出することを回避することが可能となる。よって、生体状態の検出精度低下を防止することができる。
また、本実施形態に係る生体状態検出装置1によれば、開眼度算出部23により、顔特徴点の特徴量に基づいて運転者の眼が開いている度合いを示す開眼度が算出され、眠気推定部27により、算出された開眼度に基づいて運転者の生体状態が検出される。このため、例えば生体状態として運転者が感じる眠気を検出することができる。
また、本実施形態に係る生体状態検出装置1によれば、ヨー方向の顔向きが顔特徴量を誤検出する可能性のある範囲に向いている場合には、左右何れかの眼の開眼度を誤検出するおそれがあるため、左右何れかの眼の開眼度を運転者の生体状態を検出するための情報として利用しないことによって、不確かな情報を利用して運転者の生体状態を検出することを回避することができる。よって、生体状態の検出精度低下を防止することが可能となる。
さらに、本実施形態に係る生体状態検出装置1によれば、運転者の生体状態と相関のある瞬き特徴量に基づいて、運転者の生体状態を検出するため、目の瞼の開閉運動に関する情報を用いて運転者の生体状態を精度良く判定することができる。
なお、上述した実施形態は本発明に係る生体状態検出装置の一例を示すものである。本発明に係る生体状態検出装置は、実施形態に係る生体状態検出装置1に限られるものではなく、各請求項に記載した要旨を変更しない範囲で、実施形態に係る生体状態検出装置を変形し、又は他のものに適用したものであってもよい。
例えば、上述した実施形態では、開眼度算出処理後に未検出判定処理を実行していたが、未検出判定処理後に開眼度算出処理を行ってもよい。この場合、未検出判定処理で未検出とした場合には、開眼度の算出は行わなくてもよい。
例えば、上述した実施形態では、生体状態検出装置1が、顔位置検出部20、顔特徴点検出部21、顔姿勢検出部22、開眼度算出部23、未検出判定部24、開眼・閉眼判定部25、瞬き特徴量算出部26及び眠気推定部27を備える例を説明したが、顔位置検出部20、開眼度算出部23、開眼・閉眼判定部25及び瞬き特徴量算出部26は、必要に応じて備えればよい。
1…生体状態検出装置、2…ECU、3…車両、20…顔位置検出部、21…顔特徴点検出部(顔特徴点取得手段)、22…顔姿勢検出部(顔姿勢取得手段)、23…開眼度検出部(生体状態検出手段)、24…未検出判定部(生体状態検出手段)、25…開眼・閉眼判定部(生体状態検出手段)、26…瞬き特徴量算出部(生体状態検出手段)、27…眠気推定部(生体状態検出手段)、31…画像センサ。

Claims (5)

  1. 画像を用いて運転者の生体状態を検出する生体状態検出装置であって、
    前記画像に基づいて前記運転者の顔特徴点を取得する顔特徴点取得手段と、
    前記顔特徴点に基づいて前記運転者の顔姿勢を取得する顔姿勢取得手段と、
    前記顔特徴点の特徴量のうち前記運転者の顔姿勢が所定範囲にあるときの前記顔特徴点の特徴量に基づいて、前記運転者の生体状態を検出する生体状態検出手段と、
    を備えることを特徴とする生体状態検出装置。
  2. 顔姿勢取得手段は、前記運転者の顔姿勢として、ヨー方向、ピッチ方向又はロール方向における顔向きを取得し、
    前記生体状態検出手段は、前記顔特徴点の特徴量のうち前記運転者の顔向きがヨー方向、ピッチ方向又はロール方向の所定範囲にあるときの前記顔特徴点の特徴量に基づいて、前記運転者の生体状態を検出する請求項1に記載の生体状態検出装置。
  3. 前記生体状態検出手段は、前記顔特徴点の特徴量に基づいて運転者の眼が開いている度合いを示す開眼度を算出し、算出した開眼度に基づいて前記運転者の生体状態を検出する請求項1又は2に記載の生体状態検出装置。
  4. 前記生体状態検出手段は、前記運転者のヨー方向の顔向きが所定範囲にない場合には、左右何れかの眼の開眼度を前記運転者の生体状態を検出するための情報として利用せずに、前記運転者の生体状態を検出する請求項3に記載の生体状態検出装置。
  5. 前記生体状態検出手段は、前記運転者の生体状態と相関のある瞬き特徴量に基づいて、前記運転者の生体状態を検出する請求項1〜4の何れか一項に記載の生体状態検出装置。
JP2009289313A 2009-12-21 2009-12-21 生体状態検出装置 Pending JP2011125620A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009289313A JP2011125620A (ja) 2009-12-21 2009-12-21 生体状態検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009289313A JP2011125620A (ja) 2009-12-21 2009-12-21 生体状態検出装置

Publications (1)

Publication Number Publication Date
JP2011125620A true JP2011125620A (ja) 2011-06-30

Family

ID=44288869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009289313A Pending JP2011125620A (ja) 2009-12-21 2009-12-21 生体状態検出装置

Country Status (1)

Country Link
JP (1) JP2011125620A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013008305A1 (ja) * 2011-07-11 2013-01-17 トヨタ自動車株式会社 瞼検出装置
WO2019159229A1 (ja) * 2018-02-13 2019-08-22 三菱電機株式会社 誤検出判定装置及び誤検出判定方法
CN110837815A (zh) * 2019-11-15 2020-02-25 济宁学院 一种基于卷积神经网络的驾驶员状态监测方法
CN111325181A (zh) * 2020-03-19 2020-06-23 北京海益同展信息科技有限公司 一种状态监测方法、装置、电子设备及存储介质
JP2022140386A (ja) * 2021-03-10 2022-09-26 キヤノン株式会社 顔の姿勢を検出する装置及び方法、画像処理システム、並びに記憶媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009279186A (ja) * 2008-05-22 2009-12-03 Toyota Motor Corp 顔検出装置及び顔検出方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009279186A (ja) * 2008-05-22 2009-12-03 Toyota Motor Corp 顔検出装置及び顔検出方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013008305A1 (ja) * 2011-07-11 2013-01-17 トヨタ自動車株式会社 瞼検出装置
JPWO2013008305A1 (ja) * 2011-07-11 2015-02-23 トヨタ自動車株式会社 瞼検出装置
US9202106B2 (en) 2011-07-11 2015-12-01 Toyota Jidosha Kabushiki Kaisha Eyelid detection device
WO2019159229A1 (ja) * 2018-02-13 2019-08-22 三菱電機株式会社 誤検出判定装置及び誤検出判定方法
JPWO2019159229A1 (ja) * 2018-02-13 2020-04-09 三菱電機株式会社 誤検出判定装置及び誤検出判定方法
US11200417B2 (en) 2018-02-13 2021-12-14 Mitsubishi Electric Corporation Determination apparatus and method to enhance accuracy in determining the presence of an erroneously detected eyelid
CN110837815A (zh) * 2019-11-15 2020-02-25 济宁学院 一种基于卷积神经网络的驾驶员状态监测方法
CN111325181A (zh) * 2020-03-19 2020-06-23 北京海益同展信息科技有限公司 一种状态监测方法、装置、电子设备及存储介质
CN111325181B (zh) * 2020-03-19 2023-12-05 京东科技信息技术有限公司 一种状态监测方法、装置、电子设备及存储介质
JP2022140386A (ja) * 2021-03-10 2022-09-26 キヤノン株式会社 顔の姿勢を検出する装置及び方法、画像処理システム、並びに記憶媒体
JP7371154B2 (ja) 2021-03-10 2023-10-30 キヤノン株式会社 顔の姿勢を検出する装置及び方法、画像処理システム、並びに記憶媒体

Similar Documents

Publication Publication Date Title
JP5679066B2 (ja) 居眠り検出方法と装置
JP5343631B2 (ja) 運転支援装置
JP5737400B2 (ja) 赤目検出装置
JP6273823B2 (ja) 状態推定装置、および状態推定プログラム
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
JP6754368B2 (ja) 車両のドライバの疲労状態及び/又は睡眠状態を判定するための装置によって実施される方法
JP5790762B2 (ja) 瞼検出装置
JP2010068848A (ja) 眠気判定装置及びプログラム
JP6973928B2 (ja) 瞼開閉判定装置および眠気検知装置
JP6584717B2 (ja) 顔向き推定装置および顔向き推定方法
JP2011125620A (ja) 生体状態検出装置
JP2008212298A (ja) 眠気判定装置及びプログラム
JP5349350B2 (ja) 開眼度判定装置及び開眼度判定方法
JP2017194772A (ja) 覚醒度判定装置
JP4776581B2 (ja) 入眠状態検知方法、入眠状態検知装置、入眠状態検知システム及びコンピュータプログラム
JP4992823B2 (ja) 顔検出装置及び顔検出方法
JP5139470B2 (ja) 眠気度推定装置および眠気度推定方法
JP2004192551A (ja) 開閉眼判定装置
JP7240910B2 (ja) 乗員観察装置
JP2007034436A (ja) 覚醒度推定装置及び方法
JP5189893B2 (ja) 瞬目種別識別装置、瞬目種別識別方法、及び瞬目種別識別プログラム
JP5655491B2 (ja) 開眼状態検出装置
WO2022113275A1 (ja) 睡眠検出装置及び睡眠検出システム
US11077814B2 (en) Occupant eye(s) observation device
JP2018130342A (ja) 覚醒度推定装置、覚醒度推定方法及び覚醒度推定システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130806