JP5273030B2 - 顔特徴点検出装置および眠気検出装置 - Google Patents

顔特徴点検出装置および眠気検出装置 Download PDF

Info

Publication number
JP5273030B2
JP5273030B2 JP2009287941A JP2009287941A JP5273030B2 JP 5273030 B2 JP5273030 B2 JP 5273030B2 JP 2009287941 A JP2009287941 A JP 2009287941A JP 2009287941 A JP2009287941 A JP 2009287941A JP 5273030 B2 JP5273030 B2 JP 5273030B2
Authority
JP
Japan
Prior art keywords
feature point
face
image
dimensional coordinates
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009287941A
Other languages
English (en)
Other versions
JP2011128966A (ja
Inventor
知理 蜂須賀
憲幸 尾崎
禎祐 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2009287941A priority Critical patent/JP5273030B2/ja
Publication of JP2011128966A publication Critical patent/JP2011128966A/ja
Application granted granted Critical
Publication of JP5273030B2 publication Critical patent/JP5273030B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Description

本発明は、対象者の撮影画像から顔上の特徴点の位置を取得する顔特徴点検出装置と、その顔特徴点検出装置を用いた眠気検出装置に関する。
従来、対象者の顔を撮影し、撮影された画像から顔における特徴点の位置の変化や顔の向きを捉える技術が提案されている。例えば、対象者(車両の運転者)の顔画像を撮影し、多数の特徴点からなる形態およびテクスチャ情報を持つ2D(2次元)モデルと、形態のみからなる3D(3次元)モデルと、を用いて、撮影された画像にこれらのモデルをフィッティングさせて対象者の顔の変化を捉えることにより、対象者が居眠り状態であることを検出する装置が提案されている(特許文献1参照)。
特開2009−45418号公報
上述した特許文献1の装置では、2Dモデルおよび3Dモデルとして、個人の様々な画像データに基づいて作成されるその個人にカスタマイズしたモデル(個人モデル)か、あるいは複数人の画像データに基づいて作成される汎用的なモデル(共通モデル)のいずれかが用いられる。
個人モデルを用いる場合、画像データを提供した個人に対しては非常に高い精度で表情の検出を行うことができるが、その個人以外を対象とすると検出精度が低くなってしまう。よって、高い精度で表情の検出を行うためには、表情を測定する対象者ごとにモデルを作成する必要があり、実用化できる場面が限定されていた。
一方、共通モデルを用いる場合は、対象者ごとに詳細なモデルを作成する必要がなく、予め作成しておいたモデルを用いることができるので、実用化が容易である。しかしながら、その共通モデルは平均的な顔に基づくモデルとなるため、個人モデルを用いる場合と比較すれば多くの対象者に対して良好な検出を行うことができるものの、対象者の顔と平均的な顔との相違が大きくなるほど検出精度が悪化し、多くの対象者にとっては例えば眠気を判定するほどの高精度の表情変化を捉えることができなかった。
本発明は、上述した問題に鑑みてなされたものであり、その目的は、実用化が容易であり、高い精度で表情を捉えることができる顔特徴点検出装置および眠気検出装置を提供することである。
上述した問題を解決するためになされた請求項1に記載の発明は、顔上の予め定められた複数存在する特徴点の3次元座標の動きを、撮影された画像から検出する顔特徴点検出装置である。
この顔特徴点検出装置は、撮影対象者の顔を示す撮影画像を取得する手段を有している。この手段は、カメラ等の撮影装置から撮影画像を取得するものであってもよいし、記憶装置などに記憶された撮影画像を取得するものであってもよい。なお、上述した特徴点とは、例えば目尻や目頭、口角、眉といった、顔における位置を特定できる測定点である。この特徴点の動きを知ることで、表情の変化、即ち眠気などの体調や感情などの変化を検出することができる。
また、上記顔特徴点検出装置は、取得した所定の撮影対象者の撮影画像である基準画像から、顔上に予め定められた複数の特徴点の2次元座標を抽出し、その2次元座標からなる基準2D顔モデルを作成する。ここでいう基準2D顔モデルは、特徴点の2次元座標情報のみを有するデータ群であってもよいし、特徴点を並べて可視化した図形の情報をさらに有するものであってもよい。そして、この基準2D顔モデルから、複数の特徴点の2次元座標を移動させてなる変形2D顔モデルを作成する。
また、上記顔特徴点検出装置は、基準画像を、作成された変形2D顔モデルに合わせて変形した変形画像を作成する。基準2Dモデルは基準画像に基づくものであるため、当然にその特徴点は基準画像の特徴点に対応している。基準2Dモデルの変形2Dモデルへの変化に合わせて、画像と特徴点との対応を維持するように基準画像を変形させて変形画像を作成する。
また、上記顔特徴点検出装置は、取得した所定の撮影対象者の撮影画像である判定画像と、上述した変形画像と、を、変形画像における特徴点の2次元座標の移動を調整してフィッティングを行う。そして、判定画像と変形画像とが適合するときの変形画像に対応する変形2D顔モデルにおける複数の特徴点の2次元座標を、判定画像における複数の特徴点の2次元座標である確定2D座標として決定する。ここでいう適合とは、判定画像と変形画像とが所定の精度以上で一致した状態を意味している。
このように、上記顔特徴点検出装置は、ここまでの処理によって、取得した判定画像における顔上の特徴点の2次元座標を検出する。
次に、顔特徴点検出装置は、上述した複数の特徴点に対応する予め定められた3次元座標を移動させた3次元座標からなる変形3D顔モデルを作成する。ここでいう変形3D顔モデルは、特徴点の3次元座標情報のみを有するデータ群であってもよいし、特徴点を並べて可視化した図形の情報をさらに有するものであってもよい。
続いて、この変形3D顔モデルの3次元座標を、変換式を用いて2次元座標に変換した変換2D座標を作成する。ここでいう変換式とは、例えば透視投影行列である。
そして、既に決定している確定2D座標と、作成された変換2D座標と、を、変形3D顔モデルへの3次元座標の移動や、上述した変換式を調整してフィッティングを行う。なお、変換式を調整することにより、変形3D顔モデルの顔の向きを変えて2次元座標に変換することができる。
そして、確定2D座標と適合する変換2D座標に対応する変形3D顔モデルにおける複数の特徴点の3次元座標を、判定画像における複数の特徴点の3次元座標として決定する。ここでいう適合とは、確定2D座標と変換2D座標とが所定の精度以上で一致した状態を意味している。
つまり、上記顔特徴点検出装置は、ここまでの処理によって、取得した判定画像における顔上の特徴点の3次元座標を検出する。
このように構成された顔特徴点検出装置では、2次元座標と基準画像という2次元のモデルが、所定のタイミングにて撮影対象者から取得した情報を用いて作成されているため、複数の対象者から作成した共通モデルを用いる場合と比較して2次元座標(確定2D座標)の検出精度が高くなる。従って、顔特徴点検出装置全体としての検出精度も高くなるので、撮影対象者の表情の変化を高精度に捉えることができるようになる。
また、予め定められた3次元座標や変換式などの3次元のモデルは、撮影対象者にカスタマイズしたものではないので、3次元のモデルを作成するために撮影対象者の様々な画像を使用してモデルを作成するといった作業が必要なく、撮影対象者は、顔特徴点の検出前に正面の顔を撮影するだけでよい。従って、撮影対象者に負担を掛けず様々な場面で使用できるようになる。
このように、上述した顔特徴点検出装置では、実用化が容易であり、高い精度で表情を捉えることができる。
ところで、変形3D顔モデルを作成する際の3次元座標の移動に関して、特徴点ごとに移動する方向が定められており、移動量のみを調整して変形3D顔モデルを作成するように構成されている場合、撮影対象者の顔の形状や動作方向に個人差があっても、特徴点の座標は移動量のみを変化量として表すことができるため、移動量の判定や複数の撮影対象者同士の比較を容易に行うことができるようになる。
なお、上述した基準画像は、特徴点を決定するための基準となるモデル(基準2D顔モデル)を作成するために撮影された撮影画像であり、上述した判定画像は、実際に特徴点の動きを判定する判定対象となる撮影画像である。よって、基準画像は予め取得しておき、判定画像は特徴点の動きを判定するときに取得することで、リアルタイムで特徴点の動作を判定することができる。
請求項2に記載の発明は、請求項1に記載の顔特徴点検出装置において、フィッティングのために3次元座標を移動させる際に、予め定められた特徴点の位置関係を定めるルールを満たすように特徴点の3次元座標を移動させることを特徴とする。
このように構成された顔特徴点検出装置では、特徴点がルールから外れる位置に移動することがないので、変形3D顔モデルが不自然な形状となることがない。よって、不自然な形状の変形3Dモデルを使用する無駄なフィッティングの処理を無くすことができ、また局所解に陥り精度の低い検出結果を出力することを抑制できる。
なお、上記ルールとしては、請求項3から請求項6に記載の顔特徴点検出装置のように、特徴点同士の位置関係を規定することが考えられる。
請求項3に記載の顔特徴点検出装置は、上述したルールとして、目の位置を示す特徴点が眉の位置を示す特徴点よりも下に位置するように定められていることを特徴とする。なお目の位置を示す特徴点とは、目自体を示す特徴点であってもよいし、まぶたや目尻、目頭などを示す特徴点であってもよい。
また、請求項4に記載の顔特徴点検出装置は、上述したルールとして、口の位置を示す特徴点が鼻の位置を示す特徴点よりも下に位置するように定められていることを特徴とする。
また、請求項5に記載の顔特徴点検出装置は、上述したルールとして、上まぶたの位置を示す特徴点が、下まぶたの位置を示す特徴点よりも上に位置するように定められていることを特徴とする。
また、請求項6に記載の顔特徴点検出装置は、上述したルールとして、左の口角の位置を示す特徴点が、右の口角を示す特徴点よりも左に位置するように定められていることを特徴とする。
また、上述したルール以外にも、例えば眉目間の距離を規定すること、口角間の距離を規定すること、下唇と顎との距離を規定することなどが考えられる。
請求項7に記載の発明は、請求項1から請求項6のいずれか1項に記載の顔特徴点検出装置と、眠気を判定する手段と、を備える眠気検出装置である。
眠気を判定する手段は、撮影対象者が覚醒しているときに撮影された判定画像に基づいて顔特徴点検出装置が決定した複数の特徴点の3次元座標(A)と、眠気を判断すべきタイミングで撮影された判定画像に基づいて顔特徴点検出装置が決定した複数の特徴点の3次元座標(B)と、の比較により眠気の度合を判定する。
このように構成された眠気検出装置では、顔特徴点検出装置が検出した特徴点に基づいて眠気を検出するので、高い精度で眠気を検出することができると共に、撮影対象者に負担を掛けず様々な場面で使用できるようになる。
請求項8に記載の発明は、請求項7に記載の眠気検出装置において、眠気を判定する手段が、3次元座標(A)と3次元座標(B)とを比較して複数の特徴点の移動量を算出し、その移動量を以下に示す複数のデータと比較することで眠気の度合を判定する。
上述したデータとは、撮影対象者が覚醒している状態における複数の特徴点の3次元座標から、その撮影対象者が眠気を有する状態における複数の特徴点の3次元座標までの移動量と、眠気を有する状態におけるその撮影対象者の眠気の度合と、を対応付けたものである。なお、データを取得する対象となる撮影対象者は1人であってもよいが、複数人であることが好ましい。
このように構成された眠気検出装置あれば、データに記憶された移動量と検出された移動量とを比較することで眠気の度合を判定するので、覚醒状態における特徴点の位置の個人差を考慮する必要がなくなるため、高い精度で眠気の度合を判定することができる。
請求項9に記載の発明は、請求項7または請求項8に記載の眠気検出装置において、さらに、撮影対象者の心拍数を測定する手段を備えている。そして、撮影対象者が覚醒しているときとは、心拍数測定手段により測定された心拍数の平均値が所定の範囲内にある状態のときであり、そのときに撮影した判定画像に基づいて特徴点の3次元座標を検出し、その座標を覚醒時の特徴点とする。
このように構成された眠気検出装置では、心拍数に基づいて覚醒状態を判断できる。よって、覚醒状態でないときに撮影された判定画像を覚醒しているときの判定画像として処理してしまうことがなくなるので、高い精度で眠気を検出することができる。
居眠り防止システムを示す側面図 眠気検出装置の構成を示すブロック図 居眠り防止処理の処理手順を示すフローチャート 顔上の特徴点をしめす図 個人適合処理の処理手順を示すフローチャート 個人表情モデルを示す図 基準値取得処理の処理手順を示すフローチャート 眠気推定処理の処理手順を示すフローチャート 眠気推定アルゴリズムの説明図 表情特徴量検出処理の処理手順を示すフローチャート 3D表情修正処理の処理手順を示すフローチャート まぶた間距離が0以下である状態を示す図 上下まぶた間距離が目尻と目頭との距離よりも大きい状態を示す図 眉頭と上まぶたとの距離が、こめかみ間の距離の2分の1よりも大きい状態を示す図 眉の特徴点が上まぶたよりも下に位置している状態を示す図 上唇が下唇よりも下に位置している状態を示す図 顎位置と下唇との距離が、目頭と目尻との距離の2分の1よりも小さい状態を示す図 鼻と上唇との距離が0以下である状態を示す図 口角間の距離が0以下である状態を示す図 実際に眉が動いた状態を示す図 本実施例の共通の3次元モデルを用いた場合に眉が動いた状態を示す図 本実施例の共通の3次元モデルを用いた場合に眉が動いた状態を示す図
以下に本発明の実施形態を図面と共に説明する。ただし、以下に説明する実施形態は、あくまでも例示にすぎず、本発明が、下記の事例以外にも様々な形態で実施できるのはもちろんである。
[実施例]
(1)全体構成
本実施例の居眠り防止システム1を図1に示す。居眠り防止システム1は、車両2に搭載されて、運転者3(撮影対象者)の眠気を検出して居眠りを防止するシステムであり、撮影装置10と、眠気検出装置20と、居眠り運転による事故防止のための動作を行う警報装置30,首元空調装置40,シートベルト振動装置50,およびブレーキ制御装置60から構成される。
これらのうち、撮影装置10は、車両2の運転者3の顔を連続的に撮影するものであって、車両2のダッシュボード4にて運転者3に向けて配置されており、運転者3の正面の顔を示す画像を所定の時間間隔(例えば、1/30s)で撮影するように構成されている。
眠気検出装置20は、撮影装置10により撮影された画像に基づいて運転者3の顔における複数の特徴点(顔における位置を特定できる測定点であり、以降、特徴点とはこの測定点のことを意味する。)を検出すると共に、レベル0〜5の6段階で、眠気のレベルを判定する。眠気検出装置20の構成を図2に示す。眠気検出装置20は、制御部21と、画像キャプチャボード22と、ハードディスクドライブ23と、車内LAN通信部24と、からなる。
制御部21は、図示しないCPU,ROM,RAM,EEPROMなどからなる周知のマイクロコンピュータであって、ROMに記憶されているプログラムに基づいて各種処理を実行する。
画像キャプチャボード22は、撮影装置10にて撮影された運転者3の顔の画像データ(以降、単に撮影画像ともいう)を撮影装置10から取得して一時的に記憶し、制御部21からの指令に応じて制御部21に最新の画像を提供する。
HDD23は、後述する個人情報モデル、眠気レベル推定に用いる学習データなどのデータを記憶するための記憶領域を有している。
車内LAN通信部24は、制御部21からの出力に基づいて、警報装置30,首元空調装置40,シートベルト振動装置50,および,ブレーキ制御装置60に対し、居眠りを防止するための動作を制御する信号を出力する。
警報装置30は、図示しないディスプレイおよびスピーカを備えている。この警報装置30は、制御部21により判定された眠気の度合に応じて、運転者3に居眠り運転の注意を促す表示(例えば、眠気レベル1,2と判定された場合は「早めに休憩を取りましょう」、眠気レベル3と判定された場合は「注意してください」、眠気レベル4,5と判定された場合は「運転を中止してください」など)をディスプレイに出力すると共に、上述した表示内容をスピーカにて音声で出力する。
また、首元空調装置40は、運転者3のシートにおけるヘッドレストに配置されており、制御部21により眠気レベル1〜5のいずれかであると判定されたときに、運転者3の首元に送風する。
また、シートベルト振動装置50は、シートベルトの引き込み機構に備えられており、制御部21により眠気レベル3〜5であると判定されたときに、シートベルトを振動させる。
また、ブレーキ制御装置60は、ブレーキを自動的に作動させる装置である。これは、制御部21により眠気レベル5であると判定されたときに、ブレーキを作動させ、車両の走行を強制的に停止させたり、順次減速させたりする。
(2)眠気検出装置20による処理
以下に、眠気検出装置20が備える制御部21により実行される各種処理について説明する。
(2.1)居眠り防止処理
居眠り防止処理の処理手順を、図3に示すフローチャートに基づいて説明する。本処理は、車両2が起動して居眠り防止システム1が起動している間、継続して実行される。
本処理では、まず、個人適合処理を行う(ステップ1、以降、ステップを単にSと記載する)。ここでは、運転者3の顔上の特徴点を取得するときに用いる個人情報モデルの一部を運転者3の撮影画像に基づいて作成する。この個人適合処理および個人情報モデルの詳細は後述する。
次に、基準値取得処理を行う(S2)。ここでは、S1で作成した個人情報モデルを利用して、運転者3が眠気を有していない状態(即ち覚醒状態)における特徴点を取得する。顔上の特徴点を図4に示す。特徴点とは、顔において予め定められた特徴点の座標情報であって、本実施例では、上まぶた101L,101R、下まぶた102L,102R、目頭103L,103R、目尻104L,104R、眉頭105L,105R、眉上端106L,106R、眉尻107L,107R、鼻108L,108R、上唇109、下唇110、口角111L,111R、輪郭112〜116の各点が定められている。なお、特徴点は上述したものに限定されることなく、眠気に伴う表情の変化が現れる点であれば様々な点に設定することができる。
なお、特徴点の取得/検出とは、特徴点に対応する座標を取得/検出することをいう。この基準値取得処理の詳細は後述する。
次に、眠気推定処理を行う(S3)。ここでは、S2にて取得した覚醒状態における特徴点と、S3を実行する時点で取得した特徴点と、を比較してその移動量を算出し、予め有している学習データとの比較によって眠気のレベルをレベル0〜レベル5の6段階で算出する。さらに、特徴点の測定精度を示す値である信頼度Aと、眠気レベルの判定精度を示す値である信頼度Bと、も合わせて算出する。この眠気推定処理と学習データの詳細は後述する。
次に、S3にて判定された眠気レベルおよび信頼度A,Bに基づいて、警報装置30,首元空調装置40,シートベルト振動装置50,およびブレーキ制御装置60に動作を行わせる信号を出力する(S4)。
ここでは、眠気レベル0と判定された場合には上述したいずれの装置にも動作を行わせない。眠気レベル1,2と判定された場合には、警報装置30および首元空調装置40に動作を行わせる。眠気レベル3と判定された場合には、警報装置30,首元空調装置40,および,シートベルト振動装置50に動作を行わせる。眠気レベル4,5と判定された場合には、それら全ての装置に動作を行わせるが、信頼度A,Bの何れも所定のしきい値を下回る場合には、ブレーキ制御装置60の動作は行わない。
このS4の後、処理がS3に戻り、再度眠気の推定を行う。
(2.2)個人適合処理
個人適合処理の処理手順を、図5に示すフローチャートに基づいて説明する。本処理は、居眠り防止処理(図3)のS1にて実行される。
本処理では、まず、撮影装置10により撮影された運転者3の撮影画像を、画像キャプチャボード22から取得する(S10)。
次に、S10にて取得した撮影画像から、正面顔である領域(図6(b)に相当する部分)を検出する(S12)。本実施例では、haar−like特徴を用いて検出を行っているが、顔画像テンプレートを用いる方法などでも良い。
次に、S12にて検出された正面顔から特徴点を検出する(S14)。ここでは、共通2D表情モデル(AAM:Active Appearance Model)を用いたフィッティングにより各特徴点を検出し、その2次元座標を取得する。なお、AAMによるフィッティングに変えて、エッジ特徴点やGabor特徴量を用いて特徴点を検出してもよい。
次に、S14にて検出した特徴点が異常値を示すか否かを判断する(S16)。ここでは、所定の特徴点間の距離が所定のしきい値を超える異常な値を示しているか否かを判断し、いずれかが異常値であれば(S16:YES)、S10にて取得した画像データが正面顔ではないと判断して、S10に戻り再度画像データを取得する。ここで言う所定の特徴点間の距離とは、例えば、目の開度(上まぶたと下まぶたとの間の距離)や、口の開度(上下の唇の間の距離)などが該当する。一方、いずれも異常値でなければ(S16:NO)、処理がS18に移行する。
次に、個人表情モデルを作成する(S18)。個人表情モデルは、図6(a)に示す2D基準顔,同図(b)に示す2Dテンプレート,同図(c)に示す2D表情ベクトル,同図(d)に示す3D基準顔,同図(e)に示す3D表情ベクトル,図示しない2D変換行列からなる。
上記2D基準顔とは、2次元座標を有する複数の特徴点からなる顔形状モデルである。
また、2Dテンプレートとは、2D基準顔の領域に対応する顔画像である。
また、2D表情ベクトルとは、2D基準顔の特徴点の位置を変化させる2次元ベクトルであって、特徴点ごとに設定される。
また、3D基準顔とは、3次元座標を有する複数の特徴点からなる顔形状モデルである。
また、3D表情ベクトルとは、3D基準顔の特徴点の位置を変化させる3次元ベクトルであって、特徴点ごとに設定される。
また、2D変換行列は、3D基準顔の各特徴点を、2次元座標に変換する際に用いる透視投影行列であって、本発明における変換式に相当する。
なお、上述した2D基準顔は、2Dテンプレートと組み合わせた状態(図6(f)参照)でその表情を変化させて(特徴点の座標を調整して)フィッティングを行うものであるため、2D表情ベクトルの方向は表情の変化(表情筋の動き)に沿うように予め定められている。3D表情ベクトルの方向も同様に、表情の変化に沿うように定められている。
このS18では、S14にて検出した特徴点に基づいて2D基準顔を作成すると共に、S12にて検出した正面顔を2Dテンプレートとして設定する。なお、ここで作成される2D基準顔が本発明における基準2D顔モデルに相当し、ここで設定される2Dテンプレートが本発明における基準画像に相当する。
なお、2D表情ベクトルは、作成した2D基準顔に合わせてカスタマイズされる。2D基準顔と2D表情ベクトルは、互いに相関関係を有する汎用モデルを有しており、汎用モデルにおける2D基準顔から新たに作成された2D基準顔への変化に応じて、汎用モデルの2D表情ベクトルを変化させ、新たな2D表情ベクトルを設定する。
なお、上記3D基準顔,3D表情ベクトル,2D変換行列は、予め汎用のデータを有している。このS18の後、本処理を終了する。
(2.3)基準値取得処理
基準値取得処理の処理手順を、図7に示すフローチャートに基づいて説明する。本処理は、居眠り防止処理(図3)のS2にて実行される。
本処理では、まず、経過時間のカウントを開始する(S30)。
次に、表情特徴量検出処理を行う(S32)。ここでは運転者3の顔を撮影し、その顔の撮影画像に基づいて運転者3の顔における複数の特徴点の3次元座標(複数の特徴点の3次元座標を、以降、3次元特徴点集合という)を取得して記憶する。この表情特徴量検出処理の詳細は後述する。
次に、S30にて経過時間のカウントを開始してから5分間が経過したか否かを判断する(S34)。5分経過していなければ(S34:NO)、処理がS32に戻り、新たに3次元特徴点集合を取得する。5分経過していれば、S36に移行する。
次に、S32にて取得した複数の3次元特徴点集合の中から、測定の精度が高い3次元特徴点集合のみを選別する(S36)。測定の精度は、S32の表情特徴量検出処理において撮影画像と個人表情モデルとのフィッティングを行ったときの一致度合を示す値として、3次元特徴点集合の算出と同時に算出されている。ここでは、その値が所定のしきい値以上である3次元特徴点集合を選別する。
次に、S36にて選別された3次元特徴点集合を用いて、特徴点ごとの平均値を算出して特徴点ごとの平均の3次元座標(以降、単に基準値ともいう)を決定する。そして、その算出した基準値を記憶し、その後本処理を終了する。
なお、S30〜S34の処理は、一定の時間を掛けて複数の3次元特徴点集合を取得することにより、覚醒状態における各特徴点の平均的な3次元座標を取得することを目的としている。従って、多数の3次元特徴点集合を取得することができれば5分以外の時間設定であってもよいし、時間経過ではなく3次元特徴点集合を取得した回数をカウントして、所定回数を超えた場合にS36に移行するように構成してもよい。
(2.4)眠気推定処理
眠気推定処理の処理手順を、図8に示すフローチャートに基づいて説明する。本処理は、居眠り防止処理(図3)のS3にて実行される。
本処理では、まず、経過時間のカウントを開始する(S40)。
次に、表情特徴量検出処理を行う(S42)。ここでは運転者3の顔を撮影し、その顔の撮影画像に基づいて3次元特徴点集合を取得して記憶する。この表情特徴量検出処理の詳細は後述する。
次に、S40にて経過時間のカウントを開始してから5秒間が経過したか否かを判断する(S44)。5秒経過していなければ(S44:NO)、処理がS42に戻り、新たに3次元特徴点集合を取得する。5秒経過していれば(S44:YES)、S46に移行する。
次に、S42にて取得した複数の3次元特徴点集合の中から、測定の精度が高い3次元特徴点集合みを選別すると共に、精度が高い3次元特徴点集合の割合を算出する(S46)。測定の精度は、上述したS36における測定の精度と同様に、3次元特徴点集合の算出と同時に値として算出される。ここでは、その値が所定のしきい値以上である3次元特徴点集合を選別し、所定のしきい値以上である3次元特徴点集合の割合を信頼度Aとして記憶する。
次に、S46にて選別された3次元特徴点集合を用いて、特徴点ごとの平均値を算出して特徴点ごとの3次元座標の平均値を算出する(S48)。
次に、規格値の算出を行う(S50)。具体的には、S48にて算出した3次元座標の平均値と、基準値取得処理のS38にて取得した基準値とを比較し、各特徴点ごとの移動量を算出する。その移動量を規格値として記憶する。
次に、眠気推定を行う(S52)。ここでは、S50にて算出した規格値を用いて、眠気推定アルゴリズムにより眠気のレベルを算出する。眠気推定アルゴリズムについて、図9を用いて説明する。
まず、図中に示す運転者データ201について説明する。運転者データ201に示される値(x1,y1,z1,x2,y2,z2,・・・)は、上記S50にて算出した特徴点の規格値を並べたものである。x、y、zに付された数値(1,2・・・)は特徴点を識別するための数値であり、(x1,y1,z1)、(x2,y2,z2)・・・(xi,yi,zi)が、それぞれの特徴点における規格値を示している。
眠気推定を行うには、まず、運転者データ201と、HDD23に予め記憶された学習データ202と、を比較する。
この学習データ202は、眠気レベル203とその眠気レベル203と対になる規格値204とのセット205を複数集めてなるものである。各セット205における規格値204は、学習データ202のサンプルとなる人物に対して、居眠り防止処理のS1(個人適合処理),S2(基準値取得処理),および眠気推定処理のS30〜S50までの処理を行って算出したものである。即ち、上記運転者データ201と同様の手法で算出されている。
眠気レベル203は、その眠気推定処理におけるS30〜S50を実行するときの上記人物の眠気の度合を観察者が官能評価した値である。学習データ202は、複数の人物に関する複数のセット205を有している。
運転者データ201と、学習データ202におけるすべてのセット205の規格値204と、を比較した後、運転者データ201と類似性の高い上位K個のセット205を抽出する。そして、抽出したセット205の中で、最多の眠気レベルを運転者3の眠気レベルであると推定する。図9の場合には、類似性の高い上位K個のセットにおいて、眠気レベル0のセットが最多であったので、眠気レベルを「0」と推定している。なお、運転者データ201と学習データ202とを比較して眠気レベルを推定する処理には、例えばK−NN法などを用いることが考えられる。
なお、この眠気推定の一致精度、即ち抽出したセット全数(K個)のうち最多であった眠気レベルを有するセットの個数の割合を、信頼度Bとして記憶する。その後、本処理を終了する。
なお、本処理のS40〜S44の処理は、上述した基準値取得処理のS30〜S34の5分間と比較して短い5秒間をカウントしている。ここでは、各特徴点の平均的な3次元座標を取得するために複数の3次元特徴点集合を取得できる時間をとるものの、運転者3に眠気が発現すれば即座にその眠気を検出する必要があるため、短い時間間隔で眠気推定を行うために5分よりも短い時間としている。また、S34の場合と同様に、5秒以外の時間設定であってもよいし、3次元特徴点集合を取得した回数をカウントして、所定回数を超えた場合にS46に移行するように構成してもよい。
(2.5)表情特徴量検出処理
表情特徴量検出処理の処理手順を、図10に示すフローチャートに基づいて説明する。本処理は、基準値取得処理(図7)のS32、および眠気推定処理(図8)のS42にて実行される。
本処理では、まず、撮影装置10により撮影された撮影画像をキャプチャボードから取得する(S60)。なお、ここで取得する撮影画像が、本発明における判定画像に相当する。
次に、個人適合処理(図5)のS18にて作成した2D基準顔を、各特徴点を2D表情ベクトルを用いて移動させて変形し、その変形後の各特徴点からなる顔形状モデルである2D表情Aを作成する(S62)。なお、この2D表情Aが、本発明における変形2D顔モデルに相当する。
次に、S62にて作成した2D表情Aに合うように、個人適合処理のS18にて作成した2Dテンプレートを変形する(S64)。2D基準顔と2Dテンプレートを組み合わせると、図6(f)に示すようになり、2D基準顔が2D表情Aに変形するときの特徴点の移動に合わせて、2Dテンプレートを変形する。この変形した2Dテンプレートが、本発明における変形画像に相当する。
次に、S60にて取得した撮影画像における2D基準顔に対応する部分(顔部分)の画像と、S64にて変形させた2Dテンプレートとをフィッティングし(S66)、誤差を数値化する。この数値化には、輝度差分を用いる手法や、正規化相互相関を用いる手法が考えられる。
次に、撮影画像と2Dテンプレートが一致したか否かを判断する(S68)。S66にて取得した誤差が所定のしきい値を超えていれば、一致していないと判断し(S68:NO)、2D基準顔の変形量を再設定する(S70)。具体的には、最急降下法、ニュートン法などを用いて、誤差が小さくなる2D表情ベクトルの大きさを特徴点ごとに決定する。そしてS62にて作成した2D表情Aを破棄した後、S62に戻り、再設定した2D表情ベクトルを用いて2D基準顔を変形させる。
一方、S68にて、誤差が所定のしきい値以下であれば、撮影画像と2Dテンプレートとが一致したと判断し(S68:YES)、S62にて作成した2D表情Aが撮影した画像の特徴点を表していると決定する。その後、処理がS72に移行する。なお、この決定された2D表情Aが、本発明における確定2D座標に相当する。
続いて、図6(d)に示す3D基準顔を、図6(e)に示す3D表情ベクトルを用いて移動させて変形し、その変形後の各特徴点からなる顔形状モデルである3D表情を作成する(S72)。3D表情の作成にあたっては、個人適合処理のS18にて作成した2D基準顔を参考に、その顔に近づくように3D表情ベクトルの移動量を決定する。なお、この3D表情が、本発明における変形3D顔モデルに相当する。
次に、S72にて作成した3D表情が、顔のつくりとして不自然な形状である場合にそのずれを修正する3D表情修正処理を行う(S74)。この3D表情修正処理により、S72における3D基準顔の変形に、特徴点の位置関係を定めるルールを与えて、不自然な形状となることを抑制する。これには、後述するS82,S84における最急降下法、ニュートン法などを用いた誤差最小化問題において、局所解に陥ることを抑制する効果がある。この3D表情修正処理の詳細は後述する。
次に、2D変換行列を用いて、S72にて作成した3D表情を2次元座標に変換した2D表情Bを算出する(S76)。なお、この2D表情Bが、本発明における変換2D座標に相当する。
次に、S76にて算出した2D表情Bと2D表情Aとをフィッティングする(S78)。
次に、2D表情Aと2D表情Bとが一致したか否かを判断する(S80)。ここでは、各特徴点ごとの距離を誤差として測定し、その誤差の相加平均が所定のしきい値を超えていれば、一致していないと判断し(S80:NO)、誤差を小さくするように続くS82,S84の処理を行う。
まず、3D基準顔の変形量を再設定する(S82)。具体的には、最急降下法、ニュートン法などを用いて、誤差が小さくなる3D表情ベクトルの大きさを特徴点ごとに決定する。これにより、3D基準顔の各特徴点を移動して、3D表情と撮影画像との表情の相違を小さくすることができる。
次に、2D変換行列を更新する(S84)。具体的には、最急降下法、ニュートン法などを用いて、誤差が小さくなる2D変換行列を決定する。これにより、3D基準顔を2次元化するにあたって顔の向きを調整して誤差を小さくすることができ、3D表情と撮影画像との顔向きの相違を小さくすることができる。このS84の後、2D表情Bを破棄し、再度S72〜S76にて2D表情Bを作成する。
また、S80にて、誤差の平均値が所定のしきい値以下であれば、一致していると判断し(S80:YES)、S74にて修正した3D表情が撮影画像の特徴点を表していると決定してその3次元座標(3次元特徴点集合)を記憶する(S86)。その後、本処理を終了する。
(2.6)3D表情修正処理
3D表情修正処理の処理手順を、図11に示すフローチャートに基づいて説明する。本処理は、表情特徴量検出処理(図10)のS74にて、直前のS72で作成した3D表情に基づいて実行される。なお、以下の説明において、左右両方に位置する特徴点については左側のみを代表して記載する。
本処理では、まず、まぶた間距離が0以下であるか否かを判断する(S100)。まぶた間距離が0以下である状態とは、図12に示すように、上まぶた101Lが下まぶた102Lよりも下に位置している状態であり、このとき、下まぶた102Lの位置から上まぶた101Lの位置までの上に向かう距離が0またはマイナスとなる。
まぶた間の距離が0以下でなければ(S100:NO)、処理がS104に移行する。まぶた間距離が0以下であれば(S100:YES)、上まぶた101Lの位置を基準に、下まぶた102L、目頭103L,目尻104Lを予め決められた位置に変更する(S102)。その後、処理がS104に移行する。
次に、図13に示すように、上下まぶた間の距離L1が目尻と目頭との距離L2よりも大きいか否かを判断する(S104)。これにより、上下まぶた間の距離が離れすぎてしまうことを防止する。
L1>L2でなければ(S104:NO)、処理がS108に移行する。L1>L2であれば(S104:YES)、上まぶた101Lの位置を基準に、下まぶた102L、目頭103L,目尻104Lを予め決められた位置に変更する(S106)。その後、処理がS108に移行する。
次に、図14に示すように、眉頭105Lと上まぶた101Lとの距離L3が、こめかみ間(輪郭112,116間)の距離L4の2分の1よりも大きいか否かを判断する(S108)。これにより、眉目間の距離が離れすぎてしまうことを防止する。
L3>(L4/2)でなければ(S108:NO)、処理がS112に移行する。L3>(L4/2)であれば(S108:YES)、上まぶた101Lの位置を基準に、眉頭105L、眉上端106L、眉尻107Lを予め決められた位置に変更する(S110)。その後、処理がS112に移行する。
次に、眉の特徴点(眉頭105L、眉上端106L、眉尻107L)と上まぶた101Lとの距離が0以下であるか否かを判断する(S112)。眉と上まぶたとの距離が0以下である状態とは、図15に示すように、眉の特徴点が上まぶた101Lよりも下に位置している状態であり、このとき、上まぶた101Lの位置から眉の特徴点までの上に向かう距離が0またはマイナスとなる。
眉と上まぶたとの距離が0以下でなければ(S112:NO)、処理がS116に移行する。眉と上まぶたとの距離が0以下であれば(S112:YES)、上まぶた101Lの位置を基準に、眉頭105L、眉上端106L、眉尻107Lを予め決められた位置に変更する(S114)。その後、処理がS116に移行する。
次に、唇間の距離が0以下であるか否かを判断する(S116)。唇間の距離が0以下である状態とは、図16に示すように、上唇109が下唇110よりも下に位置している状態であり、下唇110の位置から上唇109までの上に向かう距離が0またはマイナスとなる。
唇間の距離が0以下でなければ(S116:NO)、処理がS120に移行する。唇間の距離が0以下であれば(S116:YES)、上唇109と下唇110の位置を入れ替える(S118)。その後、処理がS120に移行する。
次に、図17に示すように、顎位置(輪郭114)と下唇110との距離L5が、目頭103Lと目尻104Lとの距離L6の2分の1よりも小さいか否かを判断する(S120)。これにより、下唇が下がりすぎてしまうことを防止する。
L5<(L6/2)でなければ(S120:NO)、処理がS124に移行する。L5<(L6/2)であれば(S120:YES)、顎位置(輪郭114)を基準に、下唇110を予め決められた位置に変更する(S122)。その後、処理がS124に移行する。
次に、鼻108Lと上唇109との距離が0以下であるか否かを判断する(S124)。鼻108Lと上唇109との距離が0以下である状態とは、図18に示すように、鼻108Lが上唇109よりも下に位置している状態であり、上唇109の位置から鼻108Lまでの上に向かう距離が0またはマイナスとなる。
鼻108Lと上唇109との距離が0以下でなければ(S124:NO)、処理がS128に移行する。鼻108Lと上唇109との距離が0以下であれば(S124:YES)、鼻108Lの位置を基準に、上唇109を予め決められた位置に変更する(S126)。その後、処理がS128に移行する。
次に、口角間の距離が0以下であるか否かを判断する(S128)。口角間の距離が0以下である状態とは、図19に示すように、左口角111Lが右口角111Rよりも右に位置している状態であり、左口角111Lから右口角111Rまでの右に向かう距離が0またはマイナスとなる。
口角間の距離が0以下でなければ(S128:NO)、本処理を終了する。口角間の距離が0以下であれば(S128:YES)、左口角111Lと右口角111Rの位置を入れ替える(S130)。その後、本処理を終了する。
(3)発明の効果
このように構成された居眠り防止システム1では、個人表情モデルにおける2D基準顔と2Dテンプレートとを、個人適合処理にて運転者3から取得した情報を用いて作成しているため、特徴点の検出精度が高くすることができる結果、眠気の検出精度を高めることができる。
また、3D基準顔や2D変換行列は、運転者3にカスタマイズしたものではないので、運転者3の様々な画像を作成してモデルを作成するといった作業が必要なく、運転者3は何ら特別な動作をとる必要がない。よって、運転者3の個人表情モデル作成の負担を小さくして眠気の検出を行うことができる。このような居眠り防止システム1は、運転者3を撮影して3D基準顔や2D変換行列を作成する構成と比較して実用化が容易である。
また、3D基準顔,2D変換行列は予め作成された共通のモデルであって、また3D表情ベクトルの移動方向が定まっているため、以下に示すメリットがある。
まず、図20(a),(b)に、特徴点を検出する対象となるA,B2名の実際の眉の位置と動作を示す。図20(a)は覚醒時の眉位置であり、図20(b)は眠気を有するとき(傾眠時)の上がった眉位置である。
A,Bは、覚醒時,傾眠時において、眉目間の距離、眉頭間の距離のいずれも異なっている。また、眉が上がるときの動作方向も異なっている。従来のように、3D基準顔、2D変換行列、3D表情ベクトルが個人にカスタマイズされたものを用いる場合、上述した移動前の眉位置と移動方向の個人差により、眉の位置や移動量に基づいて画一的に表情の変化を判断することが難いという問題がある。
一方、本実施例のように共通のモデルを用いると、図21に示すように、共通3D表情の眉は、方向の定められた3D表情ベクトルにより所定の範囲内で移動する。よって、A,Bの眉の位置は、共通の3D基準顔における眉を予め定まった方向に移動させたいずれかの位置であるとして判断される。
また、図22に示すように、覚醒時の眉位置、傾眠時の眉位置には個人差があるものの、眉が動作したか否かは、覚醒時と傾眠時との眉の移動量に基づいて判断することができる。
このように、対象者の顔の形状や動作方向に個人差があっても、表情の変化を、特徴点の移動量のみをパラメータとして扱うことができるため、特徴点の初期位置や移動方向などを勘案する必要がなく、表情変化の判定や比較を容易に行うことができるようになる。
さらに、学習データとして、複数の対象者に対して本実施例の居眠り防止システム1と同様の処理を行って取得したデータを用いるため、眠気レベルの判定精度を高めることができる。
また、上記構成の居眠り防止システム1では、3D表情修正処理を行うことにより、特徴点がルールから外れる位置に移動することがないので、3D表情が不自然な形状となることがない。よって、不自然な形状の3D表情を使用する無駄なフィッティングの処理を無くすことができ、また精度の低い検出結果を出力することを抑制できる。
(4)変形例
以上、本発明の実施例について説明したが、本発明は、上記実施例に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
例えば、上記実施例においては、覚醒状態の特徴点を取得する基準値取得処理を、個人適合処理の直後に行う構成を例示したが、それ以外のタイミングで行ってもよい。例えば、車両2のハンドル、シートなどの運転者3と接触(接近)する部分に運転者3の心拍数を測定する測定センサなどの心拍数測定手段を取り付けておき、測定センサが測定した心拍数の平均値が所定の範囲内にある状態のときに運転者3が覚醒状態であると判断し、覚醒状態である場合に基準値取得処理を実行するように構成してもよい。
このように構成された居眠り防止システム1では、心拍数に基づいて覚醒状態を判断できる。よって、覚醒状態でないときに撮影された撮影画像を覚醒しているときの撮影画像として処理してしまうことがなくなるので、高い精度で眠気を検出することができる。
また、上記実施例においては、2D基準顔と2Dテンプレートとを個人適合処理において取得した撮影画像に基づいて作成する構成を例示したが、2D基準顔と2Dテンプレートのみ予め取得しておいたものを用いる構成であってもよい。例えば、HDD23にそのデータを記憶しておいて、運転者3が運転する際にそのデータを読み出す構成であってもよいし、運転者3がそれらのデータが記憶された記憶媒体を所持しており、運転する際にその記憶媒体からそれらのデータを読み出す構成であってもよい。
また、表情特徴量検出処理(図10)のS74における3D表情修正処理において、不自然な形状にならなくするためのルールは、図11に示すルールに限定されない。例えば、左右口角間の距離を、こめかみ間の距離の2分の1以下となるように制限することが考えられる。
また、比較すべき距離の基準値が0以外である場合(S104,S108,S120)において、基準値となる特徴点間の距離は、上記実施例にて説明したものに限らない。例えばS104においては、まぶた間の距離が離れすぎないように、目尻と目頭との間の距離を基準としてそれよりも小さいことをルールとしているが、左右目頭間の距離を基準としてもよい。なお、基準値として用いる距離は、表情の変化によって影響を受けにくい距離が望ましい。
(5)対応関係
制御部21により実行されるS10,60の処理が、本発明の画像取得手段による処理に相当し、S18の処理が基準2D顔モデル作成手段による処理に相当し、S62の処理が2D変形手段による処理に相当し、S64の処理が変形画像作成手段による処理に相当し、S66〜70の処理が2次元座標決定手段による処理に相当し、S72,74の処理が3D変形手段による処理に相当し、S76の処理が座標変換手段による処理に相当し、S78〜84の処理が3次元座標決定手段による処理に相当し、S50,S52の処理が眠気判定手段による処理に相当する。
1…居眠り防止システム、2…車両、3…運転者、4…ダッシュボード、10…撮影装置、20…眠気検出装置、21…制御部、22…画像キャプチャボード、23…ハードディスクドライブ、24…車内LAN通信部、30…警報装置、40…首元空調装置、50…シートベルト振動装置、60…ブレーキ制御装置、101…上まぶた、102…下まぶた、103…目頭、104…目尻、105…眉頭、106…眉上端、107…眉尻、108…鼻、109…上唇、110…下唇、111…口角、112〜116…輪郭、201…運転者データ、202…学習データ、203…眠気レベル、204…規格値、205…セット

Claims (9)

  1. 撮影対象者の顔を示す撮影画像を取得する画像取得手段と、
    前記画像取得手段が取得した所定の撮影対象者の撮影画像である基準画像から、顔上に予め定められた複数の特徴点の2次元座標を抽出し、当該2次元座標からなる基準2D顔モデルを作成する基準2D顔モデル作成手段と、
    前記基準2D顔モデル作成手段により作成された基準2D顔モデルから前記複数の特徴点の2次元座標を移動させてなる変形2D顔モデルを作成する2D変形手段と、
    前記基準画像を、前記2D変形手段により作成された前記変形2D顔モデルに合わせて変形した変形画像を作成する変形画像作成手段と、
    前記画像取得手段が取得した前記所定の撮影対象者の撮影画像である判定画像と、前記変形画像と、を、前記2D変形手段による前記2次元座標の移動を調整してフィッティングを行い、前記判定画像と前記変形画像とが適合するときの前記変形画像に対応する前記変形2D顔モデルにおける前記複数の特徴点の2次元座標を、前記判定画像における前記複数の特徴点の2次元座標である確定2D座標として決定する2次元座標決定手段と、
    前記複数の特徴点に対応する予め定められた3次元座標を移動させてなる3次元座標からなる変形3D顔モデルを作成する3D変形手段と、
    前記3D変形手段により作成された前記変形3D顔モデルの前記3次元座標を、変換式を用いて2次元座標に変換した変換2D座標を作成する座標変換手段と、
    前記2次元座標決定手段により決定された確定2D座標と、前記変換2D座標と、を、前記3D変形手段による前記3次元座標の移動および/または前記変換式を調整してフィッティングを行い、前記確定2D座標と適合する前記変換2D座標に対応する前記変形3D顔モデルにおける前記複数の特徴点の3次元座標を、前記判定画像における前記複数の特徴点の3次元座標として決定する3次元座標決定手段と、
    を備える顔特徴点検出装置。
  2. 前記3D変形手段は、予め定められた前記特徴点の位置関係を定めるルールを満たすように前記特徴点の3次元座標を移動させる
    ことを特徴とする請求項1に記載の顔特徴点検出装置。
  3. 前記ルールは、目の位置を示す前記特徴点が、眉の位置を示す前記特徴点よりも下に位置するように定められている
    ことを特徴とする請求項2に記載の顔特徴点検出装置。
  4. 前記ルールは、口の位置を示す前記特徴点が、鼻の位置を示す前記特徴点よりも下に位置するように定められている
    ことを特徴とする請求項2または請求項3に記載の顔特徴点検出装置。
  5. 前記ルールは、上まぶたの位置を示す前記特徴点が、下まぶたの位置を示す前記特徴点よりも上に位置するように定められている
    ことを特徴とする請求項2から請求項4のいずれか1項に記載の顔特徴点検出装置。
  6. 前記ルールは、左の口角の位置を示す前記特徴点が、右の口角を示す前記特徴点よりも左に位置するように定められている
    ことを特徴とする請求項2から請求項5のいずれか1項に記載の顔特徴点検出装置。
  7. 請求項1から請求項6のいずれか1項に記載の顔特徴点検出装置と、
    撮影対象者が覚醒しているときに撮影された前記判定画像に基づいて前記顔特徴点検出装置が決定した当該判定画像における前記複数の特徴点の3次元座標(A)と、眠気を判断すべきタイミングで撮影された前記判定画像に基づいて前記顔特徴点検出装置が決定した当該判定画像における前記複数の特徴点の3次元座標(B)と、の比較により眠気の度合を判定する眠気判定手段と、を備える
    ことを特徴とする眠気検出装置。
  8. 前記眠気判定手段は、
    撮影対象者が覚醒している状態における前記複数の特徴点の3次元座標から、当該撮影対象者が眠気を有する状態における前記複数の特徴点の3次元座標までの移動量と、前記眠気を有する状態における当該撮影対象者の眠気の度合と、を対応付けたデータを複数有しており、
    前記3次元座標(A)と前記3次元座標(B)とを比較して、前記複数の特徴点の移動量を算出し、当該移動量を前記データと比較することで、眠気の度合を判定する
    ことを特徴とする請求項7に記載の眠気検出装置。
  9. 撮影対象者の心拍数を測定する心拍数測定手段を備え、
    前記覚醒しているときとは、前記心拍数測定手段により測定された心拍数の平均値が所定の範囲内にある状態のときである
    ことを特徴とする請求項7または請求項8に記載の眠気検出装置。
JP2009287941A 2009-12-18 2009-12-18 顔特徴点検出装置および眠気検出装置 Expired - Fee Related JP5273030B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009287941A JP5273030B2 (ja) 2009-12-18 2009-12-18 顔特徴点検出装置および眠気検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009287941A JP5273030B2 (ja) 2009-12-18 2009-12-18 顔特徴点検出装置および眠気検出装置

Publications (2)

Publication Number Publication Date
JP2011128966A JP2011128966A (ja) 2011-06-30
JP5273030B2 true JP5273030B2 (ja) 2013-08-28

Family

ID=44291487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009287941A Expired - Fee Related JP5273030B2 (ja) 2009-12-18 2009-12-18 顔特徴点検出装置および眠気検出装置

Country Status (1)

Country Link
JP (1) JP5273030B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5894426B2 (ja) * 2011-12-13 2016-03-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 計測対象抽出装置、顔形状推定装置、計測対象抽出方法および顔形状推定方法
JP6304999B2 (ja) 2013-10-09 2018-04-04 アイシン精機株式会社 顔検出装置、方法およびプログラム
CN105701445A (zh) * 2014-12-15 2016-06-22 爱信精机株式会社 判定装置及判定方法
JP2016115120A (ja) * 2014-12-15 2016-06-23 アイシン精機株式会社 開閉眼判定装置および開閉眼判定方法
JP2016115117A (ja) * 2014-12-15 2016-06-23 アイシン精機株式会社 判定装置および判定方法
JP5880741B1 (ja) 2014-12-26 2016-03-09 横浜ゴム株式会社 衝突回避システム及び衝突回避方法
JP5880740B1 (ja) 2014-12-26 2016-03-09 横浜ゴム株式会社 衝突回避システム及び衝突回避方法
KR20160100654A (ko) 2015-02-16 2016-08-24 주식회사 바이브라시스템 동영상 기반 생리 신호를 이용한 졸음 검출 방법 및 장치
JP7252438B2 (ja) 2017-08-17 2023-04-05 テイ・エス テック株式会社 異常検知装置及びシート
WO2019102619A1 (ja) * 2017-11-27 2019-05-31 三菱電機株式会社 表情認識装置
KR102479049B1 (ko) * 2018-05-10 2022-12-20 한국전자통신연구원 주행상황 판단 정보 기반 운전자 상태 인식 장치 및 방법
WO2020042975A1 (zh) * 2018-08-27 2020-03-05 阿里巴巴集团控股有限公司 人脸姿态估计/三维人脸重构方法、装置及电子设备
WO2021171538A1 (ja) * 2020-02-28 2021-09-02 三菱電機株式会社 表情認識装置及び表情認識方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3931895B2 (ja) * 2004-07-29 2007-06-20 株式会社デンソー 生体情報表示装置
JP4991317B2 (ja) * 2006-02-06 2012-08-01 株式会社東芝 顔特徴点検出装置及びその方法
JP4458146B2 (ja) * 2007-02-16 2010-04-28 株式会社デンソー 眠気判定装置およびプログラム
JP2009199417A (ja) * 2008-02-22 2009-09-03 Denso Corp 顔追跡装置及び顔追跡方法

Also Published As

Publication number Publication date
JP2011128966A (ja) 2011-06-30

Similar Documents

Publication Publication Date Title
JP5273030B2 (ja) 顔特徴点検出装置および眠気検出装置
US9715627B2 (en) Area information estimating device, area information estimating method, and air conditioning apparatus
JP4728432B2 (ja) 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
JP5137833B2 (ja) 視線方向検出装置および視線方向検出方法
US8369608B2 (en) System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
JP5446443B2 (ja) 心拍数測定装置および心拍数測定方法
TWI383325B (zh) 臉部表情辨識
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
JP6708152B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP6090129B2 (ja) 視認領域推定装置
JP5001930B2 (ja) 動作認識装置及び方法
JP7240910B2 (ja) 乗員観察装置
JP2017194772A (ja) 覚醒度判定装置
CN114821674B (zh) 睡眠状态监测方法、电子设备及存储介质
WO2011086803A1 (ja) 画像照合システム、画像照合方法、コンピュータプログラム
JP2019126657A (ja) 検出装置、及び検出プログラム
JP2006215743A (ja) 画像処理装置及び画像処理方法
JP2008046691A (ja) 顔画像処理装置及びコンピュータのプログラム
JP5170130B2 (ja) 身長推定装置
JP2024500530A (ja) シートベルト着用検出方法、装置、記憶媒体およびプロセッサ
JP5688514B2 (ja) 視線計測システム、方法およびプログラム
CN110415486B (zh) 姿态判断方法、电子系统以及非暂态电脑可读取记录媒体
JP2011086051A (ja) 眼位置認識装置
JP2006227734A (ja) 画像処理装置及び画像処理方法
JP2008278949A (ja) 覚醒状態推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130429

R151 Written notification of patent or utility model registration

Ref document number: 5273030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees