JP6187817B2 - 顔検出装置、方法およびプログラム - Google Patents

顔検出装置、方法およびプログラム Download PDF

Info

Publication number
JP6187817B2
JP6187817B2 JP2013211633A JP2013211633A JP6187817B2 JP 6187817 B2 JP6187817 B2 JP 6187817B2 JP 2013211633 A JP2013211633 A JP 2013211633A JP 2013211633 A JP2013211633 A JP 2013211633A JP 6187817 B2 JP6187817 B2 JP 6187817B2
Authority
JP
Japan
Prior art keywords
model
image
face
unit
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013211633A
Other languages
English (en)
Other versions
JP2015075916A (ja
Inventor
晋 大須賀
晋 大須賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2013211633A priority Critical patent/JP6187817B2/ja
Priority to EP20140187887 priority patent/EP2860665A3/en
Priority to CN201410528221.6A priority patent/CN104573622B/zh
Priority to US14/510,379 priority patent/US9495579B2/en
Publication of JP2015075916A publication Critical patent/JP2015075916A/ja
Application granted granted Critical
Publication of JP6187817B2 publication Critical patent/JP6187817B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は、撮像された画像から顔の状態を検出する顔検出装置、方法およびプログラムに関するものである。
近年、撮像された静止画像または動画像に含まれる顔の位置および向き、ならびに目および口等の顔部品の状態を検出する顔検出技術の開発が進められている。例えば、車両においては、運転者の顔検出を行うことによって、脇見運転や居眠り運転を検知し、警報等の所定のアクションを行うことができる。このような検知を行うためには実時間で顔検出を続ける必要があるが、車両の内部では光の強さおよび方向が変化しやすく、また車体の揺れにより運転者の顔が動きやすい。そのため、特に車両における顔検出においては、実時間での処理が可能であるとともに、光および顔の状態の変化等に起因するノイズに強いことが求められる。
非特許文献1には、最急降下法等を用いて統計的顔形状モデルを画像中の顔に合わせる、すなわちモデルフィッティングを行うことによって、画像中の顔のモデルを生成する顔検出技術(ASM:Active Shape Model、AAM:Active Appearance Model)が開示されている。この技術を用いて画像中の顔のモデルを生成し、継続して該モデルを画像中の顔に適合させる、すなわちトラッキングを行うことによって、経時的に顔の位置および向き、ならびに各顔部品の状態を特定することができる。
また、特許文献1には、フレーム間の差分画像を用いて瞬目に起因する画像の変化を動領域として検出し、面積が最大の動領域を目の位置として特定する顔部品検出技術が開示されている。目位置検出のための一般的な方法では眼鏡の縁または眉毛を目位置として誤検出することが多いが、特許文献1の技術を用いることによって眼鏡の縁または眉毛を目位置として誤検出することを抑え、精度よく目位置検出を行うことができる。
特開2008−192100号公報
Stan Z. Li, Anil K. Jain、「Handbook of Face Recognition」、Springer、2011年、p.124-133
非特許文献1に記載の技術において、モデルフィッティングの精度は、モデルの初期状態、すなわちモデルを最初に画像のどこに配置し、どのような角度、形状に設定するかによって大きな影響を受ける。モデルの初期状態が実際の顔の状態と大きく離れていると、実際の顔に合わせてモデルを生成するためのモデルフィッティングの計算が局所最適解に陥り、モデルが実際の顔からずれて収束してしまう場合がある。これを誤フィッティングといい、誤フィッティングが発生すると顔のモデルの精度が低下する。特に、モデルの目の位置が眼鏡の縁または眉毛の位置に誤って収束してしまうことが起こりやすい。また、モデルのトラッキングを行っている間に、モデルと実際の顔との間にずれが発生し、モデルの精度が低下する場合がある。非特許文献1には、これらの場合においてモデルを修正する方法は教示されていない。
また、特許文献1に記載の技術において、差分画像は光の強さおよび方向の変化ならびに顔の動きに起因するノイズによる影響を受けやすいため、差分画像のみで目位置を常に検出し続けることは難しい。そのため、特許文献1に記載の技術では、ノイズが多い画像が続いている間は目位置検出を行うことができず、モデルの経時的な精度が維持できないおそれがある。
本発明は、上述の問題点を解決するためになされたものであって、顔のモデルの精度を経時的に維持することが可能な顔検出装置、方法およびプログラムを提供することを目的とする。
本発明の一態様は、撮像部が撮像する顔を含む画像から顔検出を行うための顔検出装置であって、前記撮像部からの第1の画像に基づいて前記顔の第1のモデルを生成するモデルフィッティング部と、前記第1のモデルを前記撮像部からの第2の画像に適合させるトラッキング部と、前記第2の画像に基づいて前記顔の顔部品の位置を検出する位置検出部と、前記トラッキング部により適合される前記第1のモデルにおける前記顔部品の位置と、前記位置検出部により検出される前記顔部品の位置との間にずれが発生しているか否かを判定する比較部と、を備え、前記モデルフィッティング部は、前記ずれが発生していると前記比較部が判定する場合に、前記第2の画像に基づいて前記顔の第2のモデルを生成することを特徴とする。
本発明の一態様は、顔検出方法であって、撮像手段から顔を含む第1の画像を取得するステップと、モデルフィッティング手段が、前記第1の画像に基づいて前記顔の第1のモデルを生成するステップと、前記撮像手段から前記顔を含む第2の画像を取得するステップと、トラッキング手段が、前記第1のモデルを前記第2の画像に適合させるステップと、前記適合させるステップに並行して、位置検出手段が、前記第2の画像に基づいて前記顔の顔部品の位置を検出するステップと、比較手段が、前記適合させるステップにおいて適合される前記第1のモデルにおける前記顔部品の位置と、前記検出するステップにおいて検出される前記顔部品の位置との間にずれが発生しているか否かを判定するステップと、前記判定するステップにおいて前記ずれが発生していると前記比較手段が判定する場合に、前記モデルフィッティング手段が前記第2の画像に基づいて前記顔の第2のモデルを生成するステップと、を備えることを特徴とする。
本発明の一態様は、撮像手段が撮像する顔を含む画像から顔検出を行うためのプログラムであって、コンピュータを、前記撮像手段からの第1の画像に基づいて前記顔の第1のモデルを生成するモデルフィッティング手段、前記第1のモデルを前記撮像手段からの第2の画像に適合させるトラッキング手段、前記トラッキング手段による前記第1のモデルの適合に並行して、前記第2の画像に基づいて前記顔の顔部品の位置を検出する位置検出手段、および前記トラッキング手段により適合される前記第1のモデルにおける前記顔部品の位置と、前記位置検出手段により検出される前記顔部品の位置との間にずれが発生しているか否かを判定する比較手段、として機能させ、前記ずれが発生していると前記比較手段が判定する場合に、前記モデルフィッティング手段は前記第2の画像に基づいて前記顔の第2のモデルを生成する、ことを特徴とする。
本発明によれば、モデルの目の位置と、画像から検出される目の位置との間にずれが発生している場合に再モデルフィッティングを行うため、モデルの実際の顔からのずれを低減して精度の高い状態に維持することができる。
本発明の一実施形態に係る車両の車室の模式図である。 本発明の一実施形態に係る顔検出装置の概略ブロック図である。 本発明の一実施形態に係る顔検出装置の機能ブロック図である。 モデルおよびテンプレートを説明するための模式図である。 本発明の一実施形態に係る顔検出処理を示す模式図である。 本発明の一実施形態に係る顔検出処理のフローチャートを示す図である。 本発明の一実施形態に係る初期モデルフィッティング処理のフローチャートを示す図である。 本発明の一実施形態に係るトラッキング処理のフローチャートを示す図である。 本発明の一実施形態に係る目位置検出処理のフローチャートを示す図である。 本発明の一実施形態に係る目位置検出方法を示す模式図である。 本発明の一実施形態に係る目位置比較方法を示す模式図である。 本発明の一実施形態に係る再モデルフィッティング処理のフローチャートを示す図である。
以下、図面を参照して、本発明の実施の形態を説明するが、本発明は本実施形態に限定されるものではない。なお、以下で説明する図面で、同機能を有するものは同一符号を付け、その繰り返しの説明は省略することもある。
図1は本実施形態に係る顔検出装置1を有する車両100の車室を示す模式図である。車両100は、撮像部2を有する顔検出装置1を備える。顔検出装置1は車両100内の任意の場所に設けられてよい。顔検出装置1は単独の装置でもよく、また車両100内の他のシステム(例えば、カーナビゲーションシステム)に組み込まれてもよい。
撮像部2は、車室内において運転席101の前方(すなわち、車両100の進行方向側)に設けられている。撮像部2は、少なくとも運転席101に着座している運転者の顔を含む領域を撮像可能に構成されている。本実施形態において撮像部2はダッシュボード上に設けられているが、運転者の顔が正面方向から撮影可能であればハンドル、天井、またはルームミラーに設けられてもよい。
図2は、本発明の実施形態に係る顔検出装置1の概略ブロック図である。顔検出装置1は、運転者の顔を撮像するための撮像部2を備える。撮像部2はレンズ23を有するカメラ21と制御部22とを備える。カメラ21は通常の可視光線用CCDカメラまたはCMOSカメラであってもよく、また、近赤外線用CCDカメラであってもよい。近赤外線用CCDカメラは可視光線用CCDカメラと比較して、人間の個別の肌の色に左右されない。また、可視光線用CCDカメラよりも近赤外線用CCDカメラの方がシャッター速度を速くすることが可能である。
制御部22は、カメラ21の制御を行う。制御部22は、所定の時間ごとに、またはCPU8からの信号に応答してカメラ21のシャッターを開閉する制御を行い、撮像された画像データをフレームとしてRAM6のフレーム・メモリ61に記録する。すなわち、ある時点において撮像された画像をフレームという。
さらに、顔検出装置1は、演算部(CPU)8、格納部9、ROM5、RAM6、出力部7、インターフェース(I/F)4、およびバス41を備える。また、顔検出装置1はA/D変換部3をさらに備える。それぞれはバス41を介して信号を送受信可能に接続される。
演算部8はCPUを含み、プログラムにしたがって、撮像部2からのデジタル変換された画像データを処理し解析するとともに、眼部の検出と瞬目動作の判定等の処理を行う機能を有している。格納部9はRAM等から構成され、画像データを保存するとともに、画像データの処理結果、解析結果、および判定結果を格納可能である。
出力部7は、例えば、スピーカ、ディスプレイ、およびランプを含む。出力部7は、本実施形態に係る顔検出処理の結果に基づき、スピーカから注意や警告のための音声を発し、もしくはディスプレイまたはランプから注意や警告のためのメッセージまたは光を出力することができる。また、出力部7は、本実施形態に係る顔検出処理の結果に基づいて、例えば、車両2が有する自動ブレーキシステムに対して、自動ブレーキを作動させるための信号を送出することも可能である。
出力部7に含まれるスピーカとしては車両2に装備されるスピーカを利用することも可能である。また、出力部7に含まれるディスプレイとしては車両2に装備されるカーナビゲーションシステムのディスプレイを利用することも可能である。
A/D変換部3は、撮像部2からの画像信号をデジタル信号の画像データへ変換する機能を有している。画像データは、インターフェース(I/F)4へ出力される。I/F4は制御部22とデータおよびコマンドの送受信を行うとともに、画像データを受信する。ROM5は読み取り専用メモリであって、顔検出装置1を起動させるためのブートプログラムを格納しており、また実行される処理、解析、および判定のためのプログラム(例えば、後述する図6〜9、12に示す処理を行うプログラム)を格納するプログラム・メモリ51を備える。プログラムは、ROM5ではなく格納部9に格納されてもよい。
RAM6は、CPU8のキャッシュメモリとして使用されるとともに、CPU8による画像データに対するプログラム実行時のワークエリアとして使用される。RAM6は、画像データをフレーム毎に格納するフレーム・メモリ61と、テンプレートを格納するテンプレート・メモリ62とを備える。
図3は、顔検出装置1の機能ブロック図である。顔検出装置1は、撮像部(撮像手段)2からの画像を用いて顔のモデルを生成するモデルフィッティング部(モデルフィッティング手段)11と、モデルフィッティング部11により生成されるモデルを撮像部2からの画像に適合させる、すなわちトラッキングするトラッキング部(トラッキング手段)12と、画像を用いて目位置の検出を行う位置検出部(位置検出手段)13と、トラッキング部12により適合されるモデルの目位置と位置検出部13により検出される目位置との比較を行う目位置比較部(比較手段)14と、を備える。モデルフィッティング部は、顔検出処理の開始時と、トラッキング部12により適合されるモデルの目位置と位置検出部により検出される目位置との間にずれが発生した時に、モデルフィッティングを行う。さらに、顔検出装置1は、トラッキング部12から出力されるモデルの状態に応じて所定のアクションを行うアクション部(アクション手段)15を備える。
本実施形態に係る顔検出装置1においては、モデルフィッティング部11、トラッキング部12、位置検出部13、目位置比較部14、およびアクション部15は、それぞれコンピュータである顔検出装置1を作動させるためのプログラムとして顔検出装置1のROM5または格納部9に記憶されている。すなわち、本実施形態に係る顔検出のためのプログラムは、実行時にCPU8によってROM5または格納部9からRAM6に読み出され、コンピュータである顔検出装置1を、モデルフィッティング部11、トラッキング部12、位置検出部13、目位置比較部14、およびアクション部15として機能させる。モデルフィッティング部11、トラッキング部12、位置検出部13、目位置比較部14、およびアクション部15の少なくとも一部を、プログラムでなく電気回路として実装してもよい。また、モデルフィッティング部11、トラッキング部12、位置検出部13、目位置比較部14、およびアクション部15を、単一の装置でなく複数の装置に別々に実装し、複数の装置が共同して本実施形態に係る顔検出装置1として作動するように構成してもよい。
図4は、本実施形態で用いる顔のモデルおよびテンプレートを説明するための模式図である。図4(a)は、例示的な顔のモデルMを示す模式図である。モデルMは、それぞれ所定の顔部品を表す複数の特徴点Pを含んでいる。特徴点Pは、任意の点を原点とした座標により表される。図4(a)では眉、目、鼻、口および輪郭を表す特徴点Pを示しているが、モデルMはより図4(a)に示したものは異なる特徴点Pを含んでもよい。本実施形態において、モデルフィッティングには、統計的顔形状モデル、すなわち予め作成した平均的な顔の仮モデルを初期状態として用い、該仮モデルの特徴点Pを画像中の顔の各部分に位置させることによって、該顔に近似したモデルMを生成することが含まれる。
また、本実施形態において、モデルのトラッキングには、モデルフィッティングにおいてモデルMが生成された後に、周期的に撮像される画像中の顔に合うようにモデルMを継続的に適合させることが含まれる。本実施形態では、テンプレートを用いることによってモデルのトラッキングを行っている。図4(b)は、顔のモデルMについて作成されるテンプレートTを示す模式図である。テンプレートTは、画像中のモデルMの特徴点Pを含む所定範囲の領域を有する。例えば、テンプレートTは、眉を表す特徴点Pを含む領域、目を表す特徴点Pを含む領域、鼻を表す特徴点Pを含む領域、口を表す特徴点Pを含む領域および輪郭を表す特徴点Pを含む領域を有する。テンプレートTの各領域は、1または2以上の特徴点と対応しており、該特徴点の座標と紐付けられている。すなわち、テンプレートTが有する領域の画像中の位置が決まれば、該領域に対応する特徴点Pの座標を算出することができる。本実施形態に係るモデルのトラッキングでは、テンプレートTが有する各領域の画像中の位置を決定し、該各領域の位置を用いてモデルMの該画像中の角度、位置および大きさを決定する。そして、モデルMに対してこれらの決定された角度、位置および大きさを適用することによって、モデルMを該画像に適合させることができる。テンプレートTが有する領域の位置および数は、モデルのトラッキングが可能である限り任意に選択され得る。
図5は、本実施形態に係る顔検出処理を示す模式図である。図5(a)は、正面から見た運転者の顔を含む画像を示す。図5(b)、(c)においては、運転者の画像の上に、トラッキング部12により適合されているモデルの特徴点Pが示されているとともに、位置検出部13により検出されている目位置Eが示されている。図5(b)では、運転者の目の目頭および目尻にモデルの目を表す特徴点Pが位置しているため、モデルの目位置は位置検出部13により検出されている目位置Eと一致している。一方、図5(c)では、モデルの目を表す特徴点Pが運転者の目よりも上に位置しているため、モデルの目位置は位置検出部13により検出されている目位置Eと一致していない。すなわち、図5(c)の状態ではモデルの目位置と位置検出部13により検出されている目位置との間にずれが生じている。
顔検出装置1においては、モデルフィッティング部11が第1の画像(すなわち、撮像部2が最初に取得する画像)に基づいて第1のモデルを生成し、その後、トラッキング部12が第2の画像(すなわち、第1のモデルの生成後に撮像部2が取得する画像)に第1のモデルを適合させ、それと並行して位置検出部13が第2の画像に基づいて目位置を検出する。目位置比較部14は、トラッキング部12により適合される第1のモデルの目位置と、位置検出部13により第2の画像に基づいて検出される目位置とを比較し、比較結果を出力する。目位置比較部14による比較結果に基づいて、トラッキング部12により適合されるモデルの目位置と位置検出部13により第2の画像に基づいて検出される目位置との間にずれがある場合、すなわち図5(c)の状態の場合に、モデルフィッティング部11は位置検出部13により検出される目位置を用いて新たに第2のモデルの生成を行う。このような構成により、最初に誤フィッティングが行われる場合、またはモデルのトラッキングの最中にモデルと実際の顔との間にずれが生じる場合に、モデルを修正し、モデルと実際の顔とのずれを低減することが可能である。
図6は、本実施形態に係る顔検出処理のフローチャートを示す図である。顔検出装置1は、所定の開始条件(例えば、運転者の着座、運転者によるイグニッション・キーまたは特定のスイッチのオン等)が満たされたことを検知すると、図6のフローチャートの顔検出処理の実行を開始する。顔検出処理の各ステップで使用される画像(すなわち、運転者の顔を含む画像)は、各ステップの実行時にCPU8から撮像部2に信号を送ることにより撮像するものでもよく、または撮像部2が自発的に所定周期で撮像するものでもよい。いずれの場合においても、撮像部2により撮像される画像はRAM6のフレーム・メモリ61に格納され、各ステップにおいてRAM6のフレーム・メモリ61から読み出される。RAM6のフレーム・メモリ61には、少なくとも処理対象のフレームおよび処理対象のフレームの1つ前のフレームの画像が保持される。
まず、顔検出装置1は、撮像部2により撮像される画像に基づいて、モデルフィッティング部11を用いて初期モデルフィッティング処理を行い、モデルを生成する(ステップS1)。その後、次のフレームを処理対象のフレームとして、画像および初期モデルフィッティング処理により生成されるモデルに基づいて、トラッキング部12を用いてトラッキング処理を行い、該モデルを該画像に適合させる(ステップS2)。トラッキング処理と並行して、顔検出装置1は、トラッキング処理で用いられるものと同一の処理対象のフレームの画像に基づいて、位置検出部13を用いて目位置検出処理を行い、該画像中の目位置を検出する(ステップS3)。本実施形態ではトラッキング処理と目位置検出処理とは同一の周期で繰り返し行っているが、トラッキング処理の周期が目位置検出処理の周期よりも短くてもよい。例えば、トラッキング処理の周期は目位置検出処理の周期の1/2または1/3でよい。この場合には、トラッキング処理が2回または3回行われる度に、目位置検出処理が1回行われる。
目位置検出処理(ステップS3)において処理対象のフレームで目位置が検出されなかった場合、すなわち瞬目が検出されなかった場合には(ステップS4のNO)、顔検出装置1は、次のフレームを処理対象のフレームとしてトラッキング処理(ステップS2)および目位置検出処理(ステップS3)を行う。
目位置検出処理(ステップS3)において処理対象のフレームで目位置が検出される場合には(ステップS4のYES)、顔検出装置1は、目位置比較部14を用いて目位置比較処理を行い、モデルの目位置と画像の目位置との間にずれが発生しているか否かを判定する(ステップS5)。
目位置比較処理(ステップS5)においてモデルの目位置と画像の目位置との間にずれが発生していないと判定される場合には(ステップS6のNO)、顔検出装置1は、次のフレームを処理対象のフレームとしてトラッキング処理(ステップS2)および目位置検出処理(ステップS3)を行う。ここで、初期モデルフィッティング処理によりモデルが仮検出状態に設定されている場合には、仮検出状態を解除する。目位置比較処理によってモデルの精度が十分高いことが確認されるためである。
目位置比較処理(ステップS5)においてモデルの目位置と画像の目位置との間にずれが発生していると判定される場合には(ステップS6のYES)、顔検出装置1は、位置検出部13により検出される目位置に基づいて、モデルフィッティング部11を用いて再モデルフィッティング処理を行い、新たにモデルを生成する、すなわちモデルを更新する(ステップS7)。その後、顔検出装置1は、次のフレームを処理対象のフレームとしてトラッキング処理(ステップS2)および目位置検出処理(ステップS3)を行う。ここで、初期モデルフィッティング処理によりモデルが仮検出状態に設定されている場合には、仮検出状態を解除する。再モデルフィッティング処理によってモデルが修正され、モデルの精度が確保されるためである。
目位置検出処理(ステップS3)から再モデルフィッティング処理(ステップS7)の流れとは独立して、トラッキング処理(ステップS2)において適合されるモデルに基づいて、顔検出装置1は、アクション部15を用いて所定アクションの実行を行う(ステップS8)。例えば、アクション部15は、トラッキング処理において適合されるモデルが正面を向いていない場合に運転者が脇見状態であることを判定し、警告のために出力部7から音声の出力、もしくはメッセージまたは光の出力を行ってもよい。また、アクション部15は、トラッキング処理において適合されるモデルが所定の時間以上閉眼状態にある場合に運転者が居眠り状態であることを判定し、警告のために出力部7から音声の出力、もしくはメッセージまたは光の出力を行ってもよい。また、アクション部15は、脇見状態または居眠り状態の判定に基づいて、自動ブレーキシステムの作動を行ってもよい。
ここで、初期モデルフィッティング処理によりモデルが仮検出状態に設定されている場合には、アクション部15は前述の所定アクションを行わなくてもよく、または前述の所定アクションとは異なるアクションを行ってもよい。仮検出状態ではモデルフィッティングの精度が低く、必ずしもモデルが実際の顔に近い状態であるとは限らないためである。例えば、アクション部15は、モデルが仮検出状態に設定されている場合には、音声および光の出力は行うが、自動ブレーキの作動は行わなくてもよい。
最後に、顔検出装置1は、所定の終了条件(例えば、運転者の離席、運転者によるイグニッション・キーまたは特定のスイッチのオフ等)が満たされたことを検知すると、顔検出処理の実行を終了する(ステップS9のYES)。終了条件が満たされていなければ、顔検出装置1は、次のフレームを処理対象のフレームとしてトラッキング処理(ステップS2)および目位置検出処理(ステップS3)を行う(ステップS9のNO)。
図7は、本実施形態に係る初期モデルフィッティング処理の詳細なフローチャートを示す図である。初期モデルフィッティング処理では、モデルフィッティング部11は、RAM6のフレーム・メモリ61から顔検出処理開始時のフレームの画像を取得し(ステップS11)、画像に基づいてモデルの初期状態を決定する(ステップS12)。モデルの初期状態の決定には、モデルフィッティングを実行する前の時点におけるモデルの位置、角度等の決定が含まれる。本実施形態におけるモデルの初期状態の決定は特定の方法に限定されるものではなく、ニューラルネットワーク法、AdaBoost法等の、任意の顔および顔部品の検出方法を用いてよい。
本実施形態によれば、再モデルフィッティング処理(ステップS7)においてより正確な再モデルフィッティングを行うことができる。そのため、初期モデルフィッティング処理においては、モデルの初期状態の精度は必ずしも高いものでなくてもよく、処理負荷の小さい、すなわち処理が速いモデルの初期状態を用いることができる。これにより、モデルのトラッキングをより早いタイミングで開始することが可能となる。
モデルフィッティング部11は、ステップS12で決定されたモデルの初期状態を用いて、ステップS11で取得された画像に対してモデルフィッティングを行い、モデルを生成する(ステップS13)。本実施形態におけるモデルフィッティングは特定の方法に限定されるものではなく、AAM(Active Appearance Model)法、ASM(Active Shape Model)法等の、任意のモデルフィッティング法を用いてよい。モデルフィッティング部11は、モデルフィッティングにより生成されたモデルをRAM6に格納する。
上述のように、本実施形態に係る初期モデルフィッティング処理におけるモデルの初期状態の精度は高くないため、誤フィッティングが起こりやすい。そのため、初期モデルフィッティング処理により生成されたモデルは仮検出状態とする。モデルが仮検出状態か否かは、アクションの実行(ステップS8)の判断に利用される。
モデルフィッティング部11は、ステップS11で取得された画像およびステップS13において生成されたモデルを用いて、トラッキング処理に用いるためのモデルおよびテンプレートの保存を行う(ステップS14)。例えば、モデルフィッティング部11は、図4(b)に示す眉を表す特徴点Pを含む領域、目を表す特徴点を含む領域、鼻を表す特徴点を含む領域、口を表す特徴点を含む領域および輪郭を表す特徴点Pを含む領域を有するテンプレートTをRAM6のテンプレート・メモリ62に保存し、モデルをRAM6に保存する。テンプレートTが有する領域の位置および数は、モデルのトラッキングが可能である限り任意に選択してよい。
図8は、本実施形態に係るトラッキング処理(ステップS2)の詳細なフローチャートを示す図である。トラッキング処理では、トラッキング部12は、RAM6から処理対象のフレームの画像、モデルおよびテンプレートを取得し(ステップS21)、画像とテンプレートとの比較を行う(ステップS22)。具体的には、トラッキング部12は、RAM6のフレーム・メモリ61から読み出された処理対象のフレームの画像と、RAM6のテンプレート・メモリ62から読み出されたテンプレートとに基づいて、テンプレートが有する各領域を画像上で走査して各位置における該領域と該画像とを比較する。トラッキング部12は、比較の結果、最も近似している位置を用いてテンプレートが有する各領域の位置を決定し、該位置が適用されたテンプレートをRAM6のテンプレート・メモリ62に保存する。その後、トラッキング部12は、ROM6から読み出されたモデルと、ステップS22で保存されたテンプレートとに基づいて、テンプレートが有する各領域に紐付けられたモデルの角度、位置および大きさを決定し、該角度、位置および大きさが適用されたモデルをRAM6に格納する(ステップS23)。その結果、モデルが処理対象のフレームの画像に適合(トラッキング)される。
本実施形態ではテンプレートを用いてトラッキング処理を行っているため、テンプレートと画像とを比較するだけの低い処理負荷でトラッキングを行うことができる。また、テンプレートを用いない方法によりトラッキング処理を行ってもよい。例えば、処理負荷は高くなるが、モデルをそのまま用いてトラッキング処理を行ってもよい。その場合には、テンプレートの取得(ステップS14、S74)は不要となる。その他、求める精度と処理負荷とのバランスに応じて任意のトラッキング方法を用いてよい。
図9は、本実施形態に係る目位置検出処理(ステップS3)の詳細なフローチャートを示す図である。位置検出部13は、RAM6のフレーム・メモリ61から処理対象のフレームの画像と処理対象のフレームの1つ前のフレームの画像とを取得する(ステップS31)。目位置検出処理の処理対象のフレームは、並行して行われているトラッキング処理の処理対象のフレームと同一である。
位置検出部13は、トラッキング処理(ステップS2)により適合されたモデルをRAM6から読み出し、ステップS31で取得された画像内の探索領域の決定を行う(ステップS32)。位置検出部13は、モデルの目(すなわち、目頭、目尻等)を表す特徴点の位置に基づいて、該特徴点の周辺領域を探索領域として決定する。探索領域は、例えば、目を表す特徴点を基準に上下左右にそれぞれ所定の距離離れた地点を含む領域である。なお、目を表す特徴点の誤フィッティングは眼鏡の縁または眉毛等の目の近傍の部分にされていることが多いため、探索領域の決定に用いられるモデルと実際の顔との間にずれがあるとしても探索領域内に実際の顔の目が位置する蓋然性が高い。探索領域は、その中に目が位置する蓋然性が十分に高い形状および大きさを有する必要があり、その形状および大きさは統計的に決定可能である。
その後、位置検出部13は、ステップS31で取得された画像を用いて、ステップS32で決定された探索領域の差分画像を作成する(ステップS33)。具体的には、位置検出部13は、1つ前のフレームの画像中の探索領域と、処理対象のフレームの画像中の探索領域との間で、輝度成分の差分を算出する。これによって、例えば図10に示される探索領域の差分画像を作成する。
図10は、本実施形態に係る目位置検出方法を示す模式図である。図10(a)は、運転者が閉眼状態にある場合における画像中の探索領域Aを表している。図10(b)は、運転者が開眼状態にある場合における画像中の探索領域Aを表している。図10(c)は、図10(b)の探索領域Aの輝度成分から図10(a)の探索領域Aの輝度成分を減じて作成される差分画像を表している。差分画像においては、輝度が低下した領域(黒領域B)と、輝度が上昇した領域(白領域C)と、輝度がほぼ変化しない領域とが表れる。瞬目によって閉眼状態から開眼状態に遷移すると、差分画像中に瞼に対応する位置に大きな黒領域Bが表れる。そのため、位置検出部13は、ステップS33において作成された差分画像中の所定の面積より大きい黒領域Bを目位置として決定し、該目位置をRAM6に格納する(ステップS34)。目位置は、例えば黒領域Bの重心の座標である。また、位置検出部13は、差分画像中に所定の面積より大きい黒領域Bがない場合には、そのフレームでは瞬目は行われていないと判定し、目位置を検出しない。目位置検出のために開眼状態から閉眼状態への遷移を用いてもよく、その場合には所定の面積より大きい白領域Cを目位置として決定することができる。
なお、図10(c)は模式的な差分画像を表しているが、実際の差分画像には目以外の部分にも黒領域Bが複数表れることがある。その場合には、位置検出部13は最も大きい面積を有する黒領域を目と推定する。さらに、推定された左右の目の大きさの違いまたは間隔が異常である、例えば所定の許容範囲から外れている場合には、位置検出部13は次に大きい面積を有する黒領域を目と推定する。
本実施形態に係る目位置検出処理(ステップS3)では、瞬目に起因する目の変化を差分画像によって検出している。このため、眉毛または眼鏡の縁を目位置として誤検出することを抑制し、高精度に目位置を推定することができる。また、トラッキングされたモデルに基づいて探索領域を限定し、該探索範囲内でのみ目位置検出処理を行っているため、処理負荷を低減することができるとともに、目以外の顔部品によるノイズを低減して目位置の検出精度をさらに向上させることができる。本実施形態で用いる目位置の検出方法はこれに限られるものではなく、検出精度と処理負荷とを考慮して画像から鼻位置を特定可能な任意の顔部品検出方法を用いてもよい。
フレームの取得周期は人間の瞬目を検出可能な長さ、すなわち1つ前のフレームと処理対象のフレームとの間で閉眼状態と開眼状態とが切り替わる程度の長さである。フレームの取得周期の具体的な数値は統計または実験に基づいて定めることが可能であり、また顔検出装置1が運転手の瞬目頻度に基づいてフレームの取得周期を決定してもよい。
図11は、本実施形態に係る目位置比較処理(ステップS5)における目位置比較方法を示す模式図である。目位置比較部14は、RAM6からトラッキング処理(ステップS2)により適合されたモデルを取得する。また、目位置比較部14は、RAM6から目位置検出処理(ステップS3)により検出された目位置を取得する。図11に示すように、目位置比較部14は、トラッキング処理により適合されたモデルの目頭および目尻を表す特徴点Pに基づき、目頭および目尻を表す特徴点Pの中点をモデルの目位置P’であると推定する。そして、目位置比較部14は、トラッキングされたモデルの目位置P’と、目位置検出処理により検出された目位置Eとの間の距離Dを算出する。目位置比較部14は、この距離Dが所定の閾値D0より大きい場合に、トラッキングされたモデルの目位置と目位置検出処理により検出された目位置との間にずれが発生していると判定し、そうでない場合に、トラッキングされたモデルの目位置と目位置検出処理により検出された目位置との間にずれが発生していないと判定する。所定の閾値D0は、必要とする再モデルフィッティングの頻度と処理負担を考慮して任意に設定してよい。
図12は、本実施形態に係る再モデルフィッティング処理(ステップS7)の詳細なフローチャートを示す図である。再モデルフィッティング処理では、モデルフィッティング部11は、RAM6のフレーム・メモリ61から画像を取得する(ステップS71)。再モデルフィッティング処理の処理対象のフレームは、トラッキング処理および目位置検出処理の処理対象のフレームと同一である。
次に、モデルフィッティング部11は、RAM6から目位置検出処理(ステップS3)で検出された目位置を取得する(ステップS72)。その後、モデルフィッティング部11は、ステップS72で取得された目位置をモデルの初期状態として用いて、ステップS71で取得された画像に対してモデルフィッティングを行い、モデルを新たに生成する、すなわちモデルを更新する(ステップS73)。モデルフィッティング部11は、モデルフィッティングにより新たに生成されたモデルをRAM6に格納する。ここでは、モデルの初期状態として、目位置検出処理で検出された目位置を用いる。目位置検出処理では、上述のように、瞬目に起因する目の変化を差分画像によって検出しているため、高精度に目位置を特定することができる。この目位置をモデルの初期状態として用いることによって、再モデルフィッティング処理におけるモデルの初期状態を実際の顔の状態に近く設定することができるため、モデルフィッティングの精度が向上する。
再モデルフィッティング処理におけるモデルフィッティングについても、初期モデルフィッティング処理と同様に、AAM(Active Appearance Model)法、ASM(Active Shape Model)法等の、任意のモデルフィッティング法を用いてよい。モデルの初期状態として、目位置検出処理により検出された目位置に加えて、初期モデルフィッティング処理と同様のニューラルネットワーク法、AdaBoost法等の任意の顔および顔部品の検出方法により決定されたモデルの初期状態を組み合わせて用いてもよい。これにより、モデルフィッティングの精度をさらに向上させることが可能になる。
再モデルフィッティング処理で用いる情報は、差分画像により推定した目位置に限らない。本発明の本質は、画像から生成されたモデルのトラッキングに並行して画像から顔部品の位置検出を行い、該顔部品の位置に基づいて該モデルを修正することにある。すなわち、1つの撮像部からの画像に基づいて2つの異なる情報を生成し、それらの情報を相補的に用いることによって顔検出の精度を向上させることを実現している。その結果、2つの異なる情報により推定結果のダブルチェックを行うことになるため、顔検出の精度が改善される。画像から位置を特定できる顔部品であれば、目以外にも、鼻、口、耳、輪郭等、任意のものを用いることができ、それらのうち複数を組み合わせて用いることもできる。
ステップS73においてモデルが修正された後、モデルフィッティング部11は、ステップS71で取得された画像およびステップS73において生成されたモデルを用いて、ステップS14と同様に、トラッキング処理に用いるためのテンプレートをRAM6のテンプレート・メモリ62に保存し、モデルをRAM6に保存する(ステップS74)。
本実施形態に係る顔検出処理では、モデルのトラッキングに並行して画像から目位置検出を行い、推定された目位置を用いて再度モデルフィッティングを行うため、誤フィッティングおよびトラッキングのずれを修正し、モデルの経時的な精度を向上させることができる。しかも、視線検出機(アイトラッカー)のような追加の機構を必要とせずに、1つの撮像部からの画像を用いてモデルのトラッキングと目位置検出との両方を行っているため、精度を向上させるために掛かるコストの増加を抑制することができる。
また、本実施形態に係る顔検出処理では、トラッキングされているモデルの目位置と画像から検出される目位置とがずれている場合にのみ再モデルフィッティング処理を行うため、無駄な処理を省いて処理負荷の上昇を抑えることができる。
また、本実施形態に係る顔検出処理では、瞬目を待つ必要があるため時間を要する目位置検出が完了する前に、大まかな初期モデルフィッティング処理を行うので、モデルのトラッキングを早いタイミングで開始することができ、待ち時間を短縮することができる。
また、本実施形態に係る顔検出処理は、フレーム間の差分画像を作成することによって瞬目に起因する目の変化を検出することにより目位置の検出を行っているため、眉毛または眼鏡の縁を目位置として誤検出することを抑制し、高精度に目位置を推定することができる。このとき、トラッキングされているモデルの目位置に基づいて差分画像作成時の画像の探索領域を限定しているため、処理負荷を低減することができる。
本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
前述した実施形態の機能を実現するように前述した実施形態の構成を動作させるプログラム(例えば、図6〜9、12に示す処理を行うプログラム)を記憶媒体に記憶させ、該記憶媒体に記憶されたプログラムをコンピュータ中に読み出し、コンピュータにおいて実行する処理方法も前述の実施形態の範疇に含まれる。すなわち、コンピュータ読み取り可能な記憶媒体も本発明に係る実施形態の範囲に含まれる。また、前述のプログラムが記憶された記憶媒体はもちろん、そのプログラム自体も前述の実施形態に含まれる。かかる記憶媒体としてはたとえばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD―ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また前述の記憶媒体に記憶されたプログラム単体で処理を実行しているものに限らず、他のソフトウエア、拡張ボードの機能と共同して、OS上で動作し前述の実施形態の動作を実行するものも前述した実施形態の範疇に含まれる。
前述した実施形態は、さらに以下の付記を含む。
(付記1)
撮像手段から顔を含む第1の画像を取得するステップと、
モデルフィッティング手段が、前記第1の画像に基づいて前記顔の第1のモデルを生成するステップと、
前記撮像手段から前記顔を含む第2の画像を取得するステップと、
トラッキング手段が、前記第1のモデルを前記第2の画像に適合させるステップと、
前記適合させるステップに並行して、位置検出手段が、前記第2の画像に基づいて前記顔の顔部品の位置を検出するステップと、
比較手段が、前記適合させるステップにおいて適合される前記第1のモデルにおける前記顔部品の位置と、前記検出するステップにおいて検出される前記顔部品の位置との間にずれが発生しているか否かを判定するステップと、
前記判定するステップにおいて前記ずれが発生していると前記比較手段が判定する場合に、前記モデルフィッティング手段が前記第2の画像に基づいて前記顔の第2のモデルを生成するステップと、
を備えることを特徴とする顔検出方法。
(付記2)
前記顔部品は目を含み、
前記位置検出手段は、あるフレームの前記撮像手段からの画像と1つ前のフレームの前記撮像手段からの画像との間で差分画像を作成し、前記差分画像に基づいて前記目の位置を検出する
ことを特徴とする付記1に記載の顔検出方法。
(付記3)
前記位置検出手段は、前記トラッキング手段により適合される前記第1のモデルの前記目の位置に基づいて探索領域を決定し、前記探索領域内で前記差分画像を作成する
ことを特徴とする付記2に記載の顔検出方法。
(付記4)
前記第1のモデルは顔部品を表す特徴点を含んでおり、
前記モデルフィッティング手段は、前記第1の画像内の前記特徴点を含む領域をテンプレートとして保存し、
前記トラッキング手段は、前記第2の画像に基づいて前記テンプレートの位置を決定し、前記テンプレートの前記決定される位置に基づいて前記第1のモデルを前記第2の画像に適合させる
ことを特徴とする付記1に記載の顔検出方法。
(付記5)
撮像手段が撮像する顔を含む画像から顔検出を行うためのプログラムであって、
コンピュータを、
前記撮像手段からの第1の画像に基づいて前記顔の第1のモデルを生成するモデルフィッティング手段、
前記第1のモデルを前記撮像手段からの第2の画像に適合させるトラッキング手段、
前記トラッキング手段による前記第1のモデルの適合に並行して、前記第2の画像に基づいて前記顔の顔部品の位置を検出する位置検出手段、および
前記トラッキング手段により適合される前記第1のモデルにおける前記顔部品の位置と、前記位置検出手段により検出される前記顔部品の位置との間にずれが発生しているか否かを判定する比較手段、
として機能させ、
前記ずれが発生していると前記比較手段が判定する場合に、前記モデルフィッティング手段は前記第2の画像に基づいて前記顔の第2のモデルを生成する、
ことを特徴とするプログラム。
(付記6)
前記顔部品は目を含み、
前記位置検出手段は、あるフレームの前記撮像手段からの画像と1つ前のフレームの前記撮像手段からの画像との間で差分画像を作成し、前記差分画像に基づいて前記目の位置を検出する
ことを特徴とする付記5に記載のプログラム。
(付記7)
前記位置検出手段は、前記トラッキング手段により適合される前記第1のモデルの前記目の位置に基づいて探索領域を決定し、前記探索領域内で前記差分画像を作成する
ことを特徴とする付記6に記載のプログラム。
(付記8)
前記第1のモデルは顔部品を表す特徴点を含んでおり、
前記モデルフィッティング手段は、前記第1の画像内の前記特徴点を含む領域をテンプレートとして保存し、
前記トラッキング手段は、前記第2の画像に基づいて前記テンプレートの位置を決定し、前記テンプレートの前記決定される位置に基づいて前記第1のモデルを前記第2の画像に適合させる
ことを特徴とする付記5に記載のプログラム。
(付記9)
付記5から8のいずれか一項に記載のプログラムを記憶したコンピュータ読み取り可能記憶媒体。
1 顔検出装置
2 撮像部
3 A/D変換部
4 インターフェース(I/F)
5 ROM
6 RAM
7 出力部
8 演算部(CPU)
9 格納部
11 モデルフィッティング部
12 トラッキング部
13 位置検出部
14 目位置比較部
15 アクション部
100 車両
101 運転席

Claims (6)

  1. 撮像部が撮像する顔を含む画像から顔検出を行うための顔検出装置であって、
    前記撮像部からの第1の画像に基づいて前記顔の第1のモデルを生成するモデルフィッティング部と、
    前記第1のモデルを前記撮像部からの第2の画像に適合させるトラッキング部と、
    前記第2の画像に基づいて前記顔の顔部品の位置を検出する位置検出部と、
    前記トラッキング部により適合される前記第1のモデルにおける前記顔部品の位置と、前記位置検出部により検出される前記顔部品の位置との間にずれが発生しているか否かを判定する比較部と、
    を備え、
    前記モデルフィッティング部は、前記ずれが発生していると前記比較部が判定する場合に、前記第2の画像に基づいて前記顔の第2のモデルを生成する
    ことを特徴とする顔検出装置。
  2. 前記顔部品は目を含み、
    前記位置検出部は、あるフレームの前記撮像部からの画像と1つ前のフレームの前記撮像部からの画像との間で差分画像を作成し、前記差分画像に基づいて前記目の位置を検出する
    ことを特徴とする請求項1に記載の顔検出装置。
  3. 前記位置検出部は、前記トラッキング部により適合される前記第1のモデルの前記目の位置に基づいて探索領域を決定し、前記探索領域内で前記差分画像を作成する
    ことを特徴とする請求項2に記載の顔検出装置。
  4. 前記第1のモデルは顔部品を表す特徴点を含んでおり、
    前記モデルフィッティング部は、前記第1の画像内の前記特徴点を含む領域をテンプレートとして保存し、
    前記トラッキング部は、前記第2の画像に基づいて前記テンプレートの位置を決定し、前記テンプレートの前記決定される位置に基づいて前記第1のモデルを前記第2の画像に適合させる
    ことを特徴とする請求項1に記載の顔検出装置。
  5. 撮像手段から顔を含む第1の画像を取得するステップと、
    モデルフィッティング手段が、前記第1の画像に基づいて前記顔の第1のモデルを生成するステップと、
    前記撮像手段から前記顔を含む第2の画像を取得するステップと、
    トラッキング手段が、前記第1のモデルを前記第2の画像に適合させるステップと、
    前記適合させるステップに並行して、位置検出手段が、前記第2の画像に基づいて前記顔の顔部品の位置を検出するステップと、
    比較手段が、前記適合させるステップにおいて適合される前記第1のモデルにおける前記顔部品の位置と、前記検出するステップにおいて検出される前記顔部品の位置との間にずれが発生しているか否かを判定するステップと、
    前記判定するステップにおいて前記ずれが発生していると前記比較手段が判定する場合に、前記モデルフィッティング手段が前記第2の画像に基づいて前記顔の第2のモデルを生成するステップと、
    を備えることを特徴とする顔検出方法。
  6. 撮像手段が撮像する顔を含む画像から顔検出を行うためのプログラムであって、
    コンピュータを、
    前記撮像手段からの第1の画像に基づいて前記顔の第1のモデルを生成するモデルフィッティング手段、
    前記第1のモデルを前記撮像手段からの第2の画像に適合させるトラッキング手段、
    前記トラッキング手段による前記第1のモデルの適合に並行して、前記第2の画像に基づいて前記顔の顔部品の位置を検出する位置検出手段、および
    前記トラッキング手段により適合される前記第1のモデルにおける前記顔部品の位置と、前記位置検出手段により検出される前記顔部品の位置との間にずれが発生しているか否かを判定する比較手段、
    として機能させ、
    前記ずれが発生していると前記比較手段が判定する場合に、前記モデルフィッティング手段は前記第2の画像に基づいて前記顔の第2のモデルを生成する、
    ことを特徴とするプログラム。
JP2013211633A 2013-10-09 2013-10-09 顔検出装置、方法およびプログラム Expired - Fee Related JP6187817B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013211633A JP6187817B2 (ja) 2013-10-09 2013-10-09 顔検出装置、方法およびプログラム
EP20140187887 EP2860665A3 (en) 2013-10-09 2014-10-07 Face detection apparatus, and face detection method
CN201410528221.6A CN104573622B (zh) 2013-10-09 2014-10-09 人脸检测装置、方法
US14/510,379 US9495579B2 (en) 2013-10-09 2014-10-09 Face detection apparatus, face detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013211633A JP6187817B2 (ja) 2013-10-09 2013-10-09 顔検出装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015075916A JP2015075916A (ja) 2015-04-20
JP6187817B2 true JP6187817B2 (ja) 2017-08-30

Family

ID=51659578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013211633A Expired - Fee Related JP6187817B2 (ja) 2013-10-09 2013-10-09 顔検出装置、方法およびプログラム

Country Status (4)

Country Link
US (1) US9495579B2 (ja)
EP (1) EP2860665A3 (ja)
JP (1) JP6187817B2 (ja)
CN (1) CN104573622B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11410438B2 (en) * 2010-06-07 2022-08-09 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation in vehicles
CN104715227B (zh) * 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
CN107851192B (zh) * 2015-05-13 2023-04-14 北京市商汤科技开发有限公司 用于检测人脸部分及人脸的设备和方法
DE102015121952A1 (de) 2015-12-16 2017-06-22 Valeo Schalter Und Sensoren Gmbh Verfahren zum Identifizieren eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
JP2017202038A (ja) * 2016-05-10 2017-11-16 富士通株式会社 判別装置、判別方法、および判別プログラム
JP6807951B2 (ja) * 2016-12-20 2021-01-06 三菱電機株式会社 画像認証装置、画像認証方法および自動車
CN108875480A (zh) * 2017-08-15 2018-11-23 北京旷视科技有限公司 一种人脸特征信息的追踪方法、装置及系统
JP6544404B2 (ja) * 2017-09-19 2019-07-17 日本電気株式会社 照合システム
ES2828358T3 (es) * 2018-03-16 2021-05-26 Identy Inc Procedimiento para identificar un objeto dentro de una imagen y dispositivo móvil para ejecutar el procedimiento
JP7063076B2 (ja) * 2018-04-20 2022-05-09 株式会社Jvcケンウッド 認識装置、認識方法及び認識プログラム
JP7290930B2 (ja) * 2018-09-27 2023-06-14 株式会社アイシン 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2715511B2 (ja) 1989-01-31 1998-02-18 日産自動車株式会社 運転者の目の位置認識装置
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
JP2001076151A (ja) * 1999-09-08 2001-03-23 Denso Corp 画像情報に含まれる認識対象物の認識方法
KR20020007744A (ko) * 2000-07-18 2002-01-29 최창석 미래 자녀 얼굴 모델링 방법과 미래 얼굴 모델링 방법
JP4898026B2 (ja) * 2001-06-29 2012-03-14 本田技研工業株式会社 ステレオカメラを使用した顔・視線認識装置
JP4895847B2 (ja) * 2007-02-08 2012-03-14 アイシン精機株式会社 瞼検出装置及びプログラム
JP4848301B2 (ja) 2007-03-14 2011-12-28 アイシン精機株式会社 瞼検出装置及びプログラム
US8040247B2 (en) * 2009-03-23 2011-10-18 Toyota Motor Engineering & Manufacturing North America, Inc. System for rapid detection of drowsiness in a machine operator
JP2010250420A (ja) * 2009-04-13 2010-11-04 Seiko Epson Corp 顔の特徴部位の座標位置を検出する画像処理装置
CN101950355B (zh) * 2010-09-08 2012-09-05 中国人民解放军国防科学技术大学 基于数字视频的驾驶员疲劳状态检测方法
CN102254151B (zh) * 2011-06-16 2013-01-16 清华大学 一种基于面部视频分析的驾驶人疲劳检测方法

Also Published As

Publication number Publication date
CN104573622A (zh) 2015-04-29
US20150098634A1 (en) 2015-04-09
EP2860665A3 (en) 2015-05-06
EP2860665A2 (en) 2015-04-15
US9495579B2 (en) 2016-11-15
CN104573622B (zh) 2019-07-16
JP2015075916A (ja) 2015-04-20

Similar Documents

Publication Publication Date Title
JP6187817B2 (ja) 顔検出装置、方法およびプログラム
JP6304999B2 (ja) 顔検出装置、方法およびプログラム
AU2015276536B2 (en) Device, method, and computer program for detecting momentary sleep
JP5109922B2 (ja) ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP5127583B2 (ja) 対象物判定装置及びプログラム
JP2008210239A (ja) 視線推定装置
JP6584717B2 (ja) 顔向き推定装置および顔向き推定方法
JP4957711B2 (ja) 検出装置および方法、並びに、プログラム
JP6633462B2 (ja) 情報処理装置および情報処理方法
JP4992823B2 (ja) 顔検出装置及び顔検出方法
JP6922821B2 (ja) 画像解析装置、方法およびプログラム
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
KR101610496B1 (ko) 시선 추적 방법 및 장치
US11077814B2 (en) Occupant eye(s) observation device
JP5035139B2 (ja) 眼画像処理装置
JP4825737B2 (ja) 開眼度判定装置
JP2012070236A (ja) 被写体認識装置
JP7557389B2 (ja) 視線検出装置、視線検出システム、及び視線検出方法
US20230256939A1 (en) Vehicle and Control Method Thereof
JP2022123912A (ja) 視線検出装置、視線検出システム、及び視線検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170719

R151 Written notification of patent or utility model registration

Ref document number: 6187817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees