JPWO2006051607A1 - 顔特徴点検出装置、特徴点検出装置 - Google Patents

顔特徴点検出装置、特徴点検出装置 Download PDF

Info

Publication number
JPWO2006051607A1
JPWO2006051607A1 JP2006544712A JP2006544712A JPWO2006051607A1 JP WO2006051607 A1 JPWO2006051607 A1 JP WO2006051607A1 JP 2006544712 A JP2006544712 A JP 2006544712A JP 2006544712 A JP2006544712 A JP 2006544712A JP WO2006051607 A1 JPWO2006051607 A1 JP WO2006051607A1
Authority
JP
Japan
Prior art keywords
node
face
feature
feature point
shape model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006544712A
Other languages
English (en)
Other versions
JP4501937B2 (ja
Inventor
航一 木下
航一 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Publication of JPWO2006051607A1 publication Critical patent/JPWO2006051607A1/ja
Application granted granted Critical
Publication of JP4501937B2 publication Critical patent/JP4501937B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

複数のノードを予め決められた初期位置に配置し、各ノード周囲の複数のサンプリング点における特徴量を、対応する各ノードのノード特徴量として取得し、学習画像において、複数ノードがそれぞれに対応する特徴点の正解位置に配置された状態と誤った位置に配置された状態とで取得される両ノード特徴量の差、及び正解位置と誤った位置との差、についての相関関係の情報と、各ノードのノード特徴量とに基づいて、現在の各ノードの位置とそれぞれに対応する特徴点の位置とのずれを示す誤差推定量を取得し、この誤差推定量と、現在の各ノードの位置とに基づいて、入力された画像における各特徴点の位置を推定する。

Description

本発明は、画像の中から対象物の特徴点を検出するための装置や方法やプログラム等に適用されて有効な技術に関する。
画像の中から対象物の特徴点を検出する技術として、顔を対象物として、顔の特徴点を検出する技術がある。以下、顔を対象物とした場合の背景技術について述べる。
人物が撮像された画像から顔の特徴点位置を得ることにより、例えば、その人物の目の開閉情報、顔姿勢、視線方向、顔の表情などを推定することができる。また、これらの推定結果から、その人物の状態をより詳細に知ることが可能となる。そして、人物の状態を詳細に把握することにより、マン・マシン・インタフェースの性能向上や新たなサービスの提供等を図ることができる。このように、顔の特徴点位置を正確に知ることは、マン・マシン・インタフェースの開発の上で重要な課題となっている。
このようなマン・マシン・インタフェースの例として、運転者モニタリングシステムがある。このシステムでは、運転者の目の開閉、顔姿勢、視線方向などが逐次観察される。そして、この観察結果に基づいて運転者の疲労度合い等が判断され、状況に応じた的確なアドバイスが可能となる。
また、他のマン・マシン・インタフェースの例として、動画ビデオカメラや静止画カメラなどへの応用がある。これらの装置において、被撮影者の顔姿勢を知ることにより、撮影条件を変化させるなど、多彩な処理が可能となる。この他、目や口などの特徴点の画像を詳細に解析することで、個人の識別を高い精度で行うことも可能となる。
画像から顔の特徴点位置を得る方法(以下、「特徴点検出方法」と呼ぶ)としては、テンプレートマッチングによるもの、及びその応用によるものが一般的である。これらの方法では、各特徴点の一般的な情報(以下、「特徴量」と呼ぶ)が予め保存される。そして、画像内の一部の領域から得られる特徴量と、保存されている特徴量とが比較されることにより、取得すべき特徴点であるか否かが判断される。このとき使用される特徴量の具体例としては、画像の輝度値ベクトルがある。また、両特徴量の比較手段としては、正規化相関やユークリッド距離を使用するものが一般的である。
このような技術の例として、分離度フィルタによって予め探索点数を減らした後、パターンマッチングにより特徴点候補を検出する技術が提案されている(特許文献1参照)。この技術では、特徴点候補が検出された後、幾何的な拘束条件を適用し、最も人間の顔らしいと判断される候補点の組み合わせが出力される。
しかしこの技術では、ほぼ正面を向いた、撮影条件のよい人物画像の特徴点しか検出することができない。従って、特徴点の一部が遮蔽物によって隠れてしまった画像や、予め保存されている特徴点の取得時と撮影条件(例えば照明条件)が大きく異なる画像からは、特徴点を正確に検出することは困難であった。
また、顔の特徴点位置を得ることにより顔姿勢を推定する技術もある(特許文献2,3参照)。このような技術では、顔の特徴点位置が取得された後、その全体配置や特徴量を用いて推定する手法が一般的である。例えば、目や口や眉や鼻を示す特徴点の座標と顔姿勢との関係が予めルックアップテーブルとして保存されている。そして、画像から取得された特徴点の座標に対応する顔姿勢が、このルックアップテーブルから判断され、推定結果として出力される。この他にも、顔全体又は顔の特徴量のテンプレートを複数の顔の向きに対応して用意し、これらのテンプレートとマッチングをとることによって顔姿勢を求める手法もある。しかしながら、これらの手法においても、顔姿勢の推定が正確に実行できるか否かは、顔の特徴点位置の精度に依存する。従って、顔の特徴点位置の取得を正確に実行できなければ、顔姿勢の推定も正確に行うことができなかった。
このような問題を解決する技術として、ASM(Active Shape Model)と呼ばれる技術がある(非特許文献1参照)。ASMでは、予め、学習用の顔画像について特徴点の位置が取得され、顔形状モデルが作成され保持される。顔形状モデルは、各顔特徴点に対応するノードによって構成される。なお、顔形状モデルの詳細については、発明を実施するための最良の形態の欄で説明する。
次に、ASMにより画像から特徴点の位置を検出する処理について説明する。まず、処理対象となる画像の適当な初期位置に、この顔形状モデルが配置される。次に、顔形状モデルの各ノード周りにおいて、特徴量の取得が行われる。各ノードは、取得された特徴量と予めそのノードに対応づけて保持されている特徴量とを比較する。この比較により、各ノードに対応する特徴量に最も近い特徴量が取得された位置(即ち、各ノードに対応する特徴点である可能性が最も高いと判断される位置)に移動される。この時点で、顔形状モデルの各ノードの位置は、初期の位置からずれている。そこで、変形されたノード集合が、顔形状モデルに射影されることにより整形される。各ノード周りにおける特徴量の取得以降の処理が、所定の回数、又は一定の条件(収束条件)が満たされるまで繰り返し実行される。そして、各ノードの最終的な位置が、各特徴点の位置と判断される。
ASMでは、上記のように、各ノードの位置が移動した後に、顔形状モデルへの射影が行われる。この処理により、各ノードの位置関係が顔らしい形状を保ったまま、特徴点の正確な位置を検出することができる。即ち、一般の人の顔の形状からは到底ありえない位置に偶然的に特徴点と似た特徴量を有する部分が存在した場合にも、このような点を特徴点として誤検出することが防止される。
しかしながら、従来のASMでは、各ノードにおいて周囲の探索処理(特徴量の取得と、その比較)を行う必要があった。このため、多くの計算時間を必要とするという欠点があった。また、従来のASMには、ロバスト性が低いという問題があった。即ち、処理対象となる画像中の顔の向きが、初期位置に配置された顔形状モデルにおいて想定されている顔の向きと大きく異なる場合、特徴点の検出に失敗する場合が多いという問題があった。
ASMのこのような問題を解決するための技術として、AAM(Active Appearance Model)がある(非特許文献2参照)。AAMでは、以下のようにして顔特徴点の位置が求められる。まず、ASMの場合と同様に、学習用の顔画像について特徴点の位置が取得され、顔形状モデルが作成される。次に、各ノード位置の平均値が取得され、平均位置のノードの集合により構成される平均形状モデルが作成される。次に、学習用の顔画像において各特徴点により構成される複数のパッチが作成され、各パッチが平均形状モデルに射影され、シェイプフリーイメージが作成される(この処理を「形状修正処理」と呼ぶ)。そして、シェイプフリーイメージの集合について主成分分析が実施されることにより、顔輝度値モデル(シェイプフリー顔輝度値モデル)が作成される。次に、顔形状モデルを正解位置から一定ずつ各方向に微小にずらした際のシェイプフリー顔輝度値ベクトルが求められる。これらの集合について線形回帰計算が行われる。これにより、微小にずれた顔輝度値ベクトルから顔形状モデルの正解点への移動・変形方向、量を推定することが可能になる。AAMでは、以上の処理が学習処理として、予め実行される。
次に、AAMにより画像から特徴点の位置を検出する処理について説明する。まず、処理対象となる画像の適当な初期位置に、顔形状モデルが配置される。次に、配置された顔形状モデルのノード位置に基づいてパッチが作成され、各パッチにおける輝度分布がサンプリングされる。そして、サンプリングされた輝度分布が射影されることにより、シェイプフリー顔輝度値モデルが作成される。
次に、このシェイプフリー顔輝度値モデルから、予め求められている回帰式により、顔形状モデルの移動・変形量が推定される。顔形状モデルは、この推定結果に従って移動・変形される。以上の処理が、所定の回数、又は一定の条件(収束条件)が満たされるまで繰り返し実行される。そして、各ノードの最終的な位置が、各特徴点の位置と判断される。
AAMによれば、上記のように、各ノード周りの探索処理を行うことなく各特徴点の位置を検出することができる。このため、ASMの場合と異なり、各ノード周りの探索処理に時間を要することが無く、計算時間を削減できる。また、形状モデルを変形させることにより探索を行うため、ASMの場合と同様に、各ノードの位置関係が顔らしい形状を保ったまま、特徴点の正確な位置を検出することが可能となる。
特開平9−251534号公報 特開2000−97676号公報 特開2003−141551号公報 A. Lanitis, C. J.Taylor, T. F. Cootes, "Automatic Interpretation and Coding of Face Images Using Flexible Models. IEEE PAMI Vol.19 No.7 pp.743−756, July 1997. T.F.Cootes, G. J. Edwards and C.J.Taylor. "Active Appearance Models", IEEE PAMI,Vol.23, No.6, pp.681−685, 2001
しかしながら、AAMには以下のような問題点がある。
AAMによって各特徴点の位置検出の精度を維持するためには、各パッチの輝度分布を取得する際に均質で密度の高いサンプリングを行う必要がある。このため、そのサンプリングや、輝度分布を平均形状モデルへ射影する際の計算量が多大となり、多くの計算時間を要してしまう。さらに、AAMでは、正解点周りの微小なずれによる線形回帰に基づいて、顔形状モデルの移動量や変形量が推定される。このため、大きなずれに対しては正しい推定を行うことができず、正しい結果を得ることができない。
このように、従来のASMやAAMを用いた処理では、探索処理や、均質且つ高密度なサンプリングによる輝度分布の形状修正処理などにおいて多くの計算量を必要とするため、高速に特徴点の検出を行うことができなかった。しかしながら、上記したように、特徴点の検出結果はマン・マシン・インタフェース等において入力データとして利用されるため、応答性が求められる場合が多い。このため、高速に特徴点の検出を行う事への要求が高まっていることも事実である。
そこで本発明はこれらの問題を解決し、顔画像から特徴点の位置を高速に検出することを可能とする装置やプログラム等を提供することを目的とする。
従来は、AAMのように、形状修正処理を行うことによって、誤差推定(顔形状モデルにおける各ノードの正解点への移動方向や移動量を推定すること)を行うことが一般であった。従って、これまで、誤差推定を行うにあたり形状修正処理を省くことは検討されてこなかった。しかし、従来のAAMにおいて、計算量の増大を招いていた要因を検討すると、必要とされている形状修正処理がその要因として挙げられる。そこで、本発明者は、このような形状修正処理を行うことなく顔特徴点の検出を可能とする装置について検討した。
また、従来は、誤差推定の精度を高く維持するため、各ノードの周囲で高密度なサンプリングが実施されることが一般であった。例えば、従来のAAMでは、各ノードによって構成されるパッチ内において均質且つ高密度なサンプリング(具体的には、通常1万点以上のサンプリング)が必要とされていた。従って、これまで、誤差推定を行うにあたり低密度なサンプリングを実施することは検討されてこなかった。しかし、従来のAAMにおいて、計算量の増大を招いていた要因の一つとして、このような均質で高密度なサンプリングも挙げることができる。そこで、本発明者は、このような均質且つ高密度なサンプリングを行うことなく顔特徴点の検出を可能とする装置について検討した。
これらの検討の結果、本発明者は以下のような考えに至った。まず、従来のAAMにおける誤差推定では、各ノードにより構成されるパッチにおいてサンプリングが実施されていた。このため、パッチのように面としてサンプリングの結果を捉えると、誤差推定の結果に基づくノードの移動に伴う形状変形を形状修正処理によって修正しなければ処理の精度を維持することが難しかった。しかし、各ノードの周囲の複数の点について非均質且つ低密度のサンプリングを行う場合、形状が変形しても点は変形しないため、またサンプリング点が低密度であるため、ノードの移動に伴う形状変形の影響を受けにくい。このため、形状修正処理を特に実施することなく処理の精度を維持することが可能となる。このような検討結果に基づき、本発明者は以下のような顔特徴点検出装置を提案する。
本発明の第一の態様は、顔特徴点検出装置であって、配置手段,特徴量取得手段,記憶手段,誤差推定量取得手段,及び推定手段を備える。配置手段は、入力された画像に対し、人の顔画像における複数の特徴点にそれぞれ対応する複数のノードを予め決められた初期位置に配置する。各ノードは、検出の対象となる特徴点各々に対応づけられている。また、初期位置とは、入力された画像中において各ノードの対応する特徴点に近いと想定される位置であることが望ましい。従って、このような基準に基づいて初期位置が予め定められると良い。例えば、人の顔は画面中央に撮像されることが多いという経験に基づいて、画面中央を初期位置とすることができる。
特徴量取得手段は、配置手段によって配置された各ノードの周囲に複数のサンプリング点を配置する。そして、特徴量取得手段は、複数のサンプリング点における特徴量を、対応する各ノードのノード特徴量として取得する。特徴量の具体例として、画素の輝度値,Sobelフィルタ特徴量,HarrWavelet特徴量,GaborWavelet特徴量やこれらを複合した値がある。また、サンプリング点の配置は、非均質で低密度であっても良い。
記憶手段は、予め実行されている学習結果を記憶する。この学習結果は、複数の学習用の画像について学習処理を行うことにより取得される。具体的には、以下に示す二つの値についての相関関係の情報が、予め学習結果として取得される。一方の値は、複数のノードがそれぞれに対応する特徴点の正しい位置に配置された状態で取得されるノード特徴量と、複数のノードがそれぞれに対応する特徴点の正しい位置からずれた位置に配置された状態で取得されるノード特徴量との差である。他方の値は、各ノードにおける正しい位置と前記ずれた位置との差である。このような二つの値についての相関関係の情報は、例えば正準相関分析や、線形回帰,線形重回帰,非線形重回帰などの分析手法によって取得される。
誤差推定量取得手段は、記憶手段に記憶される相関関係の情報と、特徴量取得手段によって取得された各ノードのノード特徴量とに基づいて、現在の各ノードの位置とそれぞれに対応する特徴点の位置とのずれを示す誤差推定量を取得する。
推定手段は、誤差推定量取得手段によって得られた誤差推定量と、現在の各ノードの位置とに基づいて、入力された画像における各特徴点の位置を推定する。即ち、顔特徴点検出手段は、推定手段によって推定された各位置において各特徴点を検出したこととなる。
本発明の第一の態様によれば、第一に、形状修正処理が必要とされない。言い換えれば、本発明の第一の態様によれば、形状修正処理が実施されない。このため、これまで形状修正処理に費やされていた多くの処理を省き、処理の高速化を図ることが可能となる。
本発明の第一の態様によれば、第二に、各ノードの周囲において探索処理をする必要はなく、各ノードによって構成されるパッチにおいて面としての高密度なサンプリングを行う必要もない。このため、従来技術によるこのようなサンプリングによって必要とされていた多くの計算量を削減することが可能となる。
顔特徴点の検出処理が高速化されることにより、上記したマン・マシン・インタフェースを高速に動作させることが可能となる。例えば、運転手モニタリングシステムはその性質から応答性が要求されるが、従来実現されていなかったこの要求を解決することが可能となる。
本発明の第一の態様は、繰り返し処理の終了を判定する終了判定手段をさらに備えても良い。終了判定手段は、例えば繰り返し処理が実行された回数をカウントし、所定の回数に達した場合に終了を判定するように構成されても良い。終了判定手段がさらに備えられる場合、配置手段は、誤差推定量が得られた場合は、この誤差推定量に基づいて現在の各ノードの位置を移動させる。そして、配置手段と誤差推定量取得手段とは、繰り返して処理を実行し、推定手段は、終了判定手段によって終了が判定された時点での誤差推定量と、この時点での各ノードの位置とに基づいて、入力された画像における各特徴点の位置を推定する。
このように構成された本発明の第一の態様によれば、誤差推定量に基づいて移動された各ノードの新たな位置に基づいて、再び誤差推定量が求められ、この処理が繰り返される。そして、終了判定手段によって、この繰り返し処理の終了が判定された時点での誤差推定量と、この時点での各ノードの位置とに基づいて、各特徴点の位置が推定される。従って、各ノードの初期位置に基づいた一度の誤差推定量の取得により各特徴点の位置が推定される場合に比べて、その精度が向上する。
本発明の第一の態様における終了判定手段は、誤差推定量取得手段によって得られた誤差推定量が閾値以下になった場合に、繰り返し処理の終了と判定するように構成されても良い。このように構成されることにより、各特徴点の位置をより正確に検出することが可能となる。
本発明の第一の態様は、入力された画像から少なくとも人の顔又は人の顔の要素(顔に含まれる器官や部分を指し、例えば目,鼻,口,額などである)の位置を検出する顔検出手段をさらに備えても良い。この場合、配置手段は、検出された人の顔又は人の顔の要素の位置に基づいて、各ノードの初期位置を決定する。このように構成されることにより、各ノードの初期位置が適切な位置、即ちそれぞれが対応する特徴点に近い位置となる。このため、各特徴点の位置をより正確に検出することが可能となる。
本発明の第一の態様における顔検出手段は、人の顔の向きをさらに検出するように構成されても良い。この場合、配置手段は、各ノードの相対的な位置関係を定めたノードモデルを有し、ノードモデルに基づいて各ノードを初期位置に配置する際に、顔検出手段によって検出された顔の向きに基づいて、ノードモデルを変形させて使用するように構成されても良い。例えば、配置手段は、顔検出手段によって顔の向きが左向きとして検出された場合には、ノードモデルの各ノードを、左向きの顔にマッチするように変形しても良い。具体的には、配置手段は、例えば顔の左側に位置する特徴点に対応するノード間のベクトルのうち水平方向の成分を小さくし、逆に顔の右側に位置する特徴点に対応するノード間のベクトルのうち水平方向の成分を大きくしても良い。配置手段は、他の方向の顔が検出された場合にも、それぞれの方向について上記のような変形処理を行うように構成されても良い。このように構成されることにより、予め用意されたノードモデルを変形せずに使用する場合に比べて、各特徴点の位置をより正確に検出することが可能となる。
本発明の第一の態様における顔検出手段は、人の顔の大きさをさらに検出するように構成されても良い。この場合、配置手段は、各ノードの相対的な位置関係を定めたノードモデルを有し、ノードモデルに基づいて各ノードを初期位置に配置する際に、顔検出手段によって検出された顔の大きさに基づいて、ノードモデルを変形させて使用するように構成されても良い。例えば、配置手段は、顔検出手段によって検出された顔の大きさに基づいて、ノードモデルを拡大又は縮小して使用するように構成されても良い。このように構成されることにより、予め用意されたノードモデルを変形せずに使用する場合に比べて、各特徴点の位置をより正確に検出することが可能となる。
本発明の第一の態様における顔検出手段は、人の顔の向きをさらに検出するように構成されても良い。この場合、配置手段は、各ノードの相対的な位置関係を定めたノードモデルを、顔の向きに応じて複数有するように構成されても良い。例えば、配置手段は、右向きの顔,正面向きの顔,左向きの顔,上向きの顔,下向きの顔それぞれに対応するノードモデルを有するように構成されても良い。また、記憶手段は、それぞれに対応する向きの顔が撮像された学習用画像を用いて予め得られた各ノードモデルに対応する相関関係の情報を記憶するように構成されても良い。また、配置手段は、ノードモデルに基づいて各ノードを初期位置に配置する際に、顔検出手段によって検出された顔の向きに基づいて、使用するノードモデルを選択するように構成されても良い。そして、誤差推定量取得手段は、配置手段によって選択されたノードモデルに対応する相関関係の情報を記憶手段から読み出し使用するように構成されても良い。
このように構成された本発明の第一の態様では、顔検出手段によって検出された顔の向きに特化したノードモデル及びこのノードモデルに対応する相関関係の情報を用いて顔特徴点検出が行われる。従って、常に一つのノードモデルが使用される場合に比べて、各特徴点の位置をより正確に検出することが可能となる。
本発明の第一の態様における顔検出手段は、人の顔の大きさをさらに検出するように構成されても良い。この場合、配置手段は、各ノードの相対的な位置関係を定めたノードモデルを、顔の大きさに応じて複数有するように構成されても良い。また、記憶手段は、それぞれに対応する大きさの顔が撮像された学習用画像を用いて予め得られた各ノードモデルに対応する相関関係の情報を記憶するように構成されても良い。また、配置手段は、ノードモデルに基づいて各ノードを初期位置に配置する際に、顔検出手段によって検出された顔の大きさに基づいて、使用するノードモデルを選択するように構成されても良い。また、誤差推定量取得手段は、配置手段によって選択されたノードモデルに対応する相関関係の情報を記憶手段から読み出し使用するように構成されても良い。
このように構成された本発明の第一の態様では、顔検出手段によって検出された顔の大きさに特化したノードモデル及びこのノードモデルに対応する相関関係の情報を用いて顔特徴点検出が行われる。従って、常に一つのノードモデルが使用される場合に比べて、各特徴点の位置をより正確に検出することが可能となる。
本発明の第一の態様における特徴量取得手段は、ノードに近いほど密に、ノードから遠いほど疎にサンプリング点を配置するように構成されても良い。また、本発明の第一の態様における特徴量取得手段は、レティナ構造に従ってサンプリング点の配置を行うように構成されても良い。また、本発明の第一の態様における特徴量取得手段は、複数の異なるレティナ構造を記憶し、各ノードに応じたレティナ構造に従ってサンプリング点を配置するように構成されても良い。
本発明の第一の態様における記憶手段は、学習用の画像において、複数のノードがそれぞれに対応する特徴点の正しい位置に配置された状態で取得されるノード特徴量と、その画像における人の顔の姿勢を示す情報と、についての相関関係の情報をさらに予め記憶するように構成されても良い。この場合、本発明の第一の態様は、推定手段によって推定された各ノードの位置と、記憶手段に記憶される顔の姿勢についての相関関係の情報とに基づいて、入力された画像に撮像された人の顔の姿勢を推定する姿勢推定手段をさらに備えるように構成されても良い。
このように構成されることにより、入力された画像に含まれる人の顔がどのような姿勢であるかを判断することが可能となる。顔の姿勢とは、例えば顔の向いている方向のx軸成分,y軸成分,及びz軸成分により表される状態であっても良い。また、顔の姿勢とは、右向き,左向き,正面向き,上向き,下向きとして表される状態であっても良い。
本発明の第二の態様は、アクティブシェイプモデル(Active Shape Model)で使用される顔形状モデルを用いて、入力画像における顔の特徴点検出を行う顔特徴点検出装置であって、配置手段,特徴量取得手段,記憶手段,誤差推定量取得手段,変更手段,及び推定手段を備える。
配置手段は、入力された画像に対し前記顔形状モデルを初期位置に配置する。
特徴量取得手段は、配置手段によって配置された顔形状モデルの各ノード位置に基づいてレティナ構造に従って複数の特徴量を取得し、同一のノード位置に基づいて取得された複数の特徴量を一つのノード特徴量として取得する。
記憶手段は、顔形状モデルが正しい位置に配置された場合に顔形状モデルの各ノードについて得られるノード特徴量の集合と、顔形状モデルが誤った位置に配置された場合に各ノードについて得られるノート特徴量の集合との差、及び正しい位置に配置された場合と誤った位置に配置された場合における各ノードの位置の差を示すベクトルの集合、を入力とした正準相関分析により予め取得された変換ベクトル行列を誤差推定行列として記憶する。
誤差推定量取得手段は、記憶手段に記憶される誤差推定行列と、特徴量取得手段によって取得されたノード特徴量の集合とに基づいて、顔形状モデルの各ノードの現在位置と顔の特徴点の位置とのずれを示す誤差推定量を取得する。
変更手段は、誤差推定量取得手段によって得られた誤差推定量に基づいて、現在の顔形状モデルの各ノード位置を変更する。
そして、推定手段は、変更手段によって位置が変更された後の各ノード位置を顔特徴点の位置として推定する。
このように構成された本発明の第二の態様によっても、本発明の第一の態様と同様の作用や効果を奏することができる。
本発明の第三の態様は、特徴点検出装置であって、配置手段,特徴量取得手段,記憶手段,誤差推定量取得手段,及び推定手段を備える。本発明の第三の態様における特徴点検出装置は、処理の対象となる対象物が顔に限定されない点で、本発明の第一の態様や第二の態様における顔特徴点検出装置と異なる。よって、本発明の第三の態様における配置手段は、入力された画像に対し、所定の対象物の画像における複数の特徴点にそれぞれ対応する複数のノードを予め決められた初期位置に配置する。
上記のように、ここでいう対象物とは、第一の態様や第二の態様において示した顔には限定されない。即ち、対象物とは、形状モデルを設定できるものであればどのような対象物であっても良い。例えば、対象物は、人の全体(全身)、レントゲン画像やCT(Computerized Tomography)画像における臓器であっても良い。言い換えれば、大きさの個人差がある対象物や基本的な形が変わらずに変形する対象物について本技術は適用可能である。また、他の例として、自動車などの工業製品のように変形しない剛体の対象物であっても、形状モデルを設定することができるため本技術を適用することができる。
第一〜第三の態様は、プログラムが情報処理装置によって実行されることによって実現されても良い。即ち、本発明は、上記した第一〜第三の態様における各手段が実行する処理を、情報処理装置に対して実行させるためのプログラム、或いは当該プログラムを記録した記録媒体として特定することができる。また、本発明は、上記した各手段が実行する処理を情報処理装置が実行する方法をもって特定されても良い。また、ここに示す情報処理装置とは、パーソナルコンピュータ,デジタルカメラ,デジタルビデオカメラ,防犯カメラ,デジタルカメラを搭載した携帯電話機,デジタルビデオレコーダ,画像処理を行うサーバ(ネットワークに接続されたサーバであっても良い),デジタルフォトプリンタ,ミニラボ機などである。
本発明によれば、顔画像から顔の特徴点の位置を検出する際に、形状修正処理や高密度なサンプリングを必要としない。このため、特徴点の検出処理をより高速に実現することが可能となる。
以下の説明において、顔画像とは、少なくとも人物の顔の一部または全部の画像を含む画像である。従って、顔画像とは、人物全体の画像を含んでも良いし、人物の顔だけや上半身だけの画像を含んでも良い。また、顔画像は、複数の人物についての画像を含んでも良い。さらに、顔画像は、その背景に人物以外の風景(背景:被写体として注目された物も含む)や模様などのいかなるパターンを含んでも良い。
本発明者は、ASMに対し、可変レティナ構造による特徴量サンプリングと、正準相関分析による誤差推定行列学習とを組み合わせることにより、高速な顔特徴点検出を実現した。また、この組み合わせにより、ロバスト性の高い顔特徴点検出も実現することができる。以下、本発明者の提案する技術について説明する。
まず、顔特徴点の検出に必要となる学習処理について説明する。次に、この学習処理の結果に基づいて、本発明者が提案する顔特徴点検出を実施する顔特徴点検出装置1について、構成例や動作例などを説明する。次に、顔特徴点検出装置1の構成に当たり採用可能な変形例について説明する。さらに、本発明者が提案する技術の応用例として、顔の姿勢(顔姿勢)を推定するために必要な学習処理、及び顔姿勢推定を行う顔特徴点検出装置1aについて説明する。
〔学習処理〕
まず、顔特徴点検出装置1を動作させるために必要となる学習処理について説明する。この学習処理は、顔特徴点検出装置1によって顔画像から顔特徴点(以下、単に「特徴点」と呼ぶ)の位置を検出するために予め実施しておく必要のある処理である。まず、本学習処理のフローを説明するにあたって必要となる処理、顔形状モデルの取得、レティナサンプリング、及び誤差推定行列の取得について説明する。その後、学習処理の具体的なフローの例について説明する。
〈顔形状モデルの取得〉
学習処理では、まず、複数の学習用顔画像(以下、学習処理の説明において「顔画像」と呼ぶ)を用意し、各画像において特徴点を抽出する。この処理は、学習処理の精度を高めるためにも、人間によって実施されることが望ましい。図1は、顔画像から抽出された特徴点の例を示す図である。図1において、斜線を含む円の中心位置が特徴点となる。具体的には、両目の両端(目頭と目尻)及び中心部分、左右のほお骨部分(眼窩底部分)、鼻の頂点、左右の口角、口の中心、鼻の左右端点と左右の口角の中間点などを特徴点とすることができる。なお、特徴点の抽出は、上記した非特許文献1に記載された方法が適用されても良い。各特徴点pの座標を、p(x,y)とする。このとき、iは、1からn(nは特徴点の数を示す)の値を示す。
次に、各顔画像についての特徴点配置ベクトルXを数1のように定義する。ある顔画像jについての特徴点配置ベクトルは、Xと記す。なお、Xの次元数は2nである。
Figure 2006051607
次に、取得された全ての特徴点配置ベクトルXを、適当な基準に基づき正規化する。このときの正規化の基準は、設計者によって適宜決定されて良い。以下、正規化の具体例について説明する。例えば、ある顔画像jについての特徴点配置ベクトルXについて、点p〜pの重心座標をpとするとき、数2によって定義されるLmを用いて、その大きさを正規化することができる。具体的には、Lmによって移動後の座標値を割ることにより、大きさを正規化することができる。ここで、Lmは、重心を原点とする座標系に各点pを移動させた場合の、重心から各点までの直線距離の平均値である。
Figure 2006051607
また、回転に対しては、例えば両目の中心を結ぶ直線が水平になるように特徴点座標に対して回転変換を行うことにより、正規化することができる。以上の処理は、回転、拡大・縮小の組み合わせで表現できるため、正規化後の特徴点配置ベクトルxは数3のように表すことができる(相似変換)。
Figure 2006051607
次に、この正規化特徴点配置ベクトルの集合に対し、主成分分析を行う。主成分分析は例えば以下のように行うことができる。まず、数4に示される式に従って平均ベクトル(平均ベクトルはxの上部に水平線を記すことにより示される)を取得する。なお、数4において、Nは、顔画像の数、即ち特徴点配置ベクトルの数を示す。
Figure 2006051607
そして、数5に示されるように、全ての正規化特徴点配置ベクトルから平均ベクトルを差し引くことにより、差分ベクトルx’を取得する。画像jについての差分ベクトルは、xと示される
Figure 2006051607
上記した主成分分析の結果、固有ベクトルと固有値との組が2n個得られる。任意の正規化特徴点配置ベクトルは、数6に示される式によって表すことができる。
Figure 2006051607
ここで、Pは固有ベクトル行列を示し、bは形状パラメタベクトルを示す。それぞれの値は数7に示される通りである。なお、eは、固有ベクトルを示す。
Figure 2006051607
実際には、固有値の大きい上位k次元までの値を用いることにより、任意の正規化特徴点配置ベクトルxは数8のように近似して表すことができる。以下、固有値の大きい順に、eを第i主成分と呼ぶ。
Figure 2006051607
なお、実際の顔画像に顔形状モデルをあてはめる(フィッティングさせる)際には、正規化特徴点配置ベクトルxに対して相似変換(平行移動,回転,拡大・縮小)を行う。相似変換のパラメタをs,s,sθ,sscaleとすると、形状パラメタとあわせて、モデルパラメタkを数9のように表すことができる。
Figure 2006051607
このモデルパラメタkによって表される顔形状モデルが、ある顔画像上の特徴点位置にほぼ正確に一致する場合に、そのパラメタをその顔画像における正解モデルパラメタと呼ぶ。正確に一致しているか否かは、設計者により設定される閾値や基準に基づいて判断される。
〈レティナサンプリング〉
次に、特徴量のサンプリングについて説明する。特徴量のサンプリングは、顔形状モデルに対し可変レティナ構造を組み合わせることによって行う。レティナ構造とは、ある着目したい特徴点(ノード)の周囲に放射状にサンプリング点を配置した構造のことである。図2は、レティナ構造の例を示す図である。図2では、注目したい特徴点の座標は原点であり、その他の座標に位置する各点がレティナ構造におけるサンプリング点を示す。レティナ構造によるサンプリングを実施することにより、特徴点周りの情報を、低次元で効率的にサンプリングすることが可能となる。本学習処理では、顔形状モデルの各ノード(各点p)においてレティナ構造によるサンプリングを実施する。図3は、顔形状モデルのある一つのノードに対してレティナ構造を適用した場合のサンプリング点の分布例を示す図である。図3において、斜線を含む円は顔形状モデルのノードを示し、黒丸はレティナ構造におけるサンプリング点を示す。
レティナ構造は、i番目のサンプリング点の座標をq(x,y)とすると、数10のように表すことができる。
Figure 2006051607
従って、例えばある点p(x,y)について、レティナ構造によるサンプリングを行うことにより得られるレティナ特徴量fは、数11のように表すことができる。なお、レティナ構造によるサンプリングとは、レティナ構造に従ってサンプリング点を配置し、配置されたサンプリング点においてサンプリングを実施することを言う。
Figure 2006051607
ただし、f(p)は、点p(サンプリング点p)での特徴量を示す。また、レティナ構造における各サンプリング点では、画像の輝度値,Sobelフィルタ特徴量,HarrWavelet特徴量,GaborWavelet特徴量やこれらを複合した値が、そのサンプリング点における特徴量として取得される。特徴量が多次元の場合、レティナ特徴量は数12のように表すことができる。
Figure 2006051607
ここで、Dは特徴量の次元数、f(p)は、点pでの第d次元の特徴量を表す。また、q (d)第d次元に対するレティナ構造の、i番目のサンプリング座標を示す。
レティナ構造は、顔形状モデルのスケールに応じてその大きさを変化させることができる。例えば、パラメタsscaleに比例させて、レティナ構造の大きさを変化させることができる。このとき、レティナ構造rは数13のように表すことができる。なお、αは適当な固定値である。また、レティナ構造は、顔形状モデルにおける他のパラメタに応じて回転や形状変化させても良い。また、レティナ構造は、顔形状モデルの各ノードによってその形状(構造)が異なるように設定されても良い。
Figure 2006051607
あるモデルパラメタによって定まる顔形状モデルにおいて、各ノードのレティナ特徴量を一列に並べたベクトルを、その顔形状モデルにおけるサンプリング特徴量fと呼ぶ。サンプリング特徴量fは数14のように表すことができる。数14において、nは顔形状モデルにおけるノードの数を示す。
Figure 2006051607
なお、サンプリング時に、各ノードにおいて正規化を行う。例えば、特徴量が0から1の範囲に収まるようにスケール変換を行うことにより正規化を行っても良い。また、一定の平均や分散をとるように変換を行うことによって正規化を行っても良い。また、特徴量によっては正規化を行わなくても良い場合がある。
〈誤差推定行列の取得〉
次に、本学習処理において実行する誤差推定行列の取得について説明する。誤差推定行列の取得は、正準相関分析(Canonical Correlation Analysis)を用いることにより実施する。正準相関分析は、二つの次元の異なる変量間の相関関係を求める手法の一つである。正準相関分析により、顔形状モデルの各ノードが誤った位置(検出すべき特徴点と異なる位置)に配置されてしまった際にどの方向に修正すべきかの相関関係について学習結果を得ることができる。
まず、顔形状モデルの取得の欄で説明した処理によって取得された正解モデルパラメタを、乱数などにより一定範囲内でずらすことにより、ずれ配置モデルを作成する。図4は、ずれ配置モデルの例を示す図である。図4において、斜線を含む円がノード位置を示す。図4(a)は、ある顔画像における正解モデルパラメタに基づいた各ノードの位置を示す図である。図4(b)は、図4(a)に示された正解モデル(正解モデルパラメタによって表される顔形状モデル)をずらすことによって作成されたずれ配置モデルの例である。そして、正解モデルに基づいて取得したサンプリング特徴量と、ずれ配置モデルと正解モデルとの差と、を組として、相関関係についての学習結果を取得する。以下、具体的な処理を説明する。
まず、二組の変量ベクトルxとyを数15のように定義する。xは、ずれ配置モデルに対するサンプリング特徴量を示す。yは、正解モデルパラメタ(kopt)とずれ配置モデルパラメタ(ずれ配置モデルを示すパラメタ:kdif)との差を示す。
Figure 2006051607
二組の変量ベクトルは、予め各次元ごとに平均0、分散1に正規化する。正規化するために用いたパラメタ(各次元の平均、分散)は、後述する顔特徴点の検出処理において必要となる。以下、それぞれをxave,xvar,yave,yvarとし、正規化パラメタと呼ぶ。
次に、二つの変量に対する線形変換を数16のように定義した場合、u,v間の相関を最大にするようなa,bを求める。
Figure 2006051607
上記aとbとは、x,yの同時分布を考え、その分散共分散行列Σを数17のように定義した場合に、数18に示す一般固有値問題を解いたときの最大固有値に対する固有ベクトルとして得られる。
Figure 2006051607
Figure 2006051607
これらのうち、次元の低い方の固有値問題を先に解く。例えば、1番目の式を解いて得られる最大固有値がλ、対応する固有ベクトルがaであった場合、ベクトルbは、数19に表される式によって得られる。
Figure 2006051607
このようにして求められたλを第一正準相関係数と呼ぶ。また、数20によって表されるu,vを第一正準変量と呼ぶ。
Figure 2006051607
以下、2番目に大きい固有値に対応する第二正準変量、3番目に大きい固有値に対応する第三正準変量というように、固有値の大きさに基づいて順に求めていく。なお、後述する顔特徴点の検出処理に用いるベクトルは、固有値がある一定以上の値(閾値)を有する第M正準変量までのベクトルとする。このときの閾値は、設計者によって適宜決定されて良い。以下、第M正準変量までの変換ベクトル行列を、A’,B’とし、誤差推定行列と呼ぶ。A’,B’は、数21のように表すことができる。
Figure 2006051607
B’は、一般に正方行列とはならない。しかし、顔特徴点の検出処理において逆行列が必要となるため、B’に対し擬似的に0ベクトルを追加し、正方行列B’’とする。正方行列B’’は数22のように表すことができる。
Figure 2006051607
なお、誤差推定行列を求めることは、線形回帰,線形重回帰,非線形重回帰などの分析手法によっても可能である。しかし、正準相関分析を用いることにより、小さな固有値に対応する変量の影響を無視することが可能となる。従って、誤差推定に影響しない要素の影響を排除することが可能となり、より安定した誤差推定が可能となる。よって、係る効果を必要としないのであれば、正準相関分析ではなく上記した他の分析手法を用いて誤差推定行列の取得を実施することも可能である。
〈学習処理の流れ〉
以上、本学習処理に必要となる三つの処理、即ち顔形状モデルの取得、レティナサンプリング、及び誤差推定行列の取得について説明した。次に、これらの処理を用いて学習処理を行う際のフローについて説明する。図5は、学習処理のフローの例を示すフローチャートである。以下、図5を用いて学習処理の流れの例について説明する。なお、以下に説明する処理は、学習処理プログラムがインストールされた情報処理装置によって実行される。この情報処理装置は、接続された記憶装置から学習用の顔画像及び各顔画像において予め抽出されている各特徴点の座標位置(特徴点の正解座標)を読み出すことが可能に構成される。この情報処理装置は、上記した記憶装置からのみならず、ネットワークを介することにより、又は記録媒体にアクセスすること等によって、上記データを読み出すことが可能に構成されても良い。
まず、変数iを定義し、1を代入する(S01)。次に、予め特徴点の位置が取得されている学習用の顔画像のうち、i番目の顔画像(Img_i)を読み込む(S02)。ここでは、iに1が代入されているため1番目の顔画像(Img_1)が読み込まれる。次に、顔画像Img_iの特徴点の正解座標の集合を読み出し、正解モデルパラメタkoptを取得し顔形状モデルを作成する(S03)。次に、正解モデルパラメタkoptに基づいてずれ配置モデルパラメタkdifを取得し、ずれ配置モデルを作成する(S04)。次に、ずれ配置モデルに基づいて、レティナ構造を用いたサンプリングを実行し、サンプリング特徴量xを取得する(S05)。また、正解モデルパラメタkoptとずれ配置モデルパラメタkdifとに基づいてyを取得する(S06)。ここで、全ての学習用の顔画像について処理が完了したか否か判断する(S07)。例えば、iの値と、学習用の顔画像の数を示すnとを比較することにより判断することができる。処理していない顔画像がある場合には(S07−No)、iの値をインクリメントし(S08)、新たなiの値に基づいてS02以降の処理を実行する。一方、全ての顔画像について処理が完了したと判断した場合(S07−Yes)、各顔画像について得られたxとyとの集合について正準相関分析を実行する(S09)。そして、予め定められた閾値よりも小さい固定値に対応する不要な相関行列を削除し(S10)、最終的に誤差推定行列を取得する(S11)。
〔顔特徴点検出装置〕
次に、顔特徴点検出装置1について説明する。顔特徴点検出装置1は、上記した学習処理によって得られる誤差推定行列や正規化パラメタ等に基づいて、入力された顔画像から特徴点を検出する。まず、顔特徴点検出装置1の装置構成について説明する。
〈装置構成〉
例えば、顔特徴点検出装置1は、ハードウェア的には、バスを介して接続されたCPU(中央演算処理装置),主記憶装置(RAM),補助記憶装置などを備えるように構成されても良い。この場合は、プログラムがCPUによって実行されることにより、顔特徴点検出装置1が実現される。ここで言う補助記憶装置は、不揮発性記憶装置を用いて構成される。不揮発瀬記憶装置とは、いわゆるROM(Read−Only Memory:EPROM(Erasable Programmable Read−Only Memory),EEPROM(Electrically Erasable Programmable Read−Only Memory),マスクROM等を含む),FRAM(Ferroelectric RAM),ハードディスク等を指す。
図6は、顔特徴点検出装置1の機能ブロック例を示す図である。顔特徴点検出装置1は、補助記憶装置に記憶された各種のプログラム(OS,アプリケーション等)が主記憶装置にロードされCPUにより実行されることによって、画像入力部2,顔検出処理3,特徴量取得部4,学習結果記憶部5,及び誤差推定部6等を含む装置として機能する。また、顔特徴点検出装置1の全部又は一部は、専用のチップとして構成されても良い。次に、顔特徴点検出装置1が含む各機能部について説明する。
画像入力部2は、顔画像のデータを顔特徴点検出装置1へ入力するためのインタフェースとして機能する。画像入力部2によって、顔画像のデータが顔特徴点検出装置1へ入力される。画像入力部2は、顔特徴点検出装置1へ顔画像のデータを入力するためのどのような既存技術を用いて構成されても良い。
例えば、ネットワーク(例えばローカル・エリア・ネットワークやインターネット)を介して顔画像のデータが顔特徴点検出装置1へ入力されても良い。この場合、画像入力部2はネットワークインタフェースを用いて構成される。また、デジタルカメラやスキャナやパーソナルコンピュータや記録装置(例えばハードディスクドライブ)等から顔画像のデータが顔特徴点検出装置1へ入力されても良い。この場合、画像入力部2は、デジタルカメラやパーソナルコンピュータや記録装置などと顔特徴点検出装置1とをデータ通信可能に接続する規格(例えばUSB(Universal Serial Bus)やSCSI(Small Computer System Interface)等の有線接続やbluetooth(登録商標)等の無線接続の規格)に応じて構成される。また、記録媒体(例えば各種フラッシュメモリやフロッピーディスク(登録商標)やCD(Compact Disk)やDVD(Digital Versatile Disc、Digital Video Disc))に記録された顔画像のデータが顔特徴点検出装置1へ入力されても良い。この場合、画像入力部2は、記録媒体からデータを読み出す装置(例えばフラッシュメモリリーダやフロッピーディスク(登録商標)ドライブやCDドライブやDVDドライブ)を用いて構成される。
また、顔特徴点検出装置1がデジタルカメラ等の撮像装置又はデジタルカメラ等の撮像装置を備える各種装置(例えばPDA(Personal Digital Assistant)や携帯電話機)の内部に含まれ、撮像された画像が顔画像のデータとして顔特徴点検出装置1へ入力されても良い。この場合、画像入力部2は、CCD(Charge−Coupled Devices)やCMOS(Complementary Metal−Oxide Semiconductor)センサ等を用いて構成されても良いし、CCDやCMOSセンサなどによって撮像された顔画像のデータを顔検出装置4aに入力させるためのインタフェースとして構成されても良い。また、顔特徴点検出装置1が、プリンタやディスプレイ等の画像出力装置の内部に含まれ、出力データとしてこれらの画像出力装置に入力された画像が顔画像のデータとして顔特徴点検出装置1へ入力されても良い。この場合、画像入力部2は、これらの画像出力装置に入力された顔画像のデータを顔特徴点検出装置1において取り扱い可能なデータに変換する装置などを用いて構成される。
また、画像入力部2は上記された複数の場合に応じることが可能となるように構成されても良い。
顔検出部3は、画像入力部2を介して入力された顔画像から、人の顔を検出する。顔検出部3は、例えば、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部3は、顔の構成要素(目,鼻,耳など)に基づくテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部3は、クロマキー処理によって頭部などの頂点を検出し、この頂点に基づいて顔を検出するように構成されても良い。また、顔検出部3は、肌の色に近い領域を検出し、その領域を顔として検出するように構成されても良い。また、顔検出部3は、ニューラルネットワークを使って教師信号による学習を行い、顔らしい領域を顔として検出するように構成されても良い。また、顔検出部3による顔検出処理は、その他、既存のどのような技術が適用されることによって実現されても良い。
顔検出部3は、検出された顔の位置を特定し、その位置を特徴量取得部4へ渡す。このとき、顔検出部3は、顔の傾きや顔の大きさを取得して、その値を特徴量取得部4にさらに渡すように構成されても良い。
特徴量取得部4は、顔検出部3によって検出された人の顔の画像からサンプリング特徴量を取得する。以下、特徴量取得部4の具体的な処理について説明する。
特徴量取得部4は、顔検出部3によって検出された顔について初めてサンプリング特徴量を取得する場合には、まず、検出された顔の初期位置に、初期パラメタkinitによって定義される顔形状モデルを配置する。この初期位置は、例えば検出された顔の中心と顔形状モデルの中心とが一致するような位置であっても良い。また、初期位置とは、例えば顔検出部3によって顔矩形(検出された顔を囲む矩形)が取得される場合には、この顔矩形のある頂点(例えば左上のかど)から所定の位置に顔形状モデルの所定のノードが配置されるような位置であっても良い。初期位置は、検出された顔に対し適当に顔形状モデルが配置されるのであれば、その他どのように設計者によって定義されても良い。
また、初期パラメタkinitとは、数9によって表されるモデルパラメタkのうち、初期値によって表されるモデルパラメタをいう。初期パラメタkinitには、適当な値が設定されて良い。ただし、一般的な顔画像から得られる平均的な値を初期パラメタkinitに設定することにより、様々な顔の向きや表情変化などに対応することが可能となる。従って、例えば、相似変換のパラメタs,s,sθ,sscaleについては、学習処理の際に用いた顔画像の正解モデルパラメタの平均値を用いても良い。また、例えば、形状パラメタbについては、ゼロとしても良い。また、顔検出部3によって顔の向きの情報が得られる場合には、この情報を用いて初期パラメタを設定しても良い。この他、設計者が経験的に得た他の値をもって初期パラメタとしても良い。
次に、特徴量取得部4は、設定された初期パラメタによって表される顔形状モデルについて、レティナ構造に基づいたサンプリングを実施し、サンプリング特徴量fを取得する。そして、特徴量取得部4は、得られたサンプリング特徴量fを、誤差推定部6へ渡す。
一方、特徴量取得部4は、顔検出部3によって検出された顔についてサンプリング特徴量を取得するのが二度目以降の場合には、誤差推定部6によって得られた新たなモデルパラメタk(即ち、正解モデルパラメタの推定値ki+1)によって表される顔形状モデルについて、サンプリング特徴量fを取得する。そして、この場合も、特徴量取得部4は、得られたサンプリング特徴量fを、誤差推定部6へ渡す。
学習結果記憶部5は、不揮発性記憶装置を用いて構成され、上記した学習処理によって得られる学習結果を記憶する。具体的には、学習結果記憶部5は、誤差推定行列,正規化パラメタなどを記憶する。また、必要に応じて、学習結果記憶部5は、初期パラメタkinit又は初期パラメタkinitを構成する値の一部(例えば、学習処理の際に用いた顔画像の正解モデルパラメタにおける相似変換パラメタの平均値など)をさらに記憶しても良い。
誤差推定部6は、特徴量取得部4によって取得されたサンプリング特徴量f、及び学習結果記憶部5に記憶される誤差推定行列や正規化パラメタなどに基づいて、誤差量を推定し新たなモデルパラメタkを取得する。以下、誤差推定部6の具体的な処理例について説明する。
まず、誤差推定部6は、正規化パラメタ(xave,xvar)を用いて、特徴量取得部4により取得されたサンプリング特徴量fを正規化し、正準相関分析を行うためのベクトルxを取得する。そして、誤差推定部6は、数23により表される式に基づいて第一〜第M正準変量を算出することにより、変量uを取得する。
Figure 2006051607
次に、誤差推定部6は、数24に表される式を用いて、正規化誤差推定量yerrを取得する。なお、数24において、u’は、B’’と同一次元となるように、uに対しゼロを追加したベクトルである。
Figure 2006051607
次に、誤差推定部6は、正規化誤差推定量yerrに対し、正規化パラメタ(yave,yvar)を用いて復元処理を行い、誤差推定量kerrを取得する。kerrは、現在のモデルパラメタkから正解モデルパラメタkoptまでの誤差推定量である。従って、正解モデルパラメタの推定値ki+1は、現在のモデルパラメタkに誤差推定量kerrを加算することにより取得できる。ただし、kerrは誤差を含んでいる可能性がある。このため、より安定した検出を行うために、数25に表される式によって正解モデルパラメタの推定値ki+1を取得することができる。数25において、σは適当な固定値であり、設計者によって適宜決定されて良い。また、σは、例えばiの変化に従って変化しても良い。
Figure 2006051607
次に、誤差推定部6は、終了判定を行う。例えば、誤差推定部6は、iの値が閾値を超えた場合に、処理を終了すると判定しても良い。また、例えば誤差推定部6は、数26によって表されるΔkの値が閾値以下になった場合に、処理を終了すると判定しても良い。また、誤差推定部6は、取得されたki+1の値が正常範囲内であるか否かに基づいて終了判定を行っても良い。例えば、誤差推定部6は、取得されたki+1の値が、明らかに人の顔の画像における正解位置を示すものでない場合には、エラーを出力することにより終了することを決定しても良い。また、誤差推定部6は、取得されたki+1によって表されるノードの一部が、処理対象の画像からはみでてしまった場合にも、エラーを出力することにより終了することを決定しても良い。
Figure 2006051607
誤差推定部6は、処理を続行すると判定した場合、取得された正解モデルパラメタの推定値ki+1を特徴量取得部4へ渡す。一方、誤差推定部6は、処理を終了すると判定した場合、その時点で得られている正解モデルパラメタの推定値k(又はki+1であっても良い)を、最終推定パラメタkestとして出力する。
〈動作例〉
図7は、顔特徴点検出装置1の動作例を示すフローチャートである。以下、図7を用いて顔特徴点検出装置1の動作例について説明する。まず、顔特徴点検出装置1は、画像入力部2を介して、処理対象となる画像を読み込む(S12)。次に、顔検出部3は、処理対象となる画像から人の顔を検出する。次に、特徴量取得部4は、初期パラメタkinitに基づいた顔形状モデルを、顔検出部3による顔検出処理の結果に従って得られる初期位置に配置する(S13)。次に、特徴量取得部4は、変数iを定義し1を代入する。また、特徴量取得部4は、kを定義し、初期パラメタkinitを代入する(S14)。そして、特徴量取得部4は、kに従って、レティナ構造に基づき、サンプリング特徴量fを取得する(S15)。
次に、誤差推定部6は、取得されたサンプリング特徴量fや学習結果記憶部5に記憶される誤差推定式などにより、正解モデルパラメタの推定値ki+1を取得する(S16)。次に、誤差推定部6は、Δkを二乗し絶対値をとることにより、Eを取得する(S17)。そして、誤差推定部6は終了判定を行う。
終了判定において、誤差推定部6は、まず取得されたki+1の値が正常範囲内であるか否か判断する(S18)。ki+1の値が正常範囲内でない場合(S18−No)、誤差推定部6は、不図示の出力装置などにエラーを出力し(S19)、顔特徴点検出装置1としての処理を終了する。一方、ki+1の値が正常範囲内である場合(S18−Yes)、S17の処理で取得されたEの値が閾値(ε)を超えているか否か判断する(S20)。Eが閾値を超えていない場合(S20−Yes)、誤差推定部6は、処理が収束したとして、kestを出力し(S21)、顔特徴点検出装置1としての処理を終了する。
一方、Eが閾値を超えている場合(S20−No)、誤差推定部6は、ki+1の値を特徴量取得部4に渡す。そして、特徴量取得部4は、このki+1の値に基づいて新たな顔形状モデルを作成する(S22)。この後、誤差推定部6は、iの値をインクリメントする(S23)。特徴量取得部4は、新たな顔形状モデルに基づいてサンプリング特徴量fの取得などを行う。即ち、この場合、新たな顔形状モデルに基づいてS15以降の処理が繰り返される。
〈作用/効果〉
従来のASMでは、顔形状モデルの各ノード周囲において探索処理を繰り返す必要があった。また、従来のAAMでは、各ノードによって構成されるパッチ内で均質且つ高密度なサンプリングを行い、さらにこの結果に対し形状修正処理を行う必要があった。具体的には、従来のAAMでは通常1万点以上のサンプリングが必要とされていた。即ち、顔特徴点の検出処理には処理速度や応答性が要求されているにも関わらず、従来のこれらの技術では、計算量を削減することが十分には実現されていなかった。
一方、顔特徴点検出装置1では、第一に、形状修正処理を必要としない。さらに、顔特徴点検出装置1では、レティナ構造に基づく非均質且つ低密度なサンプリングによって、特徴点の検出処理が行われる。具体的には、通常数百点程度のサンプリングで検出処理が可能である。このように、顔特徴点検出装置1によれば、特徴点の検出に要する計算量を従来に比べて大幅に削減することが可能となる。
〈変形例〉
学習結果記憶部5は、予め複数の顔の状態を示す初期パラメタkinitを記憶していても良い。例えば、学習結果記憶部5は、横を向いた顔や上を向いた顔などに対応する初期パラメタkinitの値を記憶していても良い。そして、特徴量取得部4は、取得されるki+1の値によっては、使用する顔形状モデルを変更しても良い。具体的には、特徴量取得部4は、誤差推定部6によって新たに取得されたki+1の値によっては、このki+1の値を破棄して、使用された初期パラメタkinitとは異なる別の初期パラメタkinitを学習結果記憶部5から読み出し、その値に基づいてS13以降の処理を再度実行するように構成されても良い。また、特徴量取得部4は、例えば、顔特徴点の検出処理が繰り返し実行される場合には、ある時点で得られたkestの値に応じて次に入力される顔画像に対する検出処理で用いる初期パラメタを変更しても良い。処理対象となっている画像に含まれる顔が横を向いている場合などには、正面を向いた顔の顔形状モデルを示す初期パラメタkinitよりも、横を向いた顔の顔形状モデルを示す初期パラメタkinitを用いて処理を行った方がより精度の高い結果を得られる場合がある。従って、このような場合には、上記の変形例に従って構成することが有効である。また、特徴量取得部4は、初期パラメタkinitではなく、レティナ構造や、誤差推定行列などを切り替えるように構成されても良い。
また、誤差推定部6は、終了判定を行うことなく、その時点で得られたki+1の値をkestとして出力しても良い。
また、顔特徴点検出装置1は、顔検出部3を備えることなく構成されても良い。この場合、特徴量取得部4は、例えば画面中央を初期位置とすることにより処理を行うように構成されても良い。また、顔検出部3が顔特徴点検出装置1の外部に設けられ、顔画像とともに検出された顔の位置情報が顔特徴点検出装置1に入力されても良い。
また、顔検出部3は、人の顔そのものではなく、人の目や口や他の特徴点を検出するように構成されても良い。この場合、特徴量取得部4は、これらの特徴点の位置に基づいて初期位置を決定するように構成されても良い。
また、特徴量取得部4は、レティナ構造以外の構造に基づいてサンプリング点の配置を行っても良い。
〔顔姿勢推定のための学習処理〕
次に、顔姿勢推定のための学習処理について説明する。顔姿勢推定とは、特徴点の位置の検出と共に、処理対象の画像に含まれる顔の顔姿勢を推定する処理である。顔姿勢とは、顔が向いている方向やその角度などを意味する。
〈姿勢相関学習〉
上記「学習処理」の節では、顔特徴点を検出するために必要となる誤差推定行列の取得処理について説明した。この節では、顔特徴点を検出することを目的とするのではなく、顔画像の人物の顔姿勢を推定することを目的とする姿勢推定処理のための学習処理(姿勢相関学習)について説明する。
正解モデルパラメタkoptと、顔画像の正解顔姿勢パラメタgoptとの間には、相関関係が存在する。そして、この関係も、正準相関分析を利用することにより、以下のように求めることができる。なお、正解顔姿勢パラメタgoptは、数27のように定義される。この場合、顔姿勢パラメタは、顔のx,y,z軸それぞれにおける回転角によって表現される。顔姿勢パラメタは、他の値で表されても良い。
Figure 2006051607
まず、複数の学習用の顔画像について、二組の変量ベクトルをx=kopt ,y=goptと定義する。goptは、正解顔姿勢における顔姿勢パラメタを示す。これらの変量ベクトルを予め各次元ごとに平均0,分散1に正規化する。その後、「学習処理」の節における説明と同様に、正準相関分析を行うことにより、第L正準変量までの変換ベクトル対を得る。数28は、この処理によって得られる変換ベクトル対を示す式である。Lは正の整数であり、設計者によって決定される値である。また、このとき、正規化パラメタを記録する。
Figure 2006051607
この後、第L正準変量までの変換ベクトル行列を、A’pose,B’poseとして取得する。以下、このようにして得られた二つの変換ベクトル行列を姿勢推定行列と呼ぶ。数29に、このようにして得られたA’poseと、B’poseを正方行列とすることにより得られるB’’poseとを示す。
Figure 2006051607
なお、モデルパラメタkに含まれる全ての値を使用する必要はない。例えば、スケーリングに対応するsscaleは顔姿勢とは無関係であるため、この値を予め省くことにより、計算を簡略化することができる。
また、姿勢推定行列を求めることは、線形回帰,線形重回帰,非線形重回帰などの分析手法を適用することによっても可能である。
〈姿勢相関学習の流れ〉
次に、姿勢推定行列を取得するための処理例についてフローチャートを用いて説明する。図8は、姿勢推定行列を取得するための処理例、即ち姿勢相関学習の処理例を示すフローチャートである。なお、以下に説明する処理は、姿勢相関学習処理プログラムがインストールされた情報処理装置によって実行される。この情報処理装置は、接続された記憶装置から学習用の顔画像及び各顔画像において予め抽出されている各特徴点の座標位置(特徴点の正解座標)を読み出すことが可能に構成される。この情報処理装置は、上記した記憶装置からのみならず、ネットワークを介することにより、又は記録媒体にアクセスすること等によって、上記データを読み出すことが可能に構成されても良い。
まず、変数iを定義し、1を代入する(S24)。次に、予め特徴点の位置が取得されている学習用の顔画像のうち、i番目の顔画像(Img_i)を読み込む(S25)。ここでは、iに1が代入されているため1番目の顔画像(Img_1)が読み込まれる。次に、顔画像Img_iの特徴点の正解座標の集合を読み出し、正解モデルパラメタkoptを取得し顔形状モデルを作成する(S26)。次に、正解顔姿勢パラメタgoptを取得し(S27)、全ての学習用の顔画像についてS25〜S27の処理が完了したか否か判断する(S28)。例えば、iの値と、学習用の顔画像の数を示すnとを比較することにより判断することができる。処理していない顔画像がある場合には(S28−No)、iの値をインクリメントし(S29)、新たなiの値に基づいてS25以降の処理を実行する。一方、全ての顔画像について処理が完了したと判断した場合(S28−Yes)、各顔画像について得られたkoptとgoptとの集合について正準相関分析を実行する(S30)。そして、予め定められた閾値よりも小さい固定値に対応する不要な相関行列を削除し(S31)、最終的に姿勢推定行列を取得する(S32)。
〔顔姿勢推定を実施する顔特徴点検出装置〕
図9は、顔特徴点検出装置1aの機能ブロック例を示す図である。顔特徴点検出装置1aは、顔姿勢の推定をさらに行う点で、顔特徴点検出装置1と異なる。このような作用を導くため、顔特徴点検出装置1aは、顔姿勢推定部7をさらに備える。また、顔特徴点検出装置1aは、学習結果記憶部5に代えて学習結果記憶部5aを備える。顔特徴点検出装置1aが備える他の機能部は、顔特徴点検出装置1に備えられる各機能部と同じであるため、その説明は省く。
学習結果記憶部5aは、姿勢相関学習によって得られる学習結果をさらに記憶する点で学習結果記憶部5と異なる。姿勢相関学習によって得られる学習結果とは、例えば姿勢推定行列と、この学習処理において用いられる正規化パラメタである。以上の点を除けば、学習結果記憶部5aは、学習結果記憶部5と同じように構成されて良い。
顔姿勢推定部7は、誤差推定部6からkestを取得し、顔姿勢の推定を行う。まず、顔姿勢推定部7は、姿勢相関学習において得られた正規化パラメタを用いてkestを正規化し、正準相関分析に用いるためのベクトルxposeを取得する。そして、顔姿勢推定部7は、数30に表される式を用いて第L正準変量までを算出する。
Figure 2006051607
次に、顔姿勢推定部7は、数31に表される式を用いて正規化姿勢推定量yposeを算出する。なお、数31において、u’poseは、B’’poseと同一次元となるように、uposeにゼロを追加したベクトルである。
Figure 2006051607
そして、顔姿勢推定部7は、正規化姿勢推定量yposeに対して正規化復元処理を行い、姿勢推定量gestを取得する。正規化復元処理において、顔姿勢推定部7は、姿勢相関学習において取得された正規化パラメタを用いる。
〈作用/効果〉
このように構成された顔特徴点検出装置1aによれば、誤差推定部6によって取得されたkestに基づいて、入力された画像における人の顔の顔姿勢を検出することが可能となる。例えば、運転手の顔の姿勢検出を必要とする居眠り検出装置などに適用されると有効である。
〈変形例〉
顔姿勢推定部7は、最終的に誤差推定部6から得られるkestではなく、各iの値において得られるkの値を用いて、iの値ごとに姿勢推定量gを取得するように構成されても良い。そして、顔姿勢推定部7は、最終的に、kestの値を用いて、姿勢推定量gestを取得するように構成されても良い。
また、顔特徴点検出装置1の変形例と同様に、学習結果記憶部5aは、予め複数の顔の状態を示す初期パラメタkinitを記憶していても良い。例えば、学習結果記憶部5aは、横を向いた顔や上を向いた顔などに対応する初期パラメタkinitの値を記憶していても良い。そして、特徴量取得部4は、取得されるki+1の値によっては、使用する顔形状モデルを変更しても良い。具体的には、特徴量取得部4は、誤差推定部6によって新たに取得されたki+1の値や、顔姿勢推定部7によって新たに取得された姿勢推定量gによっては、このki+1の値を破棄して、使用された初期パラメタkinitとは異なる別の初期パラメタkinitを学習結果記憶部5から読み出し、その値に基づいてS13以降の処理を再度実行するように構成されても良い。また、特徴量取得部4は、例えば、顔特徴点の検出処理が繰り返し実行される場合には、ある時点で得られたkestの値又はgestに応じて次に入力される顔画像に対する検出処理で用いる初期パラメタを変更しても良い。処理対象となっている画像に含まれる顔が横を向いている場合などには、正面を向いた顔の顔形状モデルを示す初期パラメタkinitよりも、横を向いた顔の顔形状モデルを示す初期パラメタkinitを用いて処理を行った方がより精度の高い結果を得られる場合がある。従って、このような場合には、上記の変形例に従って構成することが有効である。また、特徴量取得部4は、初期パラメタkinitではなく又は初期パラメタkinitに加えて、レティナ構造や、誤差推定行列などを切り替えるように構成されても良い。
顔画像から抽出された特徴点の例を示す図である。 レティナ構造の例を示す図である。 顔形状モデルのある一つのノードに対してレティナ構造を適用した場合のサンプリング点の分布例を示す図である。 ずれ配置モデルの例を示す図である。 学習処理の処理例を示すフローチャートである。 顔特徴点検出装置の機能ブロックの例を示す図である。 顔特徴点検出装置の動作例を示すフローチャートである。 姿勢相関学習のフローの例を示すフローチャートである。 顔特徴点検出装置の機能ブロックの例を示す図である。
符号の説明
1 顔特徴点検出装置
2 画像入力部
3 顔検出部
4 特徴量取得部
5,5a 学習結果記憶部
6 誤差推定部
7 顔姿勢推定部
まず、顔形状モデルの取得の欄で説明した処理によって取得された正解モデルパラメタを、乱数などにより一定範囲内でずらすことにより、ずれ配置モデルを作成する。図4は、ずれ配置モデルの例を示す図である。図4において、斜線を含む円がノード位置を示す。図4(a)は、ある顔画像における正解モデルパラメタに基づいた各ノードの位置を示す図である。図4(b)は、図4(a)に示された正解モデル(正解モデルパラメタによって表される顔形状モデル)をずらすことによって作成されたずれ配置モデルの例である。そして、ずれ配置モデルに基づいて取得したサンプリング特徴量と、ずれ配置モデルと正解モデルとの差と、を組として、相関関係についての学習結果を取得する。以下、具体的な処理を説明する。

Claims (20)

  1. 入力された画像に対し、人の顔画像における複数の特徴点にそれぞれ対応する複数のノードを予め決められた初期位置に配置する配置手段と、
    前記配置手段によって配置された各ノードの周囲に複数のサンプリング点を配置し、前記複数のサンプリング点における特徴量を、対応する各ノードのノード特徴量として取得する特徴量取得手段と、
    学習用の画像において、複数のノードがそれぞれに対応する特徴点の正しい位置に配置された状態で取得される前記ノード特徴量と、複数のノードがそれぞれに対応する特徴点の正しい位置からずれた位置に配置された状態で取得される前記ノード特徴量との差、及び各ノードにおける前記正しい位置と前記ずれた位置との差、についての相関関係の情報を予め記憶している記憶手段と、
    前記記憶手段に記憶される前記相関関係の情報と、前記特徴量取得手段によって取得された各ノードのノード特徴量とに基づいて、現在の各ノードの位置とそれぞれに対応する特徴点の位置とのずれを示す誤差推定量を取得する誤差推定量取得手段と、
    前記誤差推定量取得手段によって得られた前記誤差推定量と、現在の各ノードの位置とに基づいて、入力された画像における各特徴点の位置を推定する推定手段と
    を備える顔特徴点検出装置。
  2. 繰り返し処理の終了を判定する終了判定手段をさらに備え、
    前記配置手段は、前記誤差推定量が得られた場合は、この誤差推定量に基づいて現在の各ノードの位置を移動させ、
    前記配置手段と前記誤差推定量取得手段とは、繰り返して処理を実行し、
    前記推定手段は、前記終了判定手段によって終了が判定された時点での誤差推定量と、この時点での各ノードの位置とに基づいて、入力された画像における各特徴点の位置を推定する
    請求項1に記載の顔特徴点検出装置。
  3. 前記終了判定手段は、前記誤差推定量取得手段によって得られた誤差推定量が閾値以下になった場合に、繰り返し処理の終了と判定する請求項2に記載の顔特徴点検出装置。
  4. 前記入力された画像から少なくとも人の顔又は人の顔の要素の位置を検出する顔検出手段をさらに備え、
    前記配置手段は、前記検出された人の顔又は人の顔の要素の位置に基づいて、前記各ノードの初期位置を決定する請求項1〜3のいずれかに記載の顔特徴点検出装置。
  5. 前記顔検出手段は、人の顔の向きをさらに検出し、
    前記配置手段は、各ノードの相対的な位置関係を定めたノードモデルを有し、前記ノードモデルに基づいて各ノードを前記初期位置に配置する際に、前記顔検出手段によって検出された顔の向きに基づいて、ノードモデルを変形させて使用する請求項4に記載の顔特徴点検出装置。
  6. 前記顔検出手段は、人の顔の大きさをさらに検出し、
    前記配置手段は、各ノードの相対的な位置関係を定めたノードモデルを有し、前記ノードモデルに基づいて各ノードを前記初期位置に配置する際に、前記顔検出手段によって検出された顔の大きさに基づいて、ノードモデルを変形させて使用する請求項4に記載の顔特徴点検出装置。
  7. 前記顔検出手段は、人の顔の向きをさらに検出し、
    前記配置手段は、各ノードの相対的な位置関係を定めたノードモデルを、顔の向きに応じて複数有し、
    前記記憶手段は、それぞれに対応する向きの顔が撮像された前記学習用画像を用いて予め得られた各ノードモデルに対応する前記相関関係の情報を記憶し、
    前記配置手段は、前記ノードモデルに基づいて各ノードを前記初期位置に配置する際に、前記顔検出手段によって検出された顔の向きに基づいて、使用するノードモデルを選択し、
    前記誤差推定量取得手段は、前記配置手段によって選択されたノードモデルに対応する前記相関関係の情報を前記記憶手段から読み出し使用する
    請求項4に記載の顔特徴点検出装置。
  8. 前記顔検出手段は、人の顔の大きさをさらに検出し、
    前記配置手段は、各ノードの相対的な位置関係を定めたノードモデルを、顔の大きさに応じて複数有し、
    前記記憶手段は、それぞれに対応する大きさの顔が撮像された前記学習用画像を用いて予め得られた各ノードモデルに対応する前記相関関係の情報を記憶し、
    前記配置手段は、前記ノードモデルに基づいて各ノードを前記初期位置に配置する際に、前記顔検出手段によって検出された顔の大きさに基づいて、使用するノードモデルを選択し、
    前記誤差推定量取得手段は、前記配置手段によって選択されたノードモデルに対応する前記相関関係の情報を前記記憶手段から読み出し使用する
    請求項4に記載の顔特徴点検出装置。
  9. 前記特徴量取得手段は、ノードに近いほど密に、ノードから遠いほど疎にサンプリング点を配置する請求項1〜8のいずれかに記載の顔特徴点検出装置。
  10. 前記特徴量取得手段は、レティナ構造に従ってサンプリング点の配置を行う請求項9に記載の顔特徴点検出装置。
  11. 前記特徴量取得手段は、複数の異なるレティナ構造を記憶し、各ノードに応じたレティナ構造に従って前記サンプリング点を配置する請求項10に記載の顔特徴点検出装置。
  12. 前記記憶手段は、学習用の画像において、複数のノードがそれぞれに対応する特徴点の正しい位置に配置された状態で取得される前記ノード特徴量と、その画像における人の顔の姿勢を示す情報と、についての相関関係の情報をさらに予め記憶し、
    前記推定手段によって推定された各ノードの位置と、前記記憶手段に記憶される顔の姿勢についての相関関係の情報とに基づいて、前記入力された画像に撮像された人の顔の姿勢を推定する姿勢推定手段をさらに備える請求項1〜11のいずれかに記載の顔特徴点検出装置。
  13. アクティブシェイプモデル(Active Shape Model)で使用される顔形状モデルを用いて、入力画像における顔の特徴点検出を行う顔特徴点検出装置であって、
    入力された画像に対し前記顔形状モデルを初期位置に配置する配置手段と、
    前記配置手段によって配置された顔形状モデルの各ノード位置に基づいてレティナ構造に従って複数の特徴量を取得し、同一のノード位置に基づいて取得された複数の特徴量を一つのノード特徴量として取得する特徴量取得手段と、
    前記顔形状モデルが正しい位置に配置された場合に顔形状モデルの各ノードについて得られるノード特徴量の集合と、前記顔形状モデルが誤った位置に配置された場合に各ノードについて得られるノート特徴量の集合との差、及び前記正しい位置に配置された場合と前記誤った位置に配置された場合における各ノードの位置の差を示すベクトルの集合、を入力とした正準相関分析により予め取得された変換ベクトル行列を誤差推定行列として記憶する記憶手段と、
    前記記憶手段に記憶される誤差推定行列と、前記特徴量取得手段によって取得されたノード特徴量の集合とに基づいて、顔形状モデルの各ノードの現在位置と顔の特徴点の位置とのずれを示す誤差推定量を取得する誤差推定量取得手段と、
    前記誤差推定量取得手段によって得られた前記誤差推定量に基づいて、現在の顔形状モデルの各ノード位置を変更する変更手段と、
    前記変更手段によって位置が変更された後の各ノード位置を顔特徴点の位置として推定する推定手段と
    を備える顔特徴点検出装置。
  14. 入力された画像に対し、所定の対象物の画像における複数の特徴点にそれぞれ対応する複数のノードを予め決められた初期位置に配置する配置手段と、
    前記配置手段によって配置された各ノードの周囲に複数のサンプリング点を配置し、前記複数のサンプリング点における特徴量を、対応する各ノードのノード特徴量として取得する特徴量取得手段と、
    学習用の画像において、複数のノードがそれぞれに対応する特徴点の正しい位置に配置された状態で取得される前記ノード特徴量と、複数のノードがそれぞれに対応する特徴点の正しい位置からずれた位置に配置された状態で取得される前記ノード特徴量との差、及び各ノードにおける前記正しい位置と前記ずれた位置との差、についての相関関係の情報を予め記憶している記憶手段と、
    前記記憶手段に記憶される前記相関関係の情報と、前記特徴量取得手段によって取得された各ノードのノード特徴量とに基づいて、現在の各ノードの位置とそれぞれに対応する特徴点の位置とのずれを示す誤差推定量を取得する誤差推定量取得手段と、
    前記誤差推定量取得手段によって得られた前記誤差推定量と、現在の各ノードの位置とに基づいて、入力された画像における各特徴点の位置を推定する推定手段と
    を備える特徴点検出装置。
  15. 情報処理装置が、入力された画像に対し、人の顔画像における複数の特徴点にそれぞれ対応する複数のノードを予め決められた初期位置に配置するステップと、
    情報処理装置が、配置された各ノードの周囲に複数のサンプリング点を配置するステップと、
    情報処理装置が、前記複数のサンプリング点における特徴量を、対応する各ノードのノード特徴量として取得するステップと、
    学習用の画像において、複数のノードがそれぞれに対応する特徴点の正しい位置に配置された状態で取得される前記ノード特徴量と、複数のノードがそれぞれに対応する特徴点の正しい位置からずれた位置に配置された状態で取得される前記ノード特徴量との差、及び各ノードにおける前記正しい位置と前記ずれた位置との差、についての相関関係の情報を予め記憶している記憶手段に記憶される前記相関関係の情報と、前記特徴量取得手段によって取得された各ノードのノード特徴量とに基づいて、情報処理手段が、現在の各ノードの位置とそれぞれに対応する特徴点の位置とのずれを示す誤差推定量を取得するステップと、
    情報処理手段が、前記誤差推定量と、現在の各ノードの位置とに基づいて、入力された画像における各特徴点の位置を推定するステップと
    を含む顔特徴点検出方法。
  16. 情報処理装置が、入力された画像に対し、所定の対象物の画像における複数の特徴点にそれぞれ対応する複数のノードを予め決められた初期位置に配置するステップと、
    情報処理装置が、配置された各ノードの周囲に複数のサンプリング点を配置するステップと、
    情報処理装置が、前記複数のサンプリング点における特徴量を、対応する各ノードのノード特徴量として取得するステップと、
    学習用の画像において、複数のノードがそれぞれに対応する特徴点の正しい位置に配置された状態で取得される前記ノード特徴量と、複数のノードがそれぞれに対応する特徴点の正しい位置からずれた位置に配置された状態で取得される前記ノード特徴量との差、及び各ノードにおける前記正しい位置と前記ずれた位置との差、についての相関関係の情報を予め記憶している記憶手段に記憶される前記相関関係の情報と、前記特徴量取得手段によって取得された各ノードのノード特徴量とに基づいて、情報処理手段が、現在の各ノードの位置とそれぞれに対応する特徴点の位置とのずれを示す誤差推定量を取得するステップと、
    情報処理手段が、前記誤差推定量と、現在の各ノードの位置とに基づいて、入力された画像における各特徴点の位置を推定するステップと
    を含む特徴点検出方法。
  17. 入力された画像に対し、人の顔画像における複数の特徴点にそれぞれ対応する複数のノードを予め決められた初期位置に配置するステップと、
    配置された各ノードの周囲に複数のサンプリング点を配置するステップと、
    前記複数のサンプリング点における特徴量を、対応する各ノードのノード特徴量として取得するステップと、
    学習用の画像において、複数のノードがそれぞれに対応する特徴点の正しい位置に配置された状態で取得される前記ノード特徴量と、複数のノードがそれぞれに対応する特徴点の正しい位置からずれた位置に配置された状態で取得される前記ノード特徴量との差、及び各ノードにおける前記正しい位置と前記ずれた位置との差、についての相関関係の情報を予め記憶している記憶手段に記憶される前記相関関係の情報と、前記特徴量取得手段によって取得された各ノードのノード特徴量とに基づいて、現在の各ノードの位置とそれぞれに対応する特徴点の位置とのずれを示す誤差推定量を取得するステップと、
    前記誤差推定量と、現在の各ノードの位置とに基づいて、入力された画像における各特徴点の位置を推定するステップと
    を情報処理装置に実行させるためのプログラム。
  18. 入力された画像に対し、所定の対象物の画像における複数の特徴点にそれぞれ対応する複数のノードを予め決められた初期位置に配置するステップと、
    配置された各ノードの周囲に複数のサンプリング点を配置するステップと、
    前記複数のサンプリング点における特徴量を、対応する各ノードのノード特徴量として取得するステップと、
    学習用の画像において、複数のノードがそれぞれに対応する特徴点の正しい位置に配置された状態で取得される前記ノード特徴量と、複数のノードがそれぞれに対応する特徴点の正しい位置からずれた位置に配置された状態で取得される前記ノード特徴量との差、及び各ノードにおける前記正しい位置と前記ずれた位置との差、についての相関関係の情報を予め記憶している記憶手段に記憶される前記相関関係の情報と、前記特徴量取得手段によって取得された各ノードのノード特徴量とに基づいて、現在の各ノードの位置とそれぞれに対応する特徴点の位置とのずれを示す誤差推定量を取得するステップと、
    前記誤差推定量と、現在の各ノードの位置とに基づいて、入力された画像における各特徴点の位置を推定するステップと
    を情報処理装置に実行させるためのプログラム。
  19. 情報処理装置が、アクティブシェイプモデル(Active Shape Model)で使用される顔形状モデルを用いて、入力画像における顔の特徴点検出を行う方法であって、
    情報処理装置が、入力された画像に対し前記顔形状モデルを初期位置に配置するステップと、
    情報処理装置が、配置された顔形状モデルの各ノード位置に基づいてレティナ構造に従って複数の特徴量を取得し、同一のノード位置に基づいて取得された複数の特徴量を一つのノード特徴量として取得するステップと、
    前記顔形状モデルが正しい位置に配置された場合に顔形状モデルの各ノードについて得られるノード特徴量の集合と、前記顔形状モデルが誤った位置に配置された場合に各ノードについて得られるノート特徴量の集合との差、及び前記正しい位置に配置された場合と前記誤った位置に配置された場合における各ノードの位置の差を示すベクトルの集合、を入力とした正準相関分析により予め取得された変換ベクトル行列を誤差推定行列として記憶する記憶手段に記憶される誤差推定行列と、取得されたノード特徴量の集合とに基づいて、情報処理装置が、顔形状モデルの各ノードの現在位置と顔の特徴点の位置とのずれを示す誤差推定量を取得するステップと、
    情報処理装置が、得られた前記誤差推定量に基づいて、現在の顔形状モデルの各ノード位置を変更するステップと、
    情報処理装置が、位置が変更された後の各ノード位置を顔特徴点の位置として推定するステップと
    を含む方法。
  20. 情報処理装置に、アクティブシェイプモデル(Active Shape Model)で使用される顔形状モデルを用いて、入力画像における顔の特徴点検出を実行させるためのプログラムであって、
    入力された画像に対し前記顔形状モデルを初期位置に配置するステップと、
    配置された顔形状モデルの各ノード位置に基づいてレティナ構造に従って複数の特徴量を取得し、同一のノード位置に基づいて取得された複数の特徴量を一つのノード特徴量として取得するステップと、
    前記顔形状モデルが正しい位置に配置された場合に顔形状モデルの各ノードについて得られるノード特徴量の集合と、前記顔形状モデルが誤った位置に配置された場合に各ノードについて得られるノート特徴量の集合との差、及び前記正しい位置に配置された場合と前記誤った位置に配置された場合における各ノードの位置の差を示すベクトルの集合、を入力とした正準相関分析により予め取得された変換ベクトル行列を誤差推定行列として記憶する記憶手段に記憶される誤差推定行列と、取得されたノード特徴量の集合とに基づいて、顔形状モデルの各ノードの現在位置と顔の特徴点の位置とのずれを示す誤差推定量を取得するステップと、
    得られた前記誤差推定量に基づいて、現在の顔形状モデルの各ノード位置を変更するステップと、
    位置が変更された後の各ノード位置を顔特徴点の位置として推定するステップと
    を情報処理装置に実行させるためのプログラム。
JP2006544712A 2004-11-12 2004-11-12 顔特徴点検出装置、特徴点検出装置 Active JP4501937B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2004/016889 WO2006051607A1 (ja) 2004-11-12 2004-11-12 顔特徴点検出装置、特徴点検出装置

Publications (2)

Publication Number Publication Date
JPWO2006051607A1 true JPWO2006051607A1 (ja) 2008-05-29
JP4501937B2 JP4501937B2 (ja) 2010-07-14

Family

ID=36336293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006544712A Active JP4501937B2 (ja) 2004-11-12 2004-11-12 顔特徴点検出装置、特徴点検出装置

Country Status (5)

Country Link
US (1) US7936902B2 (ja)
EP (1) EP1811456B1 (ja)
JP (1) JP4501937B2 (ja)
CN (1) CN100565583C (ja)
WO (1) WO2006051607A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015522200A (ja) * 2012-08-28 2015-08-03 騰訊科技(深▲セン▼)有限公司Tencent Technology(Shenzhen)Company Limited 人顔特徴点の位置決め方法、装置及び記憶媒体

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8675059B2 (en) * 2010-07-29 2014-03-18 Careview Communications, Inc. System and method for using a video monitoring system to prevent and manage decubitus ulcers in patients
US9311540B2 (en) * 2003-12-12 2016-04-12 Careview Communications, Inc. System and method for predicting patient falls
JP4501937B2 (ja) * 2004-11-12 2010-07-14 オムロン株式会社 顔特徴点検出装置、特徴点検出装置
US8370639B2 (en) * 2005-06-16 2013-02-05 Sensible Vision, Inc. System and method for providing secure access to an electronic device using continuous facial biometrics
JP4093273B2 (ja) * 2006-03-13 2008-06-04 オムロン株式会社 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
JP5109564B2 (ja) * 2007-10-02 2012-12-26 ソニー株式会社 画像処理装置、撮像装置、これらにおける処理方法およびプログラム
US9866797B2 (en) 2012-09-28 2018-01-09 Careview Communications, Inc. System and method for monitoring a fall state of a patient while minimizing false alarms
US9579047B2 (en) 2013-03-15 2017-02-28 Careview Communications, Inc. Systems and methods for dynamically identifying a patient support surface and patient monitoring
US10645346B2 (en) 2013-01-18 2020-05-05 Careview Communications, Inc. Patient video monitoring systems and methods having detection algorithm recovery from changes in illumination
US9959471B2 (en) 2008-05-06 2018-05-01 Careview Communications, Inc. Patient video monitoring systems and methods for thermal detection of liquids
US9794523B2 (en) 2011-12-19 2017-10-17 Careview Communications, Inc. Electronic patient sitter management system and method for implementing
US8471899B2 (en) 2008-12-02 2013-06-25 Careview Communications, Inc. System and method for documenting patient procedures
CN101464132B (zh) * 2008-12-31 2014-09-10 北京中星微电子有限公司 位置确定方法及位置确定装置
JP2010170184A (ja) * 2009-01-20 2010-08-05 Seiko Epson Corp 顔画像における特徴部位の位置の特定
JP5272886B2 (ja) 2009-05-14 2013-08-28 ソニー株式会社 動体検出装置と動体検出方法およびコンピュータ・プログラム
JP5451302B2 (ja) * 2009-10-19 2014-03-26 キヤノン株式会社 画像処理装置及び方法、プログラム及び記憶媒体
KR101365789B1 (ko) * 2010-05-26 2014-02-20 닛본 덴끼 가부시끼가이샤 얼굴 특징점 위치 보정 장치, 얼굴 특징점 위치 보정 방법, 및 얼굴 특징점 위치 보정 프로그램을 기록한 컴퓨터 판독가능 기록 매체
JP5218876B2 (ja) * 2011-02-28 2013-06-26 ブラザー工業株式会社 印刷指示装置及び印刷指示システム
JP5755012B2 (ja) * 2011-04-21 2015-07-29 キヤノン株式会社 情報処理装置、その処理方法、プログラム及び撮像装置
JP4998637B1 (ja) * 2011-06-07 2012-08-15 オムロン株式会社 画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体
US9519769B2 (en) * 2012-01-09 2016-12-13 Sensible Vision, Inc. System and method for disabling secure access to an electronic device using detection of a predetermined device orientation
JP6026119B2 (ja) * 2012-03-19 2016-11-16 株式会社東芝 生体情報処理装置
US9104908B1 (en) * 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
US9111134B1 (en) 2012-05-22 2015-08-18 Image Metrics Limited Building systems for tracking facial features across individuals and groups
CN102750546B (zh) * 2012-06-07 2014-10-29 中山大学 基于结构化误差编码的人脸遮挡检测方法
CN103530900B (zh) * 2012-07-05 2019-03-19 北京三星通信技术研究有限公司 三维人脸模型的建模方法、人脸跟踪方法以及设备
JP6387831B2 (ja) * 2013-01-15 2018-09-12 日本電気株式会社 特徴点位置検出装置、特徴点位置検出方法および特徴点位置検出プログラム
TW201434008A (zh) * 2013-02-27 2014-09-01 萬國商業機器公司 健康狀態的個人化地視覺化呈現
JP2014206932A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 認証装置、認証方法、制御プログラムおよび記録媒体
JP6304999B2 (ja) * 2013-10-09 2018-04-04 アイシン精機株式会社 顔検出装置、方法およびプログラム
FR3015092A1 (fr) * 2013-12-17 2015-06-19 Scotler France Controle d'un pointeur sur un ecran numerique
JP6331517B2 (ja) * 2014-03-13 2018-05-30 オムロン株式会社 画像処理装置、システム、画像処理方法、および画像処理プログラム
WO2015146101A1 (ja) * 2014-03-28 2015-10-01 日本電気株式会社 顔照合装置、方法、及び、記録媒体
CN106462967B (zh) * 2014-05-14 2020-06-30 皇家飞利浦有限公司 用于超声图像的基于模型的分割的采集取向相关特征
US9684776B2 (en) 2014-07-29 2017-06-20 Google Inc. Allowing access to applications based on user authentication
US9639680B2 (en) 2014-07-29 2017-05-02 Google Inc. Allowing access to applications based on user handling measurements
US9898674B2 (en) * 2015-12-10 2018-02-20 International Business Machines Corporation Spoof detection for facial recognition
EP3232368A1 (en) * 2016-04-14 2017-10-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Determining facial parameters
JP2017209486A (ja) * 2016-05-19 2017-11-30 パナソニックIpマネジメント株式会社 血圧計測装置
US9875398B1 (en) 2016-06-30 2018-01-23 The United States Of America As Represented By The Secretary Of The Army System and method for face recognition with two-dimensional sensing modality
CN106067013B (zh) * 2016-06-30 2022-04-12 美的集团股份有限公司 嵌入式系统人脸识别方法及装置
US10089543B2 (en) * 2016-07-29 2018-10-02 Honda Motor Co., Ltd. System and method for detecting distraction and a downward vertical head pose in a vehicle
US10055667B2 (en) 2016-08-03 2018-08-21 X Development Llc Generating a model for an object encountered by a robot
CN106599830B (zh) * 2016-12-09 2020-03-17 中国科学院自动化研究所 人脸关键点定位方法及装置
FR3060170B1 (fr) * 2016-12-14 2019-05-24 Smart Me Up Systeme de reconnaissance d'objets base sur un modele generique 3d adaptatif
JP6558388B2 (ja) 2017-03-14 2019-08-14 オムロン株式会社 画像処理装置
CN109952594B (zh) * 2017-10-18 2022-01-07 腾讯科技(深圳)有限公司 图像处理方法、装置、终端及存储介质
CN109960986A (zh) 2017-12-25 2019-07-02 北京市商汤科技开发有限公司 人脸姿态分析方法、装置、设备、存储介质以及程序
JP7099036B2 (ja) 2018-05-07 2022-07-12 オムロン株式会社 データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP7099037B2 (ja) 2018-05-07 2022-07-12 オムロン株式会社 データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP7230345B2 (ja) * 2018-06-07 2023-03-01 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
CN109190515A (zh) * 2018-08-14 2019-01-11 深圳壹账通智能科技有限公司 一种疲劳驾驶检测方法、计算机可读存储介质及终端设备
JP7074888B2 (ja) 2018-08-20 2022-05-24 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 位置姿勢検出方法及び装置、電子機器並びに記憶媒体
CN109284681B (zh) * 2018-08-20 2020-11-27 北京市商汤科技开发有限公司 位姿检测方法及装置、电子设备和存储介质
US10949649B2 (en) 2019-02-22 2021-03-16 Image Metrics, Ltd. Real-time tracking of facial features in unconstrained video
JP6751540B1 (ja) * 2019-05-31 2020-09-09 みずほ情報総研株式会社 形状予測システム、形状予測方法及び形状予測プログラム
JP7419720B2 (ja) * 2019-09-24 2024-01-23 カシオ計算機株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP7388258B2 (ja) 2020-03-13 2023-11-29 オムロン株式会社 アクセシビリティ判定装置、アクセシビリティ判定方法、及びプログラム
CN112287753A (zh) * 2020-09-23 2021-01-29 武汉天宝莱信息技术有限公司 一种基于机器学习提升人脸识别精度的系统及其算法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05210739A (ja) * 1991-09-12 1993-08-20 Fuji Photo Film Co Ltd 被写体認識方法
JPH09251534A (ja) * 1996-03-18 1997-09-22 Toshiba Corp 人物認証装置及び人物認証方法
JP2004030668A (ja) * 2002-06-25 2004-01-29 Eastman Kodak Co ポートレイト画像修正方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0158038B1 (ko) * 1993-03-29 1998-12-15 모리시다 요오이찌 개인식별장치
JP3454726B2 (ja) 1998-09-24 2003-10-06 三洋電機株式会社 顔向き検出方法及びその装置
JP3822482B2 (ja) 2001-10-31 2006-09-20 株式会社東芝 顔向き計算方法及びその装置
JP4501937B2 (ja) * 2004-11-12 2010-07-14 オムロン株式会社 顔特徴点検出装置、特徴点検出装置
WO2006093250A1 (ja) * 2005-03-04 2006-09-08 National University Corporation NARA Institute of Science and Technology 動き計測装置、動き計測システム、車載機器、動き計測方法、動き計測プログラム、およびコンピュータ読み取り可能な記録媒体
JP4653606B2 (ja) * 2005-05-23 2011-03-16 株式会社東芝 画像認識装置、方法およびプログラム
US7756325B2 (en) * 2005-06-20 2010-07-13 University Of Basel Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object
JP4991317B2 (ja) * 2006-02-06 2012-08-01 株式会社東芝 顔特徴点検出装置及びその方法
US20070183665A1 (en) * 2006-02-06 2007-08-09 Mayumi Yuasa Face feature point detecting device and method
US8571272B2 (en) * 2006-03-12 2013-10-29 Google Inc. Techniques for enabling or establishing the use of face recognition algorithms
JP4093273B2 (ja) * 2006-03-13 2008-06-04 オムロン株式会社 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
JP4829141B2 (ja) * 2007-02-09 2011-12-07 株式会社東芝 視線検出装置及びその方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05210739A (ja) * 1991-09-12 1993-08-20 Fuji Photo Film Co Ltd 被写体認識方法
JPH09251534A (ja) * 1996-03-18 1997-09-22 Toshiba Corp 人物認証装置及び人物認証方法
JP2004030668A (ja) * 2002-06-25 2004-01-29 Eastman Kodak Co ポートレイト画像修正方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015522200A (ja) * 2012-08-28 2015-08-03 騰訊科技(深▲セン▼)有限公司Tencent Technology(Shenzhen)Company Limited 人顔特徴点の位置決め方法、装置及び記憶媒体

Also Published As

Publication number Publication date
CN101057257A (zh) 2007-10-17
US20080130961A1 (en) 2008-06-05
EP1811456A4 (en) 2010-09-01
US7936902B2 (en) 2011-05-03
JP4501937B2 (ja) 2010-07-14
WO2006051607A1 (ja) 2006-05-18
CN100565583C (zh) 2009-12-02
EP1811456A1 (en) 2007-07-25
EP1811456B1 (en) 2011-09-28

Similar Documents

Publication Publication Date Title
JP4501937B2 (ja) 顔特徴点検出装置、特徴点検出装置
JP4093273B2 (ja) 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
CN110378181B (zh) 图像解析装置、图像解析方法及记录介质
JP4553141B2 (ja) 重み情報を用いた物体姿勢推定・照合システム
US20180300589A1 (en) System and method using machine learning for iris tracking, measurement, and simulation
JP4321350B2 (ja) パラメタ推定方法、パラメタ推定装置および照合方法
US8515180B2 (en) Image data correction apparatus and method using feature points vector data
JP4774818B2 (ja) 画像処理装置及び画像処理方法
CN110378182B (zh) 图像解析装置、图像解析方法及记录介质
MX2012010602A (es) Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara.
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP5241606B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP4952267B2 (ja) 3次元形状処理装置、3次元形状処理装置の制御方法、および3次元形状処理装置の制御プログラム
WO2022083479A1 (zh) 采集人脸图像的方法、装置及电子设备
JPWO2020213166A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2021084972A1 (ja) 物体追跡装置および物体追跡方法
JP4816874B2 (ja) パラメータ学習装置、パラメータ学習方法、およびプログラム
CN113436735A (zh) 基于人脸结构度量的体重指数预测方法、设备和存储介质
JP4036005B2 (ja) 撮影条件検出装置および撮影条件検出プログラム
JP2021043914A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018088064A (ja) 画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100412

R150 Certificate of patent or registration of utility model

Ref document number: 4501937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140430

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250