JP2008146329A - 顔特徴点検出装置及びその方法 - Google Patents

顔特徴点検出装置及びその方法 Download PDF

Info

Publication number
JP2008146329A
JP2008146329A JP2006332422A JP2006332422A JP2008146329A JP 2008146329 A JP2008146329 A JP 2008146329A JP 2006332422 A JP2006332422 A JP 2006332422A JP 2006332422 A JP2006332422 A JP 2006332422A JP 2008146329 A JP2008146329 A JP 2008146329A
Authority
JP
Japan
Prior art keywords
feature point
learning
image
target feature
peripheral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006332422A
Other languages
English (en)
Other versions
JP4745207B2 (ja
Inventor
Mayumi Yuasa
真由美 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006332422A priority Critical patent/JP4745207B2/ja
Priority to US11/950,261 priority patent/US8090151B2/en
Publication of JP2008146329A publication Critical patent/JP2008146329A/ja
Application granted granted Critical
Publication of JP4745207B2 publication Critical patent/JP4745207B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】鼻頂点のように画像的な特徴が少ない顔特徴点の場合にも検出することを可能にする顔特徴点検出装置を提供する。
【解決手段】顔画像を入力する画像入力部12と、探索領域とスケールを決定する探索領域スケール決定部14と、各点の局所的な画像情報から選択される画像特徴点を検出する画像特徴点検出部16と、画像特徴点と対象特徴点の相対位置座標と画像特徴点周辺パターンとを関連付けて記憶した第1の辞書18と、第1の辞書18と画像特徴点周辺パターンとの照合を行なう第1のパターン照合部20と、対象とする特徴点の位置候補を推定する対象特徴点位置推定部22と、第2の辞書24と、第2の辞書24と対象特徴点周辺パターンとの照合を行なう第2のパターン照合部26と、対象特徴点の位置を求める判定部28を備えている。
【選択図】 図1

Description

本発明は、顔特徴点検出装置及びその方法に係わり、特に鼻頂点のように画像的な特徴が少ない場合にも検出できるようにしたものに関する。
従来の顔特徴点検出装置には、特許文献1に開示されているように、顔特徴点の候補を円形分離度フィルタで検出した後、画像パターンを用いて検証するものがあった。しかし、前記顔特徴点に画像的な特徴が少なく、近傍に必ず特徴点候補が検出されない場合にはうまく検出することはできなかった。
また、特許文献2のように特徴点周辺画像のテンプレートマッチングを用いるものもある。しかし、前記特徴点に画像的な特徴が少ない場合には、パターンがその特徴点に固有のものとはならないため、類似した画像が他の場所にあるなどのためにうまく検出できなかった。
特許第3279913号公報 特開平11−203456公報
上記したように、背景技術には顔特徴点に画像的な特徴が少なく、近傍に必ず特徴点候補が検出されない場合にはうまく検出できないという問題点があった。
また、単純なテンプレートマッチングでは前記特徴点に画像的な特徴が少ない場合には、パターンがその特徴点に固有のものとはならないため、類似した画像が他の場所にあるなどのためにうまく検出できないという問題点があった。
そこで本発明は、上記問題点を解決するためになされたものであって、顔特徴点に画像的な特徴が少なく、近傍に必ず特徴点候補が検出されない場合にも検出を可能とする顔特徴点検出装置及びその方法を提供することを目的とする。
本発明は、顔が写った画像を入力する画像入力部と、前記画像から対象特徴点を検出するための探索領域を決定する探索領域決定部と、前記画像の前記探索領域内から画像特徴点を検出する画像特徴点検出部と、複数の学習用顔画像からそれぞれ求めた学習用画像特徴点の周辺パターンに関する情報、及び、前記各学習用画像特徴点と学習用対象特徴点の相対位置座標とを関連付けた第1の辞書を記憶する第1の辞書記憶部と、前記画像特徴点の周辺パターンと類似している前記学習用画像特徴点の周辺パターンを前記第1の辞書内の前記複数の学習用画像特徴点の周辺パターンから選択する第1のパターン照合部と、前記選択された学習用画像特徴点に対応する前記学習用対象特徴点の相対位置座標を抽出する対象特徴点位置推定部と、前記抽出した相対位置座標に基づいて、前記顔画像から前記対象特徴点の周辺パターンを切り出す対象特徴点周辺パターン検出部と、前記複数の学習用顔画像からそれぞれ求めた学習用対象特徴点の周辺パターンに関する情報を含む第2の辞書を記憶する第2の辞書記憶部と、前記対象特徴点の周辺パターンと類似する前記学習用対象特徴点の周辺パターンを前記第2の辞書内の前記複数の学習用対象特徴点の周辺パターンから選択する第2のパターン照合部と、前記画像特徴点の周辺パターンと前記選択された学習用画像特徴点の周辺パターンの類似度と、前記対象特徴点の周辺パターンと前記選択された学習用対象特徴点の周辺パターンの類似度から前記対象特徴点の位置を求める判定部と、を備える顔特徴点検出装置である。
本発明によれば、鼻頂点などのように特徴点に画像的な特徴が少なく、近傍に必ず画像特徴点候補が検出されない場合にも検出が可能となる。
以下、本発明の実施形態について説明する。
(第1の実施形態)
本発明の第1の実施形態に係わる顔特徴点検出装置10について図1から図6に基づいて説明する。
(1)顔特徴点検出装置10の構成
図1は、本実施形態に係わる顔特徴点検出装置10を示すブロック図である。
顔特徴点検出装置10は、処理対象の画像を入力する画像入力部12と、探索領域とスケールを決定する探索領域スケール決定部14と、各点の局所的な画像情報から選択される画像特徴点を検出する画像特徴点検出部16と、画像特徴点と対象特徴点の相対位置座標と画像特徴点周辺パターンとを関連付けて記憶した第1の辞書18と、第1の辞書18と画像特徴点周辺パターンとの照合を行なう第1のパターン照合部20と、対象とする特徴点の位置候補を推定する対象特徴点位置推定部22と、第2の辞書24と、第2の辞書24と対象特徴点周辺パターンとの照合を行なう第2のパターン照合部26と、対象特徴点の位置を求める判定部28を備えている。
各部12〜28の各機能は、コンピュータに格納されたプログラムによっても実現できる。
(2)顔特徴点検出装置10の処理
次に、図1及び図2を用いて、本実施形態に係わる顔特徴点検出装置10の動作について説明する。なお、図2は、本実施形態に係わる顔特徴点検出装置10の動作を示すフローチャートである。
以下の説明は、図3に示すように瞳の2点を基準特徴点として、まずこれらの基準特徴点を検出し、検出された瞳の位置を利用して探索領域とスケールを決定し、その後に対象特徴点である鼻頂点を求める場合である。
(2−1)ステップ1
まず、ステップ1において、画像入力部12は、対象となる顔が撮影された画像を入力する。
(2−2)ステップ2
次に、ステップ2において、探索領域スケール決定部14は、対象特徴点を検出するための探索領域とスケールを決定する。
本実施形態では、上記したように、図3に示すように瞳の2点を基準特徴点として、まずこれらの基準特徴点を検出し、検出された瞳の位置を利用して探索領域とスケールを決定する。
瞳検出は、特許文献1に示されている円形分離度フィルタのような画像特徴点検出方法と、パターン照合方法を組み合わせた方法を用いる。以下、順番に説明する。
(2−2−1)画像特徴点検出処理
まず、特許文献1に示されている円形分離度フィルタを用いて、上記画像から画像特徴点を検出する。
本実施形態においては、画像特徴点検出方法として円形分離度フィルタを用いるが、他の方法であってもよい。例えばコーナー検出方法などでもよい。
(2−2−2)パターン照合処理
次に、検出された各画像特徴点に対してパターン照合方法を行なう。
各画像特徴点の近傍において、分離度フィルタの半径に応じた局所正規化画像を取得し、この正規化画像と予め瞳画像から作成しておいた辞書との類似度を算出する。類似度の算出には特許文献1と同様に部分空間法を用いる。
各画像特徴点において算出された類似度が、所定の閾値を超えるものを基準特徴点候補として残す。
次に、基準特徴点候補が、左右瞳として所定の位置条件を満たす組合せを選択する。所定の位置関係とは左右の点を結ぶ線分の距離、角度等である。
なお、それらの2点を基準に正規化した画像により、局所正規化画像と同様に予め作成しておいた辞書との類似度を求め、その類似度が所定の閾値を超えることを条件としてもよい。
(2−2−3)探索領域とスケールの決定
検出された2点の瞳位置を基準特徴点として、探索領域とスケールを決定する。
具体的には、探索領域の中心を左右瞳の中点から垂直方向に瞳間隔edに所定の係数を乗じた距離だけ移動させた位置とし、その幅及び高さに関しても瞳間隔edにそれぞれ所定の係数を乗じたものとする。
また、スケールは瞳間隔edを基準に設定する。ここでは瞳間隔edに所定の係数を乗じたものとする。例えば係数を0.1とする。
(2−3)ステップ3
次に、ステップ3において、画像特徴点検出部16は、探索領域内の各点(各画素)の局所的な画像情報から、画像特徴点を検出する。例えば、各画素の輝度値からエッジを検出したりする。
本実施形態では特許文献1に示されている円形分離度フィルタを用いる。ここで、円形分離度フィルタの半径は、前記で設定したスケールにより決定される。上記したように、ここでは瞳間隔edに所定の係数を乗じたものであり、例えば係数を0.1とする。
(2−4)ステップ4
次に、ステップ4において、第1のパターン照合部20は、第1の辞書18を用いて各画像特徴点周辺のパターンの照合を行なう。
(2−4−1)正規化
上記のようにした探索領域内で検出した各画像特徴点の周辺パターンのそれぞれについて正規化を行う。この画像特徴点の周辺パターンの正規化は、探索領域スケール決定部14で決定したスケールedを用いて、図4に示すように、画像特徴点を中心としてedに所定の係数を乗じた距離adの範囲の矩形領域をサンプリングして、正規化パターンを取り出す。
(2−4−2)類似度の算出
次に、正規化パターンと第1の辞書18との類似度を算出する。類似度は特許文献1に示されている部分空間法により計算する。
第1の辞書18は、複数個のクラスから成り、それぞれのクラスには学習された学習用画像特徴点の周辺パターンから生成された1つの部分空間と、学習用対象特徴点との相対座標が記録されている。画像特徴点のそれぞれにおいて、各クラスに属する学習用画像特徴点の周辺パターンの部分空間との類似度をそれぞれ算出する。ここで「対象特徴点」とは、上記したように求めたい鼻頂点である。また、第1の辞書18のクラスは、後から説明するように正規化された座標を格子状に分割することにより、位置(座標)を基準にしてクラスタリングされている。
(2−5)ステップ5
次に、ステップ5において、対象特徴点候補位置推定部22では、第1のパターン照合部20において算出された第1の辞書18の各クラス(位置)に対する類似度を利用して対象特徴点の候補位置を推定する。
対象特徴点位置の具体的な推定方法は以下の通りである。
第1の辞書18の各クラス(位置)には、1つの部分空間と対応する相対座標が記録されている。
各クラス(位置)の類似度が所定の閾値を超える場合には、対応する相対位置を用いて対象特徴点の位置を推定し、対象特徴点位置候補とする。
図5は、対象特徴点位置を推定する様子を表わす図である。i番目の画像特徴点位置の座標が(xi,yi)、瞳間距離edで正規化された相対座標が(u,v)であるとすると、対象特徴点の推定座標は(xi−u*ed,yi−v*ed)として求められる。
(2−6)ステップ6
次に、ステップ6において、第2のパターン照合部26では、対象特徴点候補位置推定部22で推定された各対象特徴点候補位置の周辺パターンのパターン照合を行なう。そのためにまず、上記で求めた対象特徴点の推定座標(候補位置)を中心にしてその周辺パターンを切り出す。
次に、その対象特徴点の候補位置の周辺パターンの正規化を行う。この正規化は、上記で説明した画像特徴点周辺パターンと同様に行なう。
対象特徴点候補位置の正規化パターンと第2の辞書24との類似度を算出する。類似度の算出には、第1のパターン照合部20と同様に、部分空間法を用いる。第2の辞書24は、学習用対象特徴点の正規化パターンの部分空間を記憶しているが、第1の辞書18と関連付けされている。すなわち、第1の辞書18の各クラス(位置)の正規化パターンのそれぞれと、同一の画像(例えば、同一人物の同一の学習用顔画像)から切り出した学習用対象特徴点の正規化パターンとがリンクされている。そして、第2の辞書24を使用する場合には、第1の辞書18とリンクされている学習用対象特徴点の正規化パターンを用いる。具体的には、対象特徴点の推定座標を算出するために用いた第1の辞書18の正規化パターンとリンクされている学習用対象特徴点の正規化パターンの部分空間とで類似度を求める。
(2−7)ステップ7
次に、ステップ7において、判定部28では第1のパターン照合部20における類似度と、第2のパターン照合部26における類似度と、予め学習データより得られた事前確率に基づき算出されるスコアから対象特徴点の位置を決定する。この事前確率については、後から説明する。
なお、事前確率に基づき算出されるスコアは、前記相対位置において類似度を算出したクラスに属する学習データの出現確率を所定の演算を施したものである。例えば、他のスコアとバランスをとるために、定数をかけたり、logを計算したりする。
そして、第1のパターン照合部20における類似度と、第2のパターン照合部26における類似度と、事前確率に基づき算出されるスコアの3つの和をスコアとし、候補点のうち、スコアが最大になるものを、求めたい対象特徴点とする。
(3)第1の辞書18、第2の辞書24
第1の辞書18、第2の辞書24の学習時の動作について、図6を用いて説明する。
(3−1)第1の辞書18
予め学習用対象特徴点の位置がわかっている学習用顔画像からの学習データに対して、検出時の動作と同様に学習用画像特徴点を検出する。そのときの学習用対象特徴点との正規化座標ベクトルdも記録しておく。
次に、ベクトルdを幾つかのクラスに分割するクラスタリングを行なう。例えば、正規化された座標を格子状に分割することにより、位置(座標)を基準にしてクラスタリングする。
また、各学習用画像特徴点の位置で、正規化パターンの切り出しを行なっておく。正規化方法は検出時に図4を用いて説明した方法と同じである。すなわち、学習用画像特徴点の周辺パターンを切り出し、その周辺パターンを上記スケールで正規化する。
ベクトルdの各クラス(位置)に対して、対応する正規化パターンからそれぞれ第1の辞書18を作成する。
この第1の辞書18は、部分空間法に用いる辞書であり、正規化パターンを特徴ベクトルとして主成分分析を行なうことにより生成する。各クラス(各位置)について属するベクトルdの分布から、そのクラス(位置)の平均座標とその分散等の統計情報を相対位置として記録しておく。
そして、それぞれのクラス(位置)に対して、さらに正規化パターンを基準にしてクラスタリングを行なう。この同じクラス(位置)に属する正規化パターンのうち、そのクラス(位置)に属する正規化パターンの割合を事前確率として保持しておく。
このように、位置とパターンの二段階のクラスタリングを行なうことで、より辞書をコンパクトにすることができる。
(3−2)第2の辞書24
学習用顔画像における学習用対象特徴点の位置でも、学習用対象特徴点の位置を中心にして周辺パターンを切り出し、その後に正規化して正規化パターンを作成しておく。第1の辞書18の各クラスに対応して第2の辞書24を作成する。第2の辞書24は、学習用対象特徴点の正規化パターンの部分空間を記憶しているが、第1の辞書18と関連付けされている。すなわち、第1の辞書18の各クラスの正規化パターンのそれぞれと、同一の画像(例えば、同一人物の同一の学習用顔画像)から切り出した学習用対象特徴点の正規化パターンとがリンクされている。そして、第2の辞書24を使用する場合には、第1の辞書18とリンクされている学習用対象特徴点の正規化パターンを用いる。
このとき、必要に応じて学習用対象特徴点パターンのクラスタリングも行なう。パターンのクラスタリングにはk−means法を用いる。
(4)効果
このように、第1の実施形態に係わる顔特徴点検出装置10によれば、鼻頂点のように顔特徴点に画像的な特徴が少なく、近傍に必ず画像特徴点候補が検出されない場合にも検出が可能となる。
(第2の実施形態)
本発明の第2の実施形態に係わる顔特徴点検出装置100について図7に基づいて説明する。
(1)顔特徴点検出装置100の構成
図7は、本実施形態に係わる顔特徴点検出装置100を示すブロック図である。
本実施形態に係わる顔特徴点検出装置100は、処理対象の画像を入力する画像入力部112と、探索領域とスケールを決定する探索領域スケール決定部114と、各点の局所的な画像情報から選択される画像特徴点を検出する画像特徴点検出部116Aと、画像特徴点検出部116Aとは異なる画像特徴を検出する画像特徴点検出部116Bと、画像特徴点と対象特徴点の相対位置座標と画像特徴点周辺パターンとを関連付けて記憶した第1の辞書118A、第1の辞書118Bと、第1の辞書118A,Bと画像特徴点周辺パターンとの照合を行なう第1のパターン照合部120A,Bと、対象とする特徴点の位置候補を推定する対象特徴点位置推定部122と、第2の辞書124と、第2の辞書124と対象特徴点周辺パターンとの照合を行なう第2のパターン照合部126と、対象特徴点の位置を求める判定部128を備えている。
(2)顔特徴点検出装置100の動作
次に図7を用いて、本実施形態に係わる顔特徴点検出装置100の動作について説明する。本実施形態においては、第1の実施形態と同様、瞳の2点を基準特徴点として、まずこれらの基準特徴点を検出し、検出された瞳の位置を利用して探索領域とスケールを決定し、対象特徴点が鼻頂点である例について述べる。
画像入力部112、探索領域スケール決定部114、第2の辞書124、第2のパターン照合部126、判定部128については第1の実施形態と同様である。
画像特徴点検出部116A、Bについては、それぞれ別の方法により画像特徴点を検出する。
本実施形態では、第1の実施形態で用いた円形分離フィルタによるものと、文献“C. J. Harris and M. Stephens. A combined corner and edge detector. Proc. 4th Alvey Vision Conferences, pages 147-- 151, 1988.”に示されているコーナー検出を用いる。
それぞれの画像特徴点検出部116A、Bで得られた画像特徴点候補に対して、それぞれ対応する学習データによって作成された第1の辞書118A、Bを用いて、第1のパターン照合部120A、Bで照合を行なう。
ここでの処理は第1の辞書118が異なるだけで、第1の実施形態と同様である。
(変形例)
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。
すなわち、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
(1)変更例1
本実施形態では瞳の位置を基準特徴点として利用して探索領域とスケールを定めたが、これに限定されるものではない。
例えば、顔領域を矩形として検出し、その位置やサイズを利用する方法もある。
また、探索領域とスケールの決定方法も本実施形態で述べたものに限らない。
(2)変更例2
本実施形態では対象特徴点として鼻頂点を検出する場合について述べたが、これに限定されるものではない。
例えば、定義できる特徴点であればどんな点であっても差し支えない。
(3)変更例3
本実施形態ではパターン照合に用いる特徴量として濃淡パターンを用いたが、これに限定されるものではない。
例えば、ヒストグラム平坦化を行なったもの、エッジ検出フィルタにより変換したもの、フーリエ変換などの周波数領域の処理を施したものなど、画像から生成される特徴量であればどんなものであっても差し支えない。
(4)変更例4
本実施形態ではパターンの正規化方法として、画像(対象)特徴点位置を中心として上下左右に同じ距離分を用いたが、これに限定されるものではない。
例えば、中心位置は特徴点位置と必ずしも等しい必要はなく上下左右で範囲が異なっても差し支えない。
(5)変更例5
本実施形態では対象特徴点候補位置推定部122における位置推定に、第1の辞書118との類似度が所定の閾値を超えるクラスに対応する相対位置を用いたが、これに限定されるものではない。
例えば、類似度が大きい順から所定の数を選択する、それらの平均値を用いるといった方法であっても差し支えない。
(6)変更例6
本実施形態では判定部128においてスコアが最大になるものを選択したが、これに限定されるものではない。
例えば、複数の候補からのスコアを総合的に判定する方法も考えられる。例えばスコアの値が所定の閾値を超えるものについえてその位置の平均、もしくは重み付平均を求めるといった方法も考えられる。
(7)変更例7
本実施形態ではクラスタリング法として、座標を格子状に分割する方法、k−means法を用いたが、これに限定されるものではない。
例えば、座標値やパターンなどの多次元データを離散化できる方法であれば差し支えない。
(8)変更例8
本実施形態では辞書の作成の際に、画像特徴点位置座標のクラスタリングと、正規化画像パターンのクラスタリングを行なったが、これに限定されるものではない。
例えば、顔の向きによるクラスタリングを加えてもよい。
本実施形態に係わる顔特徴点検出装置100の構成を示すブロック図である。 本実施形態の動作を示すフローチャートである。 本実施形態における対象特徴点(鼻頂点)の説明図である。 本実施形態における画像特徴点周辺パターンの正規化の説明図である。 本実施形態における対象特徴点候補推定方法の説明図である。 本実施形態における学習時の動作を示すフローチャートである。 本発明の第2の実施形態に係わる顔特徴点検出装置100の構成を示すブロック図である。
符号の説明
10 顔特徴点検出装置
12 画像入力部
14 探索領域スケール決定部14
16 画像特徴点検出部
18 第1の辞書
20 第1のパターン照合部
22 対象特徴点位置推定部
24 第2の辞書
26 第2のパターン照合部
28 判定部

Claims (8)

  1. 顔が写った画像を入力する画像入力部と、
    前記画像から対象特徴点を検出するための探索領域を決定する探索領域決定部と、
    前記画像の前記探索領域内から画像特徴点を検出する画像特徴点検出部と、
    複数の学習用顔画像からそれぞれ求めた学習用画像特徴点の周辺パターンに関する情報、及び、前記各学習用画像特徴点と学習用対象特徴点の相対位置座標とを関連付けた第1の辞書を記憶する第1の辞書記憶部と、
    前記画像特徴点の周辺パターンと類似している前記学習用画像特徴点の周辺パターンを前記第1の辞書内の前記複数の学習用画像特徴点の周辺パターンから選択する第1のパターン照合部と、
    前記選択された学習用画像特徴点に対応する前記学習用対象特徴点の相対位置座標を抽出する対象特徴点位置推定部と、
    前記抽出した相対位置座標に基づいて、前記顔画像から前記対象特徴点の周辺パターンを切り出す対象特徴点周辺パターン検出部と、
    前記複数の学習用顔画像からそれぞれ求めた学習用対象特徴点の周辺パターンに関する情報を含む第2の辞書を記憶する第2の辞書記憶部と、
    前記対象特徴点の周辺パターンと類似する前記学習用対象特徴点の周辺パターンを前記第2の辞書内の前記複数の学習用対象特徴点の周辺パターンから選択する第2のパターン照合部と、
    前記画像特徴点の周辺パターンと前記選択された学習用画像特徴点の周辺パターンの類似度と、前記対象特徴点の周辺パターンと前記選択された学習用対象特徴点の周辺パターンの類似度から前記対象特徴点の位置を求める判定部と、
    を備える顔特徴点検出装置。
  2. 前記第1の辞書は複数のクラスからなり、
    前記クラスのそれぞれは、前記相対座標による第1のクラスタリングによって分類されたクラスと、前記学習用画像特徴点の周辺パターンの類似性による第2のクラスタリングによって分類されたクラスとからなり、
    前記各クラスの学習用画像特徴点の周辺パターンから抽出された特徴量に基づいて生成された部分空間が、前記クラス毎に格納されている、
    請求項1記載の顔特徴点検出装置。
  3. 前記判定部は、
    前記画像特徴点の周辺パターンと前記選択された学習用画像特徴点の周辺パターンの類似度から算出された第1のスコアと、前記対象特徴点の周辺パターンと前記選択された学習用対象特徴点の周辺パターンの類似度か算出された第2のスコアと、前記事前確率に基づく第3のスコアの和から総合スコアを求め、
    前記総合スコアの中で最も総合スコアの値が高い前記学習用画像特徴点に対応する前記学習用対象特徴点の相対位置座標を、前記対象特徴点の位置とする、
    請求項2記載の顔特徴点検出装置。
  4. 前記第1の辞書は、
    前記複数の学習用画像特徴点の周辺パターンから生成される代表パターン、または、部分空間と、前記相対座標の分布を表わす統計量とを関連付けて格納したものである、
    請求項1記載の顔特徴点検出装置。
  5. 前記第2の辞書内に格納された前記学習用対象特徴点に関する情報は、この学習用対象特徴点に関する情報を抽出した前記学習用顔画像から抽出され、かつ、前記第1の辞書に格納された前記学習用画像特徴点の周辺パターンと関連付けられ、
    前記第2のパターン照合部は、前記対象特徴点の周辺パターンと、この対象特徴点の周辺パターンと関連づけられた前記学習用対象特徴点の周辺パターンとの類似度を求める、
    請求項1記載の顔特徴点検出装置。
  6. 前記第1の辞書を2種類有し、
    前記各第1の辞書は、異なる画像特徴点検出方法を用いて、前記複数の学習用画像特徴点がそれぞれ生成されている、
    請求項1記載の顔特徴点検出装置。
  7. 顔が写った画像が入力する画像入力ステップと、
    前記画像から対象特徴点を検出するための探索領域を決定する探索領域決定ステップと、
    前記画像の前記探索領域内から画像特徴点を検出する画像特徴点検出ステップと、
    複数の学習用顔画像からそれぞれ求めた学習用画像特徴点の周辺パターンに関する情報、及び、前記各学習用画像特徴点と学習用対象特徴点の相対位置座標とを関連付けて第1の辞書に予め格納する第1の格納ステップと、
    前記画像特徴点の周辺パターンと類似している前記学習用画像特徴点の周辺パターンを前記第1の辞書内の前記複数の学習用画像特徴点の周辺パターンから選択する第1のパターン照合ステップと、
    前記選択された学習用画像特徴点に対応する前記学習用対象特徴点の相対位置座標を抽出する対象特徴点位置推定ステップと、
    前記抽出した相対位置座標に基づいて、前記顔画像から前記対象特徴点の周辺パターンを切り出す対象特徴点周辺パターン検出ステップと、
    前記複数の学習用顔画像からそれぞれ求めた学習用対象特徴点の周辺パターンに関する情報を第2の辞書に予め格納する第2の格納ステップと、
    前記対象特徴点の周辺パターンと類似する前記学習用対象特徴点の周辺パターンを前記第2の辞書内の前記複数の学習用対象特徴点の周辺パターンから選択する第2のパターン照合ステップと、
    前記画像特徴点の周辺パターンと前記選択された学習用画像特徴点の周辺パターンの類似度と、前記対象特徴点の周辺パターンと前記選択された学習用対象特徴点の周辺パターンの類似度から前記対象特徴点の位置を求める判定ステップと、
    を備える顔特徴点検出方法。
  8. 顔が写った画像が入力する画像入力機能と、
    前記画像から対象特徴点を検出するための探索領域を決定する探索領域決定機能と、
    前記画像の前記探索領域内から画像特徴点を検出する画像特徴点検出機能と、
    複数の学習用顔画像からそれぞれ求めた学習用画像特徴点の周辺パターンに関する情報、及び、前記各学習用画像特徴点と学習用対象特徴点の相対位置座標とを関連付けて第1の辞書に予め格納する第1の格納機能と、
    前記画像特徴点の周辺パターンと類似している前記学習用画像特徴点の周辺パターンを前記第1の辞書内の前記複数の学習用画像特徴点の周辺パターンから選択する第1のパターン照合機能と、
    前記選択された学習用画像特徴点に対応する前記学習用対象特徴点の相対位置座標を抽出する対象特徴点位置推定機能と、
    前記抽出した相対位置座標に基づいて、前記顔画像から前記対象特徴点の周辺パターンを切り出す対象特徴点周辺パターン検出機能と、
    前記複数の学習用顔画像からそれぞれ求めた学習用対象特徴点の周辺パターンに関する情報を第2の辞書に予め格納する第2の格納機能と、
    前記対象特徴点の周辺パターンと類似する前記学習用対象特徴点の周辺パターンを前記第2の辞書内の前記複数の学習用対象特徴点の周辺パターンから選択する第2のパターン照合機能と、
    前記画像特徴点の周辺パターンと前記選択された学習用画像特徴点の周辺パターンの類似度と、前記対象特徴点の周辺パターンと前記選択された学習用対象特徴点の周辺パターンの類似度から前記対象特徴点の位置を求める判定機能と、
    をコンピュータによって実現する顔特徴点検出プログラム。
JP2006332422A 2006-12-08 2006-12-08 顔特徴点検出装置及びその方法 Active JP4745207B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006332422A JP4745207B2 (ja) 2006-12-08 2006-12-08 顔特徴点検出装置及びその方法
US11/950,261 US8090151B2 (en) 2006-12-08 2007-12-04 Face feature point detection apparatus and method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006332422A JP4745207B2 (ja) 2006-12-08 2006-12-08 顔特徴点検出装置及びその方法

Publications (2)

Publication Number Publication Date
JP2008146329A true JP2008146329A (ja) 2008-06-26
JP4745207B2 JP4745207B2 (ja) 2011-08-10

Family

ID=39606445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006332422A Active JP4745207B2 (ja) 2006-12-08 2006-12-08 顔特徴点検出装置及びその方法

Country Status (2)

Country Link
US (1) US8090151B2 (ja)
JP (1) JP4745207B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9639779B2 (en) 2014-09-22 2017-05-02 Kabushiki Kaisha Toshiba Feature point detection device, feature point detection method, and computer program product

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5358083B2 (ja) * 2007-11-01 2013-12-04 株式会社日立製作所 人物画像検索装置及び画像検索装置
JP5361524B2 (ja) * 2009-05-11 2013-12-04 キヤノン株式会社 パターン認識システム及びパターン認識方法
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US20120155717A1 (en) * 2010-12-16 2012-06-21 Microsoft Corporation Image search including facial image
JP5956860B2 (ja) * 2012-07-09 2016-07-27 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
US20150356346A1 (en) * 2013-01-15 2015-12-10 Nec Corporation Feature point position detecting appararus, feature point position detecting method and feature point position detecting program
CN104966046B (zh) * 2015-05-20 2017-07-21 腾讯科技(深圳)有限公司 一种人脸关键点位定位结果的评估方法,及评估装置
CN110472459B (zh) * 2018-05-11 2022-12-27 华为技术有限公司 提取特征点的方法和装置
CN110248148B (zh) * 2018-09-25 2022-04-15 浙江大华技术股份有限公司 一种确定定位参数的方法及装置
CN112488113A (zh) * 2020-11-06 2021-03-12 杭州电子科技大学 一种基于局部直线匹配的遥感图像旋转舰船目标检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225344A (ja) * 1992-02-07 1993-09-03 Nippon Telegr & Teleph Corp <Ntt> 物体の画像認識処理方法
JP2003281539A (ja) * 2002-03-25 2003-10-03 Oki Electric Ind Co Ltd 顔部品探索装置および顔部品探索方法
JP2004054442A (ja) * 2002-07-17 2004-02-19 Glory Ltd 顔検出装置、顔検出方法および顔検出プログラム
JP2006228061A (ja) * 2005-02-18 2006-08-31 Fujitsu Ltd 顔追跡プログラムおよび顔追跡方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181805B1 (en) * 1993-08-11 2001-01-30 Nippon Telegraph & Telephone Corporation Object image detecting method and system
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
JP3279913B2 (ja) 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
US6373968B2 (en) * 1997-06-06 2002-04-16 Oki Electric Industry Co., Ltd. System for identifying individuals
JP2000311248A (ja) 1999-04-28 2000-11-07 Sharp Corp 画像処理装置
JP3790680B2 (ja) * 2001-05-25 2006-06-28 株式会社東芝 画像処理システム及びこれを用いた運転支援システム
TWI299471B (en) * 2001-08-24 2008-08-01 Toshiba Kk Person recognition apparatus
JP2007094906A (ja) * 2005-09-29 2007-04-12 Toshiba Corp 特徴点検出装置および方法
JP4991317B2 (ja) * 2006-02-06 2012-08-01 株式会社東芝 顔特徴点検出装置及びその方法
US20070183665A1 (en) * 2006-02-06 2007-08-09 Mayumi Yuasa Face feature point detecting device and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225344A (ja) * 1992-02-07 1993-09-03 Nippon Telegr & Teleph Corp <Ntt> 物体の画像認識処理方法
JP2003281539A (ja) * 2002-03-25 2003-10-03 Oki Electric Ind Co Ltd 顔部品探索装置および顔部品探索方法
JP2004054442A (ja) * 2002-07-17 2004-02-19 Glory Ltd 顔検出装置、顔検出方法および顔検出プログラム
JP2006228061A (ja) * 2005-02-18 2006-08-31 Fujitsu Ltd 顔追跡プログラムおよび顔追跡方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9639779B2 (en) 2014-09-22 2017-05-02 Kabushiki Kaisha Toshiba Feature point detection device, feature point detection method, and computer program product

Also Published As

Publication number Publication date
US8090151B2 (en) 2012-01-03
US20080304699A1 (en) 2008-12-11
JP4745207B2 (ja) 2011-08-10

Similar Documents

Publication Publication Date Title
JP4745207B2 (ja) 顔特徴点検出装置及びその方法
US7376270B2 (en) Detecting human faces and detecting red eyes
US8254645B2 (en) Image processing apparatus and method, and program
JP4410732B2 (ja) 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
JP2003030667A (ja) イメージ内で目を自動的に位置決めする方法
US8306282B2 (en) Hierarchical face recognition training method and hierarchical face recognition method thereof
US20070065015A1 (en) Image processing apparatus and method
JP5166102B2 (ja) 画像処理装置及びその方法
JP4858612B2 (ja) 物体認識システム、物体認識方法および物体認識用プログラム
JP2011134114A (ja) パターン認識方法およびパターン認識装置
US9262672B2 (en) Pattern recognition apparatus and pattern recognition method that reduce effects on recognition accuracy, and storage medium
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
US20140093142A1 (en) Information processing apparatus, information processing method, and information processing program
JP2015032001A (ja) 情報処理装置および情報処理手法、プログラム
WO2021060147A1 (ja) 類似領域検出装置、類似領域検出方法およびプログラム
JP2007048172A (ja) 情報分類装置
JP2014021602A (ja) 画像処理装置及び画像処理方法
JP2009129237A (ja) 画像処理装置及びその方法
JP4749884B2 (ja) 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
JP2007026308A (ja) 画像処理方法、画像処理装置
KR100545559B1 (ko) 하 라이크 피춰/선형 판별 분석을 이용한 얼굴 인식 장치및 방법
CN106557523B (zh) 代表性图像选择方法和设备以及对象图像检索方法和设备
JP2002032766A (ja) 画像認識装置及びその方法
JP2006244385A (ja) 顔判別装置およびプログラム並びに顔判別装置の学習方法
JP2015187769A (ja) 物体検出装置、物体検出方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110511

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4745207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3