JP2008003749A - Feature point detection device, method, and program - Google Patents

Feature point detection device, method, and program Download PDF

Info

Publication number
JP2008003749A
JP2008003749A JP2006170983A JP2006170983A JP2008003749A JP 2008003749 A JP2008003749 A JP 2008003749A JP 2006170983 A JP2006170983 A JP 2006170983A JP 2006170983 A JP2006170983 A JP 2006170983A JP 2008003749 A JP2008003749 A JP 2008003749A
Authority
JP
Japan
Prior art keywords
feature point
feature
candidate
detection
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006170983A
Other languages
Japanese (ja)
Other versions
JP4795864B2 (en
Inventor
Yoshitaka Yamaguchi
義隆 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006170983A priority Critical patent/JP4795864B2/en
Publication of JP2008003749A publication Critical patent/JP2008003749A/en
Application granted granted Critical
Publication of JP4795864B2 publication Critical patent/JP4795864B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To quickly precisely and stably detect a plurality of kinds of feature points of a prescribed object in a picture. <P>SOLUTION: With respect to the plurality of kinds of feature points of the prescribed object in a detection object picture, the plurality of kinds of feature points restricted by position relations between the plurality of kinds of feature points are temporarily determined by using a first feature point detector group which is generated by machine learning and has a large tolerance, and a first position relation model which is generated by statistical learning and prescribes the position relations and has a large tolerance. Then, the plurality of kinds of final feature points restricted by the position relations are determined by using a second feature point detector group which is generated by machine learning in vicinity of respective temporal feature points and has a small tolerance, and a second position relation model which is generated by statistical learning and has a small tolerance. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像に含まれる所定対象物の特徴点を検出する特徴点検出装置および方法並びにそのためのプログラムに関するものである。   The present invention relates to a feature point detection apparatus and method for detecting feature points of a predetermined object included in an image, and a program therefor.

画像に含まれる所定対象物(オブジェクト)の位置、姿勢、形態等を検出する方法が種々の分野において研究されているが、その1つの方法として、所定対象物の特徴的な部位を表す複数の特徴点を定義しておき、検出対象画像からこれら複数の特徴点を検出し、検出された特徴点の位置関係に基づいて所定対象物の位置、姿勢、形態等を検出する方法が種々提案されている。   A method for detecting the position, posture, form, and the like of a predetermined object (object) included in an image has been studied in various fields. As one of the methods, a plurality of characteristic parts of the predetermined object are represented. Various methods have been proposed in which feature points are defined, a plurality of feature points are detected from the detection target image, and the position, posture, form, etc. of the predetermined object are detected based on the positional relationship of the detected feature points. ing.

例えば、特許文献1では、対象物を構成する基準特徴点(例えば、対象物が人物の顔である場合には、目、鼻、顔輪郭など)を複数定義し、それらの特徴点に特定のフィルタを適用したときのレスポンスを学習するとともに、特徴点同士の間の標準的な位置関係、すなわち特徴点毎の当該特徴点に対する対象物の中心点の画像上の存在確率分布を学習してこれらを記憶し、入力画像に対して学習時に用いたものと同じフィルタを適用してそのレスポンスから特徴点の候補を複数検出し、検出された候補と上記学習した特徴点同士の間の標準的な位置関係とを比較して、顔の中心点の画像上の存在確率分布を足し合わせ、その結果、最も存在確率が高い位置の点を目的の対象物の中心点とする対象物位置検出方法が提案されている。なお、ここでの確率分布はガウス関数で近似している。   For example, in Patent Document 1, a plurality of reference feature points (for example, eyes, nose, face contour, etc. when the target object is a person's face) constituting the target object are defined and specific feature points are specified. Learn the response when applying the filter and learn the standard positional relationship between feature points, that is, the existence probability distribution on the image of the center point of the object for each feature point. And applying the same filter as used during learning to the input image to detect a plurality of feature point candidates from the response, and a standard between the detected candidate and the learned feature points Compared with the positional relationship, the presence probability distribution on the image of the center point of the face is added, and as a result, there is an object position detection method in which the point at the position with the highest existence probability is the center point of the target object. Proposed. The probability distribution here is approximated by a Gaussian function.

また、非特許文献1では、特許文献1の方法に類似する物体位置検出方法が提案されている。この方法は、物体の中心点等、ある1点だけを検出するのではなく、複数の特徴点をセットで検出するものであり、また、「特徴点同士の間の標準的な位置関係」をより実際のデータに則して決定するため、存在確率分布を多数の学習サンプルから統計的に生成するようにしている。以下、この方法をより具体的に説明する。   Further, Non-Patent Document 1 proposes an object position detection method similar to the method of Patent Document 1. This method does not detect only one point, such as the center point of an object, but detects a plurality of feature points as a set. In addition, the “standard positional relationship between feature points” is determined. In order to make a decision according to actual data, the existence probability distribution is statistically generated from a large number of learning samples. Hereinafter, this method will be described more specifically.

(学習ステップ)
この方法では、ある特徴点検出器(AdaBoost学習アルゴリズムによって生成された識別器等を備えるもの)によって検出された特徴点の位置に対する他の特徴点の正解となる点の存在確率分布を、1つの特徴点と1つのその他の特徴点とからなる2つ1組の単位で各組毎に用意し、特徴点同士の間の位置関係をこれら複数組の存在確率分布を用いて表現する。ここで、特徴点Xの検出器の出力座標xに対する特徴点X(座標x)の正解となる点の存在確率分布をPij(x|x)と定義する。なお、Pijは、実装上、2次元のヒストグラムで表す。
(Learning step)
In this method, an existence probability distribution of points that are correct answers of other feature points with respect to the position of a feature point detected by a feature point detector (including a classifier generated by an AdaBoost learning algorithm) is Two sets of feature points and one other feature point are prepared for each set, and the positional relationship between the feature points is expressed using the plurality of sets of existence probability distributions. Here, the existence probability distribution of a point that is a correct answer of the feature point X i (coordinate x i ) with respect to the output coordinate x j of the detector of the feature point X j is defined as P ij (x i | x j ). Note that P ij is represented by a two-dimensional histogram in terms of implementation.

この存在確率分布Pijを求めるには、まずトレーニング画像セット(対象物の特徴点の正解座標が入力された数千枚の画像)に対して対象物の検出を行い、対象物が基準位置に位置するように画像を規格化する。図7は、対象物が人物の顔であるときに、画像から顔を検出し、その顔が画像の中心に所定の大きさで位置するように画像を規格化した場合の例を示すものである。 In order to obtain the existence probability distribution P ij , first, a target object is detected for a training image set (thousands of images in which correct coordinates of feature points of the target object are input), and the target object is set at a reference position. Normalize the image to be located. FIG. 7 shows an example in which when a target is a human face, the face is detected from the image and the image is normalized so that the face is positioned at a predetermined size in the center of the image. is there.

次に、規格化された画像から特徴点検出器Dにより特徴点Xを検出し、その特徴点の座標xとその他の特徴点Xの正解座標xとのずれを、1つの特徴点Xと1つのその他の特徴点Xとからなる2つ1組の単位で比較、集計する。このような学習によって得られた存在確率分布Pijの例を図8に示す。図8は、対象物が人物の顔である場合の例であり、特徴点検出器によって検出された特徴点の位置を×で表し、対象の特徴点の存在確率分布を画像上の濃淡で表している。なお、ここでは、対象の特徴点の存在確率が高いほどその位置での濃度が濃くなるように表現してある。図8(a)は、左目頭検出器により検出された左目頭の点の位置に対する左目尻の点の存在確率分布を表す図であり、図8(b)は、当該左目頭の点の位置に対する左小鼻の点の存在確率分布を表す図であり、図8(c)は、当該左目頭の点の位置に対する右口角の点の存在確率分布を表す図である。 Next, the feature point detector D i detects the feature point X i from the standardized image, and the difference between the coordinate x i of the feature point and the correct coordinate x j of the other feature point X j is determined as one The feature points X i and one other feature point X j are compared and tabulated in units of two sets. An example of the existence probability distribution P ij obtained by such learning is shown in FIG. FIG. 8 shows an example in which the object is a human face, the position of the feature point detected by the feature point detector is represented by x, and the existence probability distribution of the target feature point is represented by shading on the image. ing. Here, the higher the probability of existence of the target feature point, the higher the density at that position. FIG. 8A is a diagram showing the existence probability distribution of the left eye corner point with respect to the position of the left eye head point detected by the left eye head detector, and FIG. 8B is the position of the left eye head point. FIG. 8C is a diagram showing the existence probability distribution of the right mouth corner point with respect to the position of the left eye point.

(検出ステップ)
検出対象画像から対象物を検出し、その対象物を含む規格化された画像を取得し、その規格化された画像に対して特徴点の候補を検出する処理を行い、各特徴点について他の特徴点の候補から推測される当該特徴点の画像上の存在確率分布の和を計算し、最も存在確率が高い位置の点をその特徴点の真の点と推定して選択する。特徴点の真の点として推定される点は、次式(1)で表される。
(Detection step)
A target is detected from the detection target image, a standardized image including the target is obtained, a feature point candidate is detected for the standardized image, and another feature point is detected for each feature point. The sum of the existence probability distribution on the image of the feature point estimated from the feature point candidates is calculated, and the point at the position having the highest existence probability is estimated and selected as the true point of the feature point. The point estimated as the true point of the feature point is expressed by the following equation (1).

ここで、x^(左辺)は、特徴点の真の点として推定される点の位置座標、Pij(x|qjt)は特徴点Xのt番目の候補の位置座標qjtを基準としたときの特徴点X(位置座標x)の存在確率分布、kは特徴点Xの候補の数、nは定義した特徴点の数である。 Here, x ^ i (left side) is the position coordinate of the point estimated as the true point of the feature point, and P ij (x i | q jt ) is the position coordinate q jt of the t th candidate of the feature point X j. Is the existence probability distribution of the feature point X i (positional coordinate x i ), where k is the number of candidate feature points X j , and n is the number of defined feature points.

この方法では、ある特徴点の位置を検出する際に、その特徴点を検出する単独の特徴点検出器の出力に頼るのではなく、複数の特徴点検出器が互いに他の特徴点の位置を推測し合うことにより、検出器単体の性能を上回る、より優れた検出能が得られるという利点がある。   In this method, when detecting the position of a certain feature point, rather than relying on the output of a single feature point detector that detects the feature point, a plurality of feature point detectors determine the position of another feature point from each other. By inferring each other, there is an advantage that a superior detection ability that exceeds the performance of the detector alone can be obtained.

一方、特許文献2では、顔を構成する目の位置を検出する方法であって、比較的検出精度が低くロバスト性が高い、いわゆる粗い検出器を用いて目の概略位置を検出した後に、その概略位置近傍において、比較的検出精度が高くロバスト性が低い、いわゆる細かい検出器を用いて目の正確な位置を検出するという、2段階構成の目の検出方法が提案されている。
特開平6−348851号公報 特開2005−108197号公報 David Cristinacce “A Multi-Stage Approach to Facial Feature Detection”, In Proc. of BMVC, Pages 231-240, 2004
On the other hand, Patent Document 2 is a method for detecting the position of the eyes constituting the face, and after detecting the approximate position of the eyes using a so-called coarse detector with relatively low detection accuracy and high robustness, In the vicinity of the approximate position, a two-stage eye detection method has been proposed in which an accurate eye position is detected using a so-called fine detector with relatively high detection accuracy and low robustness.
JP-A-6-348851 JP 2005-108197 A David Cristinacce “A Multi-Stage Approach to Facial Feature Detection”, In Proc. Of BMVC, Pages 231-240, 2004

ところで、非特許文献1の物体位置検出方法では、通常、対象物の所定の特徴的な複数の点の位置で検出対象画像を幾何学的に正規化し、その正規化された画像に対して対象物の複数種類の特徴点を検出する。例えば、対象物が人物の顔である場合には、顔の両目の位置で検出対象画像を幾何学的に正規化し、顔の目頭、目尻、小鼻、口角等の特徴点を検出する。   By the way, in the object position detection method of Non-Patent Document 1, the detection target image is usually normalized geometrically at the positions of a plurality of predetermined characteristic points of the target object, and the target is compared with the normalized image. Detect multiple types of feature points of objects. For example, when the object is a human face, the detection target image is geometrically normalized at the positions of both eyes of the face, and feature points such as the face of the face, the corners of the eyes, the nose, and the mouth corners are detected.

しかしながら、この方法では、幾何学的な正規化を行う際に基準とした特徴的な位置、上記の顔を例にとれば、顔の両目の位置から離れた場所にある特徴点ほどその位置のばらつきが広範囲に及び、その特徴点の検索範囲も広くなる。ここで、検索処理の高速化を重視しつつ、この広い検索範囲をカバーするためには、比較的ロバスト性が高い特徴点検出器を用いる必要が有り、このような特徴点検出器を用いると一般的に、検出された特徴点の位置精度が悪くなる。   However, in this method, the characteristic position that is used as a reference when performing geometric normalization, and taking the above face as an example, the characteristic point that is located far from the position of both eyes of the face is the position of that position. The variation is wide and the search range of the feature points is widened. Here, it is necessary to use a feature point detector with relatively high robustness in order to cover this wide search range while emphasizing speeding up of the search process. If such a feature point detector is used, Generally, the position accuracy of the detected feature point is deteriorated.

また、特許文献2の目の検出方法は、2段階構成を採っているため検出精度のよい方法ではあるが、この方法をそのまま複数種類の特徴点検出に適用すると、各特徴点同士の位置関係は考慮していないため、正解である特徴点の位置からずれた場所に、偶然、特徴点を表す画像に類似した特徴を有する画像が存在する場合には、不正解の特徴点候補が検出されることとなり、安定した特徴点検出が望めない。   Further, the eye detection method of Patent Document 2 is a method with high detection accuracy because it adopts a two-stage configuration, but if this method is applied as it is to a plurality of types of feature point detection, the positional relationship between the feature points. Therefore, if an image having a feature similar to the image representing the feature point is accidentally present at a location shifted from the position of the feature point that is the correct answer, a feature point candidate for the incorrect answer is detected. Therefore, stable feature point detection cannot be expected.

本発明は、上記事情に鑑みなされたものであり、画像に含まれる所定対象物の複数種類の特徴点を、高速に精度よくかつ安定して検出することができる特徴点検出装置および方法並びにそのためのプログラムを提供することを目的とするものである。   The present invention has been made in view of the above circumstances, and a feature point detection apparatus and method capable of detecting a plurality of types of feature points of a predetermined object included in an image at high speed with high accuracy and stability, and therefore The purpose is to provide a program.

本発明の特徴点検出装置は、検出対象画像における所定対象物の複数種類の特徴点の候補を、マシンラーニングにより生成された第1の検出精度および第1のロバスト性を有する第1の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第1の特徴点候補検出手段と、該第1の特徴点候補検出手段により検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を第1の許容度で規定する第1の位置関係モデルとに基づいて、該第1の位置関係モデルで拘束された位置関係を有する前記複数種類の暫定特徴点を決定する第1の特徴点決定手段と、該第1の特徴点決定手段により決定された前記複数種類の暫定特徴点の各々の近傍で、特徴点の候補を、マシンラーニングにより生成された前記第1の検出精度より高い第2の検出精度および前記第1のロバスト性より低い第2のロバスト性を有する第2の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第2の特徴点候補検出手段と、該第2の特徴点候補検出手段により検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を前記第1の許容度より小さい第2の許容度で規定する第2の位置関係モデルとに基づいて、前記第2の位置関係モデルで拘束された位置関係を有する前記複数種類の最終特徴点を決定する第2の特徴点決定手段とを備えたことを特徴とするものである。   The feature point detection apparatus of the present invention provides a first feature inspection having a first detection accuracy and a first robustness generated by machine learning for a plurality of types of feature point candidates of a predetermined object in a detection target image. First feature point candidate detection means for detecting at least one for each type using an output device group, positions of feature point candidates detected by the first feature point candidate detection means, and the plurality of types The plurality of types of provisional feature points having a positional relationship constrained by the first positional relationship model based on a first positional relationship model that defines the positional relationship between the feature points of the first positional relationship with a first tolerance. First feature point determination means to be determined, and feature point candidates generated by machine learning in the vicinity of each of the plurality of types of provisional feature points determined by the first feature point determination means. Higher than 1 detection accuracy Second feature point candidate detecting means for detecting at least one for each type using a second feature point detector group having second detection accuracy and second robustness lower than the first robustness. And the position of the feature point candidates detected by the second feature point candidate detecting means and the positional relationship between the plurality of types of feature points are defined with a second tolerance smaller than the first tolerance. And a second feature point determining means for determining the plurality of types of final feature points having a positional relationship constrained by the second positional relationship model based on the second positional relationship model. It is what.

本発明の特徴点検出装置において、前記検出対象画像に対して、前記第1の特徴点決定手段により決定された前記複数種類の暫定特徴点をそれぞれ所定の基準位置に近づける、アスペクト比を維持した幾何学的正規化処理を施す正規化手段をさらに備え、前記第2の特徴点候補検出手段を、前記正規化手段により正規化された検出対象画像上で前記候補を検出するものとしてもよい
また、本発明の特徴点検出装置において、前記第1の特徴点決定手段は、前記複数種類の特徴点の中の2つの異なる特徴点からなる組合せ毎に統計的に求められた、一方の特徴点の位置を基準としたときの他方の特徴点の画像上の存在確率分布を用いて、1つの種類の特徴点について、他の種類の特徴点の前記検出された候補の位置を基準としたときの該1つの種類の特徴点の存在確率分布を、該他の特徴点の候補毎にそれぞれ求め、該求められた存在確率分布を合成する処理を、特徴点の前記種類毎に行う第1の存在確率分布合成手段と、1つの種類の特徴点について、該1つの種類の特徴点の前記検出された候補の位置と、該1つの種類の特徴点の前記合成された存在確率分布における存在確率の大小とに基づいて、該1つの種類の特徴点の候補を前記検出された候補の中から選択して絞り込む処理を、特徴点の前記種類毎に行う第1の特徴点候補選択手段と、特徴点の前記種類毎に、該種類の特徴点の前記選択された候補の位置に基づいて、該種類の暫定特徴点の位置を決定する第1の特徴点位置決定手段とを備えたものであってもよい。
In the feature point detection apparatus of the present invention, the aspect ratio is maintained, in which the plurality of types of temporary feature points determined by the first feature point determination unit are brought close to a predetermined reference position for the detection target image, respectively. Normalization means for performing geometric normalization processing may be further provided, and the second feature point candidate detection means may detect the candidate on the detection target image normalized by the normalization means. In the feature point detection apparatus of the present invention, the first feature point determination means is one feature point statistically obtained for each combination of two different feature points of the plurality of feature points. When using the existence probability distribution on the image of the other feature point when the position of the other is used as a reference, for one type of feature point, the position of the detected candidate of the other type of feature point is used as a reference The one of First existence probability distribution synthesis for obtaining the existence probability distribution of feature points of each type for each of the other feature point candidates, and performing the process of synthesizing the obtained existence probability distribution for each type of feature points Means, for one type of feature point, the position of the detected candidate of the one type of feature point, and the magnitude of the existence probability in the synthesized existence probability distribution of the one type of feature point Based on the first feature point candidate selection means for selecting and narrowing down the one type of feature point candidates from the detected candidates, and the feature point candidates For each type, there may be provided first feature point position determining means for determining the position of the temporary feature point of the type based on the position of the selected candidate of the type of feature point. .

また、本発明の特徴点検出装置において、前記第1の特徴点候補選択手段は、特徴点の前記種類毎に、前記検出された候補のうち、該種類の特徴点の前記合成された存在確率分布における存在確率が最も高い位置の点を代表とする所定領域内に存する候補を選択するものであってもよい。   In the feature point detection apparatus according to the present invention, the first feature point candidate selection unit may, for each type of feature point, out of the detected candidates, the synthesized existence probability of the feature point of the type. You may select the candidate which exists in the predetermined area | region represented by the point of the position with the highest existence probability in distribution.

また、本発明の特徴点検出装置において、前記第1の特徴点候補選択手段は、特徴点の前記種類毎に、前記検出された候補のうち、該候補の位置に対応した、前記種類の特徴点の前記合成された存在確率分布における存在確率が所定の閾値以上である候補を選択するものであってもよい。   Further, in the feature point detection apparatus of the present invention, the first feature point candidate selecting means, for each type of feature point, the feature of the type corresponding to the position of the candidate among the detected candidates. You may select the candidate whose existence probability in the said synthetic | combination existence probability distribution of the point is more than a predetermined threshold value.

また、本発明の特徴点検出装置において、前記第1の特徴点候補検出手段は、前記検出対象画像上の識別対象画像が特徴点を含む画像である蓋然性を示す確信度の閾値判定に基づいて、該識別対象画像における対象を該特徴点の候補として検出するものであり、前記第1の特徴点位置決定手段は、特徴点の前記種類毎に、該種類の特徴点について選択されたすべての候補の位置座標を、該候補に対して算出された前記確信度で重み付けしたときの、前記位置座標の重み付き平均を該種類の暫定特徴点の位置座標として決定するものであってもよい。   Further, in the feature point detection apparatus of the present invention, the first feature point candidate detection means is based on a threshold determination of certainty indicating the probability that the identification target image on the detection target image is an image including a feature point. , Detecting a target in the identification target image as a candidate for the feature point, and the first feature point position determining means, for each of the types of feature points, for all the selected feature points of the type The weighted average of the position coordinates when the candidate position coordinates are weighted with the certainty factor calculated for the candidate may be determined as the position coordinates of the temporary feature point of the type.

また、本発明の特徴点検出装置において、前記第1の特徴点位置決定手段は、特徴点の前記種類毎に、該種類の特徴点について選択されたすべての候補の位置座標を、該候補の位置に対応した、該種類の特徴点の前記合成された存在確率分布における存在確率で重み付けしたときの、前記位置座標の重み付き平均を該種類の暫定特徴点の位置座標として決定するものであってもよい。   In the feature point detection apparatus of the present invention, the first feature point position determining means may include, for each type of feature point, the position coordinates of all candidates selected for the feature point of the type. The weighted average of the position coordinates when weighted by the existence probability in the combined existence probability distribution of the type of feature points corresponding to the position is determined as the position coordinates of the type of temporary feature points. May be.

本発明の特徴点検出方法は、検出対象画像における所定対象物の複数種類の特徴点の候補を、マシンラーニングにより生成された第1の検出精度および第1のロバスト性を有する第1の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第1の特徴点候補検出ステップと、該第1の特徴点候補検出ステップにより検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を第1の許容度で規定する第1の位置関係モデルとに基づいて、前記第1の位置関係モデルで拘束された位置関係を有する前記複数種類の暫定特徴点を決定する第1の特徴点決定ステップと、該第1の特徴点決定ステップにより決定された前記複数種類の暫定特徴点の各々の近傍で、特徴点の候補を、マシンラーニングにより生成された前記第1の検出精度より高い第2の検出精度および前記第1のロバスト性より低い第2のロバスト性を有する第2の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第2の特徴点候補検出ステップと、該第2の特徴点候補検出ステップにより検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を前記第1の許容度より小さい第2の許容度で規定する第2の位置関係モデルとに基づいて、前記第2の位置関係モデルで拘束された位置関係を有する前記複数種類の最終特徴点を決定する第2の特徴点決定ステップとを有することを特徴とするものである。   The feature point detection method of the present invention provides a first feature check having first detection accuracy and first robustness generated by machine learning for a plurality of types of feature point candidates of a predetermined object in a detection target image. A first feature point candidate detection step for detecting at least one for each type using an output device group; positions of feature point candidates detected by the first feature point candidate detection step; and the plurality of types The plurality of types of provisional feature points having a positional relationship constrained by the first positional relationship model based on a first positional relationship model that defines the positional relationship between the feature points of the first positional relationship with a first tolerance. A first feature point determination step to be determined; and feature point candidates generated by machine learning in the vicinity of each of the plurality of types of provisional feature points determined by the first feature point determination step. A second feature point detector group having a second detection accuracy higher than the detection accuracy of the second and a second robustness lower than the first robustness, and detecting at least one for each type A feature point candidate detection step, a position of a feature point candidate detected by the second feature point candidate detection step, and a positional relationship between the plurality of types of feature points are smaller than the first tolerance. A second feature point determining step for determining the plurality of types of final feature points having a positional relationship constrained by the second positional relationship model based on a second positional relationship model defined by tolerance. It is characterized by having.

本発明のプログラムは、コンピュータを、検出対象画像における所定対象物の複数種類の特徴点の候補を、マシンラーニングにより生成された第1の検出精度および第1のロバスト性を有する第1の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第1の特徴点候補検出手段と、該第1の特徴点候補検出手段により検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を第1の許容度で規定する第1の位置関係モデルとに基づいて、前記第1の位置関係モデルで拘束された位置関係を有する前記複数種類の暫定特徴点を決定する第1の特徴点決定手段と、該第1の特徴点決定手段により決定された前記複数種類の暫定特徴点の各々の近傍で、特徴点の候補を、マシンラーニングにより生成された前記第1の検出精度より高い第2の検出精度および前記第1のロバスト性より低い第2のロバスト性を有する第2の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第2の特徴点候補検出手段と、該第2の特徴点候補検出手段により検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を前記第1の許容度より小さい第2の許容度で規定する第2の位置関係モデルとに基づいて、前記第2の位置関係モデルで拘束された位置関係を有する前記複数種類の最終特徴点を決定する第2の特徴点決定手段として機能させることを特徴とするものである。   A program according to the present invention is a first feature check having a first detection accuracy and a first robustness generated by machine learning, using a computer, a plurality of types of feature point candidates of a predetermined object in a detection target image. First feature point candidate detection means for detecting at least one for each type using an output device group, positions of feature point candidates detected by the first feature point candidate detection means, and the plurality of types The plurality of types of provisional feature points having a positional relationship constrained by the first positional relationship model based on a first positional relationship model that defines the positional relationship between the feature points of the first positional relationship with a first tolerance. First feature point determination means to be determined, and feature point candidates generated by machine learning in the vicinity of each of the plurality of types of provisional feature points determined by the first feature point determination means. 1's A second feature of detecting at least one for each type using a second feature point detector group having a second detection accuracy higher than the output accuracy and a second robustness lower than the first robustness. A second tolerance that is smaller than the first tolerance in the point candidate detection means, the position of the feature point candidate detected by the second feature point candidate detection means, and the positional relationship between the plurality of types of feature points; Based on a second positional relationship model defined in degrees, functioning as second feature point determining means for determining the plurality of types of final feature points having positional relationships constrained by the second positional relationship model It is characterized by this.

本発明において、「複数種類の特徴点同士の位置関係を第1の許容度で規定する第1の位置関係モデル」とは、特徴点同士の位置関係を点同士の位置関係ではなく、領域同士の位置関係として規定するモデルであり、この領域の平均的な広さを第1の許容度で定義するものである。同様に、「複数種類の特徴点同士の位置関係を第1の許容度より小さい第2の許容度で規定する第2の位置関係モデル」とは、特徴点同士の位置関係を領域同士の位置関係として規定するモデルであり、この領域の平均的な広さが第1の許容度で定義される広さより小さいものである。   In the present invention, “a first positional relationship model that defines a positional relationship between a plurality of types of feature points with a first tolerance” means that the positional relationship between feature points is not a positional relationship between points, but between regions This is a model that is defined as the positional relationship of the above, and the average width of this region is defined by the first tolerance. Similarly, “a second positional relationship model that defines a positional relationship between a plurality of types of feature points with a second tolerance smaller than the first tolerance” refers to a positional relationship between feature points between regions. The model is defined as a relationship, and the average width of this region is smaller than the width defined by the first tolerance.

なお、これらの位置関係モデルは、所定対象物を含むサンプル画像に対して特徴点検出器群を適用して検出された複数種類の特徴点の候補の位置と、そのサンプル画像における複数種類の特徴点の正解位置とに基づいて、統計的に求めることができる。   Note that these positional relationship models are obtained by applying a feature point detector group to a sample image including a predetermined object and the positions of a plurality of types of feature point candidates and a plurality of types of features in the sample image. It can be obtained statistically based on the correct position of the point.

本発明において、前記特徴点の存在確率分布とは、特徴点が画像上のある位置に存在する確率を当該画像上の複数の位置について表した分布のことを意味するものである。   In the present invention, the feature point existence probability distribution means a distribution in which a probability that a feature point exists at a certain position on the image is expressed for a plurality of positions on the image.

本発明において、「存在確率分布を合成する」とは、画像上の互いに対応する位置毎にその位置における存在確率を合成して新たな存在確率の分布を得ることを意味するものである。ここで、前記合成は、加算であってもよいし、積算であってもよい。   In the present invention, “synthesize the existence probability distribution” means to obtain a new existence probability distribution by synthesizing the existence probabilities at the positions corresponding to each other on the image. Here, the composition may be addition or integration.

また、本発明において、「確率が最も高い位置の点を代表とする所定領域」とは、その点を略中心、略重心、あるいは略中央とした所定の大きさの範囲の領域のことを意味するものである。この領域は、円形であってもよいし矩形等の多角形であってもよい。   Further, in the present invention, the “predetermined region represented by the point with the highest probability” means a region having a predetermined size range with the point as the approximate center, approximate center of gravity, or approximate center. To do. This region may be a circle or a polygon such as a rectangle.

本発明において、前記所定対象物としては、例えば、人物の顔、自動車、動物等が考えられる。   In the present invention, examples of the predetermined object include a human face, a car, and an animal.

なお、本発明の方法および装置により検出された所定対象物の特徴点は、所定対象物の姿勢認識のほか、特定の対象物であるか否かを判定する認証処理、また、所定対象物が人物の顔である場合には、表情判別等に用いることができる。   Note that the feature point of the predetermined object detected by the method and apparatus of the present invention is not only the posture recognition of the predetermined object, but also an authentication process for determining whether or not the specific object is a specific object. When the face is a person, it can be used for facial expression discrimination or the like.

本発明の特徴点検出装置および方法並びにそのためのプログラムによれば、検出対象画像における所定対象物の複数種類の特徴点の候補を、第1の検出精度および第1のロバスト性を有する第1の特徴点検出器群を用いて検出し、その検出された特徴点の候補の位置と、上記複数種類の特徴点同士の位置関係を第1の許容度で規定する第1の位置関係モデルとに基づいて、第1の位置関係モデルで拘束された位置関係を有する上記複数種類の暫定特徴点を決定した後、その決定された上記複数種類の暫定特徴点の各々の近傍で、特徴点の候補を、第1の検出精度より高い第2の検出精度および第1のロバスト性より低い第2のロバスト性を有する第2の特徴点検出器群を用いて検出し、その検出された特徴点の候補の位置と、上記複数種類の特徴点同士の位置関係を第1の許容度より小さい第2の許容度で規定する第2の位置関係モデルとに基づいて、第2の位置関係モデルで拘束された位置関係を有する上記複数種類の最終特徴点を決定するようしているので、比較的粗い検出の後に比較的細かい検出を行うという2段階構成の採用により高速で検出精度がよい特徴点検出を行うことができるとともに、特徴点同士の位置関係の拘束により不正解の特徴点候補を排除することができ、画像に含まれる所定対象物の複数種類の特徴点を、高速に精度よくかつ安定して検出することができる。   According to the feature point detection apparatus and method and the program therefor according to the present invention, a plurality of types of feature point candidates of the predetermined object in the detection target image are first detected with the first detection accuracy and the first robustness. A feature point detector group is used for detection, and the detected feature point candidate positions and a first positional relationship model that defines the positional relationship among the plurality of types of feature points with a first tolerance. And determining the plurality of types of provisional feature points having the positional relationship constrained by the first positional relationship model, and then, in the vicinity of each of the determined types of the provisional feature points, candidate feature points Is detected using a second feature point detector group having a second detection accuracy higher than the first detection accuracy and a second robustness lower than the first robustness, and the detected feature points Candidate positions and the above types The plurality of types having positional relationships constrained by the second positional relationship model based on the second positional relationship model that defines the positional relationship between the scoring points with a second tolerance smaller than the first tolerance Therefore, it is possible to perform feature point detection at high speed and with high detection accuracy by adopting a two-stage configuration in which relatively fine detection is performed after relatively coarse detection. Incorrect feature point candidates can be eliminated by restricting the positional relationship between them, and a plurality of types of feature points of a predetermined object included in the image can be detected at high speed with high accuracy and stability.

以下、図面を参照して、本発明の実施形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施形態による顔特徴点検出システムの構成を示すブロック図である。なお、この顔特徴点検出システムは、画像の中から人物の顔を検出し、さらに検出された顔の特徴点を検出するシステムであり、補助記憶装置に読み込まれた処理プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、この処理プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。また、画像データは画像を表すものであり、以下、特に画像と画像データの区別をせずに説明を行う。   FIG. 1 is a block diagram showing a configuration of a face feature point detection system according to an embodiment of the present invention. This face feature point detection system is a system that detects a human face from an image, and further detects the detected face feature points. The processing program read into the auxiliary storage device is stored in a computer (for example, a personal computer). This is realized by executing on a computer or the like. Further, this processing program is stored in an information storage medium such as a CD-ROM, or distributed via a network such as the Internet and installed in a computer. The image data represents an image, and the following description will be given without particularly distinguishing the image from the image data.

図1に示すように、本実施形態による顔特徴点検出システムは、画像入力部10と、顔検出部20と、第1の顔正規化部30と、第1の特徴点候補検出部40と、第1の特徴点決定部50と、第2の顔正規化部60と、第2の特徴点候補検出部70と、第2の特徴点決定部80とを備えている。   As shown in FIG. 1, the face feature point detection system according to the present embodiment includes an image input unit 10, a face detection unit 20, a first face normalization unit 30, and a first feature point candidate detection unit 40. The first feature point determination unit 50, the second face normalization unit 60, the second feature point candidate detection unit 70, and the second feature point determination unit 80 are provided.

画像入力部10は、ユーザから入力された、顔の検出対象となる画像S0の入力を受け付け、この入力画像S0を不図示のメモリに保存するものであり、ユーザは、この画像入力部10により、例えば、デジタルカメラ等により取得されたスナップ写真の画像を入力する。   The image input unit 10 receives an input of an image S0 input from the user and is a face detection target, and stores the input image S0 in a memory (not shown). For example, an image of a snap photograph acquired by a digital camera or the like is input.

顔検出部20は、メモリに保存された入力画像S0を読み出して、その画像に含まれる顔を検出するものであり、具体的には、入力画像S0に含まれる顔S1の両目の位置を検出するとともに、その顔の向きfをも検出するものである。   The face detection unit 20 reads the input image S0 stored in the memory and detects a face included in the image. Specifically, the face detection unit 20 detects the positions of both eyes of the face S1 included in the input image S0. In addition, the orientation f of the face is also detected.

ここでは、顔S1の両目の位置を検出する方法として、特開2005−108197号公報に開示されている対象物識別方法を適用することにする。この方法は、入力画像S0における識別対象領域の画像について特徴量を算出し、目の位置を所定の許容度を持って正規化した複数の顔サンプル画像と複数の非顔サンプル画像の特徴量について学習を行った第1の参照データを参照して、識別対象領域の画像から算出した特徴量に基づいて、識別対象領域の画像に顔が含まれるか否かを識別し、顔が含まれる場合に、目の位置を所定の許容度よりも小さい許容度を持って正規化した複数の顔サンプル画像と複数の非顔サンプル画像の特徴量について学習を行った第2の参照データを参照して、顔に含まれる目の位置を識別する方法であり、いわゆるAdaBoostと呼ばれるマシンラーニングの手法により学習された識別器を用いて顔を検出し、顔に含まれる目の位置を精度よく検出する方法である。   Here, as a method for detecting the positions of both eyes of the face S1, the object identification method disclosed in Japanese Patent Laid-Open No. 2005-108197 is applied. In this method, the feature amount is calculated for the image of the identification target region in the input image S0, and the feature amounts of the plurality of face sample images and the plurality of non-face sample images obtained by normalizing the eye positions with a predetermined tolerance. A case where a face is included by identifying whether or not a face is included in the image of the identification target region based on the feature amount calculated from the image of the identification target region with reference to the first reference data that has been learned Further, referring to the second reference data obtained by learning the feature amounts of the plurality of face sample images and the plurality of non-face sample images obtained by normalizing the eye positions with a tolerance smaller than a predetermined tolerance. The method of identifying the position of the eyes contained in the face, using a discriminator learned by a so-called machine learning method called AdaBoost to detect the face and accurately detecting the position of the eyes contained in the face Is

この識別器は、学習に用いた顔サンプル画像の顔の向きと略同じ向きの顔を識別するので、顔の向き毎に用意された複数種類の顔サンプル画像群をそれぞれ用いて学習して得られる複数種類の識別器を用意し、これら複数種類の識別器を用いて顔を検出するようにすれば、多方向の向きの顔S1を検出し、その顔の両目の位置とその顔の向きfを同時に知ることができる。   Since this discriminator discriminates faces having substantially the same orientation as the face sample image used for learning, it is obtained by learning using a plurality of types of face sample images prepared for each face orientation. If a plurality of types of classifiers are prepared and a face is detected using the plurality of types of classifiers, a face S1 in a multi-directional direction is detected, and the positions of both eyes of the face and the direction of the face are detected. f can be known at the same time.

なお、顔S1を検出する方法としては、上記のほか、テンプレートマッチングによる方法などを用いてもよい。この場合、顔の向きがそれぞれ異なる複数のテンプレート上で顔の両目の位置に相当する位置を予め定義しておくなどして、検出された顔S1の両目の位置を求めるようにすればよい。   As a method for detecting the face S1, in addition to the above, a template matching method or the like may be used. In this case, the positions of both eyes of the detected face S1 may be obtained by previously defining positions corresponding to the positions of both eyes of the face on a plurality of templates having different face orientations.

第1の顔正規化部30は、入力画像S0(Gray画像)と、検出された顔S1の両目の位置の情報を用いて、入力画像S0から、両目の位置が所定の基準位置に位置するように正規化された顔S1を含む所定サイズの画像を切り出すことにより、正規化顔画像S1′を得るものである。図7は、入力画像S0を必要に応じて拡大・縮小したり回転したりした後に適切なトリミングを行って正規化顔画像S1′を得る様子を示した図である。本実施例では、画像サイズを200×200画素サイズとし、顔S1の両目の中心位置がそれぞれ、画像の最左上の画素を座標(0,0)、最右下の画素を座標(199,199)として、A(70,70)およびB(130,70)に位置するように顔を正規化する。なお、顔の向きfが斜めの向き、例えば、斜め45度の向きの場合には、顔S1の両目の中心位置がそれぞれ、A(70,50)およびB(130,50)となるように、顔の位置を20画素分だけ上方にシフトして正規化する。   The first face normalization unit 30 uses the input image S0 (Gray image) and information on the positions of both eyes of the detected face S1 to position both eyes at a predetermined reference position from the input image S0. Thus, a normalized face image S1 ′ is obtained by cutting out an image of a predetermined size including the normalized face S1. FIG. 7 is a diagram illustrating a state in which the normalized face image S1 ′ is obtained by performing appropriate trimming after the input image S0 is enlarged / reduced or rotated as necessary. In this embodiment, the image size is 200 × 200 pixels, and the center positions of both eyes of the face S1 are respectively the upper left pixel of the image with coordinates (0, 0) and the lower right pixel with coordinates (199, 199). ), The face is normalized so as to be located at A (70, 70) and B (130, 70). When the face direction f is oblique, for example, 45 degrees, the center positions of both eyes of the face S1 are A (70, 50) and B (130, 50), respectively. The face position is shifted upward by 20 pixels and normalized.

第1の特徴点候補検出部40は、正規化顔画像S1′上で指定した識別対象領域の画像に対して、当該画像の略中心に特徴点が含まれる蓋然性を示す検出スコア(確信度)SCDを算出し、当該検出スコアSCDが所定の閾値以上であるときに、当該識別対象領域の画像が表す対象をその特徴点であると識別することにより、顔の特徴点X毎にその特徴点の候補Q1itを検出するものである。 The first feature point candidate detection unit 40 has a detection score (certainty factor) indicating a probability that a feature point is included in the approximate center of the image of the identification target region designated on the normalized face image S1 ′. By calculating the SCD and identifying the object represented by the image of the identification target area as the feature point when the detection score SCD is equal to or greater than a predetermined threshold, the feature is determined for each feature point X i of the face. The point candidate Q1 it is detected.

図2は、第1の特徴点候補検出部40の構成を示した図である。第1の特徴点候補検出部40は、図示のように、多重解像度画像生成部41と、照明正規化部42と、第1の特徴点検索範囲設定部43と、第1の特徴点検出器群45を含む第1の検出処理部44と、第1の特徴点検出器選択部46とを備える。   FIG. 2 is a diagram illustrating a configuration of the first feature point candidate detection unit 40. As illustrated, the first feature point candidate detection unit 40 includes a multi-resolution image generation unit 41, an illumination normalization unit 42, a first feature point search range setting unit 43, and a first feature point detector. A first detection processing unit 44 including a group 45 and a first feature point detector selection unit 46 are provided.

第1の特徴点検出器群45は、検出する特徴点Xの種類別に用意された複数種類の特徴点検出器D1(i=1,2,・・・,N)から構成されており、各特徴点検出器D1は、特開2005−108197号公報等に開示されている、いわゆるAdaBoostと呼ばれるマシンラーニングの手法により学習された複数の識別器を用いて特徴点の位置を精度よく検出するものである。すなわち、この第1の特徴点検出器群が、本発明における第1の検出精度および第1のロバスト性を有する特徴点検出器群を表すものである。 The first feature point detector group 45 includes a plurality of types of feature point detectors D1 i (i = 1, 2,..., N D ) prepared for each type of feature point X i to be detected. Each feature point detector D1 i uses a plurality of discriminators learned by a machine learning method called AdaBoost, which is disclosed in Japanese Patent Laid-Open No. 2005-108197, etc., to accurately determine the position of the feature point. It is something that is often detected. That is, this first feature point detector group represents the feature point detector group having the first detection accuracy and the first robustness in the present invention.

この識別器は、ある特定の特徴点の位置が略中心となるように所定の許容度を持って正規化した複数の特徴点サンプル画像と複数の非特徴点サンプル画像の特徴量について学習を行った参照データを参照して、識別対象領域の画像から算出した特徴量に基づいて、当該画像がその特徴点を含む蓋然性を示す識別ポイントを算出するものであり、適当な閾値を設定することで、この識別ポイントの閾値判定により、識別対象の画像が特定の特徴点を略中心に含むか否かを識別できるようになる。   This discriminator learns the feature quantities of a plurality of feature point sample images and a plurality of non-feature point sample images normalized with a predetermined tolerance so that the position of a specific feature point is substantially centered. Based on the feature amount calculated from the image of the identification target region with reference to the reference data, the identification point indicating the probability that the image includes the feature point is calculated, and by setting an appropriate threshold value, This threshold value determination of the identification point makes it possible to identify whether or not the image to be identified includes a specific feature point at the approximate center.

ここで、図13を参照しながら、ある特定の特徴点の識別器の作成について簡単に説明する。まず、ある特定の特徴点を略中心に含むすべての特徴点サンプル画像について、ある複数種類の特徴量を算出してその特徴量の組合せを求め、そのヒストグラムを作成する。同様に、すべての非特徴点サンプル画像について、同じ複数種類の特徴量の組合せを求め、そのヒストグラムを作成する。これら2つのヒストグラムが示す頻度値の比の対数値等を取って新たにヒストグラムで表したものが、図13の一番右側に示す、識別器として用いられるヒストグラムである。この識別器のヒストグラムが示す各縦軸(ビン)の値を、以下、識別ポイントと称する。この識別器によれば、正の識別ポイントに対応する特徴量の分布を示す画像は中心にその特定の特徴点を含む画像である可能性が高く、識別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の識別ポイントに対応する特徴量の分布を示す画像はその特定の特徴点でない可能性が高く、識別ポイントの絶対値が大きいほどその可能性は高まる。   Here, the creation of a discriminator for a specific feature point will be briefly described with reference to FIG. First, with respect to all feature point sample images including a specific feature point substantially at the center, a plurality of types of feature amounts are calculated to obtain a combination of the feature amounts, and a histogram is created. Similarly, for all non-feature point sample images, the same combination of a plurality of types of feature amounts is obtained, and a histogram thereof is created. The histogram used as a discriminator shown on the rightmost side of FIG. 13 is a new histogram obtained by taking the logarithmic value of the ratio of the frequency values indicated by these two histograms. The value of each vertical axis (bin) indicated by the histogram of this discriminator is hereinafter referred to as an identification point. According to this discriminator, an image showing the distribution of the feature amount corresponding to the positive discrimination point is likely to be an image including the specific feature point at the center, and the possibility is higher as the absolute value of the discrimination point is larger. Can be said to increase. Conversely, an image showing the distribution of feature amounts corresponding to negative identification points is likely not to be a specific feature point, and the possibility increases as the absolute value of the identification point increases.

このような識別器を、特徴量の組合せ毎に複数作成して用意し、作成した複数の識別器のうち、画像がその特定の特徴点を略中心に含むか否かを識別するのに有効な識別器が、所定のアルゴリズムにより選択される。所定のアルゴリズムとしては、例えば次のようなものが考えられる。はじめに、特徴点および非特徴点の各サンプル画像に予め重み1を等しく付しておき、各識別器に各サンプル画像が特定の特徴点を中心に含む画像であるか否かを識別させて各識別器の重み付き正答率を求め、この各識別器の重み付き正答率を比較して、重み付き正答率が相対的に最も高い識別器を選択するようにする。そして、正答率が悪かったサンプル画像の重みを現時点より大きく設定し直し、再度、各識別器に各サンプル画像の識別を行わせて各識別器の重み付き正答率を求め、重み付き正答率が相対的に最も高い識別器を選択する。このような処理を繰り返すことにより、識別に有効な識別器が順次選択されてゆくことになる。なお、このアルゴリズムの詳細については、特開2005−108197号公報を参照されたい。   A plurality of such discriminators are prepared and prepared for each combination of feature amounts, and it is effective for identifying whether or not the image includes the specific feature point at the approximate center among the created discriminators. The correct discriminator is selected by a predetermined algorithm. As the predetermined algorithm, for example, the following can be considered. First, each sample image of feature points and non-feature points is assigned a weight of 1 in advance, and each classifier is made to identify whether each sample image is an image centered on a specific feature point. The weighted correct answer rate of the discriminator is obtained, and the weighted correct answer rate of each discriminator is compared, and the discriminator having the relatively highest weighted correct answer rate is selected. Then, the weight of the sample image with a poor correct answer rate is set to be larger than the current time, and each classifier is again identified with each sample image to obtain the weighted correct answer rate of each classifier. Select the highest classifier. By repeating such processing, classifiers effective for identification are sequentially selected. For details of this algorithm, refer to JP-A-2005-108197.

特徴点検出器D1は、後述の正規化済みの解像度画像S1″上で識別対象領域を指定し、指定された識別対象領域の画像に対して、上記の選択された有効な識別器を用いて識別ポイントをそれぞれ算出し、算出されたすべての識別ポイントを加算したものを検出スコアSCDとして出力する。そして、その検出スコアSCDが所定の閾値以上であるか否かを判定し、所定の閾値以上であるときに、その識別対象領域の画像の中心にその特定の特徴点が含まれると識別する。すなわち、その中心位置をその特定の特徴点の候補Q1it(t=1,・・・,NQ1i)の位置として検出する。 The feature point detector D1 i designates an identification target region on a normalized resolution image S1 ″ k described later, and selects the selected valid discriminator for the image of the designated identification target region. Each of the identification points is calculated and the sum of all the calculated identification points is output as a detection score SCD, and it is determined whether or not the detection score SCD is equal to or greater than a predetermined threshold. When the threshold value is equal to or greater than the threshold value, it is identified that the specific feature point is included in the center of the image of the identification target region, that is, the center position is determined as the specific feature point candidate Q1 it (t = 1,. Detected as the position of NQ1i ).

なお、識別器の学習に用いる特徴点サンプル画像としては、例えば、数千パターンの異なる特徴点画像をベースに拡縮、回転、アスペクト変換のバリエーションを加え、合わせて数万サンプルを用意する。また、各パッチの解像度は24×24画素とし、Haar-likeフィルタの出力値を特徴量として、AdaBoost学習アルゴリズムにより学習を行う。   As the feature point sample images used for learning of the classifiers, for example, tens of thousands of samples are prepared by adding variations of scaling, rotation, and aspect conversion based on thousands of different feature point images. Further, the resolution of each patch is 24 × 24 pixels, and learning is performed by the AdaBoost learning algorithm using the output value of the Haar-like filter as a feature amount.

この識別器は、学習に用いた特徴点を含む画像の当該特徴点の種類と同じ種類の特徴点を識別するので、特徴点の種類がそれぞれ異なる複数種類の特徴点サンプル画像群を用いて学習した複数種類の識別器を用意し、これら複数種類の識別器を用いて特徴点を検出するようにすれば、各種類の特徴点X毎にその特徴点の候補Q1itの位置q1itを検出することができる。 This discriminator identifies feature points of the same type as the feature points of the image including the feature points used for learning, so learning is performed using a plurality of types of feature point sample images with different types of feature points. If a plurality of types of classifiers are prepared and feature points are detected using the plurality of types of classifiers, the position q1 it of the feature point candidate Q1 it is determined for each type of feature point X i. Can be detected.

本実施例では、検出された顔S1の顔の向きfが正面に近い場合には、顔の各特徴点Xとして、左目尻(X)、左目頭(X)、右目頭(X)、右目尻(X)、左小鼻(X)、右小鼻(X)、左口角(X)、右口角(X)、上唇の中点(X)、下唇の中点(X10)の10種類を用いることとし、一方、検出された顔S1の顔の向きfが斜め45度に近い顔の場合には、顔の各特徴点xiとして、左目尻(X)、左目頭(X)、右目頭(X)、右目尻(X)、鼻先(X11)、左口角(X)、右口角(X)の7種類を用いることにする。したがって、特徴点検出器は、左目尻、左目頭、右目頭、右目尻、左小鼻、右小鼻、左口角、右口角、上唇の中点、下唇の中点、鼻先の11種類(N=10)について用意しておく。 In this embodiment, when the direction f of the detected face S1 is closer to the front, as the feature points X i of the face, the left eye area (X 1), the left eye head (X 2), the right eye head (X 3), the right eye area (X 4), the left nostril (X 5), the right nostril (X 6), left corner of the mouth (X 7), right corner of the mouth (X 8), the midpoint of the upper lip (X 9), the lower lip midpoint and the use of 10 kinds of (X 10), whereas, if the direction f of the detected face S1 is a face close to the diagonal 45 degrees, as each feature point xi face, left eye area (X 1 ), 7 types of left eye (X 2 ), right eye (X 3 ), right eye corner (X 4 ), nose tip (X 11 ), left mouth corner (X 7 ), right mouth corner (X 8 ) are used. To do. Therefore, the feature point detector, the left eye area, eye head, right head, right eye area, left nostril, right nostril, the left corner of the mouth, right corner of the mouth, the midpoint of the upper lip, the midpoint of the lower lip, 11 types of nose (N D = 10) is prepared.

図10は、各特徴点検出器が備える識別器の学習に用いる特徴点サンプル画像の例を示す図であり、正面顔用として、左目尻(X)、左目頭(X)、右目頭(X)、右目尻(X)、左小鼻(X)、右小鼻(X)、左口角(X)、右口角(X)、上唇の中点(X)、下唇の中点(X10)の10種類について示したものである。 FIG. 10 is a diagram illustrating an example of a feature point sample image used for learning of a discriminator included in each feature point detector. For the front face, the left eye corner (X 1 ), the left eye head (X 2 ), and the right eye head. (X 3 ), right eye corner (X 4 ), left nose (X 5 ), right nose (X 6 ), left mouth corner (X 7 ), right mouth corner (X 8 ), middle point of upper lip (X 9 ), bottom 10 types of the midpoint (X 10 ) of the lips are shown.

なお、特徴点Xを検出する方法としては、上記のほか、テンプレートマッチングによる方法などを用いてもよい。この場合、特徴点の種類がそれぞれ異なる複数のテンプレート上で特徴点の位置に相当する位置を予め定義しておくなどして、特徴点の位置を求めるようにすればよい。 As a method for detecting the feature point X i , a template matching method or the like may be used in addition to the above. In this case, the position of the feature point may be obtained by previously defining a position corresponding to the position of the feature point on a plurality of templates having different types of feature points.

多重解像度画像生成部41は、図9に示すように、200×200画素サイズの画像である正規化顔画像S1′を基準に、2の−1/5乗倍刻みで縮小画像(以下、解像度画像と称する)S1′(k=1,2,・・・,NS1)を生成するものである。このように正規化顔画像S1′を多重解像度化する理由は、生成された解像度が異なる複数の画像に対して特徴点の候補の検出を行うことにより、顔正規化時の目の位置の精度の良し悪しや顔の向き、個人差によって顔を構成する顔部品の大きさがばらついた場合であっても、顔部品の大きさを少しずつ段階的に変えた複数の画像で特徴点の候補の検出を試みることで、その顔部品のばらつきを吸収し、特徴点の候補を安定して検出することができるようするためである。 As shown in FIG. 9, the multi-resolution image generation unit 41 uses a normalized face image S1 ′ that is an image having a size of 200 × 200 pixels as a reference, and a reduced image (hereinafter referred to as resolution) in increments of −1/5. S1 ′ k (k = 1, 2,..., N S1 ) is generated. The reason why the normalized face image S1 ′ is multi-resolution in this way is that the feature point candidates are detected for a plurality of generated images having different resolutions, thereby improving the accuracy of the eye position during face normalization. Even if the size of the facial parts that make up the face varies depending on the quality of the face, the orientation of the face, and individual differences, the feature point candidates can be created with multiple images that gradually change the size of the facial parts. This is because it is possible to absorb the variation of the facial parts and to stably detect the feature point candidates.

照明正規化部42は、解像度画像のコントラストが特徴点の候補の検出に適した状態となるように、解像度画像の各々に対して正規化処理を施し、正規化済みの解像度画像S1″を得るものである。 The illumination normalization unit 42 performs normalization processing on each of the resolution images so that the contrast of the resolution image is suitable for detection of feature point candidates, and generates the normalized resolution image S1 ″ k . To get.

この正規化処理は、解像度画像のコントラストを特徴点の候補の検出に適した所定のレベル、すなわち、特徴点検出器の性能を引き出すのに適したレベルに近づけるべく、解像度画像全体の画素値をこの画像における被写体の輝度の対数を表す値に近づける変換曲線にしたがって変換する処理である。   In this normalization process, in order to bring the contrast of the resolution image close to a predetermined level suitable for detection of feature point candidates, that is, a level suitable for extracting the performance of the feature point detector, the pixel value of the entire resolution image is set. In this image, conversion is performed according to a conversion curve that approaches a value representing the logarithm of the luminance of the subject.

図14は、照明正規化処理に用いる変換曲線の一例を示した図である。この照明正規化処理としては、図示のような、画素値をsRGB空間におけるいわゆる逆ガンマ変換(=2.2乗する)した後にさらに対数をとるような変換曲線(ルックアップテーブル)にしたがって、画像全体における画素値を変換する処理を考えることができる。これは、次のような理由による。   FIG. 14 is a diagram illustrating an example of a conversion curve used for the illumination normalization process. As the illumination normalization processing, as shown in the figure, an image is obtained in accordance with a conversion curve (look-up table) that further takes a logarithm after performing so-called inverse gamma conversion (= 2.2) in the sRGB space. A process for converting the pixel values in the whole can be considered. This is due to the following reason.

画像として観測される光強度Iは、通常、被写体の反射率Rと光源の強度Lの積として表現される(I=R×L)。したがって、光源の強度Lが変化すると、画像として観測される光強度Iも変化することになるが、被写体の反射率Rのみを評価することができれば、光源の強度Lに依存しない、すなわち、画像の明るさ、すなわち、撮影時の照明の明るさの影響を受けない精度の高い特徴点候補検出を行うことができる。   The light intensity I observed as an image is usually expressed as the product of the reflectance R of the subject and the intensity L of the light source (I = R × L). Therefore, when the intensity L of the light source changes, the light intensity I observed as an image also changes. However, if only the reflectance R of the subject can be evaluated, it does not depend on the intensity L of the light source. The feature point candidates can be detected with high accuracy without being affected by the brightness of the image, that is, the brightness of the illumination at the time of shooting.

ここで、光源の強度がLの場合において、被写体上で反射率がR1の部分から観測される光強度をI1、被写体上で反射率がR2の部分から観測される光強度をI2としたとき、それぞれの対数をとった空間では、下記の式が成り立つ。
Here, when the intensity of the light source is L, the light intensity observed from the portion with the reflectance R1 on the subject is I1, and the light intensity observed from the portion with the reflectance R2 on the subject is I2. In the space where each logarithm is taken, the following equation holds.

すなわち、画像における画素値を対数変換することは、反射率の比が差として表現された空間へ変換することとなり、このような空間では、光源の強度Lに依存しない被写体の反射率のみを評価することが可能となる。言い換えると、画像中の明るさによって異なるコントラスト(ここでは画素値の差分そのもの)を揃えることができる。   In other words, logarithmic conversion of pixel values in an image results in conversion into a space where the reflectance ratio is expressed as a difference. In such a space, only the reflectance of the subject that does not depend on the intensity L of the light source is evaluated. It becomes possible to do. In other words, it is possible to align different contrasts (here, the pixel value difference itself) depending on the brightness in the image.

一方、一般的なデジタルカメラ等の機器で取得された画像の色空間はsRGBである。sRGBとは、機器間の色再現の違いを統一するために、色彩、彩度等を規定・統一した国際標準の色空間のことであり、この色空間においては、ガンマ値(γout)が2.2の画像出力機器において適正な色再現を可能にするため、画像の画素値は、入力輝度を1/γout(=0.45)乗して得られる値となっている。   On the other hand, the color space of an image acquired by a device such as a general digital camera is sRGB. sRGB is an international standard color space that defines and unifies color, saturation, etc., in order to unify the differences in color reproduction between devices. In this color space, the gamma value (γout) is 2. The image pixel value is a value obtained by raising the input luminance to 1 / γout (= 0.45) in order to enable proper color reproduction in the .2 image output device.

そこで、画像全体における画素値を、いわゆる逆ガンマ変換、すなわち、2.2乗した後にさらに対数をとるような変換曲線にしたがって変換することにより、光源の強度に依存しない被写体の反射率のみによる評価を適正に行うことができるようになる。   Therefore, the pixel value in the entire image is converted according to a so-called inverse gamma conversion, that is, according to a conversion curve that takes a logarithm after being raised to the power of 2.2, thereby evaluating only by the reflectance of the subject independent of the intensity of the light source. Can be performed properly.

このような正規化処理は、別の言い方をすれば、画像全体における画素値を、特定の色空間を別の特性を有する色空間に変換する変換曲線にしたがって変換する処理ということができる。   In other words, the normalization process can be said to be a process of converting pixel values in the entire image according to a conversion curve for converting a specific color space into a color space having different characteristics.

このような処理を画像に施すことにより、画像中の明るさによって異なるコントラストを揃えることができ、特徴点の候補の検出の精度が向上することとなる。   By applying such processing to the image, different contrasts can be made according to the brightness in the image, and the accuracy of feature point candidate detection is improved.

なお、特徴点検出器が備える識別器は、このような正規化処理が施されたサンプル画像を用いて学習されたものである。   Note that the classifier included in the feature point detector is learned using the sample image that has been subjected to such normalization processing.

第1の特徴点検索範囲設定部43は、特徴点の候補の検出に要する時間を短縮するため、各特徴点が存在し得る領域でのみ特徴点の検索を行うように、解像度画像上で各特徴点Xの検索範囲SR1を設定するものである。この探索範囲は、後述する、顔を含むトレーニング画像セットにより統計的に求められた特徴点の存在確率分布に基づいて決定し、位置の変動が大きい特徴点ほどその検索範囲を広くして設定するようにする。なお、この特徴点の存在確率分布は後述の第1のデータベース58に記憶されており、第1の特徴点検索範囲設定部43は、この存在確率分布を第1のデータベース58から読み出して、解像度画像S1″毎に、また、特徴点X毎に、検索範囲SR1iを設定する。 The first feature point search range setting unit 43 is configured to search each feature point on the resolution image so that the feature point is searched only in an area where each feature point can exist in order to reduce the time required for detecting the feature point candidate. it is to set the search range SR1 i of the feature point X i. This search range is determined based on the existence probability distribution of feature points statistically obtained from a training image set including a face, which will be described later, and the search range is set to be wider for feature points with large positional fluctuations. Like that. The feature point existence probability distribution is stored in a first database 58 to be described later, and the first feature point search range setting unit 43 reads the existence probability distribution from the first database 58 to obtain a resolution. A search range SR 1i is set for each image S1 ″ k and for each feature point X i .

図11は、探索範囲の一例として、左目尻(X)、右小鼻(X)および左口角(X)の各特徴点それぞれの検索範囲SR111、SR116およびSR117を示した図である。口角は個人差も多く比較的変動しやすい特徴点なので、図示のように、目尻や小鼻に比して検索範囲が広く設定される。 FIG. 11 is a diagram showing search ranges SR1 11 , SR1 16 and SR1 17 for each feature point of the left eye corner (X 1 ), right nose (X 6 ), and left mouth corner (X 7 ) as an example of the search range. It is. Since the mouth angle is a feature point that is subject to individual differences and is relatively easy to change, the search range is set wider than the corners of the eyes and the nose as shown in the figure.

第1の特徴点検出器選択部46は、検出された顔S1の顔の向きfが正面に近い場合には、使用する特徴点検出器の種類として、検出する特徴点を、左目尻(X)、左目頭(X)、右目頭(X)、右目尻(X)、左小鼻(X)、右小鼻(X)、左口角(X)、右口角(X)、上唇の中点(X)、下唇の中点(X10)とする10種類の特徴点検出器を選択し、一方、検出された顔S1の顔の向きfが斜め45度に近い場合には、検出する特徴点を、左目尻(X)、左目頭(X)、右目頭(X)、右目尻(X)、鼻先(X11)、左口角(X)、右口角(X)とする7種類の特徴点検出器を選択するものである。 When the face direction f of the detected face S1 is close to the front, the first feature point detector selection unit 46 selects the feature point to be detected as the type of the feature point detector to be used. 1 ), left eye (X 2 ), right eye (X 3 ), right eye corner (X 4 ), left nose (X 5 ), right nose (X 6 ), left mouth corner (X 7 ), right mouth corner (X 8) ), 10 types of feature point detectors, which are the middle point of the upper lip (X 9 ) and the middle point of the lower lip (X 10 ), are selected, while the face orientation f of the detected face S1 is 45 degrees oblique When close, the detected feature points are left eye corner (X 1 ), left eye head (X 2 ), right eye head (X 3 ), right eye corner (X 4 ), nose tip (X 11 ), left mouth corner (X 7 ). ), And seven types of feature point detectors for the right mouth corner (X 8 ) are selected.

第1の検出処理部44は、正規化済みの解像度画像S1″の各々に対し、特徴点検出器群D1のうち選択された特徴点検出器を用いて、特徴点Xのうち決められた特徴点の種類毎に、設定された検索範囲内で、特徴点の候補を検出するものである。 The first detection processing unit 44 determines a feature point X i for each normalized resolution image S1 ″ k using a feature point detector selected from the feature point detector group D1 i. A feature point candidate is detected within a set search range for each type of feature point.

第1の特徴点決定部50は、図3に示すように、第1の特徴点存在確率分布合成部51と、第1の特徴点候補選択部52と、第1の特徴点位置決定部53と、第1のデータベース58とを備える。   As shown in FIG. 3, the first feature point determination unit 50 includes a first feature point existence probability distribution synthesis unit 51, a first feature point candidate selection unit 52, and a first feature point position determination unit 53. And a first database 58.

第1のデータベース58は、予め統計的に求められた、顔の特徴点X毎の、当該特徴点の位置座標xを基準としたときの、当該特徴点Xとは異なる他の特徴点Xのそれぞれの存在確率分布P1ijを記憶しているものである。 The first database 58 has other features different from the feature point X i when statistically determined in advance, for each feature point X i of the face, based on the position coordinates x i of the feature point. Each of the existence probability distributions P1 ij of the point X j is stored.

この存在確率分布P1ijは、ある特徴点検出器によって検出された特徴点の位置座標に対する他の特徴点の正解となる点の存在確率分布を、1つの特徴点Xと1つのその他の特徴点Xとからなる2つ1組の単位で各組毎に用意されたものであり、特徴点同士の間の位置関係をこれら複数組の確率分布を用いて表現することができるものである。すなわち、この存在確率分布が本発明における特徴点の位置関係を第1の許容度で規定する第1の位置関係モデルを表すものである。ここで、特徴点検出器D1の出力座標x1に対する特徴点Xの存在確率分布をP1ij(x|x1)と定義するものであり、P1ijは2次元のヒストグラムで表される。 The existence probability distribution P1 ij is an existence probability distribution of points that are correct answers of other feature points with respect to the position coordinates of the feature points detected by a certain feature point detector, one feature point X i and one other feature. This is prepared for each set in units of two sets of points Xj, and the positional relationship between the feature points can be expressed using a plurality of sets of probability distributions. . That is, this existence probability distribution represents the first positional relationship model that defines the positional relationship of the feature points in the present invention with the first tolerance. Here, the existence probability distribution of the feature point X i with respect to the output coordinate x1 j of the feature point detector D1 j is defined as P1 ij (x i | x1 j ), and P1 ij is represented by a two-dimensional histogram. The

この存在確率分布P1ijを求めるには、まずトレーニング画像セット(顔の特徴点の正解座標が入力された数千枚の画像)に対して顔の検出を行い、顔が基準位置に位置するように画像を規格化する。図7は、画像から顔を検出し、その顔が画像の中心に所定の大きさで所定の基準位置に位置するように画像を規格化した場合の例を示すものである。 In order to obtain the existence probability distribution P1 ij , first, a face is detected from a training image set (thousands of images in which correct coordinates of facial feature points are input) so that the face is positioned at the reference position. Standardize images. FIG. 7 shows an example in which a face is detected from an image and the image is normalized so that the face is positioned at a predetermined reference position with a predetermined size in the center of the image.

次に、規格化された画像から特徴点検出器D1により特徴点Xを検出し、その特徴点の座標x1とその他の特徴点Xの正解座標xとのずれを、1つのある種類の特徴点Xと1つのその他の種類の特徴点Xとからなる2つ1組の単位で比較、集計する。このような学習によって得られた存在確率分布P1ijの例を図12に示す。なおここでは、特徴点検出器により検出された特徴点の位置を×で表し、対象の特徴点の存在確率分布を画像上の濃淡で表しており、対象の特徴点の存在確率が高いほどその位置における濃度が濃くなるように表現してある。図12(a)は、左目頭検出器D1により検出された左目頭の点の位置座標xに対する左目尻の点(位置座標x)の存在確率分布P121を表す図であり、図12(b)は、当該左目頭の点の位置座標xに対する左小鼻の点(位置座標x)の存在確率分布P125を表す図であり、図12(c)は、当該左目頭の点の位置座標xに対する右口角の点(位置座標x)の存在確率分布P128を表す図である。なお、この存在確率分布P1ijが表す2次元のヒストグラムの解像度は、正規化顔画像S1が200×200画素サイズである場合に、画像サイズをその1/4とする100×100画素サイズとし、学習の効率をよくするとともにデータベースに記憶させる情報量を低減している。 Next, the feature point detector D1 i detects the feature point X i from the normalized image, and the difference between the coordinate x1 i of the feature point and the correct coordinate x j of the other feature point X j is Comparison and totalization are performed in units of two sets of one kind of feature point X i and one other kind of feature point X j . An example of the existence probability distribution P1 ij obtained by such learning is shown in FIG. Here, the position of the feature point detected by the feature point detector is represented by x, the existence probability distribution of the target feature point is represented by shading on the image, and the higher the existence probability of the target feature point, the more It is expressed so that the density at the position is high. 12 (a) is a diagram showing an existence probability distribution P1 21 for the left eye area of the point with respect to the position coordinate x 2 points of the left eye head detected by the left eye head detector D1 2 (position coordinate x 1), FIG. 12 (b) is a diagram showing the existence probability distribution P1 25 of the point of the left nose (position coordinate x 5 ) with respect to the position coordinate x 2 of the point of the left eye, and FIG. it is a graph showing a presence probability distribution P1 28 point in the right mouth corner (coordinates x 8) with respect to the position coordinate x 2 of the point. Note that the resolution of the two-dimensional histogram represented by the existence probability distribution P1 ij is 100 × 100 pixel size, which is 1/4 of the image size when the normalized face image S1 is 200 × 200 pixel size, The learning efficiency is improved and the amount of information stored in the database is reduced.

第1の特徴点存在確率分布合成部51は、第1のデータベース58に記憶されている存在確率分布P1ijを用いて、特徴点X毎に、1つの種類の特徴点Xとは異なる他の種類の特徴点Xの各候補Q1jtの位置をそれぞれ基準としたときの、入力画像S0上での当該1つの種類の特徴点Xの存在確率分布P1ij(x|q1jt)を求め、当該確率分布を次式にしたがって合成するものである。
The first feature point existence probability distribution synthesizing unit 51 uses the existence probability distribution P1 ij stored in the first database 58, for each feature point X i, is different from the one type of feature points X i Existence probability distribution P1 ij (x i | q1 jt) of the one type of feature point X i on the input image S 0 when the position of each candidate Q 1 jt of another type of feature point X j is used as a reference. ) And the probability distribution is synthesized according to the following equation.

ここで、P1は特徴点Xの合成された存在確率分布、P1ij(x|q1jt)は特徴点Xのt番目の候補Q1jtの位置座標q1jtを基準としたときの特徴点X(位置座標x)の存在確率分布、NQ1jは特徴点Xの候補の数、Nは予め定義した特徴点の種類の数である。 Here, P1 i is the combined existence probability distribution of the feature point X i , and P1 ij (x i | q1 jt ) is the position coordinate q1 jt of the t-th candidate Q1 jt of the feature point X j as a reference. The existence probability distribution of the feature point X i (position coordinates x i ), N Q1j is the number of feature point X j candidates, and N D is the number of types of feature points defined in advance.

なお、1つの種類の特徴点について多数の候補が検出された場合には、上記式による計算量は増大し計算の所要時間が長くなるので、例えば、候補の数NQ1jが6つ以上の場合には、検出スコアSCDの高いものから上位5つの候補についてのみ計算するようにしてもよい。 If a large number of candidates are detected for one type of feature point, the amount of calculation according to the above formula increases and the time required for the calculation becomes long. For example, when the number of candidates N Q1j is 6 or more Alternatively, the calculation may be made only for the top five candidates with the highest detection score SCD.

このようにして合成された存在確率分布P1は、ある種類の特徴点が存在する位置の、その特徴点とは異なる他の種類の特徴点の位置から見たときの推定結果として考えることができる。 The existence probability distribution P1 i synthesized in this way can be considered as an estimation result when a position where a certain type of feature point exists is viewed from the position of another type of feature point different from the feature point. it can.

第1の特徴点候補選択部52は、顔の特徴点X毎に、当該特徴点Xの合成された存在確率分布P1における確率を、顔部品の位置関係を示す形状の尤度を表す形状スコアSCGとして算出し、この形状スコアSCGの大小と、当該特徴点Xの候補Q1itの位置とに基づいて、当該特徴点の候補Q1itの中から候補Q1′iu(u=NQ1′i)を選択して絞り込むものである。 For each feature point X i of the face, the first feature point candidate selection unit 52 uses the probability of the existence probability distribution P1 i of the feature points X i combined, and the likelihood of the shape indicating the positional relationship of the facial parts. calculated as the shape score SCG 1 representing the magnitude of this shape score SCG 1, on the basis of the candidate Q1 it the position of the characteristic point X i, candidate Q1 'iu (u from the candidates Q1 it of the feature point = N Q1′i ) is selected and narrowed down.

本実施例では、形状スコアSCG、すなわち、特徴点Xの合成された存在確率分布P1上で存在確率が最も高い位置の点を代表点C1とし、特徴点の候補Q1itのうちその代表点C1を略中心とする所定範囲の領域内に存する候補を絞り込むべき候補Q1′iuとして選択する。 In this embodiment, the shape score SCG 1 , that is, the point having the highest existence probability on the existence probability distribution P1 i synthesized with the feature point X i is set as the representative point C1 i, and among the feature point candidates Q1 it Candidates Q1 ′ iu to be narrowed down are selected as candidates to be narrowed down within a predetermined range having the representative point C1 i substantially at the center.

ここで、上記の代表点C1は、次式にしたがって定義される。
Here, the representative point C1 i is defined according to the following equation.

なお、候補を絞り込む手法としては上記の他、候補Q1itのうち、この候補に対応する形状スコアSCGが所定の閾値、例えば、特徴点Xの合成された存在確率分布P1上での存在確率の最大値から所定値を引いた値以上の形状スコアを有する候補のみを選択して絞り込む手法を用いてもよい。 As a method for narrowing down candidates, in addition to the above, among the candidates Q1 it , the shape score SCG 1 corresponding to this candidate is a predetermined threshold, for example, on the existence probability distribution P1 i in which the feature points X i are synthesized. A method of selecting and narrowing down only candidates having a shape score equal to or greater than a value obtained by subtracting a predetermined value from the maximum value of the existence probability may be used.

第1の特徴点位置決定部53は、顔の特徴点X毎に、第1の特徴点候補選択部52により絞り込まれた候補について、各候補の位置座標をその候補が検出されたときの検出スコアでそれぞれ重み付けしたときの、位置座標の重み付き平均を算出し、当該算出された位置座標を特徴点Xの位置として決定する。 The first feature point position determination unit 53 determines the position coordinates of each candidate with respect to the candidates narrowed down by the first feature point candidate selection unit 52 for each facial feature point X i . A weighted average of the position coordinates when weighted by the detection score is calculated, and the calculated position coordinates are determined as the position of the feature point X i .

本実施例では、重み係数Weight1iuを次式に従って算出し、ΣWeight1iu×q1′iuで表される位置座標を特徴点Xの位置として決定する。
In this embodiment, the weight coefficient Weight1 iu is calculated according to the following equation, and the position coordinate represented by ΣWeight1 iu × q1 ′ iu is determined as the position of the feature point X i .

ここで、xは特徴点Xの位置座標、q1′iuは候補Q1′iuの位置座標、Weight1iuは重み係数、SCD1iuは候補Q1′iuの検出スコア、SCD1imaxは候補Q1′iuの中での検出スコアの最大値、N1norは、Σweight1iu=1となるように定義された正規化定数である。 Here, the position coordinates x i are the characteristic points X i, q1 'iu candidate Q1' coordinates of iu, weight1 iu weighting factor, SCD 1iu the 'detection scores iu, SCD 1imax candidate Q1' candidate Q1 iu The maximum value of the detection score, N 1nor, is a normalization constant defined so that Σweight1 iu = 1.

なお、特徴点の決定方法は本実施例に限定されるわけではなく、例えば、絞り込まれた候補について、各候補の位置座標をその候補に対応する形状スコアでそれぞれ重み付けしたときの、位置座標の重み付き平均を特徴点Xの位置として決定してもよいし、各候補の位置座標をその候補に対応する検出スコアと形状スコアの合算値でそれぞれ重み付けしたときの、位置座標の重み付き平均を特徴点Xの位置として決定してもよい。あるいは、絞り込まれた候補の中で、検出スコアが最大の候補の位置座標、形状スコアが最大の候補の位置座標、または、検出スコアと形状スコアの合算値が最大の候補の位置座標を特徴点Xの位置として決定してもよい。 Note that the method for determining feature points is not limited to the present embodiment. For example, for the candidates that have been narrowed down, the position coordinates when the position coordinates of each candidate are weighted by the shape score corresponding to the candidate are shown. The weighted average may be determined as the position of the feature point X i , and the weighted average of the position coordinates when the position coordinates of each candidate are respectively weighted by the sum of the detection score and the shape score corresponding to the candidate May be determined as the position of the feature point X i . Alternatively, among the narrowed down candidates, the position coordinates of the candidate with the maximum detection score, the position coordinates of the candidate with the maximum shape score, or the position coordinates of the candidate with the maximum sum of the detection score and the shape score are feature points. it may be determined as the position of the X i.

第2の顔正規化部60は、第1の特徴点決定部50により決定された各特徴点がそれぞれ所定の基準位置に近づくように、入力画像S0に対して再び幾何学的正規化処理を施し、顔を含む画像を切り出して新たな正規化顔画像を得るものである。ただし、実際には、処理の効率化を考え、既に顔S1の特徴点が検出された解像度画像S1″に対して幾何学的正規化処理を施して、正規化顔画像S2″を得る。 The second face normalization unit 60 performs geometric normalization processing again on the input image S0 so that each feature point determined by the first feature point determination unit 50 approaches a predetermined reference position. The image including the face is cut out to obtain a new normalized face image. However, in actuality, considering the efficiency of the process, the geometrical normalization process is performed on the resolution image S1 ″ k from which the feature point of the face S1 has already been detected, and the normalized face image S2 ″ k is obtained. .

このときの幾何学的正規化処理は、アスペクト比を維持した拡大縮小、回転、平行移動のみを考慮したアフィン変換を用いる。このアフィン変換を式で表すと、次式のようになる。
The geometric normalization process at this time uses affine transformation that considers only scaling, rotation, and translation while maintaining the aspect ratio. This affine transformation is expressed by the following equation.

ここで、(x,y)は変換前の画素の座標、(x′,y′)は変換後の画素の座標、a,b,c,dはそれぞれ変換のパラメータを表している。 Here, (x, y) represents the coordinates of the pixel before conversion, (x ′, y ′) represents the coordinates of the pixel after conversion, and a, b, c, and d represent conversion parameters, respectively.

第2の特徴点候補検出部70は、正規化顔画像S2″上で指定した判定対象領域の画像に対して、当該画像の略中心に特徴点が含まれる蓋然性を示す検出スコアSCDを算出し、当該検出スコアSCDが所定の閾値以上であるときに、当該判定対象領域の画像が表す対象をその特徴点であると判定することにより、顔の特徴点X毎にその特徴点の候補Q2itを検出するものである。 The second feature point candidate detection unit 70 calculates a detection score SCD indicating the probability that the feature point is included in the approximate center of the image of the determination target region designated on the normalized face image S2 ″ k. When the detection score SCD is equal to or greater than a predetermined threshold, by determining that the target represented by the image of the determination target region is the feature point, the feature point candidate for each feature point X i of the face Q 2it is detected.

第2の特徴点候補検出部70は、図4に示すように、第2の特徴点検索範囲設定部73と、第2の特徴点検出器群75を含む第2の検出処理部74と、第2の特徴点検出器選択部76とを備えている。   As shown in FIG. 4, the second feature point candidate detection unit 70 includes a second feature point search range setting unit 73, a second detection processing unit 74 including a second feature point detector group 75, And a second feature point detector selection unit 76.

第2の特徴点検出器群75は、第2の特徴点検出器群45と同様に、検出する特徴点Xの種類別に用意された複数種類の特徴点検出器D2から構成されており、各特徴点検出器D2は、いわゆるAdaBoostと呼ばれるマシンラーニングの手法により学習された複数の識別器を用いて特徴点の位置を精度よく検出するものである。すなわち、この第2の特徴点検出器群が、本発明における第2の検出精度および第2のロバスト性を有する特徴点検出器群を表すものである。 Similar to the second feature point detector group 45, the second feature point detector group 75 is composed of a plurality of types of feature point detectors D2 i prepared for each type of feature point X i to be detected. Each feature point detector D2 i detects the position of a feature point with high accuracy using a plurality of discriminators learned by a so-called machine learning method called AdaBoost. That is, this second feature point detector group represents the feature point detector group having the second detection accuracy and the second robustness in the present invention.

ただし、この識別器は、ある特定の特徴点の位置が略中心となるように、特徴点検出器D1の場合よりもより小さい許容度を持って正規化した複数の特徴点サンプル画像と複数の非特徴点サンプル画像の特徴量について学習を行った参照データを参照して、識別対象領域の画像から算出した特徴量に基づいて、当該画像がその特徴点を含む蓋然性を示す識別ポイントを算出し、この識別ポイントの閾値判定により、識別対象の画像が特定の特徴点を略中心に含むか否かを識別するものである。したがって、特徴点検出器D2は、特徴点検出器D1よりも検出精度が高い反面、ロバスト性が低いという特徴を有する。 However, this classifier includes a plurality of feature point sample images and a plurality of normalized feature point sample images having a smaller tolerance than the case of the feature point detector D1 i so that the position of a specific feature point is substantially the center. Based on the feature amount calculated from the image of the region to be identified with reference to the reference data learned about the feature amount of the non-feature point sample image, an identification point indicating the probability that the image includes the feature point is calculated The identification point threshold determination determines whether or not the image to be identified includes a specific feature point substantially at the center. Therefore, the feature point detector D2 i is higher in detection accuracy than the feature point detector D1 i , but has a feature of low robustness.

第2の特徴点検索範囲設定部73は、第1の特徴点検索範囲設定部43と同様に、各特徴点が存在し得る領域でのみ特徴点の検索を行うように、正規化顔画像S2″上で各特徴点Xの検索範囲SR2を設定するものである。この探索範囲は、後述の第2のデータベース88に記憶されている特徴点の存在確率分布に基づいて決定し、位置の変動が大きい特徴点ほどその検索範囲を広くして設定するようにする。 Similar to the first feature point search range setting unit 43, the second feature point search range setting unit 73 performs normalization face image S2 so as to search for feature points only in an area where each feature point can exist. ″ Sets the search range SR2 i of each feature point X i on k . This search range is determined based on the probability distribution of feature points stored in the second database 88 described later. A feature point having a larger position variation is set with a wider search range.

第2の特徴点検出器選択部76は、第1の特徴点検出器選択部46と同様に、検出された顔S1の顔の向きfに応じて特徴点検出器D2の中から特徴点の検出に利用する特徴点検出器を選択するものである。 Similar to the first feature point detector selection unit 46, the second feature point detector selection unit 76 selects feature points from the feature point detector D2 i according to the face orientation f of the detected face S1. A feature point detector to be used for detection is selected.

第2の検出処理部74は、第1の検出処理部44と同様に、正規化顔画像S2″に対し、第2の特徴点検出器選択部76によって選択された特徴点検出器を用いて、特徴点Xのうち決められた特徴点の種類毎に、設定された検索範囲内で、特徴点の候補を検出するものである。 Similar to the first detection processing unit 44, the second detection processing unit 74 uses the feature point detector selected by the second feature point detector selection unit 76 for the normalized face image S2 ″ k. Thus, feature point candidates are detected within the set search range for each type of feature point determined among the feature points X i .

第2の特徴点決定部80は、図5に示すように、第2の特徴点存在確率分布合成部81と、第2の特徴点候補選択部82と、第2の特徴点位置決定部83と、第2のデータベース88とを備える。   As shown in FIG. 5, the second feature point determination unit 80 includes a second feature point existence probability distribution synthesis unit 81, a second feature point candidate selection unit 82, and a second feature point position determination unit 83. And a second database 88.

第2のデータベース88は、第1のデータベース58と同様に、予め統計的に求められた、顔の特徴点X毎の、当該特徴点の位置座標xを基準としたときの、当該特徴点Xとは異なる他の特徴点Xのそれぞれの存在確率分布P2ijを記憶しているものである。 The second database 88, like the first database 58 in advance statistically determined, for each feature point X i of the face, when the reference position coordinates x i of the feature point, the feature Each of the existence probability distributions P2 ij of other feature points X j different from the point X i is stored.

この存在確率分布P2ijは、ある特徴点検出器によって検出された特徴点の位置座標に対する他の特徴点の正解となる点の存在確率分布を、1つの種類の特徴点Xと1つのその他の種類の特徴点Xとからなる2つ1組の単位で各組毎に用意されたものであり、特徴点同士の間の位置関係をこれら複数組の確率分布を用いて表現することができるものである。すなわち、この存在確率分布が本発明における特徴点の位置関係を第2の許容度で規定する第2の位置関係モデルを表すものである。 The existence probability distribution P2 ij is an existence probability distribution of points that are correct answers of other feature points with respect to the position coordinates of the feature points detected by a certain feature point detector, one type of feature point X i and one other type of feature point X i. Are prepared for each set in units of two sets of types of feature points Xj, and the positional relationship between the feature points can be expressed using a plurality of sets of probability distributions. It can be done. That is, this existence probability distribution represents the second positional relationship model that defines the positional relationship of the feature points in the present invention with the second tolerance.

ここで、特徴点検出器D2の出力座標x2に対する、特徴点Xの存在確率分布をP2ij(x|x2)と定義するものであり、P2ijは2次元のヒストグラムで表される。 Here, the existence probability distribution of the feature point X i with respect to the output coordinate x2 j of the feature point detector D2 j is defined as P2 ij (x i | x2 j ), and P2 ij is represented by a two-dimensional histogram. Is done.

この存在確率分布P2ijを求める手順は次の通りである。まず、特徴点の正解座標が分かっているトレーニング画像に対して、顔検出部20、第1の顔正規化部30、第1の特徴点候補検出部40、および第1の特徴点決定部50を適用して、特徴点Xの種類別に特徴点の位置を決定する。次に、その決定された特徴点の位置に基づいて第2の顔正規化部69により正規化された正規化顔画像を求め、その正規化顔画像上で第2の特徴点検出器群75を構成する特徴点検出器D2により特徴点Xを検出し、その特徴点の座標x2とその他の特徴点Xの正解座標xとのずれを、1つの特徴点Xと1つのその他の特徴点Xとからなる2つ1組の単位で比較、集計する。このような処理を多数のトレーニング画像に対して行い、統計的に学習して前述の存在確率分布P2ijを求める。 The procedure for obtaining the existence probability distribution P2ij is as follows. First, with respect to a training image in which the correct coordinates of feature points are known, the face detection unit 20, the first face normalization unit 30, the first feature point candidate detection unit 40, and the first feature point determination unit 50 are used. To determine the position of the feature point for each type of feature point X i . Next, a normalized face image normalized by the second face normalization unit 69 is obtained based on the determined position of the feature point, and the second feature point detector group 75 is obtained on the normalized face image. detecting a characteristic point X i by the feature point detector D2 i constituting the, the deviation between the correct coordinates x j of the coordinate x2 i and other characteristic point X j of the feature point, and one characteristic point X i 1 Comparison and aggregation are performed in units of two sets of two other feature points Xj . Such processing is performed on a large number of training images and statistically learned to obtain the aforementioned existence probability distribution P2ij .

第2の特徴点存在確率分布合成部81は、第2のデータベース88に記憶されている存在確率分布P2ijを用いて、特徴点X毎に、1つの特徴点Xとは異なる他の特徴点Xの各候補Q2jtの位置をそれぞれ基準としたときの、入力画像S0上での当該1つの特徴点Xの存在確率分布P2ij(x|q2jt)を求め、当該確率分布を次式にしたがって合成するものである。
Second characteristic point existence probability distribution synthesizing unit 81 uses the existence probability distribution P2 ij stored in the second database 88, for each feature point X i, different other than the one feature point X i The existence probability distribution P2 ij (x i | q2 jt ) of the one feature point X i on the input image S0 when the position of each candidate Q2 jt of the feature point X j is used as a reference is obtained. The distribution is synthesized according to the following equation.

ここで、P2は特徴点Xの合成された存在確率分布、P2ij(x|q2jt)は特徴点Xのt番目の候補Q2jtの位置座標q2jtを基準としたときの特徴点X(位置座標x)の存在確率分布、NQ2jは特徴点Xの候補の数、Nは予め定義した特徴点の種類の数である。 Here, P2 i is the combined existence probability distribution of the feature point X i , and P2 ij (x i | q2 jt ) is the position when the position coordinate q2 jt of the t-th candidate Q2 jt of the feature point X j is used as a reference. The existence probability distribution of the feature point X i (position coordinates x i ), N Q2j is the number of feature point X j candidates, and N D is the number of types of feature points defined in advance.

第2の特徴点候補選択部82は、顔の特徴点X毎に、当該特徴点Xの合成された存在確率分布P2における確率を、顔部品の形状の尤度を表す形状スコアSCGとして算出し、この形状スコアSCGの大小と、当該特徴点Xの候補Q2itの位置とに基づいて、当該特徴点の候補Q2itの中から候補Q2′iu(u=NQ2′i)を選択して絞り込むものである。 For each facial feature point X i , the second feature point candidate selection unit 82 sets the probability in the combined existence probability distribution P2 i of the feature point X i to a shape score SCG representing the likelihood of the shape of the face part. 2 , and based on the size of the shape score SCG 2 and the position of the candidate Q2 it of the feature point X i , the candidate Q2 ′ iu (u = N Q2 ′) is selected from the feature point candidates Q2 it. i ) Select and narrow down.

本実施例では、形状スコアSCG、すなわち、特徴点Xの合成された存在確率分布P2上で存在確率が最も高い位置の点を代表点C2とし、特徴点の候補Q2itのうちその代表点C2を略中心とする所定範囲の領域内に存する候補を絞り込むべき候補Q2′iuとして選択する。 In the present embodiment, the shape score SCG 2 , that is, the point having the highest existence probability on the combined existence probability distribution P2 i of the feature point X i is set as the representative point C2 i, and among the feature point candidates Q2 it Candidates that fall within a predetermined range of the region having the representative point C2 i substantially in the center are selected as candidates Q2 ′ iu to be narrowed down.

ここで、上記の代表点C1は、次式にしたがって定義される。
Here, the representative point C1 i is defined according to the following equation.

なお、候補を絞り込む手法としては、第1の特徴点候補選択部52と同様に、候補Q2itのうち、この候補に対応する形状スコアSCGが所定の閾値、例えば、特徴点Xの合成された存在確率分布P2上での存在確率の最大値から所定値を引いた値以上の形状スコアを有する候補のみを選択して絞り込む手法を用いてもよい。 As a method for narrowing down candidates, as in the first feature point candidate selection unit 52, the shape score SCG 2 corresponding to this candidate is combined with a predetermined threshold, for example, the feature point X i in the candidate Q2 it. A method may be used in which only candidates having a shape score equal to or greater than a value obtained by subtracting a predetermined value from the maximum value of the existence probability on the existence probability distribution P2 i are selected and narrowed down.

第2の特徴点位置決定部83は、顔の特徴点X毎に、第2の特徴点候補選択部82により絞り込まれた候補について、各候補の位置座標をその候補が検出されたときの検出スコアでそれぞれ重み付けしたときの、位置座標の重み付き平均を算出し、当該算出された位置座標を特徴点Xの位置として決定する。 The second feature point position determining unit 83 determines the position coordinates of each candidate for the candidates narrowed down by the second feature point candidate selecting unit 82 for each feature point X i of the face. A weighted average of the position coordinates when weighted by the detection score is calculated, and the calculated position coordinates are determined as the position of the feature point X i .

本実施例では、重み係数Weight2iuを次式に従って算出し、ΣWeight2iu×q2′iuで表される位置座標を特徴点Xの位置として決定する。
In the present embodiment, the weight coefficient Weight2 iu is calculated according to the following equation, and the position coordinate represented by ΣWeight2 iu × q2 ′ iu is determined as the position of the feature point X i .

ここで、xは特徴点Xの位置座標、q2′iuは候補Q2′iuの位置座標、Weight2iuは重み係数、SCD2iuは候補Q2′iuの検出スコア、SCD2imaxは候補Q2′iuの中での検出スコアの最大値、N2norは、Σweight2iu=1となるように定義された正規化定数である。 Here, the position coordinates x i are characteristic point X i, q2 'iu candidate Q2' coordinates of iu, weight2 iu weighting factor, SCD 2 IU is 'detection scores iu, SCD 2imax candidate Q2' candidate Q2 iu N 2nor is a normalization constant defined so that Σweight2 iu = 1.

なお、特徴点の決定方法は第1の特徴点位置決定部53と同様に、本実施例に限定されるわけではなく、例えば、絞り込まれた候補について、各候補の位置座標をその候補に対応する形状スコアでそれぞれ重み付けしたときの、位置座標の重み付き平均を特徴点Xの位置として決定してもよいし、各候補の位置座標をその候補に対応する検出スコアと形状スコアの合算値でそれぞれ重み付けしたときの、位置座標の重み付き平均を特徴点Xの位置として決定してもよい。あるいは、絞り込まれた候補の中で、検出スコアが最大の候補の位置座標、形状スコアが最大の候補の位置座標、または、検出スコアと形状スコアの合算値が最大の候補の位置座標を特徴点Xの位置として決定してもよい。 Note that the feature point determination method is not limited to the present embodiment, similar to the first feature point position determination unit 53. For example, for the narrowed candidates, the position coordinates of each candidate correspond to the candidates. The weighted average of the position coordinates when weighted by the shape score to be determined may be determined as the position of the feature point X i , or the position coordinate of each candidate is the sum of the detection score and the shape score corresponding to the candidate The weighted average of the position coordinates when weighted respectively with may be determined as the position of the feature point X i . Alternatively, among the narrowed down candidates, the position coordinates of the candidate with the maximum detection score, the position coordinates of the candidate with the maximum shape score, or the position coordinates of the candidate with the maximum sum of the detection score and the shape score are feature points. it may be determined as the position of the X i.

次に、本実施形態において行われる処理について説明する。図6は、本実施形態において行われる処理を示すフローチャートである。   Next, processing performed in the present embodiment will be described. FIG. 6 is a flowchart showing processing performed in the present embodiment.

まず、画像入力部10が顔およびその特徴点の検出対象となる画像S0の入力を受け付ける(ステップST1)。次に、顔検出部20が入力画像S0に含まれる顔S1を検出し、その顔S1の両目の位置と顔の向きfの情報を取得する(ステップST2)。第1の顔正規化部30は、検出された顔S1について、入力画像S0から相対的な大きさや位置が正規化された顔S1を含む所定サイズの画像を切り出して正規化顔画像S1′を得る(ステップST3)。   First, the image input unit 10 receives an input of an image S0 that is a detection target of a face and its feature points (step ST1). Next, the face detection unit 20 detects the face S1 included in the input image S0, and acquires information on the positions of both eyes and the face orientation f of the face S1 (step ST2). For the detected face S1, the first face normalization unit 30 cuts out an image of a predetermined size including the face S1 whose relative size and position are normalized from the input image S0, and obtains a normalized face image S1 ′. Obtain (step ST3).

正規化顔画像S1′が得られると、多重解像度画像生成部41が、正規化顔画像S1′を基準に解像度が異なる複数の解像度画像S1′を生成し、照明正規化部42が、照明の明るさの影響を受けずに特徴点候補を検出できるように、解像度画像S1′に対して画像のコントラストの正規化を行う。そして、第1の特徴点検索範囲設定部43は、第1のデータベース58に記憶されている存在確率分布P1ijに基づいて解像度画像上で各特徴点Xの検索範囲SR1を設定する。第1の特徴点検出器選択部46は、検出された顔S1の顔の向きfに応じて利用する特徴点検出器の種類を特徴点検出器を第1の特徴点検出器群45の中から選択し、第1の検出処理部44は、解像度画像S1′に対して選択された特徴点検出器を適用する。すなわち、正規化顔画像S1′上で指定した判定対象領域の画像に対し、当該画像の略中心に特徴点が含まれる蓋然性を示す検出スコアSCDを算出し、当該検出スコアSCDの閾値判定により、顔の特徴点X毎にその特徴点の候補Q1itを少なくとも1つ検出する(ステップST4)。 'When is obtained, the multi-resolution image generation unit 41, the normalized face image S1' normalized face image S1 to generate a plurality of resolution images S1, different resolutions on the basis of the 'k, illumination normalization unit 42, illumination so as to detect the brightness feature point candidate without being affected by the performs normalization of contrast of the image with respect to resolution images S1 'k. Then, the first feature point search range setting unit 43 sets the search range SR1 i of each feature point X i on the resolution image based on the existence probability distribution P1 ij stored in the first database 58. The first feature point detector selection unit 46 selects the type of feature point detector to be used in accordance with the detected face orientation f of the face S1, and sets the feature point detector in the first feature point detector group 45. select from the first detection processing section 44 applies the feature point detector selected for resolution images S1 'k. That is, for the image of the determination target region designated on the normalized face image S1 ′, the detection score SCD 1 indicating the probability that the feature point is included at the approximate center of the image is calculated, and the threshold value determination of the detection score SCD 1 is performed. Accordingly, at least one detection candidate Q1 it of its feature points in each feature point X i of the face (step ST4).

特徴点の候補が検出されると、第1の特徴点存在確率合成部51は、第1のデータベース58に記憶されている存在確率分布P1ijを用いて、特徴点X毎に、1つの特徴点Xとは異なる他の特徴点Xの各候補Q1jtの位置をそれぞれ基準としたときの、入力画像S0上での当該1つの特徴点Xの存在確率分布P1ij(x|q1jt)を求め、当該確率分布を上記の式(3)にしたがって合成する。第1の特徴点候補選択部52は、形状スコアSCG、すなわち、特徴点Xの合成された存在確率分布P1上で存在確率が最も高い位置の点を代表点C1とし、特徴点の候補Q1itのうちその代表点C1を略中心とする所定範囲の領域内に存する候補を絞り込むべき候補Q1′iuとして選択する。そして、第1の特徴点位置決定部53が、顔の特徴点X毎に、第1の特徴点候補選択部52により絞り込まれた候補について、各候補の位置座標をその候補が検出されたときの検出スコアでそれぞれ重み付けしたときの、位置座標の重み付き平均を算出し、当該算出された位置座標を特徴点Xの位置として決定する(ステップST5)。 When a feature point candidate is detected, the first feature point existence probability synthesis unit 51 uses the existence probability distribution P1 ij stored in the first database 58, for each feature point X i . The existence probability distribution P1 ij (x i) of the one feature point X i on the input image S 0 when the position of each candidate Q 1 jt of another feature point X j different from the feature point X i is used as a reference. | Q1 jt ), and the probability distribution is synthesized according to the above equation (3). The first feature point candidate selection unit 52 sets the point having the highest existence probability on the shape score SCG 1 , that is, the existence probability distribution P1 i in which the feature points X i are combined, as the representative point C1 i. Of the candidates Q1 it are selected as candidates Q1 ′ iu to be narrowed down, which are candidates within a predetermined range having the representative point C1 i as the center. Then, the first feature point position determining unit 53 detects the position coordinates of each candidate for the candidates narrowed down by the first feature point candidate selecting unit 52 for each facial feature point X i . The weighted average of the position coordinates when weighted with the detection score at the time is calculated, and the calculated position coordinates are determined as the position of the feature point X i (step ST5).

第1の特徴点位置決定部53により各特徴点Xの位置が決定されると、第2の顔正規化部60は、それら決定された各特徴点がそれぞれ所定の基準位置に近づくように、既に顔S1の特徴点が検出された解像度画像S1″に対して、アスペクト比を維持した拡大縮小、回転、平行移動のみを考慮したアフィン変換を行い、顔を含む画像を切り出して新たな正規化顔画像S2″を得る(ステップST6)。 When the position of each feature point X i is determined by the first feature point position determination unit 53, the second face normalization unit 60 causes each of the determined feature points to approach a predetermined reference position. Then, affine transformation is performed on the resolution image S1 ″ k in which the feature point of the face S1 has already been detected, taking into account only the scaling, rotation, and translation while maintaining the aspect ratio, and an image including the face is cut out to create a new one. A normalized face image S2 ″ k is obtained (step ST6).

正規化顔画像S2″が得られると、第2の特徴点検索範囲設定部73は、第2のデータベース88に記憶されている存在確率分布P2ijに基づいて正規化顔画像S2″上で各特徴点Xの検索範囲SR2を設定する。第2の特徴点検出器選択部76は、検出された顔S1の顔の向きfに応じて利用する特徴点検出器の種類を特徴点検出器を第2の特徴点検出器群75の中から選択し、第2の検出処理部74は、正規化顔画像S2″に対して、選択された特徴点検出器を適用する。すなわち、正規化顔画像S2″上で指定した判定対象領域の画像に対し、当該画像の略中心に特徴点が含まれる蓋然性を示す検出スコアSCDを算出し、当該検出スコアSCDの閾値判定により、顔の特徴点X毎にその特徴点の候補Q2itを少なくとも1つ検出する(ステップST7)。 When the normalized face image S2 ″ k is obtained, the second feature point search range setting unit 73 performs the operation on the normalized face image S2 ″ k based on the existence probability distribution P2 ij stored in the second database 88. To set the search range SR2 i of each feature point X i . The second feature point detector selecting unit 76 selects the type of feature point detector to be used according to the detected face orientation f of the face S1, and sets the feature point detector in the second feature point detector group 75. select from the second detection processing section 74, the normalized face image S2 "with respect to k, applying the feature point detector selected. that is, the normalized face image S2" determination target specified by the k A detection score SCD 2 indicating the probability that a feature point is included in the approximate center of the image is calculated for the image of the region, and the threshold value of the detection score SCD 2 is used to determine the feature score for each facial feature point X i . at least one detecting candidate Q2 it (step ST7).

特徴点の候補が検出されると、第2の特徴点存在確率合成部81は、第2のデータベース88に記憶されている存在確率分布P2ijを用いて、特徴点X毎に、1つの特徴点Xとは異なる他の特徴点Xの各候補Q2jtの位置をそれぞれ基準としたときの、入力画像S0上での当該1つの特徴点Xの存在確率分布P2ij(x|q2jt)を求め、当該確率分布を上記の式(7)にしたがって合成する。第2の特徴点候補選択部82は、形状スコアSCG、すなわち、特徴点Xの合成された存在確率分布P2上で存在確率が最も高い位置の点を代表点C2とし、特徴点の候補Q2itのうちその代表点C2を略中心とする所定範囲の領域内に存する候補を絞り込むべき候補Q2′iuとして選択する。そして、第2の特徴点位置決定部83が、顔の特徴点X毎に、第2の特徴点候補選択部82により絞り込まれた候補について、各候補の位置座標をその候補が検出されたときの検出スコアでそれぞれ重み付けしたときの、位置座標の重み付き平均を算出し、当該算出された位置座標を特徴点Xの位置として決定する。そして、このようにして最終的に決定された特徴点Xの位置を、真の特徴点の位置としてその位置の情報を出力する(ステップST8)。 When a feature point candidate is detected, the second feature point existence probability synthesis unit 81 uses the existence probability distribution P2 ij stored in the second database 88 to generate one feature point X i for each feature point X i . The existence probability distribution P2 ij (x i) of the one feature point X i on the input image S 0 when the position of each candidate Q 2 jt of another feature point X j different from the feature point X i is used as a reference. | Q2 jt ), and the probability distribution is synthesized according to the above equation (7). The second feature point candidate selecting unit 82 sets the shape score SCG 2 , that is, the point having the highest existence probability on the existence probability distribution P2 i synthesized with the feature point X i as the representative point C2 i , and the feature point Of the candidates Q2 it are selected as candidates Q2 ′ iu to be narrowed down in the range of a predetermined range whose center is the representative point C2 i . Then, the second feature point position determining unit 83 detects the position coordinates of each candidate for the candidates narrowed down by the second feature point candidate selecting unit 82 for each facial feature point X i . The weighted average of the position coordinates when weighted with the detection score of each time is calculated, and the calculated position coordinates are determined as the position of the feature point X i . Then, the position information of the feature point X i finally determined in this way is output as the position of the true feature point (step ST8).

このような本実施形態による顔特徴点検出システムによれば、入力画像S0における顔S1の複数種類の特徴点の候補を、第1の検出精度および第1のロバスト性を有する第1の特徴点検出器群45を用いて検出し、その検出された特徴点の候補の位置と、上記複数種類の特徴点同士の位置関係を第1の許容度で規定する第1の位置関係モデルとに基づいて、第1の位置関係モデルで拘束された位置関係を有する上記複数種類の特徴点を決定した後、その決定された上記複数種類の特徴点の各々の近傍で、特徴点の候補を、第1の検出精度より高い第2の検出精度および第1のロバスト性より低い第2のロバスト性を有する第2の特徴点検出器群75を用いて検出し、その検出された特徴点の候補の位置と、上記複数種類の特徴点同士の位置関係を第1の許容度より小さい第2の許容度で規定する第2の位置関係モデルとに基づいて、第2の位置関係モデルで拘束された位置関係を有する上記複数種類の特徴点を決定するようしているので、比較的粗い検出の後に比較的細かい検出を行うという2段階構成の採用により高速で検出精度がよい特徴点検出を行うことができるとともに、特徴点同士の位置関係の拘束により不正解の特徴点候補を排除することができ、画像に含まれる顔S1の複数種類の特徴点を、高速に精度よくかつ安定して検出することができる。   According to such a face feature point detection system according to the present embodiment, a plurality of types of feature point candidates of the face S1 in the input image S0 are detected by the first feature inspection having the first detection accuracy and the first robustness. Based on a first positional relationship model that uses a first tolerance to detect the position of the candidate feature points detected using the output device group 45 and the positional relationship among the plurality of types of feature points. Then, after determining the plurality of types of feature points having a positional relationship constrained by the first positional relationship model, a feature point candidate is determined in the vicinity of each of the determined plurality of types of feature points. A second feature point detector group 75 having a second detection accuracy higher than the detection accuracy of 1 and a second robustness lower than the first robustness, and the detected feature point candidates Position and position between the above-mentioned multiple types of feature points The plurality of types of feature points having a positional relationship constrained by the second positional relationship model are determined based on a second positional relationship model that defines the relationship with a second tolerance smaller than the first tolerance. Therefore, by adopting a two-stage configuration in which relatively fine detection is performed after relatively coarse detection, feature points can be detected at high speed with good detection accuracy, and the positional relationship between the feature points can be restricted. Thus, incorrect feature point candidates can be eliminated, and a plurality of types of feature points of the face S1 included in the image can be detected quickly and accurately.

また、本実施形態による顔特徴点検出システムによれば、粗い特徴点検出の後、第2の顔正規化処理、すなわち、検出された各特徴点の位置が所定の基準位置に近づくような、アスペクト比を維持した幾何学的正規化処理を行ってから、細かい特徴点検出を行うようにしているので、粗い特徴点検出を行う前の段階で規格化しきれなかった顔の幾何学的なずれを補正する機会を得ることができ、特徴点の検出精度をより向上させることができる。   Further, according to the face feature point detection system according to the present embodiment, after the rough feature point detection, the second face normalization process, that is, the position of each detected feature point approaches a predetermined reference position, Fine feature point detection is performed after geometric normalization processing that maintains the aspect ratio, so the geometric shift of the face that could not be normalized before the coarse feature point detection was performed. Can be obtained, and the detection accuracy of feature points can be further improved.

また、本実施形態による顔特徴点検出システムによれば、特徴点の種類毎に、第1および第2の特徴点候補選択部により絞り込まれた特徴点の各候補の位置座標をその候補が検出されたときの検出スコアでそれぞれ重み付けしたときの重み付き平均を算出し、この重み付き平均で表された位置座標を特徴点の位置として決定しているので、特徴点の正解位置から大きくずれた位置に単独で存在するような不正解の候補の影響を抑えることができる。   Further, according to the face feature point detection system according to the present embodiment, for each type of feature point, the candidate detects the position coordinates of each candidate feature point narrowed down by the first and second feature point candidate selection units. Since the weighted average when weighted with the detection score at the time of each is calculated, and the position coordinates represented by this weighted average are determined as the position of the feature point, there is a large deviation from the correct position of the feature point It is possible to suppress the influence of incorrect answer candidates that exist independently at the position.

なお、この場合、式(5-1),(5-2)、式(9-1),(9-2)等の指数関数的に表現された重み付け係数を用いて重み付き平均を求めるようにするとよい。このような重み付き平均から特徴点の位置を決定する手法によれば、特徴点の位置の精度がより向上することが、本出願人の実験により明らかになっている。   In this case, the weighted average is obtained by using exponentially expressed weighting coefficients such as Expressions (5-1), (5-2), Expressions (9-1), and (9-2). It is good to do. According to the experiment of the present applicant, it has been clarified that according to the method of determining the position of the feature point from such weighted average, the accuracy of the position of the feature point is further improved.

以上、本発明の望ましい実施形態について説明したが、本発明の装置および方法並びにそのためのプログラムは、上述した実施形態に限られることなく、本発明の主旨を逸脱しない限り、様々な増減、変化を加えることができる。   The preferred embodiments of the present invention have been described above. However, the apparatus and method of the present invention and the program therefor are not limited to the above-described embodiments, and various increases / decreases and changes can be made without departing from the gist of the present invention. Can be added.

本発明の実施形態である顔特徴点検出システムの構成を示すブロック図The block diagram which shows the structure of the face feature point detection system which is embodiment of this invention 第1の特徴点候補検出部40の構成を示すブロック図The block diagram which shows the structure of the 1st feature point candidate detection part 40. 第1の特徴点決定部50の構成を示すブロック図The block diagram which shows the structure of the 1st feature point determination part 50. 第2の特徴点候補検出部70の構成を示すブロック図The block diagram which shows the structure of the 2nd feature point candidate detection part 70. 第2の特徴点決定部80の構成を示すブロック図The block diagram which shows the structure of the 2nd feature point determination part 80. 本発明の実施形態である顔特徴点検出システムにおける処理を示すフローチャートThe flowchart which shows the process in the face feature point detection system which is embodiment of this invention 顔正規化処理の様子を示す図The figure which shows the mode of face normalization processing 1つの特徴点を基準としたときその他の特徴点の位置の確率分布の例を示す図The figure which shows the example of the probability distribution of the position of other feature points when one feature point is made into a reference | standard 多重解像度化処理の様子を示す図Diagram showing the state of multi-resolution processing 特徴点検出器が備える識別器の学習に用いる特徴点のサンプル画像の例を示す図The figure which shows the example of the sample image of the feature point used for the learning of the discriminator with which a feature point detector is equipped 画像上で特徴点別に設定された検索範囲の例を示す図The figure which shows the example of the search range set according to the feature point on the image 統計的に求められた特徴点の存在確率分布の例を示す図Figure showing an example of statistical distribution of feature points 識別器の導出方法を示す図Diagram showing how to derive a classifier 照明正規化処理に用いる画素値の変換曲線の一例を示す図The figure which shows an example of the conversion curve of the pixel value used for an illumination normalization process

符号の説明Explanation of symbols

10 画像入力部
20 顔検出部
30 第1の顔正規化部
40 第1の特徴点候補検出部
41 多重解像度画像生成部
42 照明正規化部
43 第1の特徴点検索範囲設定部
44 第1の特徴点検出器選択部
45 第1の特徴点検出器群
50 第1の特徴点決定部
51 第1の特徴点存在確率分布合成部
52 第1の特徴点候補選択部
53 第1の特徴点位置決定部
58 第1のデータベース
60 第2の顔正規化部
70 第2の特徴点候補検出部
73 第2の特徴点検索範囲設定部
74 第2の特徴点検出器選択部
75 第2の特徴点検出器群
80 第2の特徴点決定部
81 第2の特徴点存在確率分布合成部
82 第2の特徴点候補選択部
83 第2の特徴点位置決定部
88 第2のデータベース
DESCRIPTION OF SYMBOLS 10 Image input part 20 Face detection part 30 1st face normalization part 40 1st feature point candidate detection part 41 Multi-resolution image generation part 42 Illumination normalization part 43 1st feature point search range setting part 44 1st Feature point detector selection unit 45 First feature point detector group 50 First feature point determination unit 51 First feature point existence probability distribution synthesis unit 52 First feature point candidate selection unit 53 First feature point position Determination unit 58 First database 60 Second face normalization unit 70 Second feature point candidate detection unit 73 Second feature point search range setting unit 74 Second feature point detector selection unit 75 Second feature inspection 80 second feature point determination unit 81 second feature point existence probability distribution synthesis unit 82 second feature point candidate selection unit 83 second feature point position determination unit 88 second database

Claims (10)

検出対象画像における所定対象物の複数種類の特徴点の候補を、マシンラーニングにより生成された第1の検出精度および第1のロバスト性を有する第1の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第1の特徴点候補検出手段と、
該第1の特徴点候補検出手段により検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を第1の許容度で規定する第1の位置関係モデルとに基づいて、該第1の位置関係モデルで拘束された位置関係を有する前記複数種類の暫定特徴点を決定する第1の特徴点決定手段と、
該第1の特徴点決定手段により決定された前記複数種類の暫定特徴点の各々の近傍で、特徴点の候補を、マシンラーニングにより生成された前記第1の検出精度より高い第2の検出精度および前記第1のロバスト性より低い第2のロバスト性を有する第2の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第2の特徴点候補検出手段と、
該第2の特徴点候補検出手段により検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を前記第1の許容度より小さい第2の許容度で規定する第2の位置関係モデルとに基づいて、前記第2の位置関係モデルで拘束された位置関係を有する前記複数種類の最終特徴点を決定する第2の特徴点決定手段とを備えたことを特徴とする特徴点検出装置。
Using the first feature point detector group having the first detection accuracy and the first robustness generated by machine learning, the types of feature point candidates of the predetermined object in the detection target image First feature point candidate detecting means for detecting at least one for each;
Based on the position of candidate feature points detected by the first feature point candidate detection means and a first positional relationship model that defines the positional relationship among the plurality of types of feature points with a first tolerance. First feature point determining means for determining the plurality of types of provisional feature points having a positional relationship constrained by the first positional relationship model;
A second detection accuracy that is higher than the first detection accuracy generated by machine learning in the vicinity of each of the plurality of types of provisional feature points determined by the first feature point determination means. And second feature point candidate detecting means for detecting at least one for each type using a second feature point detector group having a second robustness lower than the first robustness,
A second feature that defines the position of the feature point candidates detected by the second feature point candidate detection means and the positional relationship between the plurality of types of feature points with a second tolerance smaller than the first tolerance; And a second feature point determining means for determining the plurality of types of final feature points having a positional relationship constrained by the second positional relationship model. Feature point detection device.
前記検出対象画像に対して、前記第1の特徴点決定手段により決定された前記複数種類の暫定特徴点をそれぞれ所定の基準位置に近づける、アスペクト比を維持した幾何学的正規化処理を施す正規化手段をさらに備え、
前記第2の特徴点候補検出手段が、前記正規化手段により正規化された検出対象画像上で前記候補を検出するものであることを特徴とする請求項1記載の特徴点検出装置。
A normality that performs geometric normalization processing that maintains the aspect ratio that brings the plurality of types of provisional feature points determined by the first feature point determination unit closer to a predetermined reference position on the detection target image. And further comprising
The feature point detection apparatus according to claim 1, wherein the second feature point candidate detection unit detects the candidate on a detection target image normalized by the normalization unit.
前記第1の特徴点決定手段が、
前記複数種類の特徴点の中の2つの異なる特徴点からなる組合せ毎に統計的に求められた、一方の特徴点の位置を基準としたときの他方の特徴点の画像上の存在確率分布を用いて、1つの種類の特徴点について、他の種類の特徴点の前記検出された候補の位置を基準としたときの該1つの種類の特徴点の存在確率分布を、該他の特徴点の候補毎にそれぞれ求め、該求められた存在確率分布を合成する処理を、特徴点の前記種類毎に行う第1の存在確率分布合成手段と、
1つの種類の特徴点について、該1つの種類の特徴点の前記検出された候補の位置と、該1つの種類の特徴点の前記合成された存在確率分布における存在確率の大小とに基づいて、該1つの種類の特徴点の候補を前記検出された候補の中から選択して絞り込む処理を、特徴点の前記種類毎に行う第1の特徴点候補選択手段と、
特徴点の前記種類毎に、該種類の特徴点の前記選択された候補の位置に基づいて、該種類の暫定特徴点の位置を決定する第1の特徴点位置決定手段とを備えたものであることを特徴とする請求項1または2記載の特徴点検出装置。
The first feature point determining means is
The existence probability distribution on the image of the other feature point when the position of one feature point is used as a reference, which is statistically obtained for each combination of two different feature points among the plurality of types of feature points. And using the existence probability distribution of the one type of feature point with respect to the position of the detected candidate of the other type of feature point for one type of feature point. First existence probability distribution synthesizing means for obtaining each candidate and synthesizing the obtained existence probability distribution for each type of feature points;
For one type of feature point, based on the position of the detected candidate for the one type of feature point and the magnitude of the existence probability in the combined existence probability distribution of the one type of feature point, First feature point candidate selecting means for performing processing for selecting and narrowing down the one type of feature point candidates from the detected candidates for each type of feature points;
For each of the types of feature points, there is provided first feature point position determining means for determining the position of the temporary feature point of the type based on the position of the selected candidate of the type of feature point. The feature point detection apparatus according to claim 1, wherein the feature point detection apparatus is provided.
前記第1の特徴点候補選択手段が、特徴点の前記種類毎に、前記検出された候補のうち、該種類の特徴点の前記合成された存在確率分布における存在確率が最も高い位置の点を代表とする所定領域内に存する候補を選択するものであることを特徴とする請求項3記載の特徴点検出装置。   For each type of feature point, the first feature point candidate selecting means selects a point at a position having the highest existence probability in the synthesized existence probability distribution of the feature points of the type among the detected candidates. 4. The feature point detecting apparatus according to claim 3, wherein a candidate existing in a predetermined predetermined region is selected. 前記第1の特徴点候補選択手段が、特徴点の前記種類毎に、前記検出された候補のうち、該候補の位置に対応した、前記種類の特徴点の前記合成された存在確率分布における存在確率が所定の閾値以上である候補を選択するものであることを特徴とする請求項3記載の特徴点検出装置。   The first feature point candidate selecting means, for each type of feature point, out of the detected candidates, the presence of the type of feature points in the combined existence probability distribution corresponding to the position of the candidate 4. The feature point detection apparatus according to claim 3, wherein a candidate having a probability equal to or greater than a predetermined threshold is selected. 前記第1の特徴点候補検出手段が、前記検出対象画像上の識別対象画像が特徴点を含む画像である蓋然性を示す確信度の閾値判定に基づいて、該識別対象画像における対象を該特徴点の候補として検出するものであり、
前記第1の特徴点位置決定手段が、特徴点の前記種類毎に、該種類の特徴点について選択されたすべての候補の位置座標を、該候補に対して算出された前記確信度で重み付けしたときの、前記位置座標の重み付き平均を該種類の暫定特徴点の位置座標として決定するものであることを特徴とする請求項3、4または5記載の特徴点検出装置。
The first feature point candidate detecting means detects the target in the identification target image based on a threshold value determination of certainty indicating the probability that the identification target image on the detection target image is an image including a feature point. Are detected as candidates for
The first feature point position determining means weights, for each type of feature point, the position coordinates of all candidates selected for the type of feature point with the certainty factor calculated for the candidate. 6. The feature point detection apparatus according to claim 3, wherein the weighted average of the position coordinates is determined as the position coordinates of the temporary feature point of the type.
前記第1の特徴点位置決定手段が、特徴点の前記種類毎に、該種類の特徴点について選択されたすべての候補の位置座標を、該候補の位置に対応した、該種類の特徴点の前記合成された存在確率分布における存在確率で重み付けしたときの、前記位置座標の重み付き平均を該種類の暫定特徴点の位置座標として決定するものであることを特徴とする請求項3、4または5記載の特徴点検出装置。   For each of the types of feature points, the first feature point position determining means sets the position coordinates of all candidates selected for the type of feature points to the feature points of the type corresponding to the positions of the candidates. The weighted average of the position coordinates when weighted with the existence probability in the synthesized existence probability distribution is determined as the position coordinates of the temporary feature point of the type, 5. The feature point detection apparatus according to 5. 前記所定対象物が、人物の顔であることを特徴とする請求項1から7いずれか記載の特徴点検出装置。   The feature point detection apparatus according to claim 1, wherein the predetermined object is a human face. 検出対象画像における所定対象物の複数種類の特徴点の候補を、マシンラーニングにより生成された第1の検出精度および第1のロバスト性を有する第1の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第1の特徴点候補検出ステップと、
該第1の特徴点候補検出ステップにより検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を第1の許容度で規定する第1の位置関係モデルとに基づいて、前記第1の位置関係モデルで拘束された位置関係を有する前記複数種類の暫定特徴点を決定する第1の特徴点決定ステップと、
該第1の特徴点決定ステップにより決定された前記複数種類の暫定特徴点の各々の近傍で、特徴点の候補を、マシンラーニングにより生成された前記第1の検出精度より高い第2の検出精度および前記第1のロバスト性より低い第2のロバスト性を有する第2の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第2の特徴点候補検出ステップと、
該第2の特徴点候補検出ステップにより検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を前記第1の許容度より小さい第2の許容度で規定する第2の位置関係モデルとに基づいて、前記第2の位置関係モデルで拘束された位置関係を有する前記複数種類の最終特徴点を決定する第2の特徴点決定ステップとを有することを特徴とする特徴点検出方法。
Using the first feature point detector group having the first detection accuracy and the first robustness generated by machine learning, the types of feature point candidates of the predetermined object in the detection target image A first feature point candidate detection step of detecting at least one for each;
Based on the position of the feature point candidate detected by the first feature point candidate detection step and the first positional relationship model that defines the positional relationship among the plurality of types of feature points with a first tolerance. A first feature point determining step for determining the plurality of types of provisional feature points having a positional relationship constrained by the first positional relationship model;
A second detection accuracy higher than the first detection accuracy generated by machine learning in the vicinity of each of the plurality of types of provisional feature points determined by the first feature point determination step. And a second feature point candidate detecting step of detecting at least one for each type using a second feature point detector group having a second robustness lower than the first robustness;
A second feature that defines the position of the feature point candidates detected by the second feature point candidate detection step and the positional relationship between the plurality of types of feature points with a second tolerance smaller than the first tolerance; And a second feature point determining step for determining the plurality of types of final feature points having a positional relationship constrained by the second positional relationship model. Point detection method.
コンピュータを、
検出対象画像における所定対象物の複数種類の特徴点の候補を、マシンラーニングにより生成された第1の検出精度および第1のロバスト性を有する第1の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第1の特徴点候補検出手段と、
該第1の特徴点候補検出手段により検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を第1の許容度で規定する第1の位置関係モデルとに基づいて、前記第1の位置関係モデルで拘束された位置関係を有する前記複数種類の暫定特徴点を決定する第1の特徴点決定手段と、
該第1の特徴点決定手段により決定された前記複数種類の暫定特徴点の各々の近傍で、特徴点の候補を、マシンラーニングにより生成された前記第1の検出精度より高い第2の検出精度および前記第1のロバスト性より低い第2のロバスト性を有する第2の特徴点検出器群を用いて、前記種類毎に少なくとも1つ検出する第2の特徴点候補検出手段と、
該第2の特徴点候補検出手段により検出された特徴点の候補の位置と、前記複数種類の特徴点同士の位置関係を前記第1の許容度より小さい第2の許容度で規定する第2の位置関係モデルとに基づいて、前記第2の位置関係モデルで拘束された位置関係を有する前記複数種類の最終特徴点を決定する第2の特徴点決定手段として機能させるためのプログラム。
Computer
Using the first feature point detector group having the first detection accuracy and the first robustness generated by machine learning, the types of feature point candidates of the predetermined object in the detection target image First feature point candidate detecting means for detecting at least one for each;
Based on the position of candidate feature points detected by the first feature point candidate detection means and a first positional relationship model that defines the positional relationship among the plurality of types of feature points with a first tolerance. First feature point determining means for determining the plurality of types of provisional feature points having a positional relationship constrained by the first positional relationship model;
A second detection accuracy that is higher than the first detection accuracy generated by machine learning in the vicinity of each of the plurality of types of provisional feature points determined by the first feature point determination means. And second feature point candidate detecting means for detecting at least one for each type using a second feature point detector group having a second robustness lower than the first robustness,
A second feature that defines the position of the feature point candidates detected by the second feature point candidate detection means and the positional relationship between the plurality of types of feature points with a second tolerance smaller than the first tolerance; A program for functioning as second feature point determining means for determining the plurality of types of final feature points having a positional relationship constrained by the second positional relationship model based on the positional relationship model.
JP2006170983A 2006-06-21 2006-06-21 Feature point detection apparatus and method, and program Active JP4795864B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006170983A JP4795864B2 (en) 2006-06-21 2006-06-21 Feature point detection apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006170983A JP4795864B2 (en) 2006-06-21 2006-06-21 Feature point detection apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2008003749A true JP2008003749A (en) 2008-01-10
JP4795864B2 JP4795864B2 (en) 2011-10-19

Family

ID=39008087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006170983A Active JP4795864B2 (en) 2006-06-21 2006-06-21 Feature point detection apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4795864B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2101283A2 (en) 2008-03-14 2009-09-16 Sony Corporation Information processing apparatus, method, and program
JP2010271872A (en) * 2009-05-20 2010-12-02 Canon Inc Image recognition device, imaging apparatus, and image recognition method
WO2011065130A1 (en) * 2009-11-25 2011-06-03 日本電気株式会社 Device and method that compare facial images
JP2013065118A (en) * 2011-09-15 2013-04-11 Toshiba Corp Face recognition device and face recognition method
KR20150047950A (en) * 2013-10-25 2015-05-06 한국전자통신연구원 Effective visual descriptor extraction method and system using feature selection
US9098760B2 (en) 2011-09-15 2015-08-04 Kabushiki Kaisha Toshiba Face recognizing apparatus and face recognizing method
JP2021064424A (en) * 2017-06-26 2021-04-22 日本電気株式会社 Device, method, and program for processing information
WO2021235641A1 (en) * 2020-05-18 2021-11-25 주식회사 엘지생활건강 Age estimation device and method for estimating age

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348851A (en) * 1993-04-12 1994-12-22 Sony Corp Object position detecting method
JPH0944676A (en) * 1995-08-01 1997-02-14 Toyota Motor Corp Face detector
JP2004054442A (en) * 2002-07-17 2004-02-19 Glory Ltd Face detecting device, face detecting method, and face detecting program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348851A (en) * 1993-04-12 1994-12-22 Sony Corp Object position detecting method
JPH0944676A (en) * 1995-08-01 1997-02-14 Toyota Motor Corp Face detector
JP2004054442A (en) * 2002-07-17 2004-02-19 Glory Ltd Face detecting device, face detecting method, and face detecting program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2101283A2 (en) 2008-03-14 2009-09-16 Sony Corporation Information processing apparatus, method, and program
JP2009223459A (en) * 2008-03-14 2009-10-01 Sony Corp Information processor and method, and program
JP4655235B2 (en) * 2008-03-14 2011-03-23 ソニー株式会社 Information processing apparatus and method, and program
JP2010271872A (en) * 2009-05-20 2010-12-02 Canon Inc Image recognition device, imaging apparatus, and image recognition method
US8897568B2 (en) 2009-11-25 2014-11-25 Nec Corporation Device and method that compare facial images
WO2011065130A1 (en) * 2009-11-25 2011-06-03 日本電気株式会社 Device and method that compare facial images
JP5644773B2 (en) * 2009-11-25 2014-12-24 日本電気株式会社 Apparatus and method for collating face images
JP2013065118A (en) * 2011-09-15 2013-04-11 Toshiba Corp Face recognition device and face recognition method
US9098760B2 (en) 2011-09-15 2015-08-04 Kabushiki Kaisha Toshiba Face recognizing apparatus and face recognizing method
KR20150047950A (en) * 2013-10-25 2015-05-06 한국전자통신연구원 Effective visual descriptor extraction method and system using feature selection
KR101713690B1 (en) 2013-10-25 2017-03-08 한국전자통신연구원 Effective visual descriptor extraction method and system using feature selection
JP2021064424A (en) * 2017-06-26 2021-04-22 日本電気株式会社 Device, method, and program for processing information
JP7230939B2 (en) 2017-06-26 2023-03-01 日本電気株式会社 Information processing device, information processing method and information processing program
US11915518B2 (en) 2017-06-26 2024-02-27 Nec Corporation Facial authentication device, facial authentication method, and program recording medium
WO2021235641A1 (en) * 2020-05-18 2021-11-25 주식회사 엘지생활건강 Age estimation device and method for estimating age

Also Published As

Publication number Publication date
JP4795864B2 (en) 2011-10-19

Similar Documents

Publication Publication Date Title
JP4532419B2 (en) Feature point detection method, apparatus, and program
JP4657934B2 (en) Face detection method, apparatus and program
US7801337B2 (en) Face detection method, device and program
JP4517633B2 (en) Object detection apparatus and method
JP4708909B2 (en) Method, apparatus and program for detecting object of digital image
JP4795864B2 (en) Feature point detection apparatus and method, and program
US8811744B2 (en) Method for determining frontal face pose
JP4624889B2 (en) Face detection method, apparatus and program
US8577099B2 (en) Method, apparatus, and program for detecting facial characteristic points
US20080310759A1 (en) Generic face alignment via boosting
WO2012098842A1 (en) Feature extraction unit, feature extraction method, feature extraction program, and image processing device
JP4708948B2 (en) Face orientation identification method, face discrimination method and apparatus, and program
JP4588575B2 (en) Method, apparatus and program for detecting multiple objects in digital image
JP2008117391A (en) Method and apparatus for detecting faces in digital images
JP2007128127A (en) Face detection method, device, and program
JP4553044B2 (en) Group learning apparatus and method
JP4757598B2 (en) Face detection method, apparatus, and program
JP4690190B2 (en) Image processing method, apparatus, and program
JP2011170890A (en) Face detecting method, face detection device, and program
JP4749879B2 (en) Face discrimination method, apparatus, and program
JP4749884B2 (en) Learning method of face discriminating apparatus, face discriminating method and apparatus, and program
JP2019139618A (en) Information processing device, method for discriminating subject and computer program
JP4795737B2 (en) Face detection method, apparatus, and program
JP2006244385A (en) Face-discriminating apparatus, program and learning method for the apparatus
JP2010257324A (en) Image processing apparatus and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110728

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4795864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250