JP2011232845A - Feature point extracting device and method - Google Patents

Feature point extracting device and method Download PDF

Info

Publication number
JP2011232845A
JP2011232845A JP2010100594A JP2010100594A JP2011232845A JP 2011232845 A JP2011232845 A JP 2011232845A JP 2010100594 A JP2010100594 A JP 2010100594A JP 2010100594 A JP2010100594 A JP 2010100594A JP 2011232845 A JP2011232845 A JP 2011232845A
Authority
JP
Japan
Prior art keywords
feature point
feature
candidate
weight
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010100594A
Other languages
Japanese (ja)
Inventor
Jun Nishimura
純 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010100594A priority Critical patent/JP2011232845A/en
Publication of JP2011232845A publication Critical patent/JP2011232845A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect feature points stably even if a concealed region is present.SOLUTION: A feature point extracting device includes: an object detection unit 101 that detects an object from input images; a weight setting unit 102A that sets a weight for each feature point by using a likelihood A supplied from the object detection unit; a learning result storing unit 104 that includes a shape model showing a statistical positional relationship of the feature points and a profile showing a predetermined range of feature amount with respect to each of the positions of the feature points; a candidate point searching unit 103 that searches best candidate position of each feature point; and a shaping processing unit 105 that projects candidate points on the shape model by using a shape factor. The weight with respect to each feature point set by the weight setting unit 102A is used for weighting a difference between the candidate positions of the feature points and the positions of the feature points in the corresponding shape model to compute the shape factor.

Description

本発明は、画像の中から対象物の特徴点を検出するための装置や方法やプログラム等に適用される技術に関するものである。   The present invention relates to a technique applied to an apparatus, a method, a program, and the like for detecting feature points of an object from an image.

画像から顔の特徴点(目、口、鼻の端点など)を抽出する際、一般的にはまず顔検出を行い、処理範囲を限定する。画像から検出された顔に対して徴点位置を得る方法(以下、「特徴点抽出方法」と呼ぶ)としては、ASM(Active Shape Model)と呼ばれる技術がある (非特許文献1)。上記特徴点抽出方法の手順を以下に説明する。   When extracting facial feature points (eye, mouth, nose end points, etc.) from an image, generally face detection is first performed to limit the processing range. As a method for obtaining a point position for a face detected from an image (hereinafter referred to as “feature point extraction method”), there is a technique called ASM (Active Shape Model) (Non-patent Document 1). The procedure of the feature point extraction method will be described below.

図10はASMを実施するための特徴点抽出装置1000の構成図である。
対象物検出部1001は入力された画像から対象物(例えば顔)を検出し顔検出位置を算出する。
FIG. 10 is a configuration diagram of a feature point extraction apparatus 1000 for implementing ASM.
The object detection unit 1001 detects an object (for example, a face) from the input image and calculates a face detection position.

学習用の顔画像について取得された特徴点位置の統計的な位置関係を表す形状モデルと、同各特徴点位置に対して予め定義された範囲の特徴量を表すプロファイルが、学習結果記憶部1004に保持される。前記形状モデルは、特徴点の平均的な位置を示す平均位置ベクトルと特徴点位置の統計的なばらつきを示す固有ベクトル行列からなる。   A shape model representing a statistical positional relationship between the feature point positions acquired for the learning face image and a profile representing a feature amount in a range defined in advance for each of the feature point positions are a learning result storage unit 1004. Retained. The shape model includes an average position vector indicating an average position of feature points and an eigenvector matrix indicating statistical variations of the feature point positions.

候補点探索部1003は、学習結果記憶部1004の保持する前記平均位置ベクトルと対象物検出部1001が検出した顔検出位置から算出した初期位置を基点に、各特徴点の候補位置のプロファイルと前記学習記憶部に保持されるプロファイルとの差から各特徴点の最良な候補位置を探索する。   The candidate point search unit 1003 uses the average position vector held in the learning result storage unit 1004 and the initial position calculated from the face detection position detected by the object detection unit 1001 as the base point and the profile of the candidate position of each feature point and the The best candidate position of each feature point is searched from the difference from the profile held in the learning storage unit.

整形処理部1005は、候補点と顔形状モデルにおいて対応する点との差分を用いて、候補点を顔形状モデルに射影する。射影後の候補点位置と新たな候補点位置との差が拘束条件を満たすまで、候補点探索および整形処理が繰り返し実行される。最終的な候補点位置が、特徴点の位置として判断される。   The shaping processing unit 1005 projects the candidate point onto the face shape model using the difference between the candidate point and the corresponding point in the face shape model. The candidate point search and shaping process are repeatedly executed until the difference between the projected candidate point position and the new candidate point position satisfies the constraint condition. The final candidate point position is determined as the feature point position.

S. Milborrow and F. Nicolls,”Locating Facial Features with an Extended Active Shape Model,” In Proceedings of ECCV,pp.504-513, 2008.S. Milborrow and F. Nicolls, “Locating Facial Features with an Extended Active Shape Model,” In Proceedings of ECCV, pp.504-513, 2008. Jie Chen et al., "Modification of the AdaBoost-based Detector for Partially Occluded Faces," In Proceedings of IEEE ICPR, pp.516-519, 2006.Jie Chen et al., "Modification of the AdaBoost-based Detector for Partially Occluded Faces," In Proceedings of IEEE ICPR, pp.516-519, 2006. Kiyoto Ichikawa et al., "Component-based robust face detection using AdaBoost and decision tree," In Proceedings of IEEE FGR, pp.413-420, 2006.Kiyoto Ichikawa et al., "Component-based robust face detection using AdaBoost and decision tree," In Proceedings of IEEE FGR, pp.413-420, 2006.

しかしながら、従来の技術には以下のような問題点がある。一般的に、マン・マシン・インタフェース等において、ユーザの動作や周辺環境によって、他の物体や拡大により顔の一部が隠れてしまったり、照明変動等で顔の一部が強く照らされたり、背景が学習用の画像と大きく異なる場合などがある。   However, the conventional techniques have the following problems. In general, in the man-machine interface, etc., part of the face is hidden by other objects or enlargement due to the user's movement or surrounding environment, or part of the face is strongly illuminated by lighting fluctuations, etc. In some cases, the background is significantly different from the learning image.

一方、従来の技術では、図10の候補点探索部1003は顔全体の特徴点に対して候補位置探索を行い、取得される特徴点の候補位置は、保持されているプロファイルと探索範囲内で比較的一致度の高かった位置に過ぎない。つまり、偶然的に一致度が高ければ、どんな点でも候補点と成り得た。加えて、整形処理部1005は、候補点と顔形状モデルにおいて対応する点との差分を直接利用して、候補点を顔形状モデルに射影するため、前述したユーザの動作や周辺環境に起因する候補点のずれは、全候補点の整形処理におけるずれを生じてしまっていた。   On the other hand, in the conventional technique, the candidate point search unit 1003 in FIG. 10 performs a candidate position search on the feature points of the entire face, and the acquired candidate positions of the feature points are within the stored profile and search range. It is only a position with a relatively high degree of coincidence. In other words, any point could be a candidate point if the coincidence was high by chance. In addition, the shaping processing unit 1005 directly uses the difference between the candidate point and the corresponding point in the face shape model, and projects the candidate point onto the face shape model. The deviation of the candidate points has caused a deviation in the shaping process of all candidate points.

例えば、図11のように、顔輪郭付近に壁や柱などのエッジや模様などがある複雑な背景1102の場合や、顎輪郭に似た襟などがある場合、候補点探索部1003は顔領域から外れた位置を候補位置にとってしまい、最終的な特徴点抽出結果はその外れた位置1107に収束する。また、人の手などで顔が部分隠蔽された場合1101、候補点位置はそもそも顔ではない領域で取得されるので、大きくずれた候補点は部分隠蔽されていない領域の特徴点抽出に悪い影響を与えていた(1105)。   For example, as shown in FIG. 11, in the case of a complex background 1102 with edges and patterns such as walls and pillars near the face contour, or when there is a collar similar to the jaw contour, the candidate point search unit 1003 displays the face region. The position that deviates from the position becomes the candidate position, and the final feature point extraction result converges to the deviated position 1107. Further, when the face is partially concealed by a human hand or the like 1101, candidate point positions are acquired in a region that is not a face in the first place, so that candidate points that deviate greatly have a negative effect on feature point extraction in regions that are not partially concealed (1105).

そこで本発明はこれらの問題を解決し、顔画像から特徴点の位置を、ユーザの動作や周辺環境に応じてより正確に検出することを可能とする装置やプログラム等を提供することを目的とする。   Therefore, the present invention aims to solve these problems and provide an apparatus, a program, and the like that can more accurately detect the position of a feature point from a face image according to the user's operation and the surrounding environment. To do.

本発明の特徴点抽出装置は、対象物の特徴点の統計的な位置関係を表す形状モデルを保持する学習結果保持部と、画像を入力する入力部と、前記入力画像に応じて前記特徴点に重みを設定する重み設定部と、前記入力画像の前記特徴点に対する候補位置を探索する候補点探索部と、前記特徴点に対する重みに応じて、前記特徴点に対する候補位置を前記形状モデルに射影する整形処理部とを有している。   The feature point extraction apparatus of the present invention includes a learning result holding unit that holds a shape model representing a statistical positional relationship between feature points of an object, an input unit that inputs an image, and the feature points according to the input image. A weight setting unit for setting a weight on the input image, a candidate point search unit for searching for a candidate position for the feature point of the input image, and projecting the candidate position for the feature point to the shape model according to the weight for the feature point A shaping processing unit.

この構成により、前記候補位置を形状モデルに射影するという大域的な処理である整形処理に、前記入力画像に応じて設定された前記特徴点の重みを利用することで局所性も持たせることができるため、局所的な変動に強い特徴点抽出を実施することができる。   With this configuration, it is possible to give locality to the shaping process, which is a global process of projecting the candidate position onto the shape model, by using the weight of the feature point set according to the input image. Therefore, feature point extraction that is resistant to local fluctuations can be performed.

また、本発明の特徴点抽出装置は、前記入力画像内の対象物が占める領域を対象物特徴量に基づき検出する対象物検出部とを有し、前記重み設定部は前記対象物特徴量から前記特徴点に対する重みを設定し、前記学習結果保持部はさらに、前記特徴点位置に対して予め定義された範囲の特徴量を表す学習プロファイルと、前記特徴点の平均位置を保持し、前記候補点探索部は前記特徴点位置に対する前記入力画像の探索基点から予め定義された範囲の特徴量を現す候補プロファイルと前記学習プロファイルとから前記特徴点の候補位置を探索し、前記整形処理部は、前記特徴点に対する重みと前記候補位置と前記平均位置から整形係数を求め、前記候補点探索部で得られた各特徴点の候補位置を前記整形係数を用いることにより形状モデルへ射影することを特徴とするとしている。   In addition, the feature point extraction device of the present invention includes an object detection unit that detects an area occupied by the object in the input image based on the object feature amount, and the weight setting unit is based on the object feature amount. A weight for the feature point is set, and the learning result holding unit further holds a learning profile representing a feature amount in a predefined range with respect to the feature point position, an average position of the feature point, and the candidate A point search unit searches for a candidate position of the feature point from a candidate profile that represents a feature amount in a predefined range from a search base point of the input image with respect to the feature point position and the learning profile, and the shaping processing unit includes: A shaping coefficient is obtained from the weight for the feature point, the candidate position, and the average position, and the candidate position of each feature point obtained by the candidate point search unit is converted into a shape model by using the shaping coefficient. Trying to characterized in that shadow.

この構成により、前記重み付け部は、前記対象物特徴量を利用することで、前記入力画像における各特徴点付近の局所的な状況を、候補点探索および整形処理に対するとして重みを設定できるため、部分隠蔽などの影響を受けにくい特徴点抽出を実施することができる。   With this configuration, the weighting unit can set a weight as a candidate point search and shaping process for the local situation near each feature point in the input image by using the object feature amount. Feature point extraction that is not easily affected by concealment or the like can be performed.

さらに、本発明の特徴点抽出装置は、前記重み設定部は、各特徴点位置周辺、前記対象物検出部で利用する対象物特徴量の統計により算出した尤度をもとに、重みを設定する。   Furthermore, in the feature point extracting apparatus of the present invention, the weight setting unit sets weights based on likelihoods calculated by statistics of object feature amounts used in the object detection unit around each feature point position. To do.

この構成により、対象物らしい領域に属する特徴点には高い重みを設定し、部分隠蔽領
域など対象物らしくない領域には低い重みを設定することで、対象物らしい領域に注力した特徴点抽出を実施することができる。
With this configuration, feature points belonging to a region that seems to be an object are set with high weights, and regions that are not like objects such as partial concealment regions are set with low weights, thereby extracting feature points that focus on regions that are likely to be objects. Can be implemented.

さらに、本発明の特徴点抽出装置は、前記対象物検出部は対象物の構成要素毎に対象物を検出し、前記重み設定部は、前記対象物検出部において検出されなかった構成要素に属する特徴点に対する重みを小さく、検出された構成要素に属する特徴点に対する重みを大きく設定する。   Furthermore, in the feature point extraction apparatus of the present invention, the object detection unit detects an object for each component of the object, and the weight setting unit belongs to a component that is not detected by the object detection unit. The weight for the feature point is set small, and the weight for the feature point belonging to the detected component is set large.

この構成により、ユーザの動きやカメラのズーム度合による対象物の構成要素の部位や大きさの変化に合わせて特徴点抽出を実施することができる。   With this configuration, it is possible to perform feature point extraction in accordance with changes in the location and size of the constituent elements of the object due to the user's movement and the camera zoom level.

さらに、本発明の特徴点抽出装置は、前記特徴点の候補位置におけるプロファイルおよび前記学習結果記憶部に保持されるプロファイルは、特徴点位置周辺の画像から算出される複数の構成要素からなり、前記候補点探索部は、前記両プロファイルの構成要素同士の一致度により、最良の候補位置を探索し、前記重み設定部は、前記学習結果記憶部に保持されているプロファイルの構成要素の内、背景にあたる部分に対する重みを小さく設定する。   Further, in the feature point extraction apparatus of the present invention, the profile at the candidate position of the feature point and the profile held in the learning result storage unit are composed of a plurality of components calculated from images around the feature point position, The candidate point search unit searches for the best candidate position based on the degree of coincidence between the components of the two profiles, and the weight setting unit determines the background among the components of the profile held in the learning result storage unit. The weight for the corresponding part is set small.

この構成により、対象物の輪郭付近にある背景のエッジなどを特徴点として誤って抽出されるのを防ぐことができる。   With this configuration, it is possible to prevent erroneous extraction of a background edge or the like near the contour of the object as a feature point.

さらに、本発明の特徴点抽出装置は、前記重み設定部は、学習用画像における各特徴点の統計的なばらつきに応じて重みを設定する。   Furthermore, in the feature point extracting apparatus of the present invention, the weight setting unit sets a weight according to statistical variation of each feature point in the learning image.

この構成により、比較的ばらつきの大きい特徴点に対する重みを大きく設定することで、そのばらつきにより追従するように整形処理を施すことができる。   With this configuration, by setting a large weight for feature points having relatively large variations, it is possible to perform shaping processing so as to follow the variations.

さらに、本発明の特徴点抽出装置は、前記対象物検出部が検出した画像内に占める対象物領域の大きさに応じて、前記候補点探索部および整形処理部で処理する特徴点の数を増減させる。   Furthermore, the feature point extraction apparatus according to the present invention determines the number of feature points to be processed by the candidate point search unit and the shaping processing unit according to the size of the target region occupied in the image detected by the target detection unit. Increase or decrease.

この構成により、対象物の構成要素が検出された場合、対象物全体が検出されたときよりも高い密度で特徴点を配置することで、精度の高い特徴点抽出をすることができる。   With this configuration, when a constituent element of an object is detected, feature points can be extracted with high accuracy by arranging the feature points at a higher density than when the entire object is detected.

さらに、本発明の特徴点抽出装置は、前記学習結果記憶部は、利用する特徴点の組み合わせごとに複数の形状モデルを保持する。   Furthermore, in the feature point extraction apparatus of the present invention, the learning result storage unit holds a plurality of shape models for each combination of feature points to be used.

この構成により、検出された対象物の構成要素の大きさや部位に応じて形状モデルを変えられるため、より精度の高い整形処理をすることができる。   With this configuration, since the shape model can be changed according to the size and part of the detected component of the target object, a more accurate shaping process can be performed.

さらに、本発明の特徴点抽出装置は、前記候補点探索部は、前記重み設定部で設定された各特徴点位置の重みに応じて、候補点の探索を選択的に実施する。   Furthermore, in the feature point extraction apparatus of the present invention, the candidate point search unit selectively performs a candidate point search according to the weight of each feature point position set by the weight setting unit.

この構成により、候補点探索にかかる計算量を低減することができる。   With this configuration, it is possible to reduce the amount of calculation required for the candidate point search.

さらに、本発明の特徴点抽出装置は、前記重み設定部は、特徴点抽出装置のユーザが設定した対象物の部分隠蔽領域やズーム状態をもとに、重みを設定する。   Furthermore, in the feature point extracting apparatus of the present invention, the weight setting unit sets a weight based on a partially concealed region or zoom state of the object set by the user of the feature point extracting apparatus.

この構成により、ユーザが設定した重みに基づいて特徴点を抽出することができる。   With this configuration, feature points can be extracted based on the weight set by the user.

さらに、本発明の特徴点抽出装置は、前記候補点探索部と前記整形処理部における処理を繰り返し行う場合、前記重み設定部は、前の整形処理結果をもとに重みを更新する。   Furthermore, when the feature point extraction apparatus of the present invention repeatedly performs the processes in the candidate point search unit and the shaping processing unit, the weight setting unit updates the weight based on the previous shaping processing result.

この構成により、前記候補点探索部と前記整形処理部における処理を繰り返すことにより変化する候補点位置に合わせて、各位置での尤度に応じて動的に重みを更新しながら整形処理が実施できるため、より正確な特徴点抽出を
することができる。
With this configuration, the shaping process is performed while dynamically updating the weight according to the likelihood at each position according to the candidate point position that changes by repeating the processes in the candidate point search unit and the shaping processing unit. Therefore, more accurate feature point extraction can be performed.

本発明は、顔画像から特徴点の位置を、ユーザの動作や周辺環境に応じてより正確に検出できる効果がある。   The present invention has an effect of more accurately detecting the position of a feature point from a face image according to the user's operation and the surrounding environment.

本発明の第1の実施の形態における特徴点抽出装置のブロック図The block diagram of the feature point extraction apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における特徴点抽出装置の動作説明のためのフロー図The flowchart for operation | movement description of the feature point extraction apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における重み設定部102Aの説明のための図The figure for demonstrating 102 A of weight setting parts in the 1st Embodiment of this invention 顔画像から抽出された特徴点の例を示す図The figure which shows the example of the feature point extracted from the face image 本発明の第2の実施の形態における特徴点抽出装置のブロック図The block diagram of the feature point extraction apparatus in the 2nd Embodiment of this invention 本発明の第2の実施の形態における重み設定部102Bの説明のための図The figure for demonstrating the weight setting part 102B in the 2nd Embodiment of this invention 本発明の第2の実施の形態における特徴点抽出装置を説明するために想定する状況を示すための図The figure for showing the condition assumed in order to demonstrate the feature point extraction apparatus in the 2nd Embodiment of this invention. 本発明の第3の実施の形態を示す説明図Explanatory drawing which shows the 3rd Embodiment of this invention. 本発明の第3の実施の効果を示す説明図Explanatory drawing which shows the effect of the 3rd implementation of this invention 従来の技術における特徴点抽出装置のブロック図Block diagram of a feature point extraction device in the prior art 従来の技術における課題例と本発明の効果を示す図The figure which shows the example of a subject in a prior art, and the effect of this invention

(実施の形態1)
以下、本発明の実施例を、図面により詳細に説明する。図1は本発明を施した特徴点抽出装置100の一実施例を示すブロック図である。
(Embodiment 1)
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a feature point extracting apparatus 100 according to the present invention.

第1の実施の形態では、入力画像から対象物を検出する対象物検出部101と、前記対象物検出部が出力する尤度Aを用いて各特徴点の重みを設定する重み設定部102Aと、特徴点の統計的な位置関係を表す形状モデル、および、同各特徴点位置に対して予め定義された範囲の特徴量を表すプロファイルを保持する学習結果記憶部104と、各特徴点の最良な候補位置を探索する候補点探索部103と、候補点を形状モデルに射影する整形処理部105からなるものである。   In the first embodiment, an object detection unit 101 that detects an object from an input image, a weight setting unit 102A that sets the weight of each feature point using the likelihood A output from the object detection unit, A learning result storage unit 104 that holds a shape model that represents a statistical positional relationship between feature points, and a profile that represents a feature amount within a predefined range for each feature point position, and the best of each feature point A candidate point searching unit 103 for searching for a candidate position and a shaping processing unit 105 for projecting the candidate point onto the shape model.

なお、前記形状モデルは、数1に示される式に従って、特徴点の平均的な位置を示す平均位置ベクトルμと、数2に示される式のように特徴点位置の統計的なばらつきを示す固有ベクトル行列Pからなる。ここで、Nは顔画像の数あるいは特徴点ベクトルskの数、nは特徴点の数、jは特徴点番号、mは整形処理に利用する固有ベクトルの数、pmは固有ベクトルを示す。数1のように、特徴点ベクトルskは各特徴点のx,y座標から構成される。

Figure 2011232845
Figure 2011232845
The shape model includes an average position vector μ indicating an average position of feature points according to an expression shown in Equation 1, and an eigenvector indicating statistical variation of the feature point positions as shown in Equation 2. It consists of a matrix P. Here, N is the number of face images or feature point vectors sk, n is the number of feature points, j is a feature point number, m is the number of eigenvectors used for shaping processing, and pm is an eigenvector. As shown in Equation 1, the feature point vector sk is composed of x and y coordinates of each feature point.
Figure 2011232845
Figure 2011232845

以上のように構成された特徴点抽出装置について、図2に示すフローチャートを参照しながら、以下、その動作を説明する。   The operation of the feature point extraction apparatus configured as described above will be described below with reference to the flowchart shown in FIG.

なお、本実施の形態では、図3に示すように、対象物は顔とし、遮蔽物で部分隠蔽されているとする。   In the present embodiment, as shown in FIG. 3, it is assumed that the object is a face and is partially hidden by a shielding object.

まず、処理対象となる画像を読み込む(ステップS10)。そして、対象物検出部101が同画像内での対象物の領域を検出する(ステップS11)。対象物が顔の場合、非特許文献2が示すように、顔の部分領域毎に顔と非顔を識別する複数の顔特徴量が属しており、各部分領域で予め算出された顔特徴量の統計量から、同部分領域における顔らしさを示す尤度Ajを算出し、各部分領域で顔か非顔の識別することで、部分的に隠蔽された顔をも検出を行うことができる。顔特徴量の具体例としては、Haar−like特徴量やLBP特徴量などがある。具体的には、図3に示すように部分領域301としては、顔の左側、右側、左目、右目といった部分領域がある。   First, an image to be processed is read (step S10). And the target object detection part 101 detects the area | region of the target object in the same image (step S11). When the target is a face, as shown in Non-Patent Document 2, a plurality of facial feature quantities for identifying a face and a non-face belong to each partial area of the face, and the facial feature quantities calculated in advance in each partial area The likelihood Aj indicating the likelihood of a face in the partial area is calculated from the statistic, and a face or a non-face is identified in each partial area, so that a partially concealed face can also be detected. Specific examples of face feature values include Haar-like feature values and LBP feature values. Specifically, as shown in FIG. 3, the partial area 301 includes partial areas such as the left side, right side, left eye, and right eye of the face.

また、ここで算出される尤度Aは、その値が高い領域には顔の一部があり、その値が低い領域には顔以外(例:背景)か隠蔽物である可能性が高いことを示す。   In addition, the likelihood A calculated here has a part of the face in the region where the value is high, and the region where the value is low is likely to be a non-face (eg background) or a concealment object. Indicates.

なお、非特許文献2に示す顔検出方法や特徴量は一例である。本発明は同方法によらず、尤度に基づき顔が検出できる方法であればどのような方法でも良い。現在アダブーストにより学習した様々な種類の顔特徴量を用いた顔検出方法が多く提案されているが、いずれの方法であっても、同顔特徴量に対する尤度に基づき顔検出を行っているので、本発明の対象物検出部として利用できる。   Note that the face detection method and feature amount shown in Non-Patent Document 2 are examples. The present invention is not limited to this method, and any method may be used as long as a face can be detected based on likelihood. Currently, many face detection methods using various types of face feature values learned by Adaboost have been proposed. However, any method uses face detection based on the likelihood of the face feature values. It can be used as an object detection unit of the present invention.

次に、重み設定部102Aが、対象物検出部101によって算出される尤度Ajを使って、各特徴点位置について重みwjを設定する(ステップS12)。対象物検出部101は、非特許文献2が示すように、顔の部分領域毎に顔と非顔を識別する複数の顔特徴量が属している。各部分領域で予め算出された顔特徴量の統計量から、同部分領域における顔らしさを示す尤度Ajを算出し、各部分領域で顔か非顔の識別が行われる。   Next, the weight setting unit 102A sets the weight wj for each feature point position using the likelihood Aj calculated by the object detection unit 101 (step S12). As shown in Non-Patent Document 2, the object detection unit 101 includes a plurality of facial feature quantities for identifying a face and a non-face for each partial region of the face. A likelihood Aj indicating the likelihood of a face in the partial area is calculated from the statistic of the face feature amount calculated in advance in each partial area, and a face or a non-face is identified in each partial area.

図3が示すように、各特徴点が示す部分に対応する対象物検出部101における部分領域301毎に、特徴点302を対応させておけば、各部分領域毎の尤度Ajから各特徴点に対する重みwjを要素とする重みベクトルwを設定することができる。ここで、Aminは各特徴点位置の尤度Ajの最小値、Amaxは各特徴点位置の尤度Ajの最大値である。   As shown in FIG. 3, if a feature point 302 is associated with each partial region 301 in the object detection unit 101 corresponding to a portion indicated by each feature point, each feature point is determined from the likelihood Aj of each partial region. It is possible to set a weight vector w having a weight wj as an element. Here, Amin is the minimum value of the likelihood Aj of each feature point position, and Amax is the maximum value of the likelihood Aj of each feature point position.

Figure 2011232845
Figure 2011232845

この結果、図3の302に示すように、部分隠蔽がある領域での尤度は低くなり、そうではない領域については尤度が高くなる。つまり、部分隠蔽がある領域では重みが低く設定されることになり、そうではない領域については重みが高く設定される。なお、各特徴点に対する重みwjは、各特徴点の統計的なばらつきから決定しても良い。例えば、目や
口付近に位置する特徴点などに比べ、眉毛や鼻付近の特徴点は比較的変化が少ないため、つまりばらつきが小さい。このような場合、重みを高く設定しても良い。これにより、顔の領域毎の尤度に応じて特徴点抽出を行うことができるため、部分隠蔽されていない領域での特徴点抽出を優先的に実施することが可能になり、部分隠蔽による候補点位置の大きなずれの影響を抑えることができる。
As a result, as shown by 302 in FIG. 3, the likelihood in the region with partial concealment is low, and the likelihood is high in the region that is not. That is, the weight is set to be low in an area with partial concealment, and the weight is set to be high for an area that is not. Note that the weight wj for each feature point may be determined from statistical variation of each feature point. For example, the feature points near the eyebrows and the nose are relatively little changed compared to the feature points located near the eyes and mouth, that is, the variation is small. In such a case, the weight may be set high. As a result, feature points can be extracted according to the likelihood of each face region, so that feature point extraction can be performed preferentially in regions that are not partially concealed, and candidates based on partial concealment can be obtained. It is possible to suppress the influence of a large shift of the point position.

次に、繰り返し回数iを1にし、各特徴点jにおける候補点探索の基点位置(xj,yj)を要素とするベクトルss(i)=[x1,…,xn,y1,…yn]を、平均ベクトルμの要素で初期化する(ステップS13)。 Next, the number of iterations i is set to 1, and a vector ss (i) = [x1,..., Xn, y1,... Yn] having the base point position (xj, yj) of the candidate point search at each feature point j as an element, Initialization is performed with elements of the average vector μ (step S13).

次に、各特徴点について数4に示されるように、候補点探索部103は、入力画像において入力画像の探索基点(xj,yj)から、位置(x,y)毎に取得されるプロファイルg(x,y)と、学習結果記憶部104が保持するプロファイルgとの非類似度f(x,y)をもとに、最も非類似度の低い最良な候補点位置(xj,yj)を探索し(ステップS14)、最良な候補点位置(xj,yj)を要素とする候補点位置ベクトルをscで示す。ここで、Σgは学習結果記憶部104が保持するプロファイルgの共分散行列である。 Next, as shown in Equation 4 for each feature point, the candidate point search unit 103 obtains the profile g acquired for each position (x, y) from the search base point (xj, yj) of the input image in the input image. Based on the dissimilarity f (x, y) between (x, y) and the profile g held in the learning result storage unit 104, the best candidate point position (xj , yj ) having the lowest dissimilarity ) (Step S14), and a candidate point position vector having the best candidate point position (xj , yj ) as an element is denoted by sc. Here, Σg is a covariance matrix of the profile g held by the learning result storage unit 104.

Figure 2011232845
Figure 2011232845

なお、プロファイルは特徴点位置周辺の画像から算出される複数の構成要素(例えば画素値や微分画像)からなり、学習結果記憶部に保持されているプロファイルの構成要素の内、背景にあたる部分に対する寄与率を小さく設定しても良い。これにより、実環境における複雑な背景に含まれる紛らわしいエッジなどを候補点としてしまうのを防ぐことができる。なお、プロファイルとして利用される特徴量は、特徴点周辺の輝度やそれの微分値、SIFT特徴量などが利用される。   The profile is composed of a plurality of components (for example, pixel values and differential images) calculated from images around the feature point position, and contributes to the portion corresponding to the background among the components of the profile held in the learning result storage unit. The rate may be set small. Thereby, it is possible to prevent a confusing edge or the like included in a complicated background in the real environment from being a candidate point. Note that as the feature amount used as the profile, luminance around the feature point, its differential value, SIFT feature amount, or the like is used.

また、重み設定部102Aで設定した重みが、事前に定義した閾値以下あるいは0である特徴点位置については、候補点位置を探索しなくても良い。これにより候補点位置探索の処理量を削減することが可能になる。   In addition, for feature point positions whose weights set by the weight setting unit 102A are equal to or less than a predefined threshold value or 0, it is not necessary to search for candidate point positions. Thereby, it is possible to reduce the processing amount of the candidate point position search.

次に、整形処理部105が候補点位置(x’、y’)を形状モデルに射影する(ステップS15)。整形処理部105は、数5に示される式によって、候補点位置ベクトルscを形状モデルに射影するための整形係数bを算出する。整形係数bは、候補点位置ベクトルscと平均ベクトルμとの差分ベクトルの各要素に、重みベクトルwの各要素wjを掛け合わせたベクトルdと、固有ベクトル行列Pとの積により算出する。   Next, the shaping processing unit 105 projects the candidate point position (x ′, y ′) onto the shape model (step S15). The shaping processing unit 105 calculates a shaping coefficient b for projecting the candidate point position vector sc onto the shape model using the equation shown in Equation 5. The shaping coefficient b is calculated by the product of a vector d obtained by multiplying each element of the difference vector between the candidate point position vector sc and the average vector μ by each element wj of the weight vector w and the eigenvector matrix P.

Figure 2011232845
Figure 2011232845

ここで、各特徴点位置に、当該特徴点周辺の顔検出の尤度に基づき決定した重みが差分ベクトルに掛け合わされている。このため、尤度が低く重みが小さい値に設定された特徴点位置に対する差分は、整形係数b算出への影響度合いが小さくなる。その結果、対象物らしさの高い領域に位置する特徴点を重視した特徴点抽出が可能になり、部分隠蔽による整形処理への影響を抑えることができる。   Here, the weight determined based on the likelihood of face detection around the feature point is multiplied by the difference vector at each feature point position. For this reason, the difference with respect to the feature point position set to a value with low likelihood and low weight has a small influence on the shaping coefficient b calculation. As a result, feature points can be extracted with emphasis on feature points located in regions with high object-likeness, and the influence on shaping processing due to partial concealment can be suppressed.

次に、形状モデルに拘束条件を持たせるため、予め定義した閾値bMAXより整形係数bが小さいか否かを判定する(ステップS16)。整形係数bがbMAX以上の場合は、b=bMAXとして、形状モデルのばらつきを抑え、ステップS18へ以降する(ステップS17)。拘束条件を満たす場合は、そのまま、ステップS18へ移行する。   Next, in order to give a constraint condition to the shape model, it is determined whether or not the shaping coefficient b is smaller than a predefined threshold value bMAX (step S16). When the shaping coefficient b is equal to or greater than bMAX, b = bMAX is set, and variation in the shape model is suppressed, and the process proceeds to step S18 (step S17). If the constraint condition is satisfied, the process proceeds to step S18.

ステップS18では、繰り返し回数iを更新した後、数6に示される数式のように、数拘束条件内におさえられた整形係数bにより、候補点位置ベクトルscを形状モデルに射影して、候補点探索の新たな起点位置となるベクトルss(i)を計算する。 In step S18, after updating the number of repetitions i, the candidate point position vector sc is projected onto the shape model by the shaping coefficient b held within the number constraint condition as shown in Equation 6, and the candidate point A vector ss (i) that becomes a new starting position of the search is calculated.

Figure 2011232845
Figure 2011232845

繰り返し回数iが最大繰り返し回数iMAXより下または候補点位置ベクトルscと探索の基点位置ベクトルss(i-1)の差|| ss(i-1)−sc ||が予め定義した閾値εよりも小さいか否かを判定して、条件を満たしていなければステップS14へ移行し、条件を満たしていれば繰り返し処理を終了し、ss(i)を特徴点抽出結果として出力する(ステップS19)。 The number of iterations i is below the maximum number of iterations iMAX or the difference between the candidate point position vector sc and the search base point position vector ss (i-1) || ss (i-1) −sc || It is determined whether or not it is smaller. If the condition is not satisfied, the process proceeds to step S14. If the condition is satisfied, the iterative process is terminated, and ss (i) is output as a feature point extraction result (step S19).

以上のように、ステップS19における拘束条件を満たすまで、ステップS14〜S19を繰り返し実施する。図4には、顔画像から抽出された特徴点の例を示す。   As described above, steps S14 to S19 are repeatedly performed until the constraint condition in step S19 is satisfied. FIG. 4 shows an example of feature points extracted from the face image.

なお、候補点探索と整形処理の各繰り返しにおいて、候補点探索の基点が変化していくことから、対象物検出部101が有する各部分領域における尤度Ajから重みwjを再計算しても良い。特徴点抽出の過程において、候補点探索と整形処理を繰り返す度に特徴点抽出位置の精度は徐々に上がっていくことから、精度の高い重み付けが可能となり、より正確な特徴点抽出が期待できる。   Note that, since the base point of the candidate point search changes in each repetition of the candidate point search and the shaping process, the weight wj may be recalculated from the likelihood Aj in each partial region of the object detection unit 101. . In the process of feature point extraction, the accuracy of the feature point extraction position gradually increases each time the candidate point search and the shaping process are repeated, so that highly accurate weighting is possible and more accurate feature point extraction can be expected.

なお、学習結果記憶部104は複数の形状モデルを保持し、顔の部分隠蔽領域の位置や大きさに応じて、候補点探索の起点として利用する形状モデルを選択しても良い。これにより、顔の部分隠蔽領域に応じて学習された形状モデルを使うことで、より精度の高い特徴点抽出が可能となる。   Note that the learning result storage unit 104 may hold a plurality of shape models and select a shape model to be used as a starting point for the candidate point search according to the position and size of the face partial concealment region. This makes it possible to extract feature points with higher accuracy by using the shape model learned according to the face partial concealment region.

本実施の形態1によれば、上記の構成により、重み設定部102Aで設定した各特徴点に対する重みを、整形処理部105で活用することで、部分隠蔽された顔の検出状況に応じた整形処理を可能にして、ユーザの動作や周辺環境に応じてより正確に検出することができる。   According to the first embodiment, by using the weight for each feature point set by the weight setting unit 102A by the shaping processing unit 105 according to the above configuration, shaping according to the detection situation of the partially concealed face. Processing can be performed and detection can be performed more accurately according to the user's operation and the surrounding environment.

なお、本発明の実施の形態1では、対象物が顔である場合の例を挙げてその動作を説明しが、前記対象物は人または、手足、胴、肩を少なくとも含む人の構成要素、顔または、目・鼻・口・眉・顎・耳を少なくとも含む顔の構成要素、動物または、尾、目、鼻、口、耳を少なくとも含む動物の構成要素、車または、ボンネット、サイドミラー、ナンバープレートを少なくとも含む車の構成要素、レントゲン画像における内臓等、形状モデルを設定できるものあっても良い。   In the first embodiment of the present invention, the operation is described using an example in which the object is a face. The object is a human or a human component including at least a limb, a torso, and a shoulder, Facial or facial components including at least eyes, nose, mouth, eyebrows, jaws and ears, animals or animal components including at least tail, eyes, nose, mouth and ears, car or bonnet, side mirror, There may be a vehicle in which a shape model can be set, such as a vehicle component including at least a license plate, or a built-in X-ray image.

(実施の形態2)
図5は本発明を施した第2の実施形態における特徴点抽出装置200の一実施例を示すブロック図である。第2の実施形態の特徴点抽出装置では、対象物検出部101から対象物部位情報Bを受け取って各特徴点に対する重みを設定する重み設定部102Bが備えら
れている。その他の構成は第1の実施形態(図1)と変わりがない。
(Embodiment 2)
FIG. 5 is a block diagram showing an example of the feature point extracting apparatus 200 according to the second embodiment to which the present invention is applied. The feature point extraction apparatus according to the second embodiment includes a weight setting unit 102B that receives the object part information B from the object detection unit 101 and sets a weight for each feature point. Other configurations are the same as those of the first embodiment (FIG. 1).

対象物検出部101は実施の形態1同様に顔を検出する。以下、重み設定部102Bの動作を説明する。   The object detection unit 101 detects a face as in the first embodiment. Hereinafter, the operation of the weight setting unit 102B will be described.

本実施の形態では、図6に例を示す状況を想定する。
図6は、601と602にて、ユーザ603とカメラ604の位置とその時間変化を示し、それぞれの時間で対象物検出部へ入力される画像を611と612に示す。ユーザ603がカメラ604に近付くことにより、顔の構成要素が入力画像の大部分を占めるようになる。なお、カメラ604側がユーザ603の顔をズームアップすることで、図5と同様の状況になる場合も考えられる。
In the present embodiment, a situation illustrated in FIG. 6 is assumed.
FIG. 6 shows the positions of the user 603 and the camera 604 and their temporal changes at 601 and 602, and images 611 and 612 that are input to the object detection unit at the respective times. As the user 603 approaches the camera 604, facial components occupy most of the input image. Note that the camera 604 may zoom in on the face of the user 603, resulting in the same situation as in FIG.

対象物検出部101は、非特許文献3に示されるように、顔に加えて、目、口、鼻など顔の構成要素毎に用意された識別器によって対象物検出を行う。図6の602の状況では、図7のように、左目と鼻を含む領域が対象物検出部101で検出される。非特許文献3は、顔の構成要素毎の対象物検出手法のみを論じたもので、これでは特徴点抽出はできない。   As shown in Non-Patent Document 3, the object detection unit 101 performs object detection using a discriminator prepared for each face component such as eyes, mouth, and nose in addition to the face. In the situation of 602 in FIG. 6, the object detection unit 101 detects a region including the left eye and the nose as shown in FIG. 7. Non-Patent Document 3 discusses only an object detection method for each face component, and this cannot extract feature points.

重み設定部102Bは、各特徴点がどの部位に対応するかの情報を保持しており、対象物検出部101から受け取った対象物部位情報Bに基いて、検出されなかった構成要素に属する特徴点に対する重みを小さく、検出された構成要素に属する特徴点に対する重みを大きく設定する。図7の例では、左目と鼻に属する特徴点の重みは高くなり、それ以外の部位である例えば口に属する部位の特徴点の重みは低くなる。   The weight setting unit 102B holds information about which part each feature point corresponds to, and based on the object part information B received from the object detection part 101, the feature belonging to the component not detected The weight for the point is set small, and the weight for the feature point belonging to the detected component is set large. In the example of FIG. 7, the weights of the feature points belonging to the left eye and the nose are high, and the weights of the feature points of other portions, for example, the portion belonging to the mouth are low.

なお、顔の構成要素が占める領域の大きさに応じて、候補点探索部103および整形処理部105で処理する特徴点の数を増減させても良い。これにより、図6の602のように、顔の一部の領域しか特徴点抽出に利用できない場合でも、抽出する特徴点数を増加させることで、特徴点抽出の精度を高めることができる。例えば、顔の一部が大きく拡大される場合、拡大される前に利用していた特徴点間の画像上の距離は大きくなるため、もとの特徴点の間を補間するように特徴点を増加させることで、精度の向上を図ることができる。   Note that the number of feature points processed by the candidate point search unit 103 and the shaping processing unit 105 may be increased or decreased according to the size of the area occupied by the facial component. Thus, even when only a partial region of the face can be used for feature point extraction as in 602 of FIG. 6, the accuracy of feature point extraction can be increased by increasing the number of feature points to be extracted. For example, when a part of the face is enlarged greatly, the distance on the image between the feature points used before enlargement becomes large, so the feature points are interpolated between the original feature points. By increasing the accuracy, the accuracy can be improved.

なお、学習結果記憶部104は、特徴点数や組み合わせの異なる複数の形状モデルを保持つようにしても良い。これにより、特徴点数や組み合わせに応じて学習された形状モデルを、対象物検出部101が検出した対象物の大きさや位置に合わせて使うことで、ユーザの覗き込みやカメラによるズームアップのような変化に柔軟に対応することができ、より精度の高い特徴点抽出が可能となる。本実施の形態2によれば、上記の構成により、重み設定部102Bで設定した各特徴点に対する重みを、整形処理部103で活用することで、ユーザがカメラに覗き込むようにして顔の一部分が写りこむ状態になっても、動的に各特徴点に対する重みを変更して整形処理を行うことで、ユーザの動きに追従する形で特徴点抽出処理を行うことが可能になり、ユーザの動作や周辺環境に応じてより正確に検出することができる。   Note that the learning result storage unit 104 may hold a plurality of shape models having different number of feature points or combinations. Thus, by using the shape model learned according to the number of feature points and the combination according to the size and position of the object detected by the object detection unit 101, the user can look into the camera or zoom in with the camera. It is possible to respond flexibly to changes and to extract feature points with higher accuracy. According to the second embodiment, with the above-described configuration, the weight for each feature point set by the weight setting unit 102B is utilized by the shaping processing unit 103, so that a part of the face is captured as the user looks into the camera. Even in such a state, by dynamically changing the weights for each feature point and performing the shaping process, it is possible to perform the feature point extraction process so as to follow the user's movement. It can be detected more accurately according to the surrounding environment.

(実施の形態3)
図8、図9は本発明の実施の形態3を示している。実施の形態3で801はユーザ、802はカメラ、803はモニタを示しており、カメラ802で撮影された画像から特徴点抽出装置で特徴点を抽出しモニタ803に表示する。
実施の形態3では、ユーザ801が自らの顔を撮影してモニタ803に表示しながらお化粧をしている様子を示している。このとき、カメラ802で撮影してズームアップした目の画像において、特徴点の抽出を行い、この特徴点を元にして、お化粧するときのガイ
ドラインを表示することが可能になれば、図9に示すように、目や眉の特徴点1002を抽出し、これを元にガイドライン1001を正確に描画することが出来るという優れた効果がある。
(Embodiment 3)
8 and 9 show Embodiment 3 of the present invention. In the third embodiment, reference numeral 801 denotes a user, 802 denotes a camera, and 803 denotes a monitor. Feature points are extracted from an image photographed by the camera 802 by a feature point extraction device and displayed on the monitor 803.
In the third embodiment, a state is shown in which a user 801 takes a picture of his / her face and puts on makeup while displaying it on the monitor 803. At this time, if it is possible to extract feature points from the image of the eye that has been captured by the camera 802 and zoomed in, and display a guideline for makeup based on the feature points, FIG. As shown in FIG. 5, there is an excellent effect that the feature points 1002 of the eyes and eyebrows can be extracted and the guideline 1001 can be accurately drawn based on the extracted feature points.

以上のように、本発明に係る特徴点抽出装置および特徴点抽出方法は、顔が部分隠蔽されても、あるいは、ユーザがカメラに覗き込むようにして顔の一部分が写りこむ状態になっても、動的に各特徴点に対する重みを変更して整形処理を行うことで、ユーザの動きに追従する形で特徴点抽出処理を行うことが可能という効果を有し、監視カメラやスチルカメラ等に撮影される覗き込みや移動する撮影対象の特徴点抽出、および、同特徴点を用いた対象物認証、モーフィング、情報提示や化粧時のガイドライン表示などのAR、アバターや似顔絵生成などに適用される技術として有用である。   As described above, the feature point extraction apparatus and the feature point extraction method according to the present invention can be operated even when a face is partially concealed or even when a part of the face is captured as the user looks into the camera. In addition, by performing the shaping process by changing the weight for each feature point, it is possible to perform the feature point extraction process to follow the user's movement, which is taken by a surveillance camera, a still camera, etc. As a technique applied to AR, avatar and portrait generation for feature point extraction, moving object subject extraction, object authentication using the feature point, morphing, information presentation and makeup guideline display, etc. Useful.

100 特徴点抽出装置
101 対象物検出部
102A 重み設定部
103 候補点探索部
104 学習結果記憶部
105 整形処理部
DESCRIPTION OF SYMBOLS 100 Feature point extraction apparatus 101 Object detection part 102A Weight setting part 103 Candidate point search part 104 Learning result storage part 105 Shaping process part

Claims (12)

対象物の特徴点の統計的な位置関係を表す形状モデルを保持する学習結果保持部と、
画像を入力する入力部と、
前記入力画像に応じて前記特徴点に重みを設定する重み設定部と、
前記入力画像の前記特徴点に対する候補位置を探索する候補点探索部と、
前記特徴点に対する重みに応じて、前記特徴点に対する候補位置を前記形状モデルに射影する
整形処理部とから構成される特徴点抽出装置。
A learning result holding unit that holds a shape model representing a statistical positional relationship between feature points of an object;
An input unit for inputting an image;
A weight setting unit that sets weights on the feature points according to the input image;
A candidate point search unit for searching candidate positions for the feature points of the input image;
A feature point extraction apparatus comprising: a shaping processing unit that projects a candidate position for the feature point onto the shape model in accordance with a weight for the feature point.
前記入力画像内の対象物が占める領域を対象物特徴量に基づき検出する対象物検出部とを有し、
前記重み設定部は前記対象物特徴量から前記特徴点に対する重みを設定し、
前記学習結果保持部はさらに、
前記特徴点位置に対して予め定義された範囲の特徴量を表す学習プロファイルと、前記特徴点の平均位置を保持し、
前記候補点探索部は前記特徴点位置に対する前記入力画像の探索基点から予め定義された範囲の特徴量を現す候補プロファイルと
前記学習プロファイルとから
前記特徴点の候補位置を探索し、
前記整形処理部は、前記特徴点に対する重みと前記候補位置と前記平均位置から整形係数を求め、
前記候補点探索部で得られた各特徴点の候補位置を
前記整形係数を用いることにより形状モデルへ射影することを特徴とする
前記請求項1に記載の特徴点抽出装置。
An object detection unit that detects an area occupied by the object in the input image based on the object feature amount;
The weight setting unit sets a weight for the feature point from the object feature amount,
The learning result holding unit further includes:
A learning profile that represents a feature amount within a predefined range with respect to the feature point position, and an average position of the feature point are retained,
The candidate point search unit searches for a candidate position of the feature point from a candidate profile that represents a feature amount in a predefined range from a search base point of the input image with respect to the feature point position and the learning profile,
The shaping processing unit obtains a shaping coefficient from a weight for the feature point, the candidate position, and the average position,
The feature point extraction apparatus according to claim 1, wherein the candidate position of each feature point obtained by the candidate point search unit is projected onto a shape model by using the shaping coefficient.
前記重み設定部は、各特徴点位置周辺、前記対象物検出部で利用する対象物特徴量の統計により算出した尤度をもとに、重みを設定する前記請求項1または2に記載の特徴点抽出装置。 The feature according to claim 1 or 2, wherein the weight setting unit sets a weight based on a likelihood calculated by statistics of an object feature amount used in the vicinity of each feature point position and the object detection unit. Point extraction device. 前記対象物検出部は対象物の構成要素毎に対象物を検出し、
前記重み設定部は、前記対象物検出部において検出されなかった構成要素に
属する特徴点に対する重みを小さく、検出された構成要素に属する特徴点に対する重みを大きく設定する前記請求項1、2または3に記載の特徴点抽出装置。
The object detection unit detects an object for each component of the object,
The weight setting unit is configured to set a small weight for a feature point belonging to a component not detected by the object detection unit and a large weight for a feature point belonging to a detected component. The feature point extraction device described in 1.
前記特徴点の候補位置におけるプロファイルおよび前記学習結果記憶部に保持されるプロファイルは、特徴点位置周辺の画像から算出される複数の構成要素からなり、
前記候補点探索部は、前記両プロファイルの構成要素同士の一致度により、最良の候補位置を探索し、前記重み設定部は、前記学習結果記憶部に保持されているプロファイルの構成要素の内、背景にあたる部分に対する重みを小さく設定する前記請求項1、2または3に記載の特徴点抽出装置。
The profile at the feature point candidate position and the profile held in the learning result storage unit are composed of a plurality of components calculated from images around the feature point position.
The candidate point search unit searches for the best candidate position based on the degree of coincidence between the components of the two profiles, and the weight setting unit includes the profile components held in the learning result storage unit, The feature point extracting apparatus according to claim 1, 2, or 3, wherein a weight for a portion corresponding to a background is set to be small.
前記重み設定部は、学習用画像における各特徴点の統計的なばらつきに応じて重みを設定する前記請求項1、2または3に記載の特徴点抽出装置。 4. The feature point extraction device according to claim 1, wherein the weight setting unit sets a weight according to a statistical variation of each feature point in the learning image. 前記対象物検出部が検出した画像内に占める対象物領域の大きさに応じて、前記候補点探索部および整形処理部で処理する特徴点の数を増減させる前記請求項1、2または3に記載の特徴点抽出装置。 The number of feature points to be processed by the candidate point search unit and the shaping processing unit is increased or decreased according to the size of the target region in the image detected by the target detection unit. The feature point extraction device described. 前記学習結果記憶部は、利用する特徴点の組み合わせごとに複数の形状モデルを保持する
前記請求項4、5または8の特徴点抽出装置。
9. The feature point extraction device according to claim 4, wherein the learning result storage unit holds a plurality of shape models for each combination of feature points to be used.
前記候補点探索部は、前記重み設定部で設定された各特徴点位置の重みに応じて、
候補点の探索を選択的に実施する前期請求項1、2または3の特徴点抽出装置。
The candidate point search unit, according to the weight of each feature point position set by the weight setting unit,
The feature point extraction apparatus according to claim 1, 2, or 3, wherein the search for candidate points is selectively performed.
前記重み設定部は、特徴点抽出装置のユーザが設定した対象物の部分隠蔽領域やズーム状態をもとに、重みを設定する前記請求項1、2または3に記載の特徴点抽出装置。 4. The feature point extraction apparatus according to claim 1, wherein the weight setting unit sets a weight based on a partially concealed region or zoom state of an object set by a user of the feature point extraction apparatus. 前記候補点探索部と前記整形処理部における処理を繰り返し行う場合、
前記重み設定部は、前の整形処理結果をもとに
重みを更新する前記請求項1、2または3に記載の特徴点抽出装置。
When repeatedly performing the processing in the candidate point search unit and the shaping processing unit,
4. The feature point extraction apparatus according to claim 1, wherein the weight setting unit updates the weight based on a previous shaping process result.
対象物の特徴点の統計的な位置関係を表す形状モデルを保持する学習結果保持ステップと、
画像を入力する入力ステップと、
前記入力画像に応じて前記特徴点に重みを設定する重み設定ステップと、
前記入力画像の前記特徴点に対する候補位置を探索する候補点探索ステップと、
前記特徴点に対する重みに応じて、前記特徴点に対する候補位置を前記形状モデルに射影する整形処理ステップとから構成される特徴点抽出方法。
A learning result holding step for holding a shape model representing a statistical positional relationship between feature points of the object;
An input step for inputting an image;
A weight setting step for setting a weight to the feature point according to the input image;
A candidate point search step of searching for candidate positions for the feature points of the input image;
A feature point extraction method comprising: a shaping processing step of projecting candidate positions for the feature points onto the shape model in accordance with weights for the feature points.
JP2010100594A 2010-04-26 2010-04-26 Feature point extracting device and method Pending JP2011232845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010100594A JP2011232845A (en) 2010-04-26 2010-04-26 Feature point extracting device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010100594A JP2011232845A (en) 2010-04-26 2010-04-26 Feature point extracting device and method

Publications (1)

Publication Number Publication Date
JP2011232845A true JP2011232845A (en) 2011-11-17

Family

ID=45322120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010100594A Pending JP2011232845A (en) 2010-04-26 2010-04-26 Feature point extracting device and method

Country Status (1)

Country Link
JP (1) JP2011232845A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242757A (en) * 2012-05-22 2013-12-05 Sony Corp Image processing apparatus, image processing method, and computer program
JP2014178862A (en) * 2013-03-14 2014-09-25 Secom Co Ltd Feature point extraction device
KR101875966B1 (en) * 2012-11-29 2018-07-06 현대자동차주식회사 A missing point restoration method in face recognition for vehicle occupant
WO2019111550A1 (en) * 2017-12-08 2019-06-13 日本電気株式会社 Person identification device, person identification method, and non-transitory computer readable medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242757A (en) * 2012-05-22 2013-12-05 Sony Corp Image processing apparatus, image processing method, and computer program
KR101875966B1 (en) * 2012-11-29 2018-07-06 현대자동차주식회사 A missing point restoration method in face recognition for vehicle occupant
JP2014178862A (en) * 2013-03-14 2014-09-25 Secom Co Ltd Feature point extraction device
WO2019111550A1 (en) * 2017-12-08 2019-06-13 日本電気株式会社 Person identification device, person identification method, and non-transitory computer readable medium
JPWO2019111550A1 (en) * 2017-12-08 2020-11-19 日本電気株式会社 Person matching device, method, and program
JP2021144749A (en) * 2017-12-08 2021-09-24 日本電気株式会社 Person collation device, method, and program
US11495057B2 (en) 2017-12-08 2022-11-08 Nec Corporation Person verification device and method and non-transitory computer readable media
US11748864B2 (en) 2017-12-08 2023-09-05 Nec Corporation Person verification device and method and non-transitory computer readable media
US11763435B2 (en) 2017-12-08 2023-09-19 Nec Corporation Person verification device and method and non-transitory computer readable media
US11776098B2 (en) 2017-12-08 2023-10-03 Nec Corporation Person verification device and method and non-transitory computer readable media

Similar Documents

Publication Publication Date Title
CN104573614B (en) Apparatus and method for tracking human face
WO2017152794A1 (en) Method and device for target tracking
US9098740B2 (en) Apparatus, method, and medium detecting object pose
US20150036879A1 (en) Posture estimating apparatus, posture estimating method and storing medium
JP2011022994A (en) Pattern processing device, method therefor, and program
JP2016006626A (en) Detector, detection program, detection method, vehicle, parameter calculation device, parameter calculation program, and parameter calculation method
US9213897B2 (en) Image processing device and method
JP2016099982A (en) Behavior recognition device, behaviour learning device, method, and program
JP2014093023A (en) Object detection device, object detection method and program
JP2019191981A (en) Behavior recognition device, model construction device, and program
JP6296205B2 (en) Image processing apparatus, image processing method, and storage medium for storing the program
US20190066311A1 (en) Object tracking
US20170193334A1 (en) Recognition of hand poses by classification using discrete values
WO2017168462A1 (en) An image processing device, an image processing method, and computer-readable recording medium
EP2899706B1 (en) Method and system for analyzing human behavior in an intelligent surveillance system
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP2007213528A (en) Action recognition system
Jenkins et al. Selective sampling importance resampling particle filter tracking with multibag subspace restoration
WO2015176502A1 (en) Image feature estimation method and device
JP2011232845A (en) Feature point extracting device and method
KR20160046399A (en) Method and Apparatus for Generation Texture Map, and Database Generation Method
KR101350387B1 (en) Method for detecting hand using depth information and apparatus thereof
JP2017033556A (en) Image processing method and electronic apparatus
US11610385B2 (en) Information processing apparatus, control method, and non-transitory storage medium
CN110826495A (en) Body left and right limb consistency tracking and distinguishing method and system based on face orientation