JP4569186B2 - Image processing apparatus and method, recording medium, and program - Google Patents

Image processing apparatus and method, recording medium, and program Download PDF

Info

Publication number
JP4569186B2
JP4569186B2 JP2004177420A JP2004177420A JP4569186B2 JP 4569186 B2 JP4569186 B2 JP 4569186B2 JP 2004177420 A JP2004177420 A JP 2004177420A JP 2004177420 A JP2004177420 A JP 2004177420A JP 4569186 B2 JP4569186 B2 JP 4569186B2
Authority
JP
Japan
Prior art keywords
image data
feature
image
detecting
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004177420A
Other languages
Japanese (ja)
Other versions
JP2006004003A (en
Inventor
厚志 大久保
浩太郎 佐部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004177420A priority Critical patent/JP4569186B2/en
Publication of JP2006004003A publication Critical patent/JP2006004003A/en
Application granted granted Critical
Publication of JP4569186B2 publication Critical patent/JP4569186B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、画像の変形や傾きに関わらず、安定して画像を判定することができるようにした画像処理装置および方法、記録媒体、並びプログラムに関する。   The present invention relates to an image processing apparatus and method, a recording medium, and a program, and in particular, an image processing apparatus and method, a recording medium, and an image processing apparatus and method capable of stably determining an image regardless of deformation or inclination of the image, Regarding line-up programs.

例えば、ロボットに人の顔を識別させるのに、サポートベクタマシン(Support Vector Machines (SVM))を利用することが知られている。サポートベクタマシン(SVM)は、汎化能力の高い強力なパターン識別手法としてよく知られているが、この手法を用いて顔識別を行う場合には以下の問題点がある。   For example, it is known to use a support vector machine (SVM) to make a robot identify a human face. The support vector machine (SVM) is well known as a powerful pattern identification technique with high generalization ability, but there are the following problems when performing face identification using this technique.

1. 性能の良い識別器を構成するためには学習時に大量の教師データが必要である。
2. 学習には非常に計算時間がかかる。
3. 2クラスの識別しかできない。
1. In order to construct a classifier with good performance, a large amount of teacher data is required during learning.
2. Learning takes a lot of computation time.
3. Only two classes can be identified.

SVMを利用した顔識別アルゴリズムを紹介する代表的なものに、非特許文献1の論文がある。この論文の技術ではq人分の人物を識別するために、登録された特定の人物クラスとそれ以外の人物クラスを識別するq個のSVMの識別器が利用される。この技術は、個々の識別器の学習用教師データには、登録したい人物と既に登録されているその他の人物の顔画像データを大量に必要としているため、学習はオフラインで行う必要があり、顔の登録には非常に時間がかかるという問題がある。   There is a paper of Non-Patent Document 1 as a representative one that introduces a face identification algorithm using SVM. In this paper's technique, q SVM classifiers are used to identify a registered person class and other person classes in order to identify q persons. This technology requires a large amount of face image data of the person who wants to register and other persons already registered in the teacher data for learning of each classifier. There is a problem that registration takes a long time.

上記の問題を解決するため、Jonathon Phillipsらは非特許文献2において、Baback Moghaddamらが非特許文献3で提案している差分顔によるPCA(Principal Components Analysis)を用いた顔識別の方法で、PCAの代わりにSVMでクラス識別を行うことにより、リアルタイムに顔の登録・追加学習が可能な、より精度の高い顔識別アルゴリズムを提案している。   In order to solve the above problem, Jonathon Phillips et al. In Non-Patent Document 2 used a face recognition method using PCA (Principal Components Analysis) with a differential face proposed by Baback Moghaddam et al. We have proposed a more accurate face recognition algorithm that can perform face registration and additional learning in real time by class identification with SVM instead of.

Babackらの差分顔による顔識別の方法は、2クラスの識別を行う識別器(PCAとベイズ推定を組み合わせた方法)を1つだけ用いる構成で任意の人数の顔を識別し、リアルタイムに顔の登録が可能な方法であり、これは顔画像が変化する要因は一般的に以下のように大きく2つに分類することが可能であるという事実に基づいている。   Baback et al.'S face recognition method uses a single classifier (a combination of PCA and Bayesian estimation) that identifies two classes, and identifies any number of faces. This is a method that can be registered, and this is based on the fact that the factors that change the face image can generally be classified into two types as follows.

1.intra-personal variations : 照明条件や表情・成長等による同一人物における顔画像の変化
2.extra-personal variations: 人物の相違による顔画像の変化
1. intra-personal variations: Changes in facial images of the same person due to lighting conditions, facial expressions, growth, etc. extra-personal variations: Changes in facial images due to person differences

Bernd Heisele, “Face Recognition with Support Vector Machines: Global versus Component-based Approach”, Massachusetts Institute of Technology Center for Biological and Computational Learning Canmbridge, U.S.A.Bernd Heisele, “Face Recognition with Support Vector Machines: Global versus Component-based Approach”, Massachusetts Institute of Technology Center for Biological and Computational Learning Canmbridge, U.S.A. P. Jonathon Phillips, “Support Vector Machines Applied to Face Recognition”, NISTIR 6241, U.S. Department of commerce Technology Administration, National Institute of Standards and Technology, November 1998P. Jonathon Phillips, “Support Vector Machines Applied to Face Recognition”, NISTIR 6241, U.S. Department of commerce Technology Administration, National Institute of Standards and Technology, November 1998 Baback Moghaddam, “Beyond Eigenfaces: Probabilistic Matching for Face Recognition”, MIT Media Laboratory, U.S.A.Baback Moghaddam, “Beyond Eigenfaces: Probabilistic Matching for Face Recognition”, MIT Media Laboratory, U.S.A.

Babackらの手法では、同一人物の2枚の顔画像の差分顔クラス(intra-personal class)と別人物の2枚の顔画像の差分顔クラス(extra-personal class)を、予め大量の教師画像からPCAを用いて学習する。この学習データには登録される人物の顔画像が含まれる必要がない。これにより、顔の登録時には再度学習を行わせる必要がなく、差分画像生成用の登録画像をそのまま保存するだけであるため、リアルタイム顔登録処理が可能となる。この手法では、それぞれのクラスの分布がガウス分布すると仮定して、クラス存在確率をPCAとベイズ推定を組み合わせた方法により求めているが、この仮定は照明条件などが非常に整った環境以外では十分に成り立たない。このため、ロボット等に要求される自然な環境での顔画像の変化には十分に対応できず、満足な性能が出ないことが多いという問題点がある。また、差分画像が2枚の顔画像の変化を十分に表すためには、2枚の顔画像の各特徴点間の正確な位置合わせを行った後で差分画像を生成する必要がある。これを行うためにBabackらは、目鼻等の特徴位置をPCAを用いたパターンマッチングで求めて、それら特徴位置が同じ位置に来るようにアフィン変換を行った後に差分画像の生成を行っているが、この方法では2枚の顔画像間の顔の変形や傾きが大きくなるにつれて著しく性能が低下する課題がある。   In Baback et al.'S method, a large number of teacher images are created in advance by adding a difference facial class (intra-personal class) of two facial images of the same person and an extra-personal class of two facial images of another person. To learn from PCA. This learning data does not need to include the face image of the person to be registered. Thereby, it is not necessary to perform learning again when the face is registered, and the registered image for generating the difference image is merely stored as it is, so that real-time face registration processing can be performed. In this method, assuming that the distribution of each class is a Gaussian distribution, the class existence probability is obtained by a method that combines PCA and Bayesian estimation, but this assumption is sufficient in environments other than those where lighting conditions are very well prepared. It does not hold. For this reason, there is a problem that it is not possible to sufficiently cope with a change in face image in a natural environment required for a robot or the like, and satisfactory performance is often not obtained. Further, in order for the difference image to sufficiently represent the change of the two face images, it is necessary to generate the difference image after performing accurate alignment between the feature points of the two face images. In order to do this, Baback et al. Found feature positions such as the eyes and nose by pattern matching using PCA, and after performing affine transformation so that those feature positions are at the same position, a difference image is generated. In this method, there is a problem that the performance is remarkably lowered as the face deformation or inclination between the two face images increases.

また、Jonathonらが提案している方法は、このクラス識別にPCAとベイズ推定ではなく、SVMを用いている。これにより、クラスの分布がガウス分布より複雑な分布になっても正しい判別が可能になり、照明条件等に変化の含まれる環境下での識別性能が向上しているが、差分顔を用いているため同様に2枚の顔画像間の顔の変形や傾きが大きくなるにつれて著しく性能が低下する課題がある。   The method proposed by Jonathon et al. Uses SVM instead of PCA and Bayesian estimation for this class identification. This enables correct discrimination even when the class distribution is more complicated than the Gaussian distribution, and improves the discrimination performance in environments where the lighting conditions etc. include changes. Therefore, similarly, there is a problem that the performance is remarkably lowered as the face deformation or inclination between the two face images increases.

本発明は、このような状況に鑑みてなされたものであり、顔の変形や傾きに関わらず、安定して識別を行えるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to identify stably regardless of the deformation or inclination of the face.

本発明の一側面の第1の画像処理装置は、入力された画像データの画像の特徴点を検出する特徴点検出手段と、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出手段と、前記特徴量検出手段により検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正手段と、前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算手段と、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定手段とを備える。 A first image processing apparatus according to an aspect of the present invention includes a feature point detection unit that detects a feature point of an image of input image data, and a feature amount detection that detects a local feature amount of the feature point using a Gabor filter. Detecting a feature point of the face image based on the corrected image data, a correction means for correcting the position of the local feature quantity detected by the feature quantity detection means, a feature quantity of the feature points detected in advance and calculating means for the correlative similarity between the feature quantity of the registration image being calculates all, the class of the inputted image data of the image to the degree of similarity And a determination means for determining based on the support vector machine.

入力された前記画像データの画像が、予め登録されている画像に属しないクラスであると判定された場合、ユーザの指示に応じて、前記特徴量を登録する登録手段をさらに備えるようにすることができる。 When the image of the input image data is determined to be a class that does not belong to a pre-registered image, the image data further includes a registration unit that registers the feature amount according to a user instruction. Can do.

本発明の一側面の第1の画像処理方法は、入力された画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップとを含む。 A first image processing method according to one aspect of the present invention includes a feature point detecting step for detecting an image feature point of input image data, and a feature amount detection for detecting a local feature amount of the feature point by a Gabor filter. Detecting a feature point of the face image based on the corrected image data, a correction step of correcting the position of the local feature amount detected in the feature amount detection step so that the face can be identified and the feature quantity of the feature points detected, a calculating step of calculating all correlation similarity degree between the feature quantity of the image registered in advance, the similar class of images of the image data input A determination step based on the degree by the support vector machine.

本発明の一側面の第1の記録媒体のプログラムは、入力された画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップとを含む。 A first recording medium program according to one aspect of the present invention includes a feature point detecting step for detecting an image feature point of input image data, and a feature amount for detecting a local feature amount of the feature point by a Gabor filter. A detection step; a correction step for correcting the position of the local feature amount detected by the processing of the feature amount detection step so that the face can be identified; and feature points of the face image based on the corrected image data. A step of detecting and calculating all the correlation similarities between the feature quantity of the detected feature point and the feature quantity of the pre-registered image; and the class of the image of the input image data And a determination step of determining by the support vector machine based on the similarity.

本発明の一側面の第1のプログラムは、入力された画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップとをコンピュータに実行させる。 A first program according to one aspect of the present invention includes a feature point detection step of detecting an image feature point of input image data, and a feature amount detection step of detecting a local feature amount of the feature point by a Gabor filter. A correction step of correcting the position of the local feature amount detected in the processing of the feature amount detection step so that a face can be identified; and a feature point of the face image based on the corrected image data; a feature quantity of the feature points detected in advance and calculating step correlative similarity between the feature quantity of the registration image being calculates all, the class of the inputted image data of the image to the degree of similarity And a determination step of determining by the support vector machine based on the computer.

本発明の一側面の第2の画像処理装置は、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得手段と、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付け手段と、前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出手段と、前記顔特徴を、顔識別ができるような位置に修正する修正手段と、前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出手段と、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出手段と、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算手段と、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算手段とを備える。 The second image processing apparatus according to one aspect of the present invention acquires first image data for learning belonging to a pair of intra personal classes and second image data for learning belonging to a pair of extra personal classes. Obtaining means, labeling means for associating a label with the first image data and the second image data, an image based on the first image data and the second image data to which the label is attached. Detection means for detecting an image portion of a face and detecting a face feature; correction means for correcting the face feature to a position where face identification can be performed; and the corrected first image data and second image a feature point detection means for detecting a feature point of the face image based on the data, the feature quantity detecting means for detecting the Gabor filter the feature quantity of the feature point, the first image data to be paired Comprising a similarity score, a similarity calculating means for calculating a similarity of said second image data to be paired, based on the label and the degree of similarity, and a support vector calculating means for calculating a support vector.

本発明の一側面の第2の画像処理方法は、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップとを含む。 According to a second image processing method of one aspect of the present invention, first image data for learning belonging to a pair of intra personal classes and second image data for learning belonging to a pair of extra personal classes are acquired. An obtaining step, a labeling step for associating a label with the first image data and the second image data, and an image based on the first image data and the second image data to which the label is attached. A detecting step for detecting an image portion of the face and detecting a facial feature; a correcting step for correcting the facial feature to a position where the facial feature can be identified; and the corrected first image data and second image a feature point detection step of detecting a feature point of the face image based on the data, and the feature quantity detecting step of detecting by Gabor feature amount of the feature point pairs with I A similarity calculation step for calculating the similarity of the first image data and the similarity of the second image data to be paired; and a support vector calculation for calculating a support vector based on the label and the similarity Steps.

本発明の一側面の第2の記録媒体のプログラムは、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップとを含む。 The second recording medium program according to one aspect of the present invention includes a first image data for learning belonging to a pair of intra personal classes and a second image data for learning belonging to a pair of extra personal classes. An obtaining step for obtaining, a labeling step for associating a label with the first image data and the second image data, an image based on the first image data and the second image data to which the label is attached A detection step of detecting a face image portion and detecting a face feature; a correction step of correcting the face feature to a position where the face can be identified; the corrected first image data and second a feature point detection step of detecting a feature point of the face image based on the image data, the feature quantity detecting step of detecting by Gabor feature amount of the feature point Based on the similarity calculation step of calculating the similarity of the first image data to be paired and the similarity of the second image data to be paired, and calculating the support vector based on the label and the similarity. And a support vector calculation step.

本発明の一側面の第2のプログラムは、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップとをコンピュータに実行させる。 The second program according to one aspect of the present invention acquires the first image data for learning belonging to the paired intra personal class and the second image data for learning belonging to the paired extra personal class. A labeling step for associating a label with the first image data and the second image data, and an image of a face from an image based on the first image data and the second image data to which the label is attached. A detecting step for detecting an image portion and detecting a facial feature; a correcting step for correcting the facial feature to a position where the facial feature can be identified; and the corrected first image data and second image data. a feature point detection step of detecting a feature point of the based facial image, a feature quantity detecting step of detecting by Gabor feature amount of the feature point, a pair The similarity calculation step for calculating the similarity of the first image data and the similarity of the second image data to be paired, and the support vector calculation for calculating a support vector based on the label and the similarity Causing the computer to execute the steps.

本発明においては、入力された画像データの特徴点の特徴量と、予め登録されている画像データの特徴点の特徴量との類似度が演算され、その類似度に基づいて、サポートベクタマシンにより画像データのクラスが判定される。   In the present invention, the similarity between the feature amount of the feature point of the input image data and the feature amount of the feature point of the image data registered in advance is calculated. Based on the similarity, the support vector machine A class of image data is determined.

また、本発明においては、第1の画像データと第2の画像データに対応付けられたラベル、並びに、第1の画像データの類似度と第2の画像データの類似度に基づいて、サポートベクタが演算される。   In the present invention, the support vector is based on the labels associated with the first image data and the second image data, and the similarity between the first image data and the similarity between the second image data. Is calculated.

本発明によれば、画像データのクラスを判定することができる。特に、画像の変形や傾きに関わらず、安定して判定を行うことが可能となる。また、リアルタイムで画像を登録することが可能となる。   According to the present invention, the class of image data can be determined. In particular, it is possible to make a stable determination regardless of the deformation or inclination of the image. It is also possible to register images in real time.

さらに本発明によれば、画像データのクラスを判定可能な装置を提供することができる。特に、画像での変形や傾きに関わらず、安定して判定を行うことができ、また、リアルタイムで画像の登録が可能な装置を提供することができる。   Furthermore, according to the present invention, an apparatus capable of determining the class of image data can be provided. In particular, it is possible to provide a device that can make a stable determination regardless of the deformation or inclination of an image and can register an image in real time.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した画像処理装置の構成例を表している。この画像処理装置1は、入力された画像データの画像から目、口、鼻といった顔の特徴をガボアフィルタリングにより抽出する顔抽出部11、並びに顔抽出部11により抽出された目、口、鼻などに基づいて、その画像が人の顔であるか否かを認識する顔認識部12により構成されている。   FIG. 1 shows a configuration example of an image processing apparatus to which the present invention is applied. The image processing apparatus 1 includes a face extraction unit 11 that extracts facial features such as eyes, mouth, and nose from an input image data image by Gabor filtering, and the eyes, mouth, and nose extracted by the face extraction unit 11. The face recognition unit 12 recognizes whether the image is a human face based on the above.

顔認識部12は、顔画像アライメント部51、クラス判断部52、および学習データベース53により構成されている。顔画像アライメント部51は、顔抽出部11より供給された顔の目、口、鼻といった特徴の特徴位置に基づいて、それらが通常、人の顔として位置する位置にくるように、アフィン変換などのモーフィング処理を行う。クラス判断部52は、学習データベース53に登録されている学習データを参照して、入力画像が登録済みの顔と同一人物クラスに属するか否かを判断する。   The face recognition unit 12 includes a face image alignment unit 51, a class determination unit 52, and a learning database 53. The face image alignment unit 51 is based on the feature positions of features such as the eyes, mouth, and nose of the face supplied from the face extraction unit 11 so that they are normally positioned as human faces. The morphing process is performed. The class determination unit 52 refers to the learning data registered in the learning database 53 and determines whether or not the input image belongs to the same person class as the registered face.

顔抽出部11は、入力された画像が、顔の画像であり、さらに顔の目の画像であるか、口の画像であるか、または鼻の画像であると判断できた場合には、その顔の中の位置を検出し、その位置情報を画像データとともに顔認識部12の顔画像アライメント部51に供給する。   If the face extraction unit 11 determines that the input image is a face image and is further an eye image, a mouth image, or a nose image, The position in the face is detected, and the position information is supplied to the face image alignment unit 51 of the face recognition unit 12 together with the image data.

顔画像アライメント部51は、顔特徴位置が、基準位置にくるように、アフィン変換などのモーフィング処理を行う。これにより、例えば正面からみた顔の画像である場合には、左右の目が水平な位置に所定の距離はなれて位置し、左右の目の中間の下方に鼻が位置し、その鼻よりさらに下方に口が位置するようにモーフィング処理が行われる。その結果、顔画像の識別が容易になる。   The face image alignment unit 51 performs morphing processing such as affine transformation so that the face feature position comes to the reference position. Thus, for example, in the case of a face image seen from the front, the left and right eyes are positioned at a predetermined distance from the horizontal position, the nose is positioned below the middle of the left and right eyes, and further below the nose Morphing processing is performed so that the mouth is located at the top. As a result, the face image can be easily identified.

クラス判断部52は、顔画像アライメント部51によりアライメントされた顔画像の画像データが、学習データベース53に予め登録されている顔画像の画像データと一致するか否かを判断する。このため、クラス判断部52は、図2に示されるような、機能的構成を有している。   The class determination unit 52 determines whether the image data of the face image aligned by the face image alignment unit 51 matches the image data of the face image registered in advance in the learning database 53. For this reason, the class determination unit 52 has a functional configuration as shown in FIG.

すなわち、クラス判断部52は、特徴点検出部101、特徴量演算部102、読み出し部103、類似度ベクトル演算部104、クラス判定部105、重複判定部106、選択部107、出力部108、表示部109、指示判定部110、および登録部111を有している。   That is, the class determination unit 52 includes a feature point detection unit 101, a feature amount calculation unit 102, a reading unit 103, a similarity vector calculation unit 104, a class determination unit 105, a duplication determination unit 106, a selection unit 107, an output unit 108, a display Unit 109, instruction determination unit 110, and registration unit 111.

特徴点検出部101は、顔画像アライメント部51より入力された画像データに基づく顔画像の特徴点を検出する。特徴量演算部102は、特徴点検出部101により検出された特徴点の特徴量を演算し、類似度ベクトル演算部104に供給する。特徴量演算部102は、ガボアフィルタ(Gabor Filter)で構成される。   The feature point detection unit 101 detects a feature point of the face image based on the image data input from the face image alignment unit 51. The feature amount calculation unit 102 calculates the feature amount of the feature point detected by the feature point detection unit 101 and supplies it to the similarity vector calculation unit 104. The feature amount calculation unit 102 is configured by a Gabor filter.

ここで、ガボアフィルタの処理(ガボアフィルタリング)について説明する。まず人間の視覚細胞には、ある特定の方位に対して選択性を持つ細胞が存在することが既に判っている。これは、垂直の線に対して反応する細胞と、水平の線に反応する細胞で構成される。ガボアフィルタリングは、これと同様に、方位選択性を持つ複数のフィルタで構成される空間フィルタである。   Here, the Gabor filter processing (Gabor filtering) will be described. First, it is already known that human visual cells have cells that are selective for a specific orientation. It consists of cells that respond to vertical lines and cells that respond to horizontal lines. Similarly, Gabor filtering is a spatial filter composed of a plurality of filters having orientation selectivity.

ガボアフィルタは、ガボア関数によって空間表現される。ガボア関数g(x,y)は、次式に示すように、コサイン成分からなるキャリアs(x,y)と、2次元ガウス分析状のエンベローブWr(x,y)とで構成される。   A Gabor filter is spatially expressed by a Gabor function. The Gabor function g (x, y) is composed of a carrier s (x, y) composed of a cosine component and an envelope Wr (x, y) in a two-dimensional Gaussian analysis as shown in the following equation.

Figure 0004569186
Figure 0004569186

キャリアs(x,y)は、複数関数を用いて、次の式(2)のように表現される。ここで、座標値(u0,v0)は空間周波数を表し、またPはコサイン成分の位相を表す。 The carrier s (x, y) is expressed as the following equation (2) using a plurality of functions. Here, the coordinate value (u 0 , v 0 ) represents the spatial frequency, and P represents the phase of the cosine component.

Figure 0004569186
Figure 0004569186

式(2)に示すキャリアは、次式(3)に示すように、実数成分Re(s(x,y))と虚数成分Im(s(x,y))に分離することができる。   The carrier shown in the equation (2) can be separated into a real component Re (s (x, y)) and an imaginary component Im (s (x, y)) as shown in the following equation (3).

Figure 0004569186
Figure 0004569186

一方、2次元ガウス分布からなるエンベローブは、次式のように表現される。   On the other hand, an envelope composed of a two-dimensional Gaussian distribution is expressed as follows.

Figure 0004569186
Figure 0004569186

ここで、座標軸(x0,y0)はこの関数のピークであり、定数a及びbはガウス分布のスケール・パラメータである。また、添字rは、次式に示すような回転操作を意味する。 Here, the coordinate axes (x 0 , y 0 ) are the peaks of this function, and the constants a and b are the scale parameters of the Gaussian distribution. The subscript r means a rotation operation as shown in the following equation.

Figure 0004569186
Figure 0004569186

従って、上述の式(2)及び式(4)より、ガボアフィルタは、次式に示すような空間関数として表現される。   Therefore, the Gabor filter is expressed as a spatial function as shown in the following equation from the above equations (2) and (4).

Figure 0004569186
Figure 0004569186

本実施の形態に係る特徴量演算部102は、8種類の方向と3通りの周波数を採用して、合計24個のガボアフィルタを用いて顔の目、口、鼻等の抽出処理を行う。   The feature amount calculation unit 102 according to the present embodiment employs eight types of directions and three frequencies, and performs extraction processing of face eyes, mouths, noses, and the like using a total of 24 Gabor filters.

ガボアフィルタのレスポンスは、Giをi番目のガボアフィルタとし、i番目のガボアフィルタの結果(Gabor Jet)をJiとし、入力イメージをIとすると、次式で表される。 The response of the Gabor filter is expressed by the following equation, where G i is the i-th Gabor filter, J i is the result (Gabor Jet) of the i-th Gabor filter, and I is the input image.

Figure 0004569186
Figure 0004569186

この式(7)の演算は、実際には高速フーリエ変換を用いて高速化することができる。   The calculation of equation (7) can actually be speeded up using fast Fourier transform.

作成したガボアフィルタの性能を調べるためには、フィルタリングして得られた画素を再構築することによって行う。再構築されたイメージHは、次式のように表される。   The performance of the created Gabor filter is examined by reconstructing the pixels obtained by filtering. The reconstructed image H is expressed as follows:

Figure 0004569186
Figure 0004569186

そして、入力画像Iと再構築された画像HとのエラーEは、次式のように表される。   An error E between the input image I and the reconstructed image H is expressed by the following equation.

Figure 0004569186
Figure 0004569186

このエラーEを最小にするような最適なaを求めることにより再構築することができる。   It can be reconstructed by obtaining an optimum a that minimizes the error E.

なお、ガボアフィルタリングに関しては、認識タスクに応じてフィルタの種類を変更するようにしても良い。   As for Gabor filtering, the type of filter may be changed according to the recognition task.

低周波でのフィルタリングでは、フィルタリング後のイメージすべてをベクトルとして持っているのは冗長である。そこで、ダウンサンプリングして、ベクトルの次元を落とすようにしても良い。ダウンサンプリングされた24種類のベクトルを一列に並べ、長いベクトル(上述したパターンベクトル)にする。   In low frequency filtering, it is redundant to have all the filtered images as vectors. Therefore, downsampling may be performed to reduce the vector dimension. The 24 types of downsampled vectors are arranged in a line to make a long vector (the pattern vector described above).

読み出し部103は、特徴点検出部101により検出された特徴点に対応する登録画像の特徴点を登録部111から読み出し、類似度ベクトル演算部104に出力する。   The reading unit 103 reads the feature points of the registered image corresponding to the feature points detected by the feature point detection unit 101 from the registration unit 111 and outputs them to the similarity vector calculation unit 104.

類似度ベクトル演算部104は、特徴量演算部102により演算された入力画像の特徴量と、読み出し部103により読み出された登録画像の特徴量に基づいて、入力された顔画像と登録されている顔画像の類似度ベクトルを演算する。   The similarity vector calculation unit 104 is registered with the input face image based on the feature amount of the input image calculated by the feature amount calculation unit 102 and the feature amount of the registered image read by the reading unit 103. The similarity vector of the face image is calculated.

クラス判定部105は、サポートベクタマシンにより構成され、類似度ベクトル演算部104より供給された類似度ベクトルに基づいて、入力された画像がintra-personal class(イントラパーソナルクラス)に属するか(予め登録されている画像と一致するのか)、またはextra-personal class(エクストラパーソナルクラス)に属するのか(予め登録されている画像以外の画像である(登録画像と一致しない)のか)の判定を行う。重複判定部106は、クラス判定部105により入力された画像がintra-personal classに属すると判定された場合、クラス判定部105により重複判定が行われたか否かを判定する。すなわち、入力された画像が、複数の登録画像と一致すると判定されたか否かが判定される。選択部107は、重複判定部106により重複判定が行われた場合には、一致すると判定された登録画像のいずれか1つを選択する処理を行う。選択部107は、重複判定部106により重複判定が行われなかったと判定された場合には、クラス判定部105により判定されたクラスの画像をそのまま選択する。出力部108は、選択部107より選択された画像を後段の装置に出力したり、表示部109に表示させたりする。   The class determination unit 105 includes a support vector machine, and based on the similarity vector supplied from the similarity vector calculation unit 104, whether the input image belongs to an intra-personal class (intra personal class) (pre-registered) Whether it belongs to an extra-personal class (extra personal class) (whether it is an image other than a pre-registered image (does not match a registered image)). When it is determined that the image input by the class determination unit 105 belongs to the intra-personal class, the overlap determination unit 106 determines whether the class determination unit 105 has performed the overlap determination. That is, it is determined whether or not it is determined that the input image matches a plurality of registered images. When the overlap determination is performed by the overlap determination unit 106, the selection unit 107 performs a process of selecting any one of registered images determined to match. When the overlap determination unit 106 determines that the overlap determination has not been performed, the selection unit 107 selects the class image determined by the class determination unit 105 as it is. The output unit 108 outputs the image selected by the selection unit 107 to a subsequent apparatus or causes the display unit 109 to display the image.

表示部109は、クラス判定部105により入力された画像がintra-personal classではなく、extra-personal classに属すると判定された場合、メッセージを表示する。指示判定部110は、表示部109により表示されたメッセージに基づいて、ユーザが入力された画像の登録を指示したか否かを判定する。登録部111は、指示判定部110により入力された画像の登録が指示されたと判定された場合、特徴量演算部102により演算された特徴量を、必要に応じて、入力された顔画像データとともに登録する。   The display unit 109 displays a message when it is determined that the image input by the class determination unit 105 belongs to the extra-personal class instead of the intra-personal class. The instruction determination unit 110 determines whether or not the user has instructed registration of the input image based on the message displayed by the display unit 109. When the registration unit 111 determines that the registration of the image input by the instruction determination unit 110 has been instructed, the registration unit 111 calculates the feature amount calculated by the feature amount calculation unit 102 together with the input face image data as necessary. sign up.

クラス判定部105では、パターン認識の分野で最も学習汎化能力が高いとされるサポートベクタマシン(Support Vector Machine:SVM)を用いて該当する顔か否かの識別を行うが、このサポートベクタマシンについて、ここで説明する。   In the class determination unit 105, a support vector machine (SVM) that is considered to have the highest learning generalization ability in the field of pattern recognition is used to identify whether or not the face is applicable. Will be described here.

サポートベクタマシン自体に関しては、例えばB.sholkopf外著の報告(B.Sholkopf、C.Burges、A.Smola,“Advance in Kernel Support Vector Learning”,The MIT Press、1999.)を挙げることができる。本出願人が行った予備実験の結果からは、サポートベクタマシンによる顔認識方法は、主成分分析(PCA)やニューラル・ネットワークを用いる手法に比べ、良好な結果を示すことが判っている。   Regarding the support vector machine itself, for example, a report by B. sholkopf (B. Sholkopf, C. Burges, A. Smola, “Advance in Kernel Support Vector Learning”, The MIT Press, 1999.) can be cited. From the results of preliminary experiments conducted by the present applicant, it has been found that the face recognition method using the support vector machine gives better results than the method using principal component analysis (PCA) or neural network.

サポートベクタマシンは、識別関数に線形識別器(パーセプトロン)を用いた学習機械であり、カーネル関数を使うことで非線形空間に拡張することができる。また識別関数の学習では、クラス間分離のマージンを最大にとるように行われ、その解は2次数理計画法を解くことで得られるため、グローバル解に到達できることを理論的に保証することができる。   The support vector machine is a learning machine using a linear classifier (perceptron) as a discriminant function, and can be extended to a non-linear space by using a kernel function. In the learning of discriminant functions, the margin of separation between classes is maximized, and the solution can be obtained by solving quadratic mathematical programming, so that it is theoretically guaranteed that a global solution can be reached. it can.

通常、パターン認識の問題は、テストサンプルx=(x1,x2,・・・,xn)に対して、次式で与えられる識別関数f(x)を求めることである。   Usually, the problem of pattern recognition is to obtain the discriminant function f (x) given by the following equation for the test sample x = (x1, x2,..., Xn).

Figure 0004569186
Figure 0004569186

ここで、サポートベクタマシンの学習用の教師ラベルを次式のようにおく。   Here, the teacher label for learning of the support vector machine is set as follows.

Figure 0004569186
Figure 0004569186

すると、サポートベクタマシンにおける顔パターンの認識を次式に示す制約条件の下での重み因子wの2乗を最小化する問題としてとらえることができる。   Then, the recognition of the face pattern in the support vector machine can be regarded as a problem of minimizing the square of the weight factor w under the constraint condition shown in the following equation.

Figure 0004569186
Figure 0004569186

このような制約のついた問題は、ラグランジュの未定定数法を用いて解くことができる。すなわち、式(13)に示すラグランジュをまず導入し、次いで、式(14)に示すように、b、wの各々について偏微分する。   Problems with such constraints can be solved using Lagrange's undetermined constant method. That is, the Lagrange shown in the equation (13) is first introduced, and then, as shown in the equation (14), partial differentiation is performed for each of b and w.

Figure 0004569186
Figure 0004569186

Figure 0004569186
Figure 0004569186

この結果、サポートベクタマシンにおける顔パターンの識別を次式に示す2次計画問題としてとらえることができる。   As a result, the identification of the face pattern in the support vector machine can be regarded as a quadratic programming problem expressed by the following equation.

Figure 0004569186
Figure 0004569186

特徴空間の次元数が、訓練サンプルの数よりも少ない場合は、スクラッチ変数ξ≧0を導入して、制約条件を次式のように変更する。   When the number of dimensions of the feature space is smaller than the number of training samples, a scratch variable ξ ≧ 0 is introduced, and the constraint condition is changed as follows.

Figure 0004569186
Figure 0004569186

最適化については、次式の目的関数を最小化する。   For optimization, the objective function of the following equation is minimized.

Figure 0004569186
Figure 0004569186

この式(17)において、Cは、制約条件をどこまで緩めるかを指定する係数であり、実験的に値を決定する必要がある。   In this equation (17), C is a coefficient that specifies how far the constraint condition is relaxed, and it is necessary to determine the value experimentally.

ラグランジュ定数aに関する問題は次式のように変更される。   The problem concerning the Lagrangian constant a is changed as follows:

Figure 0004569186
Figure 0004569186

しかし、この式(18)のままでは、非線型の問題を解くことはできない。そこで、本実施の形態では、カーネル関数K(x,x3)を導入して、一旦、高次元の空間に写像して(カーネル・トリック)、その空間で線形分離することにしている。したがって、元の空間では非線型分離していることと同等となる。   However, with this equation (18), the nonlinear problem cannot be solved. Therefore, in this embodiment, a kernel function K (x, x3) is introduced, and once mapped onto a high-dimensional space (kernel trick), linear separation is performed in that space. Therefore, it is equivalent to non-linear separation in the original space.

カーネル関数は、ある写像Φを用いて次式のように表される。   The kernel function is expressed as follows using a certain mapping Φ.

Figure 0004569186
Figure 0004569186

また、式(10)に示した識別関数も、次式のように表すことができる。   Further, the discriminant function shown in the equation (10) can also be expressed as the following equation.

Figure 0004569186
Figure 0004569186

また学習に関しても、次式に示す2次計画問題としてとらえることができる。   Learning can also be considered as a quadratic programming problem expressed by the following equation.

Figure 0004569186
Figure 0004569186

カーネルとしては、次式に示すガウシアン・カーネル(RBF:Radius Basic Function)などを用いることができる。   As the kernel, a Gaussian kernel (RBF: Radius Basic Function) represented by the following equation can be used.

Figure 0004569186
Figure 0004569186

次に、図3のフローチャートを参照して、画像処理装置1の認識処理について説明する。ステップS31において、顔抽出部11は、入力された画像データから顔を抽出する。具体的には、顔の目、口、鼻といった顔の特徴を抽出する。ステップS32において、顔画像アライメント部51は、目、口、鼻をアライメントする。具体的には、目、口、鼻等が、常識的な位置関係に位置するように、その位置を調整する。   Next, the recognition process of the image processing apparatus 1 will be described with reference to the flowchart of FIG. In step S31, the face extraction unit 11 extracts a face from the input image data. Specifically, facial features such as facial eyes, mouth, and nose are extracted. In step S32, the face image alignment unit 51 aligns the eyes, mouth, and nose. Specifically, the positions of the eyes, mouth, nose, etc. are adjusted so that they are positioned in a common sense positional relationship.

ステップS33において、特徴点検出部101は、顔画像アライメント部51より入力された顔画像データの顔の特徴点を検出する。いずれの点を特徴点とするかは任意であるが、例えば、図4に示されるように、水平方向と垂直方向に一定の間隔で離れて位置する画素(図4において、×印で示される画素)を特徴点とすることができる。図4において、左側の画像が入力された顔画像データによる顔の入力画像を表し、右側の画像が登録されている顔画像データによる顔の登録画像を表す。   In step S <b> 33, the feature point detection unit 101 detects a facial feature point of the face image data input from the face image alignment unit 51. Which point is used as a feature point is arbitrary. For example, as shown in FIG. 4, pixels located at a predetermined interval in the horizontal direction and the vertical direction (indicated by x in FIG. 4). Pixel) can be used as a feature point. In FIG. 4, the left image represents a face input image based on the input face image data, and the right image represents a registered face image based on the registered face image data.

ステップS34において、ガボアフィルタにより特徴点の特徴量を求める処理が行われる。すなわち、特徴量演算部102は、入力画像の特徴位置xVi(i=1,・・・,M)における特徴点(以下、必要に応じて、この特徴点を特徴点xViとも称する)の局所的特徴量である特徴量Jj(xVi)を次式に基づいて演算する。なお、以下の式において、xV,kVにおける添字Vは、x,kがベクトルであることを表す。また、x’Vは、xVの微分値を表す。 In step S34, processing for obtaining the feature amount of the feature point is performed by a Gabor filter. That is, the feature amount calculation unit 102 calculates feature points at the feature position x Vi (i = 1,..., M) of the input image (hereinafter, this feature point is also referred to as the feature point x Vi if necessary). A feature quantity J j (x Vi ) that is a local feature quantity is calculated based on the following equation. In the following formulas, the subscript V is in x V, k V, indicating that x, k is a vector. X ′ V represents a differential value of x V.

Figure 0004569186
Figure 0004569186

上記式において、I(xVi)は、特徴位置xViにおける入力顔画像の画素値(濃淡値)を表し、Ψj(xV)により畳み込み積分される。Ψj(xV)は、ガボアカーネル(Gabor Kernel)と称され、周波数パラメータν,方向パラメータμから定まるkVjで示す特定の方向、周波数における局所特徴量を抽出するガボアフィルタを構成する。ガボアフィルタの様々な周波数、方向における出力値はまとめてガボアジェット(Gabor Jet)Jj(xVj)と称され、特徴位置xViにおける特徴量として用いられる。ガボアジェットは、特徴点の周辺の局所特徴量を表しており、特徴点のある程度の位置のずれや変形に対して、不変であるという特徴を有している。 In the above equation, I (x Vi ) represents the pixel value (gray value) of the input face image at the feature position x Vi and is convolved and integrated by Ψ j (x V ). Ψ j (x V ) is called a Gabor Kernel and constitutes a Gabor filter that extracts a local feature quantity in a specific direction and frequency indicated by k Vj determined from the frequency parameter ν and the direction parameter μ. The output values at various frequencies and directions of the Gabor filter are collectively referred to as Gabor Jet J j (x Vj ), and are used as feature quantities at the feature position x Vi . The Gabor jet represents a local feature amount around the feature point, and has a feature that it is invariant to a certain amount of positional shift or deformation of the feature point.

ステップS35において、読み出し部103は、登録顔の特徴量を読み出す。すなわち、読み出し部103は、特徴点検出部101により検出された特徴点xViに対応する登録顔の特徴点の特徴量Jj M(xVi)を、登録部111から読み出し、類似度ベクトル演算部104に出力する。 In step S35, the reading unit 103 reads the feature amount of the registered face. That is, the reading unit 103 reads the feature amount J j M (x Vi ) of the feature point of the registered face corresponding to the feature point x Vi detected by the feature point detection unit 101 from the registration unit 111, and calculates the similarity vector calculation Output to the unit 104.

ステップS36において、類似度ベクトル演算部104は、類似度ベクトルを求める。具体的には、次式に基づいて、同じ特徴位置xViにおける類似度d(xVi)が、入力顔の特徴量Ji I(xVi)と登録画像の特徴量Jj M(xVi)を用いて演算される。この類似度d(xVi)から、その集合である類似度ベクトルd{d(xVi)}(i=1,・・・,M)が求められる。 In step S36, the similarity vector calculation unit 104 calculates a similarity vector. Specifically, based on the following equation, the similarity d (x Vi ) at the same feature position x Vi is obtained by calculating the input face feature quantity J i I (x Vi ) and the registered image feature quantity J j M (x Vi ). From this similarity d (x Vi ), a similarity vector d {d (x Vi )} (i = 1,..., M), which is the set, is obtained.

Figure 0004569186
Figure 0004569186

以上のステップS35,S36の処理は、予め登録されているすべての登録顔について行われる。これにより、入力された顔画像とすべての登録顔画像との比較が行われることになる。   The processes in steps S35 and S36 described above are performed for all registered faces registered in advance. As a result, the input face image is compared with all registered face images.

ステップS37において、クラス判定部105は、サポートベクタマシン(SVM)によりクラスを判定する。サポートベクタマシンは、類似度ベクトルの境界面(式(10)のf(x)の値を、例えば、+1または−1と判定する境界面(値が0である位置の面))からの距離を算出し、intra-personal classに属するか、extra-personal classに属するかの判断を行う。intra-personal classに属すると判断される類似度ベクトルが存在しない場合には、未登録の人物の顔が入力されたと判断される。クラス判定部105を構成する1つのサポートベクタマシンは、多くの顔画像を学習することで、新たに入力された顔画像が登録されている(学習済みの)顔画像と一致するのか(intra-personal classに属するのか)、または、一致しないのか(extra-personal classに属するのか)を判定する機能を有する。   In step S37, the class determination unit 105 determines a class using a support vector machine (SVM). The support vector machine is a distance from the boundary surface of the similarity vector (the boundary surface (the surface at the position where the value is 0) that determines the value of f (x) in Expression (10) as, for example, +1 or −1)). To determine whether it belongs to intra-personal class or extra-personal class. If there is no similarity vector determined to belong to the intra-personal class, it is determined that an unregistered person's face has been input. One support vector machine that constitutes the class determination unit 105 learns many face images, so that a newly input face image matches a registered (learned) face image (intra- It has a function to determine whether it belongs to personal class) or does not match (whether it belongs to extra-personal class).

ステップS37における処理が模式的に図4に示されている。すなわち、図4に示されるように、サポートベクタマシンは、ガボアフィルタにより検出された入力画像II(xV)の特徴点の特徴量JI(xVj)と、登録画像IMk(xV)の特徴点の特徴量JM(xVi)の類似度d(xVi)が演算し、その類似度の集合である類似度ベクトルを判断することでクラスを判定する。 The process in step S37 is schematically shown in FIG. That is, as shown in FIG. 4, the support vector machine performs the feature amount J I (x Vj ) of the feature points of the input image I I (x V ) detected by the Gabor filter and the registered image I Mk (x V ). The class d is determined by calculating the similarity d (x Vi ) of the feature quantity J M (x Vi ) of the feature points and determining the similarity vector that is a set of the similarities.

そして、ステップS38において、クラス判定部105は、入力された顔画像は、intra-personal classかを判定する。入力された顔画像がintra-personal classであると判定された場合(入力された顔画像が登録部111に登録されている画像であると判定された場合)、ステップS39において、重複判定部106は、複数の登録顔のintra-personal classと判定されたかを判定する。すなわち、入力された顔画像が、登録部111に登録されている2以上の登録顔と一致するとクラス判定部105により判定されたか否かを判定する。複数の登録顔のintra-personal classと判定された場合には、ステップS40において、選択部107は、境界面からの距離が最も大きい類似度ベクトルに対応する登録顔を選択する。   In step S38, the class determination unit 105 determines whether the input face image is an intra-personal class. When it is determined that the input face image is an intra-personal class (when it is determined that the input face image is an image registered in the registration unit 111), in step S39, the overlap determination unit 106 Determines whether the intra-personal class of a plurality of registered faces has been determined. That is, it is determined whether or not the class determination unit 105 determines that the input face image matches two or more registered faces registered in the registration unit 111. If the intra-personal class of a plurality of registered faces is determined, in step S40, the selection unit 107 selects a registered face corresponding to the similarity vector having the largest distance from the boundary surface.

ステップS39において、複数の登録顔のintra-personal classであると判定されていないと判定された場合(入力された顔画像が、登録されている1つの登録顔と一致すると判定された場合)、ステップS40の選択処理は必要がないのでスキップされる。そして、ステップS41において、出力部108は、登録部111に登録されている顔画像データを出力したり、表示部109などに表示させる。   In step S39, when it is determined that the intra-personal class of a plurality of registered faces has not been determined (when it is determined that the input face image matches one registered face), Since the selection process in step S40 is not necessary, it is skipped. In step S41, the output unit 108 outputs the face image data registered in the registration unit 111 or displays the face image data on the display unit 109 or the like.

ステップS38において、入力された顔画像がintra-personal classではないと判定された場合(extra-personal classであると判定された場合)、ステップS42において、表示部109は、メッセージを表示する。例えば、「入力された人物は、登録されていません」のようなメッセージが表示部109により表示される。管理者は、このメッセージをみて、入力された顔画像を登録するか否かを判断し、登録する場合にはその旨を指示する。このとき、必要に応じて、自分自身が登録権限を有する管理者であることを表す情報として、例えば、パスワードを呈示する。そこで、指示判定部110は、ステップS43において、登録が指示されたか否かを判定し、入力された顔画像の登録が指示されたと判定された場合、ステップS44において、指示判定部110は、さらに、その指示が管理者からの指示であるか否かを判定する。入力されたパスワードが正しいパスワードである場合、管理者からの指示であると判定される。この場合、ステップS45において、登録部111は、特徴量演算部102により演算された特徴量を登録する処理を実行する。その後、処理はステップS41に進み、出力部108は、登録部111にいま登録された顔画像データを出力する処理を実行する。   If it is determined in step S38 that the input face image is not an intra-personal class (when it is determined to be an extra-personal class), the display unit 109 displays a message in step S42. For example, a message such as “The input person is not registered” is displayed on the display unit 109. The administrator sees this message, determines whether or not to register the input face image, and instructs to that effect when registering. At this time, if necessary, for example, a password is presented as information indicating that the administrator is an administrator having registration authority. Therefore, the instruction determination unit 110 determines whether or not registration is instructed in step S43, and when it is determined that registration of the input face image is instructed, in step S44, the instruction determination unit 110 further Then, it is determined whether or not the instruction is an instruction from the administrator. If the input password is the correct password, it is determined that the instruction is from the administrator. In this case, in step S <b> 45, the registration unit 111 executes a process of registering the feature amount calculated by the feature amount calculation unit 102. Thereafter, the process proceeds to step S41, and the output unit 108 executes a process of outputting the face image data currently registered in the registration unit 111.

ステップS43において、登録が指示されていないと判定され場合、またはステップS44において、登録が指示されたが管理者からの指示ではないと判定された場合(例えば、入力されたパスワードが正しくない場合)、ステップS45の登録処理はスキップされ、処理は終了される。   If it is determined in step S43 that registration is not instructed, or if it is determined in step S44 that registration is instructed but not an instruction from the administrator (for example, if the input password is incorrect) The registration process in step S45 is skipped and the process ends.

クラス判定部105において用いられるサポートベクタマシンは、例えば、図5に示される画像処理装置により学習生成される。   The support vector machine used in the class determination unit 105 is learned and generated by, for example, the image processing apparatus shown in FIG.

この画像処理装置151は、取得部161、ラベル付け部162、顔抽出部163、顔画像アライメント部164、特徴点検出部165、特徴量演算部166、類似度ベクトル演算部167、およびサポートベクタ演算部168により構成される。   The image processing apparatus 151 includes an acquisition unit 161, a labeling unit 162, a face extraction unit 163, a face image alignment unit 164, a feature point detection unit 165, a feature amount calculation unit 166, a similarity vector calculation unit 167, and a support vector calculation. Part 168.

取得部161は、学習用の画像データを取得する。この学習用の画像データとしては、対となるintra-personal classに属する学習用の画像データと、対となるextra-personal classに属する学習用の画像データとから構成される。ここで、対となる画像とは、人の顔の画像であって、照明条件、表情、人種、年齢、性別などを変化させる前の画像と変化させた後の画像との対の画像を意味する。intra-personal classに属する顔画像の場合、対となる画像は、同一人物の画像であるから、照明条件、表情、年齢、などを変化させることが可能であるが、人種、性別などは、変化させることができない。したがって、intra-personal classに属する顔画像としては、照明条件、表情、または年齢といった条件が変化されたものが用意される。これに対してextra-personal classに属する顔画像は、異なる人物と判定される顔画像であるから、対となる顔画像は、異なる人物の顔画像である。この場合には、一方の顔画像に対して他方の顔画像は、照明条件、表情、人種、年齢、性別といった条件を変更した顔画像とすることができる。   The acquisition unit 161 acquires learning image data. The learning image data includes learning image data belonging to a pair of intra-personal classes and learning image data belonging to a pair of extra-personal classes. Here, a pair of images is an image of a human face, and is an image of a pair of an image before changing the lighting condition, facial expression, race, age, sex, etc. and an image after changing the image. means. In the case of face images belonging to the intra-personal class, the paired images are images of the same person, so it is possible to change the lighting conditions, facial expressions, age, etc., but the race, gender, etc. It cannot be changed. Therefore, a face image belonging to the intra-personal class is prepared in which conditions such as lighting conditions, facial expressions, or age are changed. On the other hand, since the face images belonging to the extra-personal class are face images determined to be different persons, the paired face images are face images of different persons. In this case, with respect to one face image, the other face image can be a face image in which conditions such as lighting conditions, facial expressions, race, age, and sex are changed.

ラベル付け部162は、取得部161により取得されたintra-personal classに属する顔画像と、extra-personal classに属する顔画像に対してラベル付けを行う。例えば、intra-personal classに属する顔画像に対しては+1のラベルが、extra-personal classに属する顔画像に対しては−1が、それぞれラベル付けされる。顔抽出部163は、ラベル付けされた画像の中から、顔画像の部分を検出し、さらに顔画像の中から、目、口、鼻といった特徴を検出する。この顔抽出部163の構成と機能は、図1における顔抽出部11と同様である。   The labeling unit 162 labels the face images belonging to the intra-personal class acquired by the acquisition unit 161 and the face images belonging to the extra-personal class. For example, +1 is labeled for a face image belonging to the intra-personal class, and -1 is labeled for a face image belonging to the extra-personal class. The face extraction unit 163 detects a face image portion from the labeled images, and further detects features such as eyes, mouth, and nose from the face image. The configuration and function of the face extraction unit 163 are the same as those of the face extraction unit 11 in FIG.

顔画像アライメント部164は、顔抽出部163により検出された画像の、目、口、鼻といった特徴の位置を、基準の位置にアライメントする処理を行う。この顔画像アライメント部164の構成と機能は、図1における顔画像アライメント部51と同様である。   The face image alignment unit 164 performs processing for aligning the positions of features such as eyes, mouths, and noses of the image detected by the face extraction unit 163 with reference positions. The configuration and function of the face image alignment unit 164 are the same as those of the face image alignment unit 51 in FIG.

特徴点検出部165は、顔画像アライメント部164により目、口、鼻といった特徴がアライメントされた画像の特徴点を検出する。いかなる点を特徴点とするかは任意である。特徴量演算部166は、特徴点検出部165により検出された特徴点の特徴量を演算する。この特徴量演算部166により演算される特徴量も任意である。これらの特徴点検出部165と特徴量演算部166の構成と機能は、図2の特徴点検出部101と特徴量演算部102と同様であり、検出される特徴点と特徴量は対応する。   The feature point detection unit 165 detects feature points of the image in which features such as eyes, mouth, and nose are aligned by the face image alignment unit 164. It is arbitrary what point is used as the feature point. The feature amount calculation unit 166 calculates the feature amount of the feature point detected by the feature point detection unit 165. The feature amount calculated by the feature amount calculation unit 166 is also arbitrary. The configuration and function of the feature point detection unit 165 and the feature amount calculation unit 166 are the same as those of the feature point detection unit 101 and the feature amount calculation unit 102 in FIG. 2, and the detected feature points correspond to the feature amounts.

類似度ベクトル演算部167は、特徴量演算部166により演算された対となる特徴量の類似度ベクトルを演算する。この類似度ベクトル演算部167の構成と機能も、図2の類似度ベクトル演算部104と同様である。サポートベクタ演算部168は、類似度ベクトル演算部167により演算された類似度ベクトルと、ラベル付け部162により付加されたラベルとに基づいて、2つのクラス(intra-personal classとextra-personal class)を分離するサポートベクタを演算する。   The similarity vector calculation unit 167 calculates a similarity vector of a pair of feature amounts calculated by the feature amount calculation unit 166. The configuration and function of the similarity vector calculation unit 167 are the same as those of the similarity vector calculation unit 104 in FIG. The support vector calculation unit 168 has two classes (intra-personal class and extra-personal class) based on the similarity vector calculated by the similarity vector calculation unit 167 and the label added by the labeling unit 162. Calculate the support vector that separates.

次に、図6のフローチャートを参照して、図5の画像処理装置151の学習処理について説明する。   Next, the learning process of the image processing apparatus 151 in FIG. 5 will be described with reference to the flowchart in FIG.

ステップS61において、取得部161は、対となるintra-personal classに属する学習用の画像データと、対となるextra-personal classに属する学習用の画像データを取得する。この学習用の画像データは、必ずしも識別対象とする(登録対象とする)人の顔の画像データである必要はない。上述したように、その登録は、図3のステップS45において行われるからである。したがって、画像処理装置1が実際に利用される場所、利用者などに関わらず、画像処理装置1のクラス判定部105において用いるサポートベクタマシンを共通化することができ、その共通化したサポートベクタマシンを容易に生成することが可能となる。   In step S61, the acquisition unit 161 acquires learning image data belonging to the paired intra-personal class and learning image data belonging to the paired extra-personal class. This learning image data does not necessarily need to be image data of a person's face to be identified (registered). This is because the registration is performed in step S45 in FIG. Therefore, the support vector machine used in the class determination unit 105 of the image processing apparatus 1 can be shared regardless of the place where the image processing apparatus 1 is actually used, the user, and the like. Can be easily generated.

ステップS62において、ラベル付け部162はラベル付けを行う。具体的には、ラベル付け部162は、intra-personal classに属する学習用の画像データとして入力された画像データに対しては+1を、extra-personal classに属する学習用の画像データとして入力された画像データに対しては−1を、それぞれラベル付けする。顔抽出部163は、ステップS63において、顔画像の特徴を検出する。そして、ステップS64において、顔画像アライメント部164は、ステップS63の処理で検出された顔特徴をアライメントする処理を実行する。   In step S62, the labeling unit 162 performs labeling. Specifically, the labeling unit 162 receives +1 for image data input as learning image data belonging to the intra-personal class, and is input as image data for learning belonging to the extra-personal class. For image data, -1 is labeled. In step S63, the face extraction unit 163 detects the feature of the face image. In step S64, the face image alignment unit 164 executes a process of aligning the facial features detected in the process of step S63.

すなわち、ステップS63,S65の処理により、図1の顔抽出部11、および顔認識部12の顔画像アライメント部51における場合と同様に、入力された画像データの中から、顔の画像部分が検出され、検出された顔の中から、目、口、鼻といった顔特徴がさらに検出され、検出された目、口、鼻といった特徴が、所定の基準位置にアライメントされる。   That is, by the processing in steps S63 and S65, the face image portion is detected from the input image data as in the case of the face extraction unit 11 of FIG. 1 and the face image alignment unit 51 of the face recognition unit 12. Then, facial features such as eyes, mouth, and nose are further detected from the detected faces, and the detected features such as eyes, mouth, and nose are aligned to a predetermined reference position.

ステップS65において、特徴点検出部165は、顔画像データの特徴点を検出する。ステップS66において、特徴量演算部166は、ガボアフィルタにより特徴点の特徴量を求める。これらの処理は、図2の特徴点検出部101と特徴量演算部102により図3のステップS33とステップS34で実行される処理と同様の処理である。すなわち、これにより、学習用の対となるintra-personal classに属する画像データの特徴点の特徴量が求められるとともに、学習用の対となるextra-personal classに属する画像データの特徴点の特徴量が求められる。   In step S65, the feature point detector 165 detects feature points of the face image data. In step S66, the feature amount calculation unit 166 obtains feature amounts of feature points using a Gabor filter. These processes are the same as the processes executed in step S33 and step S34 in FIG. 3 by the feature point detection unit 101 and the feature amount calculation unit 102 in FIG. That is, the feature amount of the feature point of the image data belonging to the intra-personal class that is a pair for learning is obtained and the feature amount of the feature point of the image data belonging to the extra-personal class that is a pair for learning. Is required.

ステップS67において、類似度ベクトル演算部167は、類似度ベクトルを演算する。具体的には、上述した式(29)における入力顔の特徴量Jj I(xVi)に代えて、対となるintra-personal classに属する顔画像の一方の特徴量が代入され、同様に、Jj M(xVi)の代わりに、intra-personal classに属する学習用の画像データの他方の対となる画像データの特徴量が代入される。そして、両者の類似度が、式(29)に基づいて演算される。さらに、類似度d(xVi)の集合としての類似度ベクトルd{d(xVi)}(i=1,・・・,M)が演算される。対となるextra-personal classに属する学習用の画像データについても同様に、類似度ベクトルが演算される。 In step S67, the similarity vector calculation unit 167 calculates a similarity vector. Specifically, instead of the feature value J j I (x Vi ) of the input face in the above equation (29), one feature value of the face image belonging to the paired intra-personal class is substituted, and similarly , J j M (x Vi ) is substituted with the feature quantity of the other pair of image data for learning belonging to the intra-personal class. Then, the similarity between them is calculated based on the equation (29). Furthermore, the similarity d similarity vector d {d (x Vi)} as a collection of (x Vi) (i = 1 , ···, M) is calculated. Similarly, a similarity vector is also calculated for learning image data belonging to a pair of extra-personal classes.

ステップS68において、サポートベクタ演算部168は、ラベルと類似度ベクトルをサポートベクタマシンに入力し、2つのクラスを分離するサポートベクタを演算する。具体的には、上述した式(10)におけるxに代えて、ステップS67で演算された類似度ベクトルが代入され、式(11)に示されるyにステップS62の処理で付けられたラベルが代入される。それにより、サポートベクタとしての式(10)におけるf(x)が演算される。   In step S68, the support vector calculation unit 168 inputs the label and the similarity vector to the support vector machine, and calculates a support vector that separates the two classes. Specifically, the similarity vector calculated in step S67 is substituted for x in the above-described equation (10), and the label attached in the process of step S62 is substituted for y shown in equation (11). Is done. Thereby, f (x) in Expression (10) as a support vector is calculated.

以上のようにして、生成されたサポートベクタマシンが図2のクラス判定部105のサポートベクタマシンとして用いられる。   The support vector machine generated as described above is used as the support vector machine of the class determination unit 105 in FIG.

以上のように、本発明においては、intra-personal classとextra-personal classを識別するサポートベクタマシンは1個しか必要としない。サポートベクタマシンの学習に必要な教師データには、登録される顔画像が含まれる必要がないため、サポートベクタマシンの再学習の必要がない。登録の際には、登録用の顔画像から生成される特徴量を保存するだけでよいため、リアルタイムに顔画像登録処理が可能であり、保存すべきデータ量もほとんど増加しない。また、クラス判定部にサポートベクタマシンを用いているため、非常に汎化能力が高く、さまざまの条件の変化の元でも精度の高い識別が可能となる。   As described above, in the present invention, only one support vector machine for identifying the intra-personal class and the extra-personal class is required. Since the teacher data necessary for learning the support vector machine does not need to include the registered face image, there is no need to re-learn the support vector machine. At the time of registration, since it is only necessary to store the feature amount generated from the face image for registration, face image registration processing can be performed in real time, and the amount of data to be stored hardly increases. In addition, since a support vector machine is used for the class determination unit, the generalization capability is very high, and high-precision identification is possible even when various conditions change.

また、サポートベクタマシンに入力するデータとして、2枚の顔画像の差分画像ではなく、2枚の顔画像のガボアジェットの類似度ベクトルを用いているため、特徴点間のある程度の位置のずれや変形に強くなる。これにより、2枚の顔画像間の顔の変形や傾きの変化に対してロバストになり、ロボットによるさまざまな環境下での顔識別性能を向上させることが可能となる。また、本発明は、顔の識別だけでなく、さまざまなパターンの2クラス識別(一致するか、または一致しないかの識別)に対応することが可能であり、その識別対象のパターンの変形や傾きに対してロバストな識別システムを構築することが可能である。   In addition, since the similarity vector of Gaboradgets of two face images is used as data to be input to the support vector machine instead of a difference image of two face images, a certain amount of positional deviation or deformation between feature points is used. Become stronger. As a result, the face is robust against changes in face deformation and tilt between the two face images, and the face recognition performance of the robot under various environments can be improved. Further, the present invention can cope with not only face identification but also two-class identification of various patterns (identification of coincidence or non-coincidence), and the deformation or inclination of the pattern to be identified. It is possible to construct a robust identification system.

したがって、リアルタイムに顔の登録、追加学習が可能で、さまざまな環境下での顔の変形や傾きの変化に対してロバストな顔識別システムを構築することが可能となる。   Accordingly, face registration and additional learning can be performed in real time, and a face identification system that is robust against changes in face deformation and tilt under various environments can be constructed.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、画像処理装置は、図7に示されるようなパーソナルコンピュータにより構成される。   The series of processes described above can be executed by hardware or can be executed by software. In this case, for example, the image processing apparatus is configured by a personal computer as shown in FIG.

図7において、CPU(Central Processing Unit)221は、ROM(Read Only Memory)222に記憶されているプログラム、または記憶部228からRAM(Random Access Memory)223にロードされたプログラムに従って各種の処理を実行する。RAM223にはまた、CPU221が各種の処理を実行する上において必要なデータなども適宜記憶される。   In FIG. 7, a CPU (Central Processing Unit) 221 executes various processes according to a program stored in a ROM (Read Only Memory) 222 or a program loaded from a storage unit 228 to a RAM (Random Access Memory) 223. To do. The RAM 223 also appropriately stores data necessary for the CPU 221 to execute various processes.

CPU221、ROM222、およびRAM223は、バス224を介して相互に接続されている。このバス224にはまた、入出力インタフェース225も接続されている。   The CPU 221, ROM 222, and RAM 223 are connected to each other via a bus 224. An input / output interface 225 is also connected to the bus 224.

入出力インタフェース225には、キーボード、マウスなどよりなる入力部226、CRT(Cathode Ray Tube)、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部227、ハードディスクなどより構成される記憶部228、モデムなどより構成される通信部229が接続されている。通信部229は、インターネットを含むネットワークを介しての通信処理を行う。   The input / output interface 225 includes an input unit 226 including a keyboard and a mouse, a display including a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal display), an output unit 227 including a speaker, a hard disk, and the like. A communication unit 229 including a storage unit 228 and a modem is connected. The communication unit 229 performs communication processing via a network including the Internet.

入出力インタフェース225にはまた、必要に応じてドライブ230が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア231が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部228にインストールされる。   A drive 230 is connected to the input / output interface 225 as necessary, and a removable medium 231 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is It is installed in the storage unit 228 as necessary.

一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.

この記録媒体は、図7に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア231により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM222や、記憶部228に含まれるハードディスクなどで構成される。   As shown in FIG. 7, the recording medium is distributed to provide a program to the user separately from the apparatus main body, and includes a magnetic disk (including a floppy disk) on which the program is recorded, an optical disk (CD- It is not only composed of a removable medium 231 consisting of ROM (compact disk-read only memory), DVD (digital versatile disk), magneto-optical disk (including MD (mini-disk)), or semiconductor memory. The program is configured by a ROM 222 on which a program is recorded, a hard disk included in the storage unit 228, and the like provided to the user in a state of being preinstalled in the apparatus main body.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

本発明は、人の顔を識別するロボットに適用することが可能である。   The present invention can be applied to a robot for identifying a human face.

本発明を適用した画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus to which this invention is applied. 図1のクラス判断部の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the class determination part of FIG. 図2のクラス判断部のクラス判断処理を説明するフローチャートである。It is a flowchart explaining the class determination process of the class determination part of FIG. クラス判定処理を説明する図である。It is a figure explaining a class determination process. サポートベクタマシンを学習する画像処理装置の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the image processing apparatus which learns a support vector machine. 図5の画像処理装置の学習処理を説明するフローチャートである。It is a flowchart explaining the learning process of the image processing apparatus of FIG. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

符号の説明Explanation of symbols

1 画像処理装置, 11 顔抽出部, 12 顔認識部, 51 顔画像アライメント部, 52 クラス判断部, 101 特徴点検出部, 102 特徴量演算部, 103 読み出し部, 104 類似度ベクトル演算部, 105 クラス判定部, 106 重複判定部, 107 選択部, 108 出力部, 109 表示部, 110 指示判定部, 111 登録部, 151 画像処理装置, 161 取得部, 162 ラベル付け部, 163 顔抽出部, 164 顔画像アライメント部, 165 特徴点検出部, 166 特徴量演算部, 167 類似度ベクトル演算部, 168 サポートベクタ演算部   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 11 Face extraction part, 12 Face recognition part, 51 Face image alignment part, 52 Class judgment part, 101 Feature point detection part, 102 Feature-value calculation part, 103 Reading part, 104 Similarity vector calculation part, 105 Class determination unit, 106 overlap determination unit, 107 selection unit, 108 output unit, 109 display unit, 110 instruction determination unit, 111 registration unit, 151 image processing device, 161 acquisition unit, 162 labeling unit, 163 face extraction unit, 164 Face image alignment unit, 165 feature point detection unit, 166 feature amount calculation unit, 167 similarity vector calculation unit, 168 support vector calculation unit

Claims (9)

入力された画像データの画像の特徴点を検出する特徴点検出手段と、
前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出手段と、
前記特徴量検出手段により検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正手段と、
前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算手段と、
入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定手段と
を備える像処理装置。
Feature point detecting means for detecting feature points of the image of the input image data;
Feature quantity detection means for detecting a local feature quantity of the feature point by a Gabor filter;
Correction means for correcting the position so that the local feature quantity detected by the feature quantity detection means can be identified; and
Calculation means for detecting feature points of the face image based on the corrected image data, and calculating all correlation similarities between the feature quantities of the detected feature points and the feature quantities of the pre-registered image When,
Images processing device and a determination means by the support vector machine based on the class of the inputted image data of the image to the degree of similarity.
入力された前記画像データの画像が、予め登録されている画像に属しないクラスであると判定された場合、ユーザの指示に応じて、前記特徴量を登録する登録手段をさらに備える
求項1に記載の画像処理装置。
When it is determined that the image of the input image data is a class that does not belong to a previously registered image, the image data further includes a registration unit that registers the feature amount according to a user instruction.
The image processing apparatus according to Motomeko 1.
入力された画像データの画像の特徴点を検出する特徴点検出ステップと、
前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、
前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、
前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、
入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップと
を含む像処理方法。
A feature point detecting step for detecting a feature point of the image of the input image data;
A feature amount detection step of detecting a local feature amount of the feature point by a Gabor filter;
A correction step for correcting the position so that the local feature amount detected by the processing of the feature amount detection step can be identified; and
Calculating step the detected feature points of the modified facial image based on the image data, and the feature quantity of the feature points detected, it calculates all correlations similarity degree between the feature quantity of image registered beforehand When,
Images processing method comprising a determining step by the support vector machine based on the class of the inputted image data of the image to the degree of similarity.
入力された画像データの画像の特徴点を検出する特徴点検出ステップと、
前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、
前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、
前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、
入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップと
を含むンピュータが読み取り可能なプログラムが記録されている記録媒体。
A feature point detecting step for detecting a feature point of the image of the input image data;
A feature amount detection step of detecting a local feature amount of the feature point by a Gabor filter;
A correction step for correcting the position so that the local feature amount detected by the processing of the feature amount detection step can be identified; and
A calculation step of detecting feature points of the face image based on the corrected image data, and calculating all correlation similarities between the feature amount of the detected feature points and the feature amount of the image registered in advance. When,
Recording medium input computer-readable program including a determining step by the support vector machine based on the class of the image of the image data to the similarity is recorded.
入力された画像データの画像の特徴点を検出する特徴点検出ステップと、
前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、
前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、
前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、
入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップと
をコンピュータに実行させるログラム。
A feature point detecting step for detecting a feature point of the image of the input image data;
A feature amount detection step of detecting a local feature amount of the feature point by a Gabor filter;
A correction step for correcting the position so that the local feature amount detected by the processing of the feature amount detection step can be identified; and
A calculation step of detecting feature points of the face image based on the corrected image data, and calculating all correlation similarities between the feature amount of the detected feature points and the feature amount of the image registered in advance. When,
Programs for executing the class of the inputted image data of the image and determining steps to the computer via the support vector machine based on the similarity.
対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得手段と、
前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付け手段と、
前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出手段と、
前記顔特徴を、顔識別ができるような位置に修正する修正手段と、
前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出手段と、
前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出手段と、
対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算手段と、
前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算手段と
を備える像処理装置。
Acquisition means for acquiring first image data for learning belonging to a pair of intra personal classes, and second image data for learning belonging to a pair of extra personal classes;
Labeling means for associating a label with the first image data and the second image data;
Detecting means for detecting a facial feature from an image based on the first image data and the second image data with the label, and detecting a facial feature;
Correction means for correcting the face feature to a position where the face can be identified;
Feature point detecting means for detecting feature points of a face image based on the corrected first image data and second image data ;
Feature quantity detection means for detecting a feature quantity of the feature point by a Gabor filter;
Similarity calculating means for calculating the similarity of the first image data to be paired and the similarity of the second image data to be paired;
Based on the label and the degree of similarity, images processing device and a support vector calculating means for calculating a support vector.
対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、
前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、
前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、
前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、
前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、
前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、
対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、
前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップと
を含む像処理方法。
An acquisition step of acquiring first image data for learning belonging to a pair of intra personal classes, and second image data for learning belonging to a pair of extra personal classes;
A labeling step of associating a label with the first image data and the second image data;
A detection step of detecting a facial image portion from an image based on the first image data and the second image data with the label, and detecting a facial feature;
A correction step of correcting the face feature to a position where the face can be identified;
A feature point detecting step of detecting a feature point of a face image based on the corrected first image data and second image data ;
A feature amount detecting step of detecting a feature amount of the feature point by a Gabor filter;
A similarity calculation step of calculating the similarity of the first image data to be paired and the similarity of the second image data to be paired;
Based on the label and the degree of similarity, images processing method comprising a support vector calculating step of calculating a support vector.
対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、
前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、
前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、
前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、
前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、
前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、
対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、
前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップと
を含むンピュータが読み取り可能なプログラムが記録されている記録媒体。
An acquisition step of acquiring first image data for learning belonging to a pair of intra personal classes, and second image data for learning belonging to a pair of extra personal classes;
A labeling step of associating a label with the first image data and the second image data;
A detection step of detecting a facial image portion from an image based on the first image data and the second image data with the label, and detecting a facial feature;
A correction step of correcting the face feature to a position where the face can be identified;
A feature point detecting step of detecting a feature point of a face image based on the corrected first image data and second image data ;
A feature amount detecting step of detecting a feature amount of the feature point by a Gabor filter;
A similarity calculation step of calculating the similarity of the first image data to be paired and the similarity of the second image data to be paired;
The label and on the basis of the similarity, a recording medium on which computer-readable program including a support vector calculating step of calculating a support vector is recorded.
対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、
前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、
前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、
前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、
前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、
前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、
対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、
前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップと
をコンピュータに実行させるログラム。
An acquisition step of acquiring first image data for learning belonging to a pair of intra personal classes, and second image data for learning belonging to a pair of extra personal classes;
A labeling step of associating a label with the first image data and the second image data;
A detection step of detecting a facial image portion from an image based on the first image data and the second image data with the label, and detecting a facial feature;
A correction step of correcting the face feature to a position where the face can be identified;
A feature point detecting step of detecting a feature point of a face image based on the corrected first image data and second image data ;
A feature amount detecting step of detecting a feature amount of the feature point by a Gabor filter;
A similarity calculation step of calculating the similarity of the first image data to be paired and the similarity of the second image data to be paired;
Programs to be executed based on the label and the degree of similarity, and a support vector calculating step of calculating a support vector to the computer.
JP2004177420A 2004-06-15 2004-06-15 Image processing apparatus and method, recording medium, and program Expired - Fee Related JP4569186B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004177420A JP4569186B2 (en) 2004-06-15 2004-06-15 Image processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004177420A JP4569186B2 (en) 2004-06-15 2004-06-15 Image processing apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2006004003A JP2006004003A (en) 2006-01-05
JP4569186B2 true JP4569186B2 (en) 2010-10-27

Family

ID=35772375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004177420A Expired - Fee Related JP4569186B2 (en) 2004-06-15 2004-06-15 Image processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4569186B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217215A (en) * 2014-08-28 2014-12-17 哈尔滨工程大学 Classification and identification method for foggy water surface image and clear water surface image

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100745981B1 (en) 2006-01-13 2007-08-06 삼성전자주식회사 Method and apparatus scalable face recognition based on complementary features
JP2008152530A (en) 2006-12-18 2008-07-03 Sony Corp Face recognition device, face recognition method, gabor filter applied device, and computer program
JP2008191816A (en) * 2007-02-02 2008-08-21 Sony Corp Image processor, image processing method, and computer program
KR100869554B1 (en) 2007-02-23 2008-11-21 재단법인서울대학교산학협력재단 Domain density description based incremental pattern classification method
JP5109564B2 (en) 2007-10-02 2012-12-26 ソニー株式会社 Image processing apparatus, imaging apparatus, processing method and program therefor
JP4720880B2 (en) 2008-09-04 2011-07-13 ソニー株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP2010244381A (en) * 2009-04-08 2010-10-28 Sony Corp Gabor filter, image recognition apparatus and method, program, and recording medium
JP5241606B2 (en) * 2009-05-20 2013-07-17 キヤノン株式会社 Object identification device and object identification method
JP5709410B2 (en) 2009-06-16 2015-04-30 キヤノン株式会社 Pattern processing apparatus and method, and program
KR101090269B1 (en) 2010-02-19 2011-12-07 연세대학교 산학협력단 The method for extracting feature and the apparatus thereof
JP2012198781A (en) 2011-03-22 2012-10-18 Sony Corp Information processing apparatus, information processing method, and program
KR101130817B1 (en) * 2011-09-27 2012-04-16 (주)올라웍스 Face recognition method, apparatus, and computer-readable recording medium for executing the method
CN103295241A (en) * 2013-06-26 2013-09-11 中国科学院光电技术研究所 Frequency domain saliency target detection method based on Gabor wavelets
CN104217388B (en) * 2014-01-22 2017-10-24 河南师范大学 A kind of image watermark insertion based on FSSVM, the method and apparatus extracted
JP6544900B2 (en) * 2014-09-17 2019-07-17 キヤノン株式会社 Object identification device, object identification method and program
CN105203055B (en) * 2015-09-18 2017-12-19 北京信息科技大学 A kind of articulated coordinate machine dynamic error compensation method
CN111325059A (en) * 2018-12-14 2020-06-23 技嘉科技股份有限公司 Face recognition method, device and computer readable medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016573A (en) * 1999-06-30 2001-01-19 Omron Corp Pedestrian observing device, pedestrian recognition system using the device, door switch control system and building
JP2003255989A (en) * 2002-03-06 2003-09-10 Sony Corp Learning system and learning method, and robot apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11110542A (en) * 1997-09-30 1999-04-23 Toshiba Corp Method and device for extracting pattern and medium recorded with program therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016573A (en) * 1999-06-30 2001-01-19 Omron Corp Pedestrian observing device, pedestrian recognition system using the device, door switch control system and building
JP2003255989A (en) * 2002-03-06 2003-09-10 Sony Corp Learning system and learning method, and robot apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217215A (en) * 2014-08-28 2014-12-17 哈尔滨工程大学 Classification and identification method for foggy water surface image and clear water surface image
CN104217215B (en) * 2014-08-28 2017-11-28 哈尔滨工程大学 A kind of classifying identification method of water surface foggy image and picture rich in detail

Also Published As

Publication number Publication date
JP2006004003A (en) 2006-01-05

Similar Documents

Publication Publication Date Title
JP4569186B2 (en) Image processing apparatus and method, recording medium, and program
JP4595750B2 (en) Image processing apparatus and method, and program
Guo et al. Human age estimation using bio-inspired features
JP5709410B2 (en) Pattern processing apparatus and method, and program
Jonsson et al. Support vector machines for face authentication
CN101236602B (en) Image processing apparatus, image processing method and computer program
US7873189B2 (en) Face recognition by dividing an image and evaluating a similarity vector with a support vector machine
US7783082B2 (en) System and method for face recognition
JP4589625B2 (en) Face recognition using kernel fisher face
JP4321350B2 (en) Parameter estimation method, parameter estimation device, and verification method
US20080199044A1 (en) Image Processing Apparatus, Image Processing Method, and Program
Sukno et al. Active shape models with invariant optimal features: Application to facial analysis
Heseltine et al. Three-dimensional face recognition using combinations of surface feature map subspace components
JP2005512201A5 (en)
Efraty et al. Profile-based 3D-aided face recognition
Angadi et al. A robust face recognition approach through symbolic modeling of polar FFT features
Seo et al. Robust recognition of face with partial variations using local features and statistical learning
Salah et al. Registration of three-dimensional face scans with average face models
Martins et al. Bayesian constrained local models revisited
Barbosa et al. Transient biometrics using finger nails
Golland Discriminative direction for kernel classifiers
WO2020065790A1 (en) Estimation device, estimation method, and storage medium
Zhang et al. Decision-level information fusion powered human pose estimation
Peng et al. An evaluation of super-resolution for face recognition
WO2019155570A1 (en) Line-of-sight estimation device, line-of-sight estimation method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100726

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees