JP4569186B2 - Image processing apparatus and method, recording medium, and program - Google Patents
Image processing apparatus and method, recording medium, and program Download PDFInfo
- Publication number
- JP4569186B2 JP4569186B2 JP2004177420A JP2004177420A JP4569186B2 JP 4569186 B2 JP4569186 B2 JP 4569186B2 JP 2004177420 A JP2004177420 A JP 2004177420A JP 2004177420 A JP2004177420 A JP 2004177420A JP 4569186 B2 JP4569186 B2 JP 4569186B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- feature
- image
- detecting
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、画像の変形や傾きに関わらず、安定して画像を判定することができるようにした画像処理装置および方法、記録媒体、並びプログラムに関する。 The present invention relates to an image processing apparatus and method, a recording medium, and a program, and in particular, an image processing apparatus and method, a recording medium, and an image processing apparatus and method capable of stably determining an image regardless of deformation or inclination of the image, Regarding line-up programs.
例えば、ロボットに人の顔を識別させるのに、サポートベクタマシン(Support Vector Machines (SVM))を利用することが知られている。サポートベクタマシン(SVM)は、汎化能力の高い強力なパターン識別手法としてよく知られているが、この手法を用いて顔識別を行う場合には以下の問題点がある。 For example, it is known to use a support vector machine (SVM) to make a robot identify a human face. The support vector machine (SVM) is well known as a powerful pattern identification technique with high generalization ability, but there are the following problems when performing face identification using this technique.
1. 性能の良い識別器を構成するためには学習時に大量の教師データが必要である。
2. 学習には非常に計算時間がかかる。
3. 2クラスの識別しかできない。
1. In order to construct a classifier with good performance, a large amount of teacher data is required during learning.
2. Learning takes a lot of computation time.
3. Only two classes can be identified.
SVMを利用した顔識別アルゴリズムを紹介する代表的なものに、非特許文献1の論文がある。この論文の技術ではq人分の人物を識別するために、登録された特定の人物クラスとそれ以外の人物クラスを識別するq個のSVMの識別器が利用される。この技術は、個々の識別器の学習用教師データには、登録したい人物と既に登録されているその他の人物の顔画像データを大量に必要としているため、学習はオフラインで行う必要があり、顔の登録には非常に時間がかかるという問題がある。 There is a paper of Non-Patent Document 1 as a representative one that introduces a face identification algorithm using SVM. In this paper's technique, q SVM classifiers are used to identify a registered person class and other person classes in order to identify q persons. This technology requires a large amount of face image data of the person who wants to register and other persons already registered in the teacher data for learning of each classifier. There is a problem that registration takes a long time.
上記の問題を解決するため、Jonathon Phillipsらは非特許文献2において、Baback Moghaddamらが非特許文献3で提案している差分顔によるPCA(Principal Components Analysis)を用いた顔識別の方法で、PCAの代わりにSVMでクラス識別を行うことにより、リアルタイムに顔の登録・追加学習が可能な、より精度の高い顔識別アルゴリズムを提案している。 In order to solve the above problem, Jonathon Phillips et al. In Non-Patent Document 2 used a face recognition method using PCA (Principal Components Analysis) with a differential face proposed by Baback Moghaddam et al. We have proposed a more accurate face recognition algorithm that can perform face registration and additional learning in real time by class identification with SVM instead of.
Babackらの差分顔による顔識別の方法は、2クラスの識別を行う識別器(PCAとベイズ推定を組み合わせた方法)を1つだけ用いる構成で任意の人数の顔を識別し、リアルタイムに顔の登録が可能な方法であり、これは顔画像が変化する要因は一般的に以下のように大きく2つに分類することが可能であるという事実に基づいている。 Baback et al.'S face recognition method uses a single classifier (a combination of PCA and Bayesian estimation) that identifies two classes, and identifies any number of faces. This is a method that can be registered, and this is based on the fact that the factors that change the face image can generally be classified into two types as follows.
1.intra-personal variations : 照明条件や表情・成長等による同一人物における顔画像の変化
2.extra-personal variations: 人物の相違による顔画像の変化
1. intra-personal variations: Changes in facial images of the same person due to lighting conditions, facial expressions, growth, etc. extra-personal variations: Changes in facial images due to person differences
Babackらの手法では、同一人物の2枚の顔画像の差分顔クラス(intra-personal class)と別人物の2枚の顔画像の差分顔クラス(extra-personal class)を、予め大量の教師画像からPCAを用いて学習する。この学習データには登録される人物の顔画像が含まれる必要がない。これにより、顔の登録時には再度学習を行わせる必要がなく、差分画像生成用の登録画像をそのまま保存するだけであるため、リアルタイム顔登録処理が可能となる。この手法では、それぞれのクラスの分布がガウス分布すると仮定して、クラス存在確率をPCAとベイズ推定を組み合わせた方法により求めているが、この仮定は照明条件などが非常に整った環境以外では十分に成り立たない。このため、ロボット等に要求される自然な環境での顔画像の変化には十分に対応できず、満足な性能が出ないことが多いという問題点がある。また、差分画像が2枚の顔画像の変化を十分に表すためには、2枚の顔画像の各特徴点間の正確な位置合わせを行った後で差分画像を生成する必要がある。これを行うためにBabackらは、目鼻等の特徴位置をPCAを用いたパターンマッチングで求めて、それら特徴位置が同じ位置に来るようにアフィン変換を行った後に差分画像の生成を行っているが、この方法では2枚の顔画像間の顔の変形や傾きが大きくなるにつれて著しく性能が低下する課題がある。 In Baback et al.'S method, a large number of teacher images are created in advance by adding a difference facial class (intra-personal class) of two facial images of the same person and an extra-personal class of two facial images of another person. To learn from PCA. This learning data does not need to include the face image of the person to be registered. Thereby, it is not necessary to perform learning again when the face is registered, and the registered image for generating the difference image is merely stored as it is, so that real-time face registration processing can be performed. In this method, assuming that the distribution of each class is a Gaussian distribution, the class existence probability is obtained by a method that combines PCA and Bayesian estimation, but this assumption is sufficient in environments other than those where lighting conditions are very well prepared. It does not hold. For this reason, there is a problem that it is not possible to sufficiently cope with a change in face image in a natural environment required for a robot or the like, and satisfactory performance is often not obtained. Further, in order for the difference image to sufficiently represent the change of the two face images, it is necessary to generate the difference image after performing accurate alignment between the feature points of the two face images. In order to do this, Baback et al. Found feature positions such as the eyes and nose by pattern matching using PCA, and after performing affine transformation so that those feature positions are at the same position, a difference image is generated. In this method, there is a problem that the performance is remarkably lowered as the face deformation or inclination between the two face images increases.
また、Jonathonらが提案している方法は、このクラス識別にPCAとベイズ推定ではなく、SVMを用いている。これにより、クラスの分布がガウス分布より複雑な分布になっても正しい判別が可能になり、照明条件等に変化の含まれる環境下での識別性能が向上しているが、差分顔を用いているため同様に2枚の顔画像間の顔の変形や傾きが大きくなるにつれて著しく性能が低下する課題がある。 The method proposed by Jonathon et al. Uses SVM instead of PCA and Bayesian estimation for this class identification. This enables correct discrimination even when the class distribution is more complicated than the Gaussian distribution, and improves the discrimination performance in environments where the lighting conditions etc. include changes. Therefore, similarly, there is a problem that the performance is remarkably lowered as the face deformation or inclination between the two face images increases.
本発明は、このような状況に鑑みてなされたものであり、顔の変形や傾きに関わらず、安定して識別を行えるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to identify stably regardless of the deformation or inclination of the face.
本発明の一側面の第1の画像処理装置は、入力された画像データの画像の特徴点を検出する特徴点検出手段と、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出手段と、前記特徴量検出手段により検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正手段と、前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算手段と、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定手段とを備える。 A first image processing apparatus according to an aspect of the present invention includes a feature point detection unit that detects a feature point of an image of input image data, and a feature amount detection that detects a local feature amount of the feature point using a Gabor filter. Detecting a feature point of the face image based on the corrected image data, a correction means for correcting the position of the local feature quantity detected by the feature quantity detection means, a feature quantity of the feature points detected in advance and calculating means for the correlative similarity between the feature quantity of the registration image being calculates all, the class of the inputted image data of the image to the degree of similarity And a determination means for determining based on the support vector machine.
入力された前記画像データの画像が、予め登録されている画像に属しないクラスであると判定された場合、ユーザの指示に応じて、前記特徴量を登録する登録手段をさらに備えるようにすることができる。 When the image of the input image data is determined to be a class that does not belong to a pre-registered image, the image data further includes a registration unit that registers the feature amount according to a user instruction. Can do.
本発明の一側面の第1の画像処理方法は、入力された画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップとを含む。 A first image processing method according to one aspect of the present invention includes a feature point detecting step for detecting an image feature point of input image data, and a feature amount detection for detecting a local feature amount of the feature point by a Gabor filter. Detecting a feature point of the face image based on the corrected image data, a correction step of correcting the position of the local feature amount detected in the feature amount detection step so that the face can be identified and the feature quantity of the feature points detected, a calculating step of calculating all correlation similarity degree between the feature quantity of the image registered in advance, the similar class of images of the image data input A determination step based on the degree by the support vector machine.
本発明の一側面の第1の記録媒体のプログラムは、入力された画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップとを含む。 A first recording medium program according to one aspect of the present invention includes a feature point detecting step for detecting an image feature point of input image data, and a feature amount for detecting a local feature amount of the feature point by a Gabor filter. A detection step; a correction step for correcting the position of the local feature amount detected by the processing of the feature amount detection step so that the face can be identified; and feature points of the face image based on the corrected image data. A step of detecting and calculating all the correlation similarities between the feature quantity of the detected feature point and the feature quantity of the pre-registered image; and the class of the image of the input image data And a determination step of determining by the support vector machine based on the similarity.
本発明の一側面の第1のプログラムは、入力された画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップとをコンピュータに実行させる。 A first program according to one aspect of the present invention includes a feature point detection step of detecting an image feature point of input image data, and a feature amount detection step of detecting a local feature amount of the feature point by a Gabor filter. A correction step of correcting the position of the local feature amount detected in the processing of the feature amount detection step so that a face can be identified; and a feature point of the face image based on the corrected image data; a feature quantity of the feature points detected in advance and calculating step correlative similarity between the feature quantity of the registration image being calculates all, the class of the inputted image data of the image to the degree of similarity And a determination step of determining by the support vector machine based on the computer.
本発明の一側面の第2の画像処理装置は、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得手段と、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付け手段と、前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出手段と、前記顔特徴を、顔識別ができるような位置に修正する修正手段と、前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出手段と、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出手段と、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算手段と、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算手段とを備える。 The second image processing apparatus according to one aspect of the present invention acquires first image data for learning belonging to a pair of intra personal classes and second image data for learning belonging to a pair of extra personal classes. Obtaining means, labeling means for associating a label with the first image data and the second image data, an image based on the first image data and the second image data to which the label is attached. Detection means for detecting an image portion of a face and detecting a face feature; correction means for correcting the face feature to a position where face identification can be performed; and the corrected first image data and second image a feature point detection means for detecting a feature point of the face image based on the data, the feature quantity detecting means for detecting the Gabor filter the feature quantity of the feature point, the first image data to be paired Comprising a similarity score, a similarity calculating means for calculating a similarity of said second image data to be paired, based on the label and the degree of similarity, and a support vector calculating means for calculating a support vector.
本発明の一側面の第2の画像処理方法は、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップとを含む。 According to a second image processing method of one aspect of the present invention, first image data for learning belonging to a pair of intra personal classes and second image data for learning belonging to a pair of extra personal classes are acquired. An obtaining step, a labeling step for associating a label with the first image data and the second image data, and an image based on the first image data and the second image data to which the label is attached. A detecting step for detecting an image portion of the face and detecting a facial feature; a correcting step for correcting the facial feature to a position where the facial feature can be identified; and the corrected first image data and second image a feature point detection step of detecting a feature point of the face image based on the data, and the feature quantity detecting step of detecting by Gabor feature amount of the feature point pairs with I A similarity calculation step for calculating the similarity of the first image data and the similarity of the second image data to be paired; and a support vector calculation for calculating a support vector based on the label and the similarity Steps.
本発明の一側面の第2の記録媒体のプログラムは、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップとを含む。 The second recording medium program according to one aspect of the present invention includes a first image data for learning belonging to a pair of intra personal classes and a second image data for learning belonging to a pair of extra personal classes. An obtaining step for obtaining, a labeling step for associating a label with the first image data and the second image data, an image based on the first image data and the second image data to which the label is attached A detection step of detecting a face image portion and detecting a face feature; a correction step of correcting the face feature to a position where the face can be identified; the corrected first image data and second a feature point detection step of detecting a feature point of the face image based on the image data, the feature quantity detecting step of detecting by Gabor feature amount of the feature point Based on the similarity calculation step of calculating the similarity of the first image data to be paired and the similarity of the second image data to be paired, and calculating the support vector based on the label and the similarity. And a support vector calculation step.
本発明の一側面の第2のプログラムは、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップとをコンピュータに実行させる。 The second program according to one aspect of the present invention acquires the first image data for learning belonging to the paired intra personal class and the second image data for learning belonging to the paired extra personal class. A labeling step for associating a label with the first image data and the second image data, and an image of a face from an image based on the first image data and the second image data to which the label is attached. A detecting step for detecting an image portion and detecting a facial feature; a correcting step for correcting the facial feature to a position where the facial feature can be identified; and the corrected first image data and second image data. a feature point detection step of detecting a feature point of the based facial image, a feature quantity detecting step of detecting by Gabor feature amount of the feature point, a pair The similarity calculation step for calculating the similarity of the first image data and the similarity of the second image data to be paired, and the support vector calculation for calculating a support vector based on the label and the similarity Causing the computer to execute the steps.
本発明においては、入力された画像データの特徴点の特徴量と、予め登録されている画像データの特徴点の特徴量との類似度が演算され、その類似度に基づいて、サポートベクタマシンにより画像データのクラスが判定される。 In the present invention, the similarity between the feature amount of the feature point of the input image data and the feature amount of the feature point of the image data registered in advance is calculated. Based on the similarity, the support vector machine A class of image data is determined.
また、本発明においては、第1の画像データと第2の画像データに対応付けられたラベル、並びに、第1の画像データの類似度と第2の画像データの類似度に基づいて、サポートベクタが演算される。 In the present invention, the support vector is based on the labels associated with the first image data and the second image data, and the similarity between the first image data and the similarity between the second image data. Is calculated.
本発明によれば、画像データのクラスを判定することができる。特に、画像の変形や傾きに関わらず、安定して判定を行うことが可能となる。また、リアルタイムで画像を登録することが可能となる。 According to the present invention, the class of image data can be determined. In particular, it is possible to make a stable determination regardless of the deformation or inclination of the image. It is also possible to register images in real time.
さらに本発明によれば、画像データのクラスを判定可能な装置を提供することができる。特に、画像での変形や傾きに関わらず、安定して判定を行うことができ、また、リアルタイムで画像の登録が可能な装置を提供することができる。 Furthermore, according to the present invention, an apparatus capable of determining the class of image data can be provided. In particular, it is possible to provide a device that can make a stable determination regardless of the deformation or inclination of an image and can register an image in real time.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明を適用した画像処理装置の構成例を表している。この画像処理装置1は、入力された画像データの画像から目、口、鼻といった顔の特徴をガボアフィルタリングにより抽出する顔抽出部11、並びに顔抽出部11により抽出された目、口、鼻などに基づいて、その画像が人の顔であるか否かを認識する顔認識部12により構成されている。
FIG. 1 shows a configuration example of an image processing apparatus to which the present invention is applied. The image processing apparatus 1 includes a
顔認識部12は、顔画像アライメント部51、クラス判断部52、および学習データベース53により構成されている。顔画像アライメント部51は、顔抽出部11より供給された顔の目、口、鼻といった特徴の特徴位置に基づいて、それらが通常、人の顔として位置する位置にくるように、アフィン変換などのモーフィング処理を行う。クラス判断部52は、学習データベース53に登録されている学習データを参照して、入力画像が登録済みの顔と同一人物クラスに属するか否かを判断する。
The
顔抽出部11は、入力された画像が、顔の画像であり、さらに顔の目の画像であるか、口の画像であるか、または鼻の画像であると判断できた場合には、その顔の中の位置を検出し、その位置情報を画像データとともに顔認識部12の顔画像アライメント部51に供給する。
If the
顔画像アライメント部51は、顔特徴位置が、基準位置にくるように、アフィン変換などのモーフィング処理を行う。これにより、例えば正面からみた顔の画像である場合には、左右の目が水平な位置に所定の距離はなれて位置し、左右の目の中間の下方に鼻が位置し、その鼻よりさらに下方に口が位置するようにモーフィング処理が行われる。その結果、顔画像の識別が容易になる。
The face
クラス判断部52は、顔画像アライメント部51によりアライメントされた顔画像の画像データが、学習データベース53に予め登録されている顔画像の画像データと一致するか否かを判断する。このため、クラス判断部52は、図2に示されるような、機能的構成を有している。
The
すなわち、クラス判断部52は、特徴点検出部101、特徴量演算部102、読み出し部103、類似度ベクトル演算部104、クラス判定部105、重複判定部106、選択部107、出力部108、表示部109、指示判定部110、および登録部111を有している。
That is, the
特徴点検出部101は、顔画像アライメント部51より入力された画像データに基づく顔画像の特徴点を検出する。特徴量演算部102は、特徴点検出部101により検出された特徴点の特徴量を演算し、類似度ベクトル演算部104に供給する。特徴量演算部102は、ガボアフィルタ(Gabor Filter)で構成される。
The feature
ここで、ガボアフィルタの処理(ガボアフィルタリング)について説明する。まず人間の視覚細胞には、ある特定の方位に対して選択性を持つ細胞が存在することが既に判っている。これは、垂直の線に対して反応する細胞と、水平の線に反応する細胞で構成される。ガボアフィルタリングは、これと同様に、方位選択性を持つ複数のフィルタで構成される空間フィルタである。 Here, the Gabor filter processing (Gabor filtering) will be described. First, it is already known that human visual cells have cells that are selective for a specific orientation. It consists of cells that respond to vertical lines and cells that respond to horizontal lines. Similarly, Gabor filtering is a spatial filter composed of a plurality of filters having orientation selectivity.
ガボアフィルタは、ガボア関数によって空間表現される。ガボア関数g(x,y)は、次式に示すように、コサイン成分からなるキャリアs(x,y)と、2次元ガウス分析状のエンベローブWr(x,y)とで構成される。 A Gabor filter is spatially expressed by a Gabor function. The Gabor function g (x, y) is composed of a carrier s (x, y) composed of a cosine component and an envelope Wr (x, y) in a two-dimensional Gaussian analysis as shown in the following equation.
キャリアs(x,y)は、複数関数を用いて、次の式(2)のように表現される。ここで、座標値(u0,v0)は空間周波数を表し、またPはコサイン成分の位相を表す。 The carrier s (x, y) is expressed as the following equation (2) using a plurality of functions. Here, the coordinate value (u 0 , v 0 ) represents the spatial frequency, and P represents the phase of the cosine component.
式(2)に示すキャリアは、次式(3)に示すように、実数成分Re(s(x,y))と虚数成分Im(s(x,y))に分離することができる。 The carrier shown in the equation (2) can be separated into a real component Re (s (x, y)) and an imaginary component Im (s (x, y)) as shown in the following equation (3).
一方、2次元ガウス分布からなるエンベローブは、次式のように表現される。 On the other hand, an envelope composed of a two-dimensional Gaussian distribution is expressed as follows.
ここで、座標軸(x0,y0)はこの関数のピークであり、定数a及びbはガウス分布のスケール・パラメータである。また、添字rは、次式に示すような回転操作を意味する。 Here, the coordinate axes (x 0 , y 0 ) are the peaks of this function, and the constants a and b are the scale parameters of the Gaussian distribution. The subscript r means a rotation operation as shown in the following equation.
従って、上述の式(2)及び式(4)より、ガボアフィルタは、次式に示すような空間関数として表現される。 Therefore, the Gabor filter is expressed as a spatial function as shown in the following equation from the above equations (2) and (4).
本実施の形態に係る特徴量演算部102は、8種類の方向と3通りの周波数を採用して、合計24個のガボアフィルタを用いて顔の目、口、鼻等の抽出処理を行う。
The feature
ガボアフィルタのレスポンスは、Giをi番目のガボアフィルタとし、i番目のガボアフィルタの結果(Gabor Jet)をJiとし、入力イメージをIとすると、次式で表される。 The response of the Gabor filter is expressed by the following equation, where G i is the i-th Gabor filter, J i is the result (Gabor Jet) of the i-th Gabor filter, and I is the input image.
この式(7)の演算は、実際には高速フーリエ変換を用いて高速化することができる。 The calculation of equation (7) can actually be speeded up using fast Fourier transform.
作成したガボアフィルタの性能を調べるためには、フィルタリングして得られた画素を再構築することによって行う。再構築されたイメージHは、次式のように表される。 The performance of the created Gabor filter is examined by reconstructing the pixels obtained by filtering. The reconstructed image H is expressed as follows:
そして、入力画像Iと再構築された画像HとのエラーEは、次式のように表される。 An error E between the input image I and the reconstructed image H is expressed by the following equation.
このエラーEを最小にするような最適なaを求めることにより再構築することができる。 It can be reconstructed by obtaining an optimum a that minimizes the error E.
なお、ガボアフィルタリングに関しては、認識タスクに応じてフィルタの種類を変更するようにしても良い。 As for Gabor filtering, the type of filter may be changed according to the recognition task.
低周波でのフィルタリングでは、フィルタリング後のイメージすべてをベクトルとして持っているのは冗長である。そこで、ダウンサンプリングして、ベクトルの次元を落とすようにしても良い。ダウンサンプリングされた24種類のベクトルを一列に並べ、長いベクトル(上述したパターンベクトル)にする。 In low frequency filtering, it is redundant to have all the filtered images as vectors. Therefore, downsampling may be performed to reduce the vector dimension. The 24 types of downsampled vectors are arranged in a line to make a long vector (the pattern vector described above).
読み出し部103は、特徴点検出部101により検出された特徴点に対応する登録画像の特徴点を登録部111から読み出し、類似度ベクトル演算部104に出力する。
The
類似度ベクトル演算部104は、特徴量演算部102により演算された入力画像の特徴量と、読み出し部103により読み出された登録画像の特徴量に基づいて、入力された顔画像と登録されている顔画像の類似度ベクトルを演算する。
The similarity
クラス判定部105は、サポートベクタマシンにより構成され、類似度ベクトル演算部104より供給された類似度ベクトルに基づいて、入力された画像がintra-personal class(イントラパーソナルクラス)に属するか(予め登録されている画像と一致するのか)、またはextra-personal class(エクストラパーソナルクラス)に属するのか(予め登録されている画像以外の画像である(登録画像と一致しない)のか)の判定を行う。重複判定部106は、クラス判定部105により入力された画像がintra-personal classに属すると判定された場合、クラス判定部105により重複判定が行われたか否かを判定する。すなわち、入力された画像が、複数の登録画像と一致すると判定されたか否かが判定される。選択部107は、重複判定部106により重複判定が行われた場合には、一致すると判定された登録画像のいずれか1つを選択する処理を行う。選択部107は、重複判定部106により重複判定が行われなかったと判定された場合には、クラス判定部105により判定されたクラスの画像をそのまま選択する。出力部108は、選択部107より選択された画像を後段の装置に出力したり、表示部109に表示させたりする。
The
表示部109は、クラス判定部105により入力された画像がintra-personal classではなく、extra-personal classに属すると判定された場合、メッセージを表示する。指示判定部110は、表示部109により表示されたメッセージに基づいて、ユーザが入力された画像の登録を指示したか否かを判定する。登録部111は、指示判定部110により入力された画像の登録が指示されたと判定された場合、特徴量演算部102により演算された特徴量を、必要に応じて、入力された顔画像データとともに登録する。
The
クラス判定部105では、パターン認識の分野で最も学習汎化能力が高いとされるサポートベクタマシン(Support Vector Machine:SVM)を用いて該当する顔か否かの識別を行うが、このサポートベクタマシンについて、ここで説明する。
In the
サポートベクタマシン自体に関しては、例えばB.sholkopf外著の報告(B.Sholkopf、C.Burges、A.Smola,“Advance in Kernel Support Vector Learning”,The MIT Press、1999.)を挙げることができる。本出願人が行った予備実験の結果からは、サポートベクタマシンによる顔認識方法は、主成分分析(PCA)やニューラル・ネットワークを用いる手法に比べ、良好な結果を示すことが判っている。 Regarding the support vector machine itself, for example, a report by B. sholkopf (B. Sholkopf, C. Burges, A. Smola, “Advance in Kernel Support Vector Learning”, The MIT Press, 1999.) can be cited. From the results of preliminary experiments conducted by the present applicant, it has been found that the face recognition method using the support vector machine gives better results than the method using principal component analysis (PCA) or neural network.
サポートベクタマシンは、識別関数に線形識別器(パーセプトロン)を用いた学習機械であり、カーネル関数を使うことで非線形空間に拡張することができる。また識別関数の学習では、クラス間分離のマージンを最大にとるように行われ、その解は2次数理計画法を解くことで得られるため、グローバル解に到達できることを理論的に保証することができる。 The support vector machine is a learning machine using a linear classifier (perceptron) as a discriminant function, and can be extended to a non-linear space by using a kernel function. In the learning of discriminant functions, the margin of separation between classes is maximized, and the solution can be obtained by solving quadratic mathematical programming, so that it is theoretically guaranteed that a global solution can be reached. it can.
通常、パターン認識の問題は、テストサンプルx=(x1,x2,・・・,xn)に対して、次式で与えられる識別関数f(x)を求めることである。 Usually, the problem of pattern recognition is to obtain the discriminant function f (x) given by the following equation for the test sample x = (x1, x2,..., Xn).
ここで、サポートベクタマシンの学習用の教師ラベルを次式のようにおく。 Here, the teacher label for learning of the support vector machine is set as follows.
すると、サポートベクタマシンにおける顔パターンの認識を次式に示す制約条件の下での重み因子wの2乗を最小化する問題としてとらえることができる。 Then, the recognition of the face pattern in the support vector machine can be regarded as a problem of minimizing the square of the weight factor w under the constraint condition shown in the following equation.
このような制約のついた問題は、ラグランジュの未定定数法を用いて解くことができる。すなわち、式(13)に示すラグランジュをまず導入し、次いで、式(14)に示すように、b、wの各々について偏微分する。 Problems with such constraints can be solved using Lagrange's undetermined constant method. That is, the Lagrange shown in the equation (13) is first introduced, and then, as shown in the equation (14), partial differentiation is performed for each of b and w.
この結果、サポートベクタマシンにおける顔パターンの識別を次式に示す2次計画問題としてとらえることができる。 As a result, the identification of the face pattern in the support vector machine can be regarded as a quadratic programming problem expressed by the following equation.
特徴空間の次元数が、訓練サンプルの数よりも少ない場合は、スクラッチ変数ξ≧0を導入して、制約条件を次式のように変更する。 When the number of dimensions of the feature space is smaller than the number of training samples, a scratch variable ξ ≧ 0 is introduced, and the constraint condition is changed as follows.
最適化については、次式の目的関数を最小化する。 For optimization, the objective function of the following equation is minimized.
この式(17)において、Cは、制約条件をどこまで緩めるかを指定する係数であり、実験的に値を決定する必要がある。 In this equation (17), C is a coefficient that specifies how far the constraint condition is relaxed, and it is necessary to determine the value experimentally.
ラグランジュ定数aに関する問題は次式のように変更される。 The problem concerning the Lagrangian constant a is changed as follows:
しかし、この式(18)のままでは、非線型の問題を解くことはできない。そこで、本実施の形態では、カーネル関数K(x,x3)を導入して、一旦、高次元の空間に写像して(カーネル・トリック)、その空間で線形分離することにしている。したがって、元の空間では非線型分離していることと同等となる。 However, with this equation (18), the nonlinear problem cannot be solved. Therefore, in this embodiment, a kernel function K (x, x3) is introduced, and once mapped onto a high-dimensional space (kernel trick), linear separation is performed in that space. Therefore, it is equivalent to non-linear separation in the original space.
カーネル関数は、ある写像Φを用いて次式のように表される。 The kernel function is expressed as follows using a certain mapping Φ.
また、式(10)に示した識別関数も、次式のように表すことができる。 Further, the discriminant function shown in the equation (10) can also be expressed as the following equation.
また学習に関しても、次式に示す2次計画問題としてとらえることができる。 Learning can also be considered as a quadratic programming problem expressed by the following equation.
カーネルとしては、次式に示すガウシアン・カーネル(RBF:Radius Basic Function)などを用いることができる。 As the kernel, a Gaussian kernel (RBF: Radius Basic Function) represented by the following equation can be used.
次に、図3のフローチャートを参照して、画像処理装置1の認識処理について説明する。ステップS31において、顔抽出部11は、入力された画像データから顔を抽出する。具体的には、顔の目、口、鼻といった顔の特徴を抽出する。ステップS32において、顔画像アライメント部51は、目、口、鼻をアライメントする。具体的には、目、口、鼻等が、常識的な位置関係に位置するように、その位置を調整する。
Next, the recognition process of the image processing apparatus 1 will be described with reference to the flowchart of FIG. In step S31, the
ステップS33において、特徴点検出部101は、顔画像アライメント部51より入力された顔画像データの顔の特徴点を検出する。いずれの点を特徴点とするかは任意であるが、例えば、図4に示されるように、水平方向と垂直方向に一定の間隔で離れて位置する画素(図4において、×印で示される画素)を特徴点とすることができる。図4において、左側の画像が入力された顔画像データによる顔の入力画像を表し、右側の画像が登録されている顔画像データによる顔の登録画像を表す。
In step S <b> 33, the feature
ステップS34において、ガボアフィルタにより特徴点の特徴量を求める処理が行われる。すなわち、特徴量演算部102は、入力画像の特徴位置xVi(i=1,・・・,M)における特徴点(以下、必要に応じて、この特徴点を特徴点xViとも称する)の局所的特徴量である特徴量Jj(xVi)を次式に基づいて演算する。なお、以下の式において、xV,kVにおける添字Vは、x,kがベクトルであることを表す。また、x’Vは、xVの微分値を表す。
In step S34, processing for obtaining the feature amount of the feature point is performed by a Gabor filter. That is, the feature
上記式において、I(xVi)は、特徴位置xViにおける入力顔画像の画素値(濃淡値)を表し、Ψj(xV)により畳み込み積分される。Ψj(xV)は、ガボアカーネル(Gabor Kernel)と称され、周波数パラメータν,方向パラメータμから定まるkVjで示す特定の方向、周波数における局所特徴量を抽出するガボアフィルタを構成する。ガボアフィルタの様々な周波数、方向における出力値はまとめてガボアジェット(Gabor Jet)Jj(xVj)と称され、特徴位置xViにおける特徴量として用いられる。ガボアジェットは、特徴点の周辺の局所特徴量を表しており、特徴点のある程度の位置のずれや変形に対して、不変であるという特徴を有している。 In the above equation, I (x Vi ) represents the pixel value (gray value) of the input face image at the feature position x Vi and is convolved and integrated by Ψ j (x V ). Ψ j (x V ) is called a Gabor Kernel and constitutes a Gabor filter that extracts a local feature quantity in a specific direction and frequency indicated by k Vj determined from the frequency parameter ν and the direction parameter μ. The output values at various frequencies and directions of the Gabor filter are collectively referred to as Gabor Jet J j (x Vj ), and are used as feature quantities at the feature position x Vi . The Gabor jet represents a local feature amount around the feature point, and has a feature that it is invariant to a certain amount of positional shift or deformation of the feature point.
ステップS35において、読み出し部103は、登録顔の特徴量を読み出す。すなわち、読み出し部103は、特徴点検出部101により検出された特徴点xViに対応する登録顔の特徴点の特徴量Jj M(xVi)を、登録部111から読み出し、類似度ベクトル演算部104に出力する。
In step S35, the
ステップS36において、類似度ベクトル演算部104は、類似度ベクトルを求める。具体的には、次式に基づいて、同じ特徴位置xViにおける類似度d(xVi)が、入力顔の特徴量Ji I(xVi)と登録画像の特徴量Jj M(xVi)を用いて演算される。この類似度d(xVi)から、その集合である類似度ベクトルd{d(xVi)}(i=1,・・・,M)が求められる。
In step S36, the similarity
以上のステップS35,S36の処理は、予め登録されているすべての登録顔について行われる。これにより、入力された顔画像とすべての登録顔画像との比較が行われることになる。 The processes in steps S35 and S36 described above are performed for all registered faces registered in advance. As a result, the input face image is compared with all registered face images.
ステップS37において、クラス判定部105は、サポートベクタマシン(SVM)によりクラスを判定する。サポートベクタマシンは、類似度ベクトルの境界面(式(10)のf(x)の値を、例えば、+1または−1と判定する境界面(値が0である位置の面))からの距離を算出し、intra-personal classに属するか、extra-personal classに属するかの判断を行う。intra-personal classに属すると判断される類似度ベクトルが存在しない場合には、未登録の人物の顔が入力されたと判断される。クラス判定部105を構成する1つのサポートベクタマシンは、多くの顔画像を学習することで、新たに入力された顔画像が登録されている(学習済みの)顔画像と一致するのか(intra-personal classに属するのか)、または、一致しないのか(extra-personal classに属するのか)を判定する機能を有する。
In step S37, the
ステップS37における処理が模式的に図4に示されている。すなわち、図4に示されるように、サポートベクタマシンは、ガボアフィルタにより検出された入力画像II(xV)の特徴点の特徴量JI(xVj)と、登録画像IMk(xV)の特徴点の特徴量JM(xVi)の類似度d(xVi)が演算し、その類似度の集合である類似度ベクトルを判断することでクラスを判定する。 The process in step S37 is schematically shown in FIG. That is, as shown in FIG. 4, the support vector machine performs the feature amount J I (x Vj ) of the feature points of the input image I I (x V ) detected by the Gabor filter and the registered image I Mk (x V ). The class d is determined by calculating the similarity d (x Vi ) of the feature quantity J M (x Vi ) of the feature points and determining the similarity vector that is a set of the similarities.
そして、ステップS38において、クラス判定部105は、入力された顔画像は、intra-personal classかを判定する。入力された顔画像がintra-personal classであると判定された場合(入力された顔画像が登録部111に登録されている画像であると判定された場合)、ステップS39において、重複判定部106は、複数の登録顔のintra-personal classと判定されたかを判定する。すなわち、入力された顔画像が、登録部111に登録されている2以上の登録顔と一致するとクラス判定部105により判定されたか否かを判定する。複数の登録顔のintra-personal classと判定された場合には、ステップS40において、選択部107は、境界面からの距離が最も大きい類似度ベクトルに対応する登録顔を選択する。
In step S38, the
ステップS39において、複数の登録顔のintra-personal classであると判定されていないと判定された場合(入力された顔画像が、登録されている1つの登録顔と一致すると判定された場合)、ステップS40の選択処理は必要がないのでスキップされる。そして、ステップS41において、出力部108は、登録部111に登録されている顔画像データを出力したり、表示部109などに表示させる。
In step S39, when it is determined that the intra-personal class of a plurality of registered faces has not been determined (when it is determined that the input face image matches one registered face), Since the selection process in step S40 is not necessary, it is skipped. In step S41, the
ステップS38において、入力された顔画像がintra-personal classではないと判定された場合(extra-personal classであると判定された場合)、ステップS42において、表示部109は、メッセージを表示する。例えば、「入力された人物は、登録されていません」のようなメッセージが表示部109により表示される。管理者は、このメッセージをみて、入力された顔画像を登録するか否かを判断し、登録する場合にはその旨を指示する。このとき、必要に応じて、自分自身が登録権限を有する管理者であることを表す情報として、例えば、パスワードを呈示する。そこで、指示判定部110は、ステップS43において、登録が指示されたか否かを判定し、入力された顔画像の登録が指示されたと判定された場合、ステップS44において、指示判定部110は、さらに、その指示が管理者からの指示であるか否かを判定する。入力されたパスワードが正しいパスワードである場合、管理者からの指示であると判定される。この場合、ステップS45において、登録部111は、特徴量演算部102により演算された特徴量を登録する処理を実行する。その後、処理はステップS41に進み、出力部108は、登録部111にいま登録された顔画像データを出力する処理を実行する。
If it is determined in step S38 that the input face image is not an intra-personal class (when it is determined to be an extra-personal class), the
ステップS43において、登録が指示されていないと判定され場合、またはステップS44において、登録が指示されたが管理者からの指示ではないと判定された場合(例えば、入力されたパスワードが正しくない場合)、ステップS45の登録処理はスキップされ、処理は終了される。 If it is determined in step S43 that registration is not instructed, or if it is determined in step S44 that registration is instructed but not an instruction from the administrator (for example, if the input password is incorrect) The registration process in step S45 is skipped and the process ends.
クラス判定部105において用いられるサポートベクタマシンは、例えば、図5に示される画像処理装置により学習生成される。
The support vector machine used in the
この画像処理装置151は、取得部161、ラベル付け部162、顔抽出部163、顔画像アライメント部164、特徴点検出部165、特徴量演算部166、類似度ベクトル演算部167、およびサポートベクタ演算部168により構成される。
The image processing apparatus 151 includes an
取得部161は、学習用の画像データを取得する。この学習用の画像データとしては、対となるintra-personal classに属する学習用の画像データと、対となるextra-personal classに属する学習用の画像データとから構成される。ここで、対となる画像とは、人の顔の画像であって、照明条件、表情、人種、年齢、性別などを変化させる前の画像と変化させた後の画像との対の画像を意味する。intra-personal classに属する顔画像の場合、対となる画像は、同一人物の画像であるから、照明条件、表情、年齢、などを変化させることが可能であるが、人種、性別などは、変化させることができない。したがって、intra-personal classに属する顔画像としては、照明条件、表情、または年齢といった条件が変化されたものが用意される。これに対してextra-personal classに属する顔画像は、異なる人物と判定される顔画像であるから、対となる顔画像は、異なる人物の顔画像である。この場合には、一方の顔画像に対して他方の顔画像は、照明条件、表情、人種、年齢、性別といった条件を変更した顔画像とすることができる。
The
ラベル付け部162は、取得部161により取得されたintra-personal classに属する顔画像と、extra-personal classに属する顔画像に対してラベル付けを行う。例えば、intra-personal classに属する顔画像に対しては+1のラベルが、extra-personal classに属する顔画像に対しては−1が、それぞれラベル付けされる。顔抽出部163は、ラベル付けされた画像の中から、顔画像の部分を検出し、さらに顔画像の中から、目、口、鼻といった特徴を検出する。この顔抽出部163の構成と機能は、図1における顔抽出部11と同様である。
The
顔画像アライメント部164は、顔抽出部163により検出された画像の、目、口、鼻といった特徴の位置を、基準の位置にアライメントする処理を行う。この顔画像アライメント部164の構成と機能は、図1における顔画像アライメント部51と同様である。
The face
特徴点検出部165は、顔画像アライメント部164により目、口、鼻といった特徴がアライメントされた画像の特徴点を検出する。いかなる点を特徴点とするかは任意である。特徴量演算部166は、特徴点検出部165により検出された特徴点の特徴量を演算する。この特徴量演算部166により演算される特徴量も任意である。これらの特徴点検出部165と特徴量演算部166の構成と機能は、図2の特徴点検出部101と特徴量演算部102と同様であり、検出される特徴点と特徴量は対応する。
The feature
類似度ベクトル演算部167は、特徴量演算部166により演算された対となる特徴量の類似度ベクトルを演算する。この類似度ベクトル演算部167の構成と機能も、図2の類似度ベクトル演算部104と同様である。サポートベクタ演算部168は、類似度ベクトル演算部167により演算された類似度ベクトルと、ラベル付け部162により付加されたラベルとに基づいて、2つのクラス(intra-personal classとextra-personal class)を分離するサポートベクタを演算する。
The similarity
次に、図6のフローチャートを参照して、図5の画像処理装置151の学習処理について説明する。 Next, the learning process of the image processing apparatus 151 in FIG. 5 will be described with reference to the flowchart in FIG.
ステップS61において、取得部161は、対となるintra-personal classに属する学習用の画像データと、対となるextra-personal classに属する学習用の画像データを取得する。この学習用の画像データは、必ずしも識別対象とする(登録対象とする)人の顔の画像データである必要はない。上述したように、その登録は、図3のステップS45において行われるからである。したがって、画像処理装置1が実際に利用される場所、利用者などに関わらず、画像処理装置1のクラス判定部105において用いるサポートベクタマシンを共通化することができ、その共通化したサポートベクタマシンを容易に生成することが可能となる。
In step S61, the
ステップS62において、ラベル付け部162はラベル付けを行う。具体的には、ラベル付け部162は、intra-personal classに属する学習用の画像データとして入力された画像データに対しては+1を、extra-personal classに属する学習用の画像データとして入力された画像データに対しては−1を、それぞれラベル付けする。顔抽出部163は、ステップS63において、顔画像の特徴を検出する。そして、ステップS64において、顔画像アライメント部164は、ステップS63の処理で検出された顔特徴をアライメントする処理を実行する。
In step S62, the
すなわち、ステップS63,S65の処理により、図1の顔抽出部11、および顔認識部12の顔画像アライメント部51における場合と同様に、入力された画像データの中から、顔の画像部分が検出され、検出された顔の中から、目、口、鼻といった顔特徴がさらに検出され、検出された目、口、鼻といった特徴が、所定の基準位置にアライメントされる。
That is, by the processing in steps S63 and S65, the face image portion is detected from the input image data as in the case of the
ステップS65において、特徴点検出部165は、顔画像データの特徴点を検出する。ステップS66において、特徴量演算部166は、ガボアフィルタにより特徴点の特徴量を求める。これらの処理は、図2の特徴点検出部101と特徴量演算部102により図3のステップS33とステップS34で実行される処理と同様の処理である。すなわち、これにより、学習用の対となるintra-personal classに属する画像データの特徴点の特徴量が求められるとともに、学習用の対となるextra-personal classに属する画像データの特徴点の特徴量が求められる。
In step S65, the
ステップS67において、類似度ベクトル演算部167は、類似度ベクトルを演算する。具体的には、上述した式(29)における入力顔の特徴量Jj I(xVi)に代えて、対となるintra-personal classに属する顔画像の一方の特徴量が代入され、同様に、Jj M(xVi)の代わりに、intra-personal classに属する学習用の画像データの他方の対となる画像データの特徴量が代入される。そして、両者の類似度が、式(29)に基づいて演算される。さらに、類似度d(xVi)の集合としての類似度ベクトルd{d(xVi)}(i=1,・・・,M)が演算される。対となるextra-personal classに属する学習用の画像データについても同様に、類似度ベクトルが演算される。
In step S67, the similarity
ステップS68において、サポートベクタ演算部168は、ラベルと類似度ベクトルをサポートベクタマシンに入力し、2つのクラスを分離するサポートベクタを演算する。具体的には、上述した式(10)におけるxに代えて、ステップS67で演算された類似度ベクトルが代入され、式(11)に示されるyにステップS62の処理で付けられたラベルが代入される。それにより、サポートベクタとしての式(10)におけるf(x)が演算される。
In step S68, the support
以上のようにして、生成されたサポートベクタマシンが図2のクラス判定部105のサポートベクタマシンとして用いられる。
The support vector machine generated as described above is used as the support vector machine of the
以上のように、本発明においては、intra-personal classとextra-personal classを識別するサポートベクタマシンは1個しか必要としない。サポートベクタマシンの学習に必要な教師データには、登録される顔画像が含まれる必要がないため、サポートベクタマシンの再学習の必要がない。登録の際には、登録用の顔画像から生成される特徴量を保存するだけでよいため、リアルタイムに顔画像登録処理が可能であり、保存すべきデータ量もほとんど増加しない。また、クラス判定部にサポートベクタマシンを用いているため、非常に汎化能力が高く、さまざまの条件の変化の元でも精度の高い識別が可能となる。 As described above, in the present invention, only one support vector machine for identifying the intra-personal class and the extra-personal class is required. Since the teacher data necessary for learning the support vector machine does not need to include the registered face image, there is no need to re-learn the support vector machine. At the time of registration, since it is only necessary to store the feature amount generated from the face image for registration, face image registration processing can be performed in real time, and the amount of data to be stored hardly increases. In addition, since a support vector machine is used for the class determination unit, the generalization capability is very high, and high-precision identification is possible even when various conditions change.
また、サポートベクタマシンに入力するデータとして、2枚の顔画像の差分画像ではなく、2枚の顔画像のガボアジェットの類似度ベクトルを用いているため、特徴点間のある程度の位置のずれや変形に強くなる。これにより、2枚の顔画像間の顔の変形や傾きの変化に対してロバストになり、ロボットによるさまざまな環境下での顔識別性能を向上させることが可能となる。また、本発明は、顔の識別だけでなく、さまざまなパターンの2クラス識別(一致するか、または一致しないかの識別)に対応することが可能であり、その識別対象のパターンの変形や傾きに対してロバストな識別システムを構築することが可能である。 In addition, since the similarity vector of Gaboradgets of two face images is used as data to be input to the support vector machine instead of a difference image of two face images, a certain amount of positional deviation or deformation between feature points is used. Become stronger. As a result, the face is robust against changes in face deformation and tilt between the two face images, and the face recognition performance of the robot under various environments can be improved. Further, the present invention can cope with not only face identification but also two-class identification of various patterns (identification of coincidence or non-coincidence), and the deformation or inclination of the pattern to be identified. It is possible to construct a robust identification system.
したがって、リアルタイムに顔の登録、追加学習が可能で、さまざまな環境下での顔の変形や傾きの変化に対してロバストな顔識別システムを構築することが可能となる。 Accordingly, face registration and additional learning can be performed in real time, and a face identification system that is robust against changes in face deformation and tilt under various environments can be constructed.
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、画像処理装置は、図7に示されるようなパーソナルコンピュータにより構成される。 The series of processes described above can be executed by hardware or can be executed by software. In this case, for example, the image processing apparatus is configured by a personal computer as shown in FIG.
図7において、CPU(Central Processing Unit)221は、ROM(Read Only Memory)222に記憶されているプログラム、または記憶部228からRAM(Random Access Memory)223にロードされたプログラムに従って各種の処理を実行する。RAM223にはまた、CPU221が各種の処理を実行する上において必要なデータなども適宜記憶される。
In FIG. 7, a CPU (Central Processing Unit) 221 executes various processes according to a program stored in a ROM (Read Only Memory) 222 or a program loaded from a
CPU221、ROM222、およびRAM223は、バス224を介して相互に接続されている。このバス224にはまた、入出力インタフェース225も接続されている。
The
入出力インタフェース225には、キーボード、マウスなどよりなる入力部226、CRT(Cathode Ray Tube)、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部227、ハードディスクなどより構成される記憶部228、モデムなどより構成される通信部229が接続されている。通信部229は、インターネットを含むネットワークを介しての通信処理を行う。
The input /
入出力インタフェース225にはまた、必要に応じてドライブ230が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア231が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部228にインストールされる。
A
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.
この記録媒体は、図7に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア231により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM222や、記憶部228に含まれるハードディスクなどで構成される。
As shown in FIG. 7, the recording medium is distributed to provide a program to the user separately from the apparatus main body, and includes a magnetic disk (including a floppy disk) on which the program is recorded, an optical disk (CD- It is not only composed of a
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
本発明は、人の顔を識別するロボットに適用することが可能である。 The present invention can be applied to a robot for identifying a human face.
1 画像処理装置, 11 顔抽出部, 12 顔認識部, 51 顔画像アライメント部, 52 クラス判断部, 101 特徴点検出部, 102 特徴量演算部, 103 読み出し部, 104 類似度ベクトル演算部, 105 クラス判定部, 106 重複判定部, 107 選択部, 108 出力部, 109 表示部, 110 指示判定部, 111 登録部, 151 画像処理装置, 161 取得部, 162 ラベル付け部, 163 顔抽出部, 164 顔画像アライメント部, 165 特徴点検出部, 166 特徴量演算部, 167 類似度ベクトル演算部, 168 サポートベクタ演算部 DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 11 Face extraction part, 12 Face recognition part, 51 Face image alignment part, 52 Class judgment part, 101 Feature point detection part, 102 Feature-value calculation part, 103 Reading part, 104 Similarity vector calculation part, 105 Class determination unit, 106 overlap determination unit, 107 selection unit, 108 output unit, 109 display unit, 110 instruction determination unit, 111 registration unit, 151 image processing device, 161 acquisition unit, 162 labeling unit, 163 face extraction unit, 164 Face image alignment unit, 165 feature point detection unit, 166 feature amount calculation unit, 167 similarity vector calculation unit, 168 support vector calculation unit
Claims (9)
前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出手段と、
前記特徴量検出手段により検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正手段と、
前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算手段と、
入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定手段と
を備える画像処理装置。 Feature point detecting means for detecting feature points of the image of the input image data;
Feature quantity detection means for detecting a local feature quantity of the feature point by a Gabor filter;
Correction means for correcting the position so that the local feature quantity detected by the feature quantity detection means can be identified; and
Calculation means for detecting feature points of the face image based on the corrected image data, and calculating all correlation similarities between the feature quantities of the detected feature points and the feature quantities of the pre-registered image When,
Images processing device and a determination means by the support vector machine based on the class of the inputted image data of the image to the degree of similarity.
請求項1に記載の画像処理装置。 When it is determined that the image of the input image data is a class that does not belong to a previously registered image, the image data further includes a registration unit that registers the feature amount according to a user instruction.
The image processing apparatus according to 請 Motomeko 1.
前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、
前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、
前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、
入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップと
を含む画像処理方法。 A feature point detecting step for detecting a feature point of the image of the input image data;
A feature amount detection step of detecting a local feature amount of the feature point by a Gabor filter;
A correction step for correcting the position so that the local feature amount detected by the processing of the feature amount detection step can be identified; and
Calculating step the detected feature points of the modified facial image based on the image data, and the feature quantity of the feature points detected, it calculates all correlations similarity degree between the feature quantity of image registered beforehand When,
Images processing method comprising a determining step by the support vector machine based on the class of the inputted image data of the image to the degree of similarity.
前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、
前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、
前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、
入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップと
を含むコンピュータが読み取り可能なプログラムが記録されている記録媒体。 A feature point detecting step for detecting a feature point of the image of the input image data;
A feature amount detection step of detecting a local feature amount of the feature point by a Gabor filter;
A correction step for correcting the position so that the local feature amount detected by the processing of the feature amount detection step can be identified; and
A calculation step of detecting feature points of the face image based on the corrected image data, and calculating all correlation similarities between the feature amount of the detected feature points and the feature amount of the image registered in advance. When,
Recording medium input computer-readable program including a determining step by the support vector machine based on the class of the image of the image data to the similarity is recorded.
前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、
前記特徴量検出ステップの処理で検出された前記局所的な特徴量を顔識別ができるように位置を修正する修正ステップと、
前記修正された画像データに基づく顔画像の特徴点を検出し、前記検出された特徴点の特徴量と、予め登録されている画像の特徴量との相関的な類似度をすべて演算する演算ステップと、
入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップと
をコンピュータに実行させるプログラム。 A feature point detecting step for detecting a feature point of the image of the input image data;
A feature amount detection step of detecting a local feature amount of the feature point by a Gabor filter;
A correction step for correcting the position so that the local feature amount detected by the processing of the feature amount detection step can be identified; and
A calculation step of detecting feature points of the face image based on the corrected image data, and calculating all correlation similarities between the feature amount of the detected feature points and the feature amount of the image registered in advance. When,
Programs for executing the class of the inputted image data of the image and determining steps to the computer via the support vector machine based on the similarity.
前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付け手段と、
前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出手段と、
前記顔特徴を、顔識別ができるような位置に修正する修正手段と、
前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出手段と、
前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出手段と、
対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算手段と、
前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算手段と
を備える画像処理装置。 Acquisition means for acquiring first image data for learning belonging to a pair of intra personal classes, and second image data for learning belonging to a pair of extra personal classes;
Labeling means for associating a label with the first image data and the second image data;
Detecting means for detecting a facial feature from an image based on the first image data and the second image data with the label, and detecting a facial feature;
Correction means for correcting the face feature to a position where the face can be identified;
Feature point detecting means for detecting feature points of a face image based on the corrected first image data and second image data ;
Feature quantity detection means for detecting a feature quantity of the feature point by a Gabor filter;
Similarity calculating means for calculating the similarity of the first image data to be paired and the similarity of the second image data to be paired;
Based on the label and the degree of similarity, images processing device and a support vector calculating means for calculating a support vector.
前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、
前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、
前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、
前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、
前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、
対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、
前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップと
を含む画像処理方法。 An acquisition step of acquiring first image data for learning belonging to a pair of intra personal classes, and second image data for learning belonging to a pair of extra personal classes;
A labeling step of associating a label with the first image data and the second image data;
A detection step of detecting a facial image portion from an image based on the first image data and the second image data with the label, and detecting a facial feature;
A correction step of correcting the face feature to a position where the face can be identified;
A feature point detecting step of detecting a feature point of a face image based on the corrected first image data and second image data ;
A feature amount detecting step of detecting a feature amount of the feature point by a Gabor filter;
A similarity calculation step of calculating the similarity of the first image data to be paired and the similarity of the second image data to be paired;
Based on the label and the degree of similarity, images processing method comprising a support vector calculating step of calculating a support vector.
前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、
前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、
前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、
前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、
前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、
対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、
前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップと
を含むコンピュータが読み取り可能なプログラムが記録されている記録媒体。 An acquisition step of acquiring first image data for learning belonging to a pair of intra personal classes, and second image data for learning belonging to a pair of extra personal classes;
A labeling step of associating a label with the first image data and the second image data;
A detection step of detecting a facial image portion from an image based on the first image data and the second image data with the label, and detecting a facial feature;
A correction step of correcting the face feature to a position where the face can be identified;
A feature point detecting step of detecting a feature point of a face image based on the corrected first image data and second image data ;
A feature amount detecting step of detecting a feature amount of the feature point by a Gabor filter;
A similarity calculation step of calculating the similarity of the first image data to be paired and the similarity of the second image data to be paired;
The label and on the basis of the similarity, a recording medium on which computer-readable program including a support vector calculating step of calculating a support vector is recorded.
前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、
前記ラベルが付けられた前記第1の画像データおよび前記第2の画像データに基づく画像から顔の画像部分を検出し、顔特徴を検出する検出ステップと、
前記顔特徴を、顔識別ができるような位置に修正する修正ステップと、
前記修正された第1の画像データおよび第2の画像データに基づく顔画像の特徴点を検出する特徴点検出ステップと、
前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、
対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、
前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップと
をコンピュータに実行させるプログラム。 An acquisition step of acquiring first image data for learning belonging to a pair of intra personal classes, and second image data for learning belonging to a pair of extra personal classes;
A labeling step of associating a label with the first image data and the second image data;
A detection step of detecting a facial image portion from an image based on the first image data and the second image data with the label, and detecting a facial feature;
A correction step of correcting the face feature to a position where the face can be identified;
A feature point detecting step of detecting a feature point of a face image based on the corrected first image data and second image data ;
A feature amount detecting step of detecting a feature amount of the feature point by a Gabor filter;
A similarity calculation step of calculating the similarity of the first image data to be paired and the similarity of the second image data to be paired;
Programs to be executed based on the label and the degree of similarity, and a support vector calculating step of calculating a support vector to the computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004177420A JP4569186B2 (en) | 2004-06-15 | 2004-06-15 | Image processing apparatus and method, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004177420A JP4569186B2 (en) | 2004-06-15 | 2004-06-15 | Image processing apparatus and method, recording medium, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006004003A JP2006004003A (en) | 2006-01-05 |
JP4569186B2 true JP4569186B2 (en) | 2010-10-27 |
Family
ID=35772375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004177420A Expired - Fee Related JP4569186B2 (en) | 2004-06-15 | 2004-06-15 | Image processing apparatus and method, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4569186B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217215A (en) * | 2014-08-28 | 2014-12-17 | 哈尔滨工程大学 | Classification and identification method for foggy water surface image and clear water surface image |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100745981B1 (en) | 2006-01-13 | 2007-08-06 | 삼성전자주식회사 | Method and apparatus scalable face recognition based on complementary features |
JP2008152530A (en) | 2006-12-18 | 2008-07-03 | Sony Corp | Face recognition device, face recognition method, gabor filter applied device, and computer program |
JP2008191816A (en) * | 2007-02-02 | 2008-08-21 | Sony Corp | Image processor, image processing method, and computer program |
KR100869554B1 (en) | 2007-02-23 | 2008-11-21 | 재단법인서울대학교산학협력재단 | Domain density description based incremental pattern classification method |
JP5109564B2 (en) | 2007-10-02 | 2012-12-26 | ソニー株式会社 | Image processing apparatus, imaging apparatus, processing method and program therefor |
JP4720880B2 (en) | 2008-09-04 | 2011-07-13 | ソニー株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
JP2010244381A (en) * | 2009-04-08 | 2010-10-28 | Sony Corp | Gabor filter, image recognition apparatus and method, program, and recording medium |
JP5241606B2 (en) * | 2009-05-20 | 2013-07-17 | キヤノン株式会社 | Object identification device and object identification method |
JP5709410B2 (en) | 2009-06-16 | 2015-04-30 | キヤノン株式会社 | Pattern processing apparatus and method, and program |
KR101090269B1 (en) | 2010-02-19 | 2011-12-07 | 연세대학교 산학협력단 | The method for extracting feature and the apparatus thereof |
JP2012198781A (en) | 2011-03-22 | 2012-10-18 | Sony Corp | Information processing apparatus, information processing method, and program |
KR101130817B1 (en) * | 2011-09-27 | 2012-04-16 | (주)올라웍스 | Face recognition method, apparatus, and computer-readable recording medium for executing the method |
CN103295241A (en) * | 2013-06-26 | 2013-09-11 | 中国科学院光电技术研究所 | Frequency domain saliency target detection method based on Gabor wavelets |
CN104217388B (en) * | 2014-01-22 | 2017-10-24 | 河南师范大学 | A kind of image watermark insertion based on FSSVM, the method and apparatus extracted |
JP6544900B2 (en) * | 2014-09-17 | 2019-07-17 | キヤノン株式会社 | Object identification device, object identification method and program |
CN105203055B (en) * | 2015-09-18 | 2017-12-19 | 北京信息科技大学 | A kind of articulated coordinate machine dynamic error compensation method |
CN111325059A (en) * | 2018-12-14 | 2020-06-23 | 技嘉科技股份有限公司 | Face recognition method, device and computer readable medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001016573A (en) * | 1999-06-30 | 2001-01-19 | Omron Corp | Pedestrian observing device, pedestrian recognition system using the device, door switch control system and building |
JP2003255989A (en) * | 2002-03-06 | 2003-09-10 | Sony Corp | Learning system and learning method, and robot apparatus |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11110542A (en) * | 1997-09-30 | 1999-04-23 | Toshiba Corp | Method and device for extracting pattern and medium recorded with program therefor |
-
2004
- 2004-06-15 JP JP2004177420A patent/JP4569186B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001016573A (en) * | 1999-06-30 | 2001-01-19 | Omron Corp | Pedestrian observing device, pedestrian recognition system using the device, door switch control system and building |
JP2003255989A (en) * | 2002-03-06 | 2003-09-10 | Sony Corp | Learning system and learning method, and robot apparatus |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217215A (en) * | 2014-08-28 | 2014-12-17 | 哈尔滨工程大学 | Classification and identification method for foggy water surface image and clear water surface image |
CN104217215B (en) * | 2014-08-28 | 2017-11-28 | 哈尔滨工程大学 | A kind of classifying identification method of water surface foggy image and picture rich in detail |
Also Published As
Publication number | Publication date |
---|---|
JP2006004003A (en) | 2006-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4569186B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4595750B2 (en) | Image processing apparatus and method, and program | |
Guo et al. | Human age estimation using bio-inspired features | |
JP5709410B2 (en) | Pattern processing apparatus and method, and program | |
Jonsson et al. | Support vector machines for face authentication | |
CN101236602B (en) | Image processing apparatus, image processing method and computer program | |
US7873189B2 (en) | Face recognition by dividing an image and evaluating a similarity vector with a support vector machine | |
US7783082B2 (en) | System and method for face recognition | |
JP4589625B2 (en) | Face recognition using kernel fisher face | |
JP4321350B2 (en) | Parameter estimation method, parameter estimation device, and verification method | |
US20080199044A1 (en) | Image Processing Apparatus, Image Processing Method, and Program | |
Sukno et al. | Active shape models with invariant optimal features: Application to facial analysis | |
Heseltine et al. | Three-dimensional face recognition using combinations of surface feature map subspace components | |
JP2005512201A5 (en) | ||
Efraty et al. | Profile-based 3D-aided face recognition | |
Angadi et al. | A robust face recognition approach through symbolic modeling of polar FFT features | |
Seo et al. | Robust recognition of face with partial variations using local features and statistical learning | |
Salah et al. | Registration of three-dimensional face scans with average face models | |
Martins et al. | Bayesian constrained local models revisited | |
Barbosa et al. | Transient biometrics using finger nails | |
Golland | Discriminative direction for kernel classifiers | |
WO2020065790A1 (en) | Estimation device, estimation method, and storage medium | |
Zhang et al. | Decision-level information fusion powered human pose estimation | |
Peng et al. | An evaluation of super-resolution for face recognition | |
WO2019155570A1 (en) | Line-of-sight estimation device, line-of-sight estimation method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100427 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100713 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100726 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130820 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130820 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |