JP4891278B2 - Facial image feature extraction method and identification signal generation method - Google Patents

Facial image feature extraction method and identification signal generation method Download PDF

Info

Publication number
JP4891278B2
JP4891278B2 JP2008053952A JP2008053952A JP4891278B2 JP 4891278 B2 JP4891278 B2 JP 4891278B2 JP 2008053952 A JP2008053952 A JP 2008053952A JP 2008053952 A JP2008053952 A JP 2008053952A JP 4891278 B2 JP4891278 B2 JP 4891278B2
Authority
JP
Japan
Prior art keywords
face
dct
feature extraction
transform
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008053952A
Other languages
Japanese (ja)
Other versions
JP2009211425A (en
Inventor
孝治 江田
Original Assignee
株式会社グローバル・セキュリティ・デザイン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社グローバル・セキュリティ・デザイン filed Critical 株式会社グローバル・セキュリティ・デザイン
Priority to JP2008053952A priority Critical patent/JP4891278B2/en
Publication of JP2009211425A publication Critical patent/JP2009211425A/en
Application granted granted Critical
Publication of JP4891278B2 publication Critical patent/JP4891278B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、顔画像の特徴抽出方法及び識別信号作成方法に関し、詳しくは、照明変動に対するロバスト性を向上させながら、高速かつコンパクトな顔画像の特徴抽出方法及び識別信号作成方法に関する。   The present invention relates to a facial image feature extraction method and an identification signal creation method, and more particularly to a fast and compact facial image feature extraction method and an identification signal creation method while improving robustness against illumination fluctuations.

従来、個人識別に用いる生体情報には、顔、指紋、静脈、虹彩などがあるが、顔を用いた個人識別は非接触で行うことができるため、ユーザの利便性が高い。   Conventionally, biometric information used for personal identification includes a face, a fingerprint, a vein, and an iris. However, since personal identification using a face can be performed without contact, it is highly convenient for the user.

また顔を見て相手を識別することは日常的に行われている動作であるため、ユーザの心理的負担も軽いと考えられる。   In addition, it is considered that the psychological burden on the user is light because identifying the other party by looking at the face is a routine operation.

しかし顔画像は、同一人物であっても照明条件や顔向き、表情によって見た目が大きく変動するため顔画像の撮影条件によって認識性能が大きく変化する。   However, even if the face image is the same person, the appearance varies greatly depending on the illumination conditions, face orientation, and facial expression, so the recognition performance varies greatly depending on the face image shooting conditions.

顔画像認識の手法を大きく二つの手法に分けると、顔画像の濃淡パターンを特徴とする手法とグラフマッチングを行う手法に分けられる。   The face image recognition method is roughly divided into two methods: a method that features a shading pattern of a face image and a method that performs graph matching.

前者の代表的な手法には、顔画像に主成分分析を行い固有顔と呼ばれる基底ベクトルを作成するEigenfacesが挙げられる(非特許文献1)。   A typical example of the former is Eigenfaces that performs principal component analysis on a face image and creates a basis vector called an eigenface (Non-Patent Document 1).

また、後者には、顔画像にGabor Waveletフィルタを適用する手法が挙げられる(非特許文献2、非特許文献3)。   The latter includes a method of applying a Gabor Wavelet filter to a face image (Non-Patent Document 2, Non-Patent Document 3).

前記Gabor Waveletフィルタを用いる手法は、顔向きや照明変動に対しても安定した認識性能が出せるため、多くの研究や製品などで用いられている。   The method using the Gabor Wavelet filter is used in many researches and products because it can provide stable recognition performance even with face orientation and illumination fluctuations.

しかし、顔画像から作成されるテンプレートデータが、数キロバイトになることや、計算量が比較的多くなるため、組み込み機器など計算資源の限られた環境で動作させることが難しい。   However, since the template data created from the face image is several kilobytes and the calculation amount is relatively large, it is difficult to operate in an environment with limited calculation resources such as an embedded device.

離散コサイン変換(DCT)は、直交変換の一つであるが、信号のエネルギーが低周波領域に集中する傾向があるため、画像圧縮に用いた場合、他の直交変換よりも効果的に画像を圧縮することができる。つまり画像にDCTを行うことによって、変換前の画像が持つ情報の大部分を低周波領域のDCT係数で保存することができる。   The Discrete Cosine Transform (DCT) is one of orthogonal transforms. However, since the signal energy tends to concentrate in the low frequency region, when used for image compression, the image is more effectively than other orthogonal transforms. Can be compressed. That is, by performing DCT on an image, most of the information held in the image before conversion can be stored with DCT coefficients in the low frequency region.

このようなDCTの特徴からパターンマッチングや顔画像認識にDCTを用いる手法が開発されてきた(非特許文献4、5)。   Based on such DCT features, methods using DCT for pattern matching and face image recognition have been developed (Non-Patent Documents 4 and 5).

しかし、DCT係数は対象とする画像の見た目に左右されるため、顔画像に照明変動が生じると認識性能が低下することがあった。
M. Turk and A. Pentland, “Face recognition using eigenfaces,” IEEE Proc. Conf. on Computer Vision and Pattern Recognition, pp.586-591, 1991. L.Wiskott, J.M. Fellous, N. Kruger and C. Malsburg, “Face recognition by elastic bunch graph matching,” IEEE Trans. Pattern Anal. Mach. Intell., vol.19, no.7, 775 - 779, 1997. 平山高嗣, 岩井儀雄, 谷内田正彦, “顔認証のための顔位置推定と個人識別の統合”, 信学論(D-II), vol.J-88-D-II, no.2, pp.276-290, 2005. Z. M. Hafed and M. D. Levine, “Face Recognition Using the Discrete Cosine Transform”, International Journal of Computer Vision, vol.43, no.3, 167-188, 2001. H.K. Ekenel and R. Stiefelhagen, “Local Appearance based Face Recognition Using Discrete Cosine Transform,” EUSIPCO 2005, Antalya, Turkey, 2005.
However, since the DCT coefficient depends on the appearance of the target image, the recognition performance may be deteriorated when the illumination variation occurs in the face image.
M. Turk and A. Pentland, “Face recognition using eigenfaces,” IEEE Proc. Conf. On Computer Vision and Pattern Recognition, pp.586-591, 1991. L. Wiskott, JM Fellous, N. Kruger and C. Malsburg, “Face recognition by elastic bunch graph matching,” IEEE Trans. Pattern Anal. Mach. Intell., Vol.19, no.7, 775-779, 1997. Takaaki Hirayama, Yoshio Iwai, Masahiko Taniuchi, “Integration of face location estimation and personal identification for face recognition”, IEICE (D-II), vol.J-88-D-II, no.2, pp. 276-290, 2005. ZM Hafed and MD Levine, “Face Recognition Using the Discrete Cosine Transform”, International Journal of Computer Vision, vol.43, no.3, 167-188, 2001. HK Ekenel and R. Stiefelhagen, “Local Appearance based Face Recognition Using Discrete Cosine Transform,” EUSIPCO 2005, Antalya, Turkey, 2005.

そこで、本発明は、照明変動に対するロバスト性を向上させながら、高速かつコンパクトな顔画像の特徴抽出方法及び識別信号作成方法を提供することにある。   SUMMARY OF THE INVENTION Accordingly, the present invention provides a fast and compact facial image feature extraction method and identification signal generation method while improving robustness against illumination variation.

本発明の他の課題は以下の記載によって明らかとなる。   The other subject of this invention becomes clear by the following description.

上記課題は、以下の各発明によって解決される。   The above problems are solved by the following inventions.

(請求項1)
複数人の複数の顔画像を、それぞれ奇数分割のパターンで且つそれぞれ異なるブロックサイズにより分割する工程と、
前記分割された各々のブロックに対して直交変換を行い、変換係数を算出する工程と、
算出された変換係数から遺伝的アルゴリズム(GA)に基づき、適応度の高い個体に対応する変換係数を選択する工程と、
選択された変換係数の位置を記憶する工程とを有することを特徴とする顔画像の特徴抽出方法。
(Claim 1)
A step of dividing a plurality of face images of a plurality of people with odd-numbered division patterns and different block sizes;
Performing orthogonal transform on each of the divided blocks and calculating transform coefficients;
Selecting a conversion coefficient corresponding to an individual with high fitness based on a genetic algorithm (GA) from the calculated conversion coefficient;
And a step of storing the position of the selected conversion coefficient.

(請求項2)
複数人の複数の顔画像を、それぞれ奇数分割のパターンで且つそれぞれ異なるブロックサイズにより分割する工程と、
前記分割された各々のブロックに対して直交変換を行い、変換係数を算出する工程と、
算出された変換係数を正規化する工程と、
正規化された変換係数を量子化する工程と、
量子化された変換係数から遺伝的アルゴリズム(GA)に基づき、適応度の高い個体に対応する変換係数を選択する工程と、
選択された変換係数の位置を記憶する工程とを有することを特徴とする顔画像の特徴抽出方法。
(Claim 2)
A step of dividing a plurality of face images of a plurality of people with odd-numbered division patterns and different block sizes;
Performing orthogonal transform on each of the divided blocks and calculating transform coefficients;
Normalizing the calculated conversion coefficient;
Quantizing the normalized transform coefficients;
Selecting a transform coefficient corresponding to an individual having high fitness based on a genetic algorithm (GA) from the quantized transform coefficient;
And a step of storing the position of the selected conversion coefficient.

(請求項3)
直交変換が、DCTであることを特徴とする請求項1又は2記載の顔画像の特徴抽出方法。
(Claim 3)
3. The facial image feature extraction method according to claim 1, wherein the orthogonal transformation is DCT.

(請求項4)
請求項1、2又は3記載の顔画像の特徴抽出方法によって記憶された特徴抽出位置に基づいて、
登録対象者の複数の顔画像を、それぞれ奇数分割のパターンで且つそれぞれ異なるブロックサイズにより分割する工程と、
前記分割された各々のブロックに対して直交変換を行い、変換係数を算出する工程と、
算出された変換係数と前記特徴抽出位置とに基づいて抽出された変換係数からテンプレートを作成する工程とを有することを特徴とする識別信号作成方法。
(Claim 4)
Based on the feature extraction position stored by the feature extraction method of the face image according to claim 1, 2, or 3,
Dividing a plurality of face images of a person to be registered into odd-numbered division patterns and different block sizes;
Performing orthogonal transform on each of the divided blocks and calculating transform coefficients;
And a step of creating a template from the conversion coefficient extracted based on the calculated conversion coefficient and the feature extraction position.

(請求項5)
請求項1、2又は3記載の顔画像の特徴抽出方法によって記憶された特徴抽出位置に基づいて、
登録対象者の複数の顔画像を、それぞれ奇数分割のパターンで且つそれぞれ異なるブロックサイズにより分割する工程と、
前記分割された各々のブロックに対して直交変換を行い、変換係数を算出する工程と、
算出された変換係数を正規化する工程と、
正規化された変換係数を量子化する工程と、
量子化された変換係数と前記特徴抽出位置とに基づいて抽出された変換係数からテンプレートを作成する工程とを有することを特徴とする識別信号作成方法。
(Claim 5)
Based on the feature extraction position stored by the feature extraction method of the face image according to claim 1, 2, or 3,
Dividing a plurality of face images of a person to be registered into odd-numbered division patterns and different block sizes;
Performing orthogonal transform on each of the divided blocks and calculating transform coefficients;
Normalizing the calculated conversion coefficient;
Quantizing the normalized transform coefficients;
And a step of creating a template from a transform coefficient extracted based on the quantized transform coefficient and the feature extraction position.

(請求項6)
直交変換が、DCTであることを特徴とする請求項4又は5記載の識別信号作成方法。
(Claim 6)
6. The identification signal generation method according to claim 4, wherein the orthogonal transformation is DCT.

本発明によれば、照明変動に対するロバスト性を向上させながら、高速かつコンパクトな顔画像の特徴抽出方法及び識別信号作成方法を提供することができる。   According to the present invention, it is possible to provide a fast and compact facial image feature extraction method and identification signal generation method while improving robustness against illumination variation.

以下、本発明の好ましい実施の形態について説明する。   Hereinafter, preferred embodiments of the present invention will be described.

図1は、本発明に係る特徴ベクトル抽出情報処理に係る一例を説明するフローチャートであり、同図に基づいて特徴ベクトル抽出情報作成処理を説明する。   FIG. 1 is a flowchart for explaining an example of feature vector extraction information processing according to the present invention. Feature vector extraction information creation processing will be described with reference to FIG.

まず、顔画像を入力する(S1)。説明を簡単にするために、入力された顔画像サイズは、縦60×横60pixelsとして説明する。また、後述する特徴点を選択する処理であるので、約3000人分の顔画像に基づいて特徴ベクトルの選択を行う。 First, a face image is input (S1). For ease of explanation, input Kaoga Zosa size is described as vertical 60 × horizontal 60Pixels. In addition, since it is a process of selecting feature points to be described later, feature vectors are selected based on face images for about 3000 people .

次に、入力顔画像をマルチブロック分割する(S2)。   Next, the input face image is divided into multi-blocks (S2).

マルチブロック分割とは、顔画像を複数の異なるサイズで分割する方法である。   Multi-block division is a method of dividing a face image into a plurality of different sizes.

従来、後述するDCTを行う際、顔画像全体にDCTを行う手法と、顔画像を同一サイズ(例えば、4×4pixels、8×8pixels)に分割してDCTを行う手法が取られていた。   Conventionally, when performing DCT, which will be described later, a method of performing DCT on the entire face image and a method of performing DCT by dividing the face image into the same size (for example, 4 × 4 pixels, 8 × 8 pixels) have been employed.

顔画像全体でDCTを行う場合、目・鼻・口などの顔器官の位置やサイズの特徴を効果的に取り出すことができるが、照明変動が生じた場合、顔画像の見た目が大きく変化するため、その影響でDCT係数が変動し認識性能が低下する。   When DCT is performed on the entire face image, the features of the position and size of the facial organs such as eyes, nose, and mouth can be extracted effectively, but the appearance of the face image changes greatly when illumination variation occurs. As a result, the DCT coefficient fluctuates and the recognition performance deteriorates.

また、顔画像を同一サイズに分割してDCTを行う場合、顔画像全体に対してDCTを行う場合より、照明変動に対処することが出来るが、局所領域のDCTでは顔器官の位置やサイズなどの特徴が少なくなり個人識別性能が低下してしまう。従って、同一サイズの分割手法では、顔認証には適していない。   In addition, when DCT is performed by dividing a face image into the same size, it is possible to cope with illumination fluctuations compared with the case where DCT is performed on the entire face image. As a result, the personal identification performance decreases. Therefore, the division method of the same size is not suitable for face authentication.

そこで、顔画像をマルチブロック分割することにより、上記の手法の欠点を補うことができる。つまり、顔機能の位置、サイズの特徴を効果的に取り出しつつ、照明変動に対して効果的に対処できる。   Therefore, the disadvantages of the above method can be compensated by dividing the face image into multi-blocks. That is, it is possible to effectively cope with illumination fluctuation while effectively extracting the features of the position and size of the face function.

本発明におけるマルチブロック分割は、顔画像データが、縦60×横60pixelsであった場合、ブロックのサイズを、20×20、20×12、12×20、12×12の異なる4種類のブロックサイズに分割する。つまり、顔画像全体のサイズを、1/3、1/5のサイズとなる奇数分割によって、顔画像を分割する。   In the multi-block division according to the present invention, when the face image data is 60 × 60 pixels, the block size is four different block sizes of 20 × 20, 20 × 12, 12 × 20, and 12 × 12. Divide into In other words, the face image is divided by odd-numbered division with the size of the entire face image being 1/3 or 1/5.

奇数分割とは、顔画像の縦方向、横方向へ奇数による分割をすることであり、例えば、顔画像の縦方向へ3分割若しくは5分割、横方向へ3分割若しくは5分割する。   The odd division is to divide the face image by odd numbers in the vertical and horizontal directions. For example, the face image is divided into three or five in the vertical direction and three or five in the horizontal direction.

奇数分割を行うのは、人の顔が左右対称であり、顔の中央には鼻、口があるため、これらの器官の特徴を抽出しやすくするためである。偶数分割では、鼻、口を分割することになってしまうため、それらの器官の特徴が抽出できなくなる問題がある。   The reason for performing the odd division is to make it easy to extract the features of these organs because the human face is symmetrical and the nose and mouth are in the center of the face. In the even division, the nose and mouth are divided, and there is a problem that the features of those organs cannot be extracted.

つまり、複数の顔画像を、それぞれ奇数分割のパターンで且つそれぞれ異なるブロックサイズで分割することが本発明におけるマルチブロック分割である。   In other words, multi-block division in the present invention is to divide a plurality of face images into odd-numbered division patterns and different block sizes.

では、マルチブロック分割の必要性を表1に基づいて説明する。   Now, the necessity of multi-block division will be described with reference to Table 1.

表1には、DCT係数と周波数の関係(信号長の1/2までを表示)が示されている。   Table 1 shows the relationship between DCT coefficients and frequencies (displays up to ½ of the signal length).

表1に示すように複数のブロックサイズでDCTを行うことによって、単一のブロックサイズ(例えば、8×8pixels、表1では8の信号長)を用いるよりも多くの種類の周波数成分を抽出することができる。顔画像のように類似度の高い画像から固有の特徴を取り出すためには、できるだけ多くの周波数成分を抽出する方が顔の特徴の小さな違いも表現でき効果的であると考えられる。ただし、表1からもわかるように、使用するブロックサイズ(信号長)が近い値の場合(例えば、20と18を用いる場合など)、抽出できる周波数成分が近いものとなるため、抽出される情報も似たものとなる。このため使用するブロックサイズには、ある程度の間隔がある方がよいと考えられる。   By performing DCT with a plurality of block sizes as shown in Table 1, more types of frequency components are extracted than using a single block size (for example, 8 × 8 pixels, a signal length of 8 in Table 1). be able to. In order to extract unique features from an image with a high degree of similarity such as a face image, it is considered that extracting as many frequency components as possible is effective in expressing small differences in facial features. However, as can be seen from Table 1, when the block size (signal length) to be used is a close value (for example, when 20 and 18 are used), the frequency components that can be extracted are close to each other. Will be similar. For this reason, it is considered that the block size to be used should have a certain interval.

顔画像データのマルチブロック分割した例を図2に示す。   An example of multi-block division of face image data is shown in FIG.

図2において、(a)は、顔画像全体から1ブロック当たり20×20pixelsで分割した例である。つまり、縦3分割、横3分割したパターンである。(b)は、顔画像全体から1ブロック当たり20×12pixelsで分割した例である。つまり、縦3分割、横5分割したパターンである。(c)は、顔画像全体から1ブロック当たり12×20pixelsで分割した例である。つまり、縦5分割、横3分割したパターンである。(d)は、顔画像全体から1ブロック当たり12×12pixelsで分割した例である。つまり、縦5分割、横5分割したパターンである。   In FIG. 2, (a) is an example in which the entire face image is divided at 20 × 20 pixels per block. That is, the pattern is divided into three parts vertically and three parts horizontally. (B) is an example in which the entire face image is divided by 20 × 12 pixels per block. In other words, the pattern is divided into 3 parts vertically and 5 parts horizontally. (C) is an example in which the entire face image is divided at 12 × 20 pixels per block. That is, the pattern is divided into 5 parts vertically and 3 parts horizontally. (D) is an example in which the entire face image is divided at 12 × 12 pixels per block. That is, the pattern is divided into 5 parts vertically and 5 parts horizontally.

従来、顔画像を分割した場合、隣接ブロックの境界線上をオーバーラップすることで、ブロック間の歪みを軽減する。   Conventionally, when a face image is divided, the distortion between blocks is reduced by overlapping the boundary lines of adjacent blocks.

しかし、1種類のブロック分割で、画像を復元する場合、オーバーラップをしないと、境界線に歪みが生じてしまう。   However, when the image is restored by one type of block division, the boundary line is distorted unless overlapping is performed.

本発明においては、複数のサイズで分割することにより、1種類のブロック分割で区切られている画像も他のブロック分割では、1つのブロックに収まっているため、オーバーラップを必要としない。なぜなら、顔画像を復元する必要がないためである。更に、いずれかのブロックにおいて周波数成分を抽出することができれば、問題ないためである。   In the present invention, by dividing the image into a plurality of sizes, an image divided by one type of block division is contained in one block in the other block divisions, so that no overlap is required. This is because it is not necessary to restore the face image. Furthermore, there is no problem if a frequency component can be extracted in any block.

ここで、本発明では、4種類のブロックサイズを用いた場合の説明をしているが、特に限定はされず、光の影響、多くの周波数成分を抽出するための分割であれば、本発明に十分適用可能である。従って、マルチブロック分割は、分割する際の、種類の増減だけでなく、位置等の移動に対しても、十分に対処可能である。   Here, in the present invention, the case where four types of block sizes are used is described, but there is no particular limitation, and the present invention is not limited as long as it is an influence of light and division for extracting many frequency components. It is fully applicable to. Therefore, the multi-block division can sufficiently cope with not only the increase / decrease of the types when dividing but also the movement of the position and the like.

次に、分割されたブロックをDCTにより周波数成分に変換し、DCT係数を算出する(S3)。具体的には、図2(a)〜(d)において、分割されたブロックすべてに対してDCTにより周波数成分に変換し、DCT係数を算出する。図2(a)で算出されるDCT係数の個数は、20×20×9=3600個のDCT係数が算出される。図2(b)〜(d)も同様に各ブロックに対して行われるため、ここでは、4枚の画像を用いているため、3600×4=14400個のDCT係数が算出されることになる。   Next, the divided blocks are converted into frequency components by DCT, and DCT coefficients are calculated (S3). Specifically, in FIGS. 2A to 2D, all divided blocks are converted into frequency components by DCT, and DCT coefficients are calculated. The number of DCT coefficients calculated in FIG. 2A is calculated as 20 × 20 × 9 = 3600 DCT coefficients. 2B to 2D are similarly performed for each block. Since four images are used here, 3600 × 4 = 14400 DCT coefficients are calculated. .

また、前記S2において、マルチブロック分割を行い、DCTによる周波数成分への変換を行うため、本発明におけるDCTを、以下「マルチブロックDCT」とも呼ぶ。   In S2, the multi-block division is performed and the DCT is converted into the frequency component. Therefore, the DCT in the present invention is hereinafter also referred to as “multi-block DCT”.

ここで、算出されたDCT係数は、分割したパターンにより、周波数成分が異なるため、より多くの周波数成分が、人の顔画像から抽出される結果となる。   Here, since the calculated DCT coefficients have different frequency components depending on the divided pattern, more frequency components are extracted from the human face image.

DCTは画像圧縮や音声圧縮などによく用いられており、画像情報を周波数領域へ変換する手法の一つである。画像にDCTを行うと画像情報は左上の少数の低周波成分に集まるため画像情報の少ない高周波成分をカットすることによって効果的な圧縮が行うことができる。   DCT is often used for image compression, audio compression, and the like, and is one method for converting image information into the frequency domain. When DCT is performed on an image, the image information is collected in a small number of low frequency components in the upper left, so that effective compression can be performed by cutting high frequency components with less image information.

ここで、画像の情報が少数の低周波成分に集まるという性質から、低周波成分の少数のDCT係数のみで元の画像情報の大部分を表現できると考えられる。本発明では、このようなDCTの特徴をパターン認識に応用することによって、少ない情報で顔画像の識別を行う。   Here, because of the property that image information gathers in a small number of low-frequency components, it is considered that most of the original image information can be expressed with only a small number of DCT coefficients of low-frequency components. In the present invention, such a DCT feature is applied to pattern recognition to identify a face image with a small amount of information.

2次元のDCTは、数式1で与えられる。   The two-dimensional DCT is given by Equation 1.

ただし
However,

であり、M、Nは画像の縦および横方向の画素数である。 M and N are the number of pixels in the vertical and horizontal directions of the image.

次に、DCTにより算出されたDCT係数を正規化する(S4)。   Next, the DCT coefficient calculated by DCT is normalized (S4).

顔画像の変化による同一人物間のDCT係数の変動を小さくするため、以下の数式3を用いて周波数成分ごとにDCT係数の正規化を行う。   In order to reduce the fluctuation of the DCT coefficient between the same persons due to the change of the face image, the DCT coefficient is normalized for each frequency component using the following formula 3.


次に、正規化されたDCT係数を量子化する(S5)。   Next, the normalized DCT coefficient is quantized (S5).

顔画像から作成される顔データがコンパクトになるように、一つのDCT係数を1バイトの変数に格納できるようにする。そのためDCT係数を−127〜+127の範囲の整数値に量子化する。   One DCT coefficient can be stored in a 1-byte variable so that face data created from a face image is compact. Therefore, the DCT coefficient is quantized to an integer value in the range of −127 to +127.

この量子化を経ることで、DCT係数が1バイト(8ビット)に抑えられ、更に整数値にされるので、計算速度をより高速化させることが可能になる。   Through this quantization, the DCT coefficient is suppressed to 1 byte (8 bits), and is further set to an integer value, so that the calculation speed can be further increased.

本発明では、量子化されたDCT係数を特徴ベクトルと呼ぶ。   In the present invention, the quantized DCT coefficient is referred to as a feature vector.

次に、特徴ベクトルを、遺伝的アルゴリズムを用いて選択する(S6)。   Next, a feature vector is selected using a genetic algorithm (S6).

S5までの処理により得られた顔画像の特徴ベクトルは顔画像の画素数と同じ次元数を持つため、複数のブロックサイズで行うDCTでは得られる特徴ベクトルの次元数が非常に大きくなる。   Since the feature vector of the face image obtained by the processing up to S5 has the same number of dimensions as the number of pixels of the face image, the number of dimensions of the feature vector obtained by DCT performed with a plurality of block sizes becomes very large.

顔画像を用いて個人識別を行う場合、すべてのDCT係数を必要としない。   When performing personal identification using a face image, not all DCT coefficients are required.

従来法では、DCT係数のエネルギーが集まる低周波成分のみを用いていたが、この手法では、個人の特徴が強く現れるDCT係数だけでなく、個人の特徴が少なく識別に不要なDCT係数も多く含まれるため、結果として識別性能を低くする原因になっていた。また、これまでの実験から個人識別に必要なDCT係数は低周波成分だけでなく、高周波成分にもあることがわかった。   In the conventional method, only the low-frequency component in which the energy of the DCT coefficient is collected is used. However, in this method, not only the DCT coefficient in which individual characteristics are strong, but also many DCT coefficients that have few individual characteristics and are unnecessary for identification are included. As a result, the identification performance is lowered. Moreover, it has been found from the experiments so far that the DCT coefficient necessary for individual identification is not only in the low frequency component but also in the high frequency component.

そこで、本発明では、遺伝的アルゴリズム(GA)を用いて個人識別を行うために必要な最小限の特徴ベクトルを選択する。これによって従来よりも少ない特徴ベクトルを用いて効果的な個人識別を行うことができる。   Therefore, in the present invention, a minimum feature vector necessary for performing individual identification using a genetic algorithm (GA) is selected. Thus, effective personal identification can be performed using fewer feature vectors than in the past.

つまり、遺伝的アルゴリズム(GA)は、DCT係数のどの周波数成分が、より人物の識別に適しているかを導き出すための方法である。   That is, the genetic algorithm (GA) is a method for deriving which frequency component of the DCT coefficient is more suitable for human identification.

遺伝的アルゴリズム(GA)は以下の方法で行うことで特徴ベクトルが選択される。   The feature vector is selected by performing the genetic algorithm (GA) by the following method.

まず、コード化を行い、特徴ベクトル全体を一つの個体として表現する。各個体の遺伝子のビットが各特徴ベクトルに対応し、ビットのオン、オフによって、その特徴ベクトルを使用するかしないかを決定する。   First, encoding is performed to express the entire feature vector as one individual. The bit of each individual gene corresponds to each feature vector, and whether the feature vector is used or not is determined by turning the bit on or off.

次に、適応度を求める。GAは世代の更新時に適応度の高い個体を優先的に残しながら集団を生成する。本発明では、個体の適応度を認識性能から求める。つまり、目標とする他人受入率を設定し、その他人受入率以下となる場合において本人拒否率が小さい個体を適応度の高い個体とする。   Next, the fitness is obtained. The GA generates a population while preferentially leaving individuals with high fitness at the time of generation update. In the present invention, the fitness of an individual is obtained from the recognition performance. In other words, a target other person acceptance rate is set, and an individual with a low individual rejection rate is set as an individual with high fitness when the other person acceptance rate is equal to or lower.

次に、選択を行う。選択は、交叉に先立って集団の中から交叉させる親個体を適応度に応じて確率的に選ぶ操作である。本発明では、選択にトーナメント方式を用いる。トーナメント方式とは、一つの親個体を選択する際に集団の中から二つの個体を取りだし、適応度の高い個体を親個体とする手法である。   Next, make a selection. Selection is an operation of probabilistically selecting a parent individual to be crossed from the group prior to crossing according to fitness. In the present invention, a tournament method is used for selection. The tournament method is a method in which when selecting one parent individual, two individuals are picked up from the group and an individual with high fitness is used as a parent individual.

次に、交叉を行う。交叉は、選択された二つの親個体間で遺伝子を組み換えることによって新しい個体を作成することである。本発明では、交叉法として一様交叉を用いる。   Next, crossover is performed. Crossover is to create a new individual by recombining genes between two selected parent individuals. In the present invention, uniform crossover is used as the crossover method.

次に、突然変異確率を設定する。突然変異は、各個体の遺伝子のビットを突然変異確率に従って変更する操作である。突然変異によって局所解に陥ることを避けることができ、大域的な解の探索が可能となる。本発明では、突然変異確率を0.1%とした。   Next, the mutation probability is set. Mutation is an operation of changing the bit of each individual gene according to the mutation probability. It is possible to avoid falling into a local solution by mutation, and to search for a global solution. In the present invention, the mutation probability is 0.1%.

前記工程を経ることで、特徴ベクトルの位置を選択することができる。   Through the above steps, the position of the feature vector can be selected.

本発明では、画像サイズが60×60pixelsの顔画像を約3000人分用いて特徴ベクトルの位置を決定した。ここでGAによって選択された特徴ベクトルの位置を特徴点と呼ぶ。   In the present invention, the position of the feature vector is determined using about 3000 face images having an image size of 60 × 60 pixels. Here, the position of the feature vector selected by the GA is called a feature point.

目標他人受入率を0.1%未満としてGAによって決定された特徴ベクトルは約450点であった。このことからマルチブロック分割によるDCTで得られたDCT係数の個数(1人当たり1人の顔画像を4枚用いた場合60×60×4=14400)の約1/36のデータ量で顔画像の認識ができることがわかった。   The feature vector determined by the GA with the target others acceptance rate being less than 0.1% was about 450 points. Therefore, the number of DCT coefficients obtained by DCT by multi-block division (60 × 60 × 4 = 14400 when four face images per person are used) is about 1/36 of the data amount of the face image. I understood that I can recognize it.

図3にGAによって選択された特徴点の例を示す。図中の白い画素で表されている位置が特徴点である。ここで、図3に示す特徴点は、図2(a)〜(d)の4枚の顔画像を並べた場合の例である。具体的には、図2(a)が左上、図2(b)が右上、図2(c)が左下、図2(d)が右下というようにする。しかし、並べ方は特に限定されない。   FIG. 3 shows an example of feature points selected by the GA. A position represented by a white pixel in the figure is a feature point. Here, the feature points shown in FIG. 3 are examples when the four face images of FIGS. 2A to 2D are arranged. Specifically, FIG. 2 (a) is the upper left, FIG. 2 (b) is the upper right, FIG. 2 (c) is the lower left, and FIG. 2 (d) is the lower right. However, the arrangement is not particularly limited.

前記特徴点の位置が抽出情報であり、特徴ベクトル抽出情報とする。この特徴ベクトル抽出情報を用いることで、識別信号を容易に作成することができる。   The position of the feature point is extraction information, which is feature vector extraction information. By using this feature vector extraction information, an identification signal can be easily created.

この特徴ベクトル抽出情報は、以下識別信号を作成する際、どの人物の顔画像に対しても用いることができる。   This feature vector extraction information can be used for any person's face image when an identification signal is generated.

次に、識別信号作成処理について図4に基づいて説明する。   Next, the identification signal creation process will be described with reference to FIG.

まず、図1に基づいて説明した特徴ベクトル選択処理と同様に、登録対象者の顔画像を入力する(S10)。登録対象者とは、後述するテンプレートの人物であり、後に認証をするための判断基準となるテンプレート作成の基になる人物である。顔画像データのサイズは、特徴ベクトル選択処理で説明した60×60pixelsとして以後説明する。   First, as in the feature vector selection process described with reference to FIG. 1, the face image of the person to be registered is input (S10). The person to be registered is a person of a template to be described later, and is a person who is a basis for creating a template that is a criterion for later authentication. The size of the face image data will be described below as 60 × 60 pixels described in the feature vector selection process.

次に、図1に基づいて説明した特徴ベクトル選択処理のS2〜S5までの処理を登録対象者1人の顔画像に対して同様に行うので、説明を省略する(S11〜S14)。   Next, since the process from S2 to S5 of the feature vector selection process described with reference to FIG. 1 is performed on the face image of one person to be registered, the description is omitted (S11 to S14).

次に、特徴ベクトル選択処理で作成された特徴ベクトル抽出情報に基づいて、登録対象者の特徴ベクトルを抽出する(S15)。例えば、事前に記憶している特徴ベクトル抽出情報を図示しない記憶部等から呼び出し、S14で特徴ベクトルと併せて処理を行う。具体的には、特徴ベクトル抽出情報は、図4に示した白枠の位置であり、特徴ベクトルは、登録対象者の特徴ベクトルである。従って、白い枠の位置に該当する特徴ベクトルを抽出することができる。   Next, the feature vector of the person to be registered is extracted based on the feature vector extraction information created by the feature vector selection process (S15). For example, feature vector extraction information stored in advance is called from a storage unit (not shown) and the process is performed together with the feature vector in S14. Specifically, the feature vector extraction information is the position of the white frame shown in FIG. 4, and the feature vector is the feature vector of the person to be registered. Therefore, the feature vector corresponding to the position of the white frame can be extracted.

次に、抽出した量子化されたDCT係数を、テンプレート化する(S16)。並べ方は特に限定されないが、例えば、図4に示した白い枠を左上から右へ一列ずつ並べていくように、白い枠に該当した特徴ベクトルを並べる。   Next, the extracted quantized DCT coefficient is templated (S16). The arrangement method is not particularly limited. For example, the feature vectors corresponding to the white frames are arranged so that the white frames shown in FIG. 4 are arranged one by one from the upper left to the right.

前記までの工程により作成されたテンプレートが識別信号となる。これにより、認証時に、人物を識別することが可能となる。また、識別信号のみで、犯罪等のときにおける犯人の顔画像のテンプレート化により、対象者を割り出したり、閾値等を設定することで、人相の近い人物等を呼び出すことも可能となる。   The template created by the above steps becomes an identification signal. This makes it possible to identify a person at the time of authentication. In addition, it is possible to call a person having a close personality or the like by determining the target person or setting a threshold value or the like by creating a template of the criminal's face image at the time of a crime or the like using only the identification signal.

更に、カメラに対しての顔向きが上下左右20度〜30度程度であれば、本発明で適用可能である。   Furthermore, the present invention is applicable if the face direction with respect to the camera is about 20 to 30 degrees in the vertical and horizontal directions.

DCTのブロックサイズが大きいほど、信号の低周波成分の情報を抽出できるため、信号の小さな変化に対して影響を受けにくい。カメラに対しての顔向きが上下左右20度〜30度程度の場合、それによる顔の器官の位置ずれは2pixels程度である。顔画像を局所領域のブロックに分割して処理を行う場合、顔の傾きの変化による顔の器官の位置のずれはブロックサイズが小さいほど大きな影響を受ける。なぜなら、ブロック内に存在していた顔の器官が位置ずれによって存在しなくなる場合が生じるからである。   As the DCT block size is larger, the information of the low frequency component of the signal can be extracted, so that it is less susceptible to small changes in the signal. When the face direction with respect to the camera is about 20 to 30 degrees in the vertical and horizontal directions, the positional deviation of the organ of the face is about 2 pixels. When processing is performed by dividing a face image into blocks of a local area, the displacement of the position of a facial organ due to a change in the tilt of the face is more greatly affected as the block size is smaller. This is because the facial organ that existed in the block may not exist due to the displacement.

本発明においても顔画像を局所領域のブロックに分割しているが、小さな正方形のブロックだけでなく複数種類のブロックサイズを使用している。   In the present invention, the face image is divided into blocks in the local area, but a plurality of types of block sizes are used in addition to small square blocks.

小さなブロックサイズでは算出されるDCT係数が顔の器官の位置ずれによって影響を受けるが、大きなブロックサイズではその影響が少ないため、マルチブロックDCTによって顔画像から取り出されるDCT係数全体の影響は小さくなる。また、数式4によって同一人物間のDCT係数の変動が小さくなるようにDCT係数を正規化しているため、顔の傾きの変化によるDCT係数の変動も小さくすることができる。   The DCT coefficient calculated with a small block size is affected by the position shift of the facial organ, but the influence is small with a large block size, so that the influence of the entire DCT coefficient extracted from the face image by the multi-block DCT is small. In addition, since the DCT coefficient is normalized so that the fluctuation of the DCT coefficient between the same persons is reduced by Equation 4, the fluctuation of the DCT coefficient due to the change in the tilt of the face can be reduced.

以上のことから、顔の傾きが変化することによって生じる特徴ベクトルの変動が小さなものとなるため、カメラに対して顔向きが上下左右20度〜30度程度である場合にも認証が可能となる。   As described above, since the variation of the feature vector caused by the change in the tilt of the face is small, the authentication can be performed even when the face direction is about 20 degrees to 30 degrees with respect to the camera. .

また、本発明では、直交変換をDCTによる周波数成分への変換で説明したが、これに限定されず、例えば、DST(離散的サイン変換)による周波数成分への変換を用いても、適用可能である。   Further, in the present invention, the orthogonal transform is described as the conversion to the frequency component by DCT. However, the present invention is not limited to this. For example, the present invention can also be applied using the conversion to the frequency component by DST (discrete sine transform). is there.

では、実際の認証工程を以下に説明する。   The actual authentication process will be described below.

まず、次の手順で撮影された画像から顔画像を切り出し、位置やサイズ、回転などを揃える正規化を行う。   First, a face image is cut out from an image taken in the following procedure, and normalization is performed to align the position, size, rotation, and the like.

(1)撮影された画像から顔と瞳の位置を検出する。   (1) The position of the face and pupil is detected from the captured image.

(2)検出された瞳の位置を基準として瞳間隔が36pixelsとなるように拡大縮小を行い、60×60pixelsの顔画像を切り出す。   (2) Enlargement / reduction is performed so that the pupil interval is 36 pixels with reference to the detected pupil position, and a face image of 60 × 60 pixels is cut out.

(3)切り出された顔画像にlog関数を用いた非線形濃度変換を行い、さらに局所的な領域に対して次数式5で正規化を行う。   (3) Non-linear density conversion using the log function is performed on the cut face image, and further normalization is performed on the local region using the following equation (5).

ここで、m、σは局所領域の平均値と標準偏差であり、m0、σ0は多くの顔画像から実験的に求めた平均値と標準偏差でm0=150、σ0=50である。 Here, m and σ are average values and standard deviations of local regions, and m 0 and σ 0 are average values and standard deviations experimentally obtained from many face images, m 0 = 150 and σ 0 = 50. is there.

以上の手順で正規化された顔画像に対して、マルチブロックDCTを行い、顔画像を特徴ベクトルに変換する。さらに遺伝的アルゴリズムによって決定された特徴点上の特徴ベクトルを1次元信号として取り出す。これが各顔画像から作成される顔データとなる。この顔データに次の数式6で表される相互相関を用いて認識率(類似度)rを計算する。   Multi-block DCT is performed on the face image normalized by the above procedure, and the face image is converted into a feature vector. Further, a feature vector on the feature point determined by the genetic algorithm is extracted as a one-dimensional signal. This is face data created from each face image. A recognition rate (similarity) r is calculated using the cross-correlation expressed by the following formula 6 for this face data.

ここで、Nは顔データのサイズ(特徴ベクトル数)、f、gはそれぞれ登録時、認証(照合)時の顔画像から作成された顔データ(特徴ベクトル)である。 Here, N is the size (number of feature vectors) of face data, and f i and g i are face data (feature vectors) created from face images at the time of registration and authentication (collation), respectively.

本発明の認識性能を評価するために、照明条件を変えて撮影した約5000枚の顔画像を用いて認識実験を行った。   In order to evaluate the recognition performance of the present invention, a recognition experiment was performed using about 5000 face images taken under different illumination conditions.

ここでは、本発明と他の技術との認識性能を比較するために、FAR(他人受入率)が0.1%のときのFRR(本人拒否率)の値で評価する。FARとFRRはそれぞれ次の数式7で表される。   Here, in order to compare the recognition performance between the present invention and another technology, the evaluation is made with the FRR (person rejection rate) value when the FAR (other person acceptance rate) is 0.1%. FAR and FRR are each expressed by the following formula 7.

表2に認識性能の比較結果を示す。表2より、本発明は、照明変動の有無にかかわらず従来法よりも認識性能が高く、照明変動のある場合には従来法より10%以上本人拒否率が低いことがわかる。   Table 2 shows the comparison results of recognition performance. From Table 2, it can be seen that the present invention has higher recognition performance than the conventional method regardless of the presence or absence of illumination variation, and the identity rejection rate is 10% or more lower than the conventional method when there is illumination variation.

また処理時間についても、市販のパソコン(Dell Dimension 8400, Intel Pentium4-3.2GHz(Dell,Intel,Pentiumはいずれも登録商標))上で計測した結果、顔画像から顔データへの変換に1.1ミリ秒、登録顔データと認証顔データの照合に0.0007ミリ秒(秒間140万枚の照合、1億回の照合時間から算出)と非常に高速であることがわかった。このことから、顔画像を顔データに変換してサーバー等に登録しておけば、非常に高速に顔の検索を行うことができる。   In addition, the processing time was measured on a commercially available personal computer (Dell Dimension 8400, Intel Pentium4-3.2GHz (Dell, Intel and Pentium are registered trademarks)). The comparison between registered face data and authenticated face data was found to be very fast, 0.0007 milliseconds (1.4 million checks per second, calculated from 100 million verification times). Therefore, if a face image is converted into face data and registered in a server or the like, a face search can be performed at a very high speed.

本発明によると、離散コサイン変換と遺伝的アルゴリズムを用いた高速かつコンパクトな顔認識手法を提供できる。また高速な認識と照明変動に対するロバスト性を向上させるためにマルチブロックDCTを提供できる。更に、DCT係数の量子化と遺伝的アルゴリズムを用いた特徴ベクトルの選択を行うことによって、1枚の顔画像から作成される顔データのサイズは約450バイトとなり、従来法と比べて非常に小さくなる効果を発揮する。   According to the present invention, a fast and compact face recognition method using discrete cosine transform and a genetic algorithm can be provided. In addition, a multi-block DCT can be provided to improve high-speed recognition and robustness against illumination variation. Furthermore, by quantizing DCT coefficients and selecting feature vectors using a genetic algorithm, the size of the face data created from one face image is about 450 bytes, which is much smaller than the conventional method. The effect becomes.

照明変動が生じる環境で撮影された顔画像を用いた実験によって、従来法と比べて本発明は照明変動に対してロバスト性を持つことがわかった。また認識速度についても、市販のパソコン上で顔画像を撮影して顔の切り出しから認識を行うまで約100ミリ秒と非常に高速である。   Experiments using face images taken in an environment in which illumination fluctuations occur showed that the present invention is more robust against illumination fluctuations than the conventional method. Also, the recognition speed is as high as about 100 milliseconds from when a face image is taken on a commercially available personal computer to when the face is cut out and recognized.

以上のことから、膨大な顔画像を保存しているようなデータベースから目的の顔を検索するようなシステムでは非常に効果的であると考えられる。また本発明は、高速な認識が可能であるため監視カメラなどと組み合わせたリアルタイム顔認識システムの開発を可能にすると考えられる。   From the above, it is considered that a system that searches for a target face from a database that stores a large number of face images is very effective. Further, the present invention is considered to enable the development of a real-time face recognition system combined with a surveillance camera or the like because high-speed recognition is possible.

本発明は、コンパクトかつ高速性を重視しているため、特に少ないメモリが要求される携帯端末等、リアルタイムな認証を要求されるような監視カメラ等への実装に適している。   Since the present invention places importance on compactness and high speed, the present invention is particularly suitable for mounting on a monitoring camera or the like that requires real-time authentication, such as a portable terminal that requires a small amount of memory.

本発明に係る特徴ベクトル抽出情報処理に係る一例を説明するフローチャートThe flowchart explaining an example which concerns on the feature vector extraction information processing concerning this invention (a)は、縦3分割、横3分割による分割例を示す図、(b)は、縦3分割、横5分割による分割例を示す図、(c)は、縦5分割、横3分割による分割例を示す図(d)は、縦5分割、横5分割による分割例を示す図(A) is a diagram showing an example of division by three vertical and horizontal divisions, (b) is a diagram showing an example of division by three vertical and five horizontal divisions, and (c) is five vertical and three horizontal divisions. (D) which shows the example of a division | segmentation by (5) is a figure which shows the example of a division | segmentation by vertical 5 division and horizontal 5 division 本発明に係る特徴ベクトル抽出情報の一例を示す図The figure which shows an example of the feature vector extraction information which concerns on this invention 本発明に係るテンプレート作成処理に係る一例を説明するフローチャートThe flowchart explaining an example which concerns on the template creation process which concerns on this invention

Claims (6)

複数人の複数の顔画像を、それぞれ奇数分割のパターンで且つそれぞれ異なるブロックサイズにより分割する工程と、
前記分割された各々のブロックに対して直交変換を行い、変換係数を算出する工程と、
算出された変換係数から遺伝的アルゴリズム(GA)に基づき、適応度の高い個体に対応する変換係数を選択する工程と、
選択された変換係数の位置を記憶する工程とを有することを特徴とする顔画像の特徴抽出方法。
A step of dividing a plurality of face images of a plurality of people with odd-numbered division patterns and different block sizes;
Performing orthogonal transform on each of the divided blocks and calculating transform coefficients;
Selecting a conversion coefficient corresponding to an individual with high fitness based on a genetic algorithm (GA) from the calculated conversion coefficient;
And a step of storing the position of the selected conversion coefficient.
複数人の複数の顔画像を、それぞれ奇数分割のパターンで且つそれぞれ異なるブロックサイズにより分割する工程と、
前記分割された各々のブロックに対して直交変換を行い、変換係数を算出する工程と、
算出された変換係数を正規化する工程と、
正規化された変換係数を量子化する工程と、
量子化された変換係数から遺伝的アルゴリズム(GA)に基づき、適応度の高い個体に対応する変換係数を選択する工程と、
選択された変換係数の位置を記憶する工程とを有することを特徴とする顔画像の特徴抽出方法。
A step of dividing a plurality of face images of a plurality of people with odd-numbered division patterns and different block sizes;
Performing orthogonal transform on each of the divided blocks and calculating transform coefficients;
Normalizing the calculated conversion coefficient;
Quantizing the normalized transform coefficients;
Selecting a transform coefficient corresponding to an individual having high fitness based on a genetic algorithm (GA) from the quantized transform coefficient;
And a step of storing the position of the selected conversion coefficient.
直交変換が、DCTであることを特徴とする請求項1又は2記載の顔画像の特徴抽出方法。   3. The facial image feature extraction method according to claim 1, wherein the orthogonal transformation is DCT. 請求項1、2又は3記載の顔画像の特徴抽出方法によって記憶された特徴抽出位置に基づいて、
登録対象者の複数の顔画像を、それぞれ奇数分割のパターンで且つそれぞれ異なるブロックサイズにより分割する工程と、
前記分割された各々のブロックに対して直交変換を行い、変換係数を算出する工程と、
算出された変換係数と前記特徴抽出位置とに基づいて抽出された変換係数からテンプレートを作成する工程とを有することを特徴とする識別信号作成方法。
Based on the feature extraction position stored by the feature extraction method of the face image according to claim 1, 2, or 3,
Dividing a plurality of face images of a person to be registered into odd-numbered division patterns and different block sizes;
Performing orthogonal transform on each of the divided blocks and calculating transform coefficients;
And a step of creating a template from the conversion coefficient extracted based on the calculated conversion coefficient and the feature extraction position.
請求項1、2又は3記載の顔画像の特徴抽出方法によって記憶された特徴抽出位置に基づいて、
登録対象者の複数の顔画像を、それぞれ奇数分割のパターンで且つそれぞれ異なるブロックサイズにより分割する工程と、
前記分割された各々のブロックに対して直交変換を行い、変換係数を算出する工程と、
算出された変換係数を正規化する工程と、
正規化された変換係数を量子化する工程と、
量子化された変換係数と前記特徴抽出位置とに基づいて抽出された変換係数からテンプレートを作成する工程とを有することを特徴とする識別信号作成方法。
Based on the feature extraction position stored by the feature extraction method of the face image according to claim 1, 2, or 3,
Dividing a plurality of face images of a person to be registered into odd-numbered division patterns and different block sizes;
Performing orthogonal transform on each of the divided blocks and calculating transform coefficients;
Normalizing the calculated conversion coefficient;
Quantizing the normalized transform coefficients;
And a step of creating a template from a transform coefficient extracted based on the quantized transform coefficient and the feature extraction position.
直交変換が、DCTであることを特徴とする請求項4又は5記載の識別信号作成方法。   6. The identification signal generation method according to claim 4, wherein the orthogonal transformation is DCT.
JP2008053952A 2008-03-04 2008-03-04 Facial image feature extraction method and identification signal generation method Active JP4891278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008053952A JP4891278B2 (en) 2008-03-04 2008-03-04 Facial image feature extraction method and identification signal generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008053952A JP4891278B2 (en) 2008-03-04 2008-03-04 Facial image feature extraction method and identification signal generation method

Publications (2)

Publication Number Publication Date
JP2009211425A JP2009211425A (en) 2009-09-17
JP4891278B2 true JP4891278B2 (en) 2012-03-07

Family

ID=41184498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008053952A Active JP4891278B2 (en) 2008-03-04 2008-03-04 Facial image feature extraction method and identification signal generation method

Country Status (1)

Country Link
JP (1) JP4891278B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128792A (en) * 2010-12-17 2012-07-05 Mitsubishi Electric Corp Personal authentication device and computer program
JPWO2013035150A1 (en) * 2011-09-05 2015-03-23 株式会社モルフォ Face authentication system, face authentication method, and face authentication program
US9042609B2 (en) 2011-09-05 2015-05-26 Morpho, Inc. Face authentication system, face authentication method, and face authentication program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084824A (en) * 2003-09-05 2005-03-31 Toshiba Corp Face image collation apparatus and face image collation method and passage controller
JP2005352554A (en) * 2004-06-08 2005-12-22 Global Security Design Inc Security system
JP2007141107A (en) * 2005-11-21 2007-06-07 Canon Inc Image processor and its method

Also Published As

Publication number Publication date
JP2009211425A (en) 2009-09-17

Similar Documents

Publication Publication Date Title
US8184914B2 (en) Method and system of person identification by facial image
US20150178547A1 (en) Apparatus and method for iris image analysis
Poh et al. An evaluation of video-to-video face verification
US20220147735A1 (en) Face-aware person re-identification system
JP2010108494A (en) Method and system for determining characteristic of face within image
Günther et al. 2D face recognition: An experimental and reproducible research survey
JP4891278B2 (en) Facial image feature extraction method and identification signal generation method
Halidu et al. PCA in the context of Face Recognition with the Image Enlargement Techniques
KR102199178B1 (en) Identification system for face recognition using tprl algorithm and its way to working
Schonberg et al. EyeCerts
Abavisani et al. A robust sparse representation based face recognition system for smartphones
Zafeiriou et al. The discriminant elastic graph matching algorithm applied to frontal face verification
Daleno et al. Pseudo 2D hidden Markov model and neural network coefficients in face recognition
Ambeth Kumar et al. Footprint Based Recognition System
Karthigayani et al. A novel approach for face recognition and age estimation using local binary pattern, discriminative approach using two layered back propagation network
Divakar Multimodal biometric system using index based algorithm for fast search
Ali et al. Development of a enhanced ear recognition system for personal identification
Kim The design of industrial security tasks and capabilities required in industrial site
Ismail et al. HMT of the ranklet transform for face recognition and verification
Omidyeganeh et al. Face identification using wavelet transform of SIFT features
Huang et al. A generic symbiotic simulation framework
Almaadeed et al. Audio-visual feature fusion for speaker identification
Raut et al. A review of maximum confidence hidden Markov models in face recognition
Wong et al. Audio-visual recognition system in compression domain
Damavandinejadmonfared et al. Pose invariant face recognition for video surveillance system using kernel principle component analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111215

R150 Certificate of patent or registration of utility model

Ref document number: 4891278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250