JP2002342760A - Facial picture processor and facial picture processing method - Google Patents

Facial picture processor and facial picture processing method

Info

Publication number
JP2002342760A
JP2002342760A JP2001147539A JP2001147539A JP2002342760A JP 2002342760 A JP2002342760 A JP 2002342760A JP 2001147539 A JP2001147539 A JP 2001147539A JP 2001147539 A JP2001147539 A JP 2001147539A JP 2002342760 A JP2002342760 A JP 2002342760A
Authority
JP
Japan
Prior art keywords
face
face image
dictionary
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001147539A
Other languages
Japanese (ja)
Inventor
Atsushi Ono
敦史 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2001147539A priority Critical patent/JP2002342760A/en
Publication of JP2002342760A publication Critical patent/JP2002342760A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a facial picture processor for which a large capacity storage device is not required. SOLUTION: A facial picture processor is provided with a face detecting part 13 for detecting the position of one's face from a picture read by picture inputting equipment 11, a facial picture normalizing part 14 for normalizing the picture on the basis of the position of one's face, a feature value calculating part 15 for calculating a feature value from the normalized picture, a dictionary preparing part 16 for preparing a facial picture dictionary from the feature value, and a recognizing part 20 for recognizing the facial picture by comparing the feature value calculated by the feature value calculating part 15 with the facial picture dictionary.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、顔画像処理装置お
よび方法に関し、特に、顔画像から自動的に顔画像辞書
を作成し、顔画像の認識を行なう顔画像処理装置および
方法に関する。
The present invention relates to a face image processing apparatus and method, and more particularly, to a face image processing apparatus and method for automatically creating a face image dictionary from face images and recognizing the face images.

【0002】[0002]

【従来の技術】近年のコンピュータの普及により、個人
認証を顔画像を用いて行なう方法が多数研究されてい
る。
2. Description of the Related Art With the spread of computers in recent years, many methods for performing personal authentication using face images have been studied.

【0003】たとえば、「堀田一弘、栗田多喜夫、三島
健稔,”Log−Polar画像から抽出したスペクト
ル特徴を用いた対象の大きさの変化に影響を受けにくい
認識法”,電子情報通信学会研究会報告PRMU99−
110(1999−11)」(以下、「従来技術1」と
いう。)では、入力画像をLog−Polar変換し、
Log−Polar画像から抽出したスペクトル特徴を
顔画像の認識に用いる方法が報告されている。
[0003] For example, "Kazuhiro Hotta, Takio Kurita, Takenori Mishima," A Recognition Method Insensitive to Changes in Object Size Using Spectral Features Extracted from Log-Polar Images ", IEICE Technical Committee. Report PRMU99-
110 (1999-11) "(hereinafter referred to as" prior art 1 "), the input image is Log-Polar converted,
A method of using a spectral feature extracted from a Log-Polar image for face image recognition has been reported.

【0004】また、「栗山聖、山本和彦、本郷仁志、加
藤邦人,”高次面特徴による顔認識方法の提案”,電子
情報通信学会研究会報告PRMU99−115(199
9−11)」(以下、「従来技術2」という。)では、
高次局所自己相関特徴、4方向面特徴および高次面特徴
などを用いて顔画像の認識を行なっている。
[0004] Also, "Sei Kuriyama, Kazuhiko Yamamoto, Hitoshi Hongo, Kunito Kato," Proposal of face recognition method using higher-order surface features ", IEICE Technical Report, PRMU 99-115 (199)
9-11) "(hereinafter referred to as" prior art 2 ").
Face image recognition is performed using higher-order local autocorrelation features, four-way face features, higher-order face features, and the like.

【0005】さらに、「川出雅人、細井聖,” 実環境
にロバストな顔認識技術とその応用”,日本機会学会I
IP2000情報・知能・精密機器部門講演会講演論文
集[2000.3.27,28]」(以下、「従来技術
3」という。)では、Gabor Wavelet変換
を用いて特徴量を算出し、グラフマッチングにより顔画
像の認識を行なっている。
Further, "Masato Kawade, Seiji Hosoi," Robust Face Recognition Technology in Real Environment and Its Application ", Japan Opportunity Society I
In the IP2000 Information / Intelligence / Precision Instruments Division Lecture Paper [2000.3.27, 28] (hereinafter referred to as “Prior Art 3”), a feature amount is calculated using Gabor Wavelet transform, and graph matching is performed. To recognize a face image.

【0006】[0006]

【発明が解決しようとする課題】しかし、従来技術1お
よび2においては、特徴ベクトルの次元数が画像の大き
さに影響されるため、一般的には次元数が高くなる傾向
がある。そのため、認識や辞書生成時の演算量が多くな
り、辞書のサイズも巨大となる。また、従来技術3は特
徴量の計算が畳み込み演算となるため、計算量が多くな
ると言う問題点がある。したがって、これらの既存手法
を、高速な演算装置や大容量外部記憶装置または大容量
メモリを搭載できないPDA(Personal Di
gitalAssistant)や携帯電話等の携帯情
報端末装置で用いるのは困難である。
However, in prior arts 1 and 2, since the number of dimensions of the feature vector is affected by the size of the image, the number of dimensions generally tends to increase. Therefore, the amount of calculation at the time of recognition and dictionary generation increases, and the size of the dictionary becomes huge. Further, the prior art 3 has a problem that the calculation amount is large because the calculation of the feature amount is a convolution operation. Therefore, these existing methods are applied to PDAs (Personal Di-Os) that cannot be equipped with a high-speed arithmetic device, a large-capacity external storage device, or a large-capacity memory.
It is difficult to use it in a portable information terminal device such as a digital assistant or a mobile phone.

【0007】本発明は、上述の課題を解決するためにな
されたもので、その目的は、大容量の記憶装置を必要と
しない顔画像処理装置および方法を提供することであ
る。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a face image processing apparatus and method which do not require a large-capacity storage device.

【0008】本発明の他の目的は、高速処理が可能な顔
画像処理装置および方法を提供することである。
Another object of the present invention is to provide a face image processing apparatus and method capable of high-speed processing.

【0009】[0009]

【課題を解決するための手段】本発明のある局面に従う
顔画像処理装置は、顔画像を入力するための画像入力手
段と、画像入力手段に接続され、入力された顔画像から
顔の位置を検出するための顔検出手段と、顔検出手段に
接続され、顔検出手段により検出された顔の位置を元
に、顔画像を正規化するための顔画像正規化手段と、顔
画像正規化手段に接続され、正規化された顔画像よりZ
ernikeモーメントを計算し、Zernikeモー
メントに基づいた特徴量を計算するための特徴量計算手
段と、特徴量計算手段に接続され、複数枚の顔画像から
得られた複数の特徴量から辞書を作成するための辞書作
成手段とを含む。
A face image processing apparatus according to an aspect of the present invention includes image input means for inputting a face image, and is connected to the image input means, and detects a position of the face from the input face image. Face detection means for detecting, face image normalization means connected to the face detection means for normalizing the face image based on the position of the face detected by the face detection means, and face image normalization means And Z from the normalized face image
a feature amount calculating means for calculating an ernik moment and calculating a feature amount based on the Zernike moment; and a dictionary is created from a plurality of feature amounts obtained from a plurality of face images, connected to the feature amount calculating means. And a dictionary creating means for the user.

【0010】Zernikeモーメントに基づいた特徴
量から辞書を作成している。このため、低次元の特徴量
ベクトルを作成することが可能となり、辞書サイズを小
さくすることができる。よって、顔画像処理装置を大容
量の外部記憶装置やメモリなどが搭載できないPDA
(Personal Digital Assista
nt)や携帯電話等の携帯情報端末に搭載することがで
きるようになる。
[0010] A dictionary is created from feature quantities based on Zernike moments. Therefore, a low-dimensional feature amount vector can be created, and the dictionary size can be reduced. Therefore, a PDA in which the face image processing apparatus cannot be mounted with a large-capacity external storage device or memory.
(Personal Digital Assista
nt) or a portable information terminal such as a mobile phone.

【0011】好ましくは、顔画像処理装置は、さらに、
特徴量計算手段および辞書作成手段に接続され、特徴量
計算手段で求められた特徴量と、辞書作成手段で作成さ
れた辞書とを比較し、顔画像の認識を行なうための顔画
像認識手段を含む。
Preferably, the face image processing apparatus further comprises:
A face image recognition unit connected to the feature amount calculation unit and the dictionary creation unit, for comparing the feature amount obtained by the feature amount calculation unit with the dictionary created by the dictionary creation unit, and performing face image recognition; Including.

【0012】低次元の特徴量ベクトルを用いて、顔画像
の認識を行なうことができる。このため、高速に顔画像
の認識を行なうことができるようになる。
A face image can be recognized using a low-dimensional feature vector. For this reason, face images can be recognized at high speed.

【0013】さらに好ましくは、特徴量計算手段は、正
規化された顔画像内に設けられた基準となる円を複数の
同心円で分割した際の、環状領域ごとに求められるZe
rnikeモーメントに基づいて特徴量を計算する。
[0013] More preferably, the feature value calculating means is configured to obtain Ze determined for each annular region when a reference circle provided in the normalized face image is divided by a plurality of concentric circles.
The feature amount is calculated based on the rnike moment.

【0014】環状領域ごとにZernikeモーメント
が求められる。このため、1枚の画像から複数の特徴量
を算出することができ、高精度の顔画像認識が可能とな
る。
A Zernike moment is determined for each annular region. Therefore, a plurality of feature amounts can be calculated from one image, and highly accurate face image recognition can be performed.

【0015】さらに好ましくは、特徴量計算手段は、予
め定められた環状領域についてのみZernikeモー
メントを求める。
[0015] More preferably, the characteristic amount calculating means obtains a Zernike moment only for a predetermined annular region.

【0016】識別能力の低い環状領域をZernike
モーメントの算出の対象から除外することができる。こ
のため、特徴量の計算を高速に行なうことができ、かつ
認識率が向上する。
A circular region having low discrimination ability is defined as Zernike.
It can be excluded from the calculation of the moment. Therefore, the calculation of the feature amount can be performed at high speed, and the recognition rate is improved.

【0017】本発明の他の局面に従う顔画像処理方法
は、顔画像を入力するステップと、入力された顔画像か
ら顔の位置を検出するステップと、検出された顔の位置
を元に、顔画像を正規化するステップと、正規化された
顔画像よりZernikeモーメントを計算し、Zer
nikeモーメントに基づいた特徴量を計算するステッ
プと、複数枚の顔画像から得られた複数の特徴量から辞
書を作成するステップとを含む。
A face image processing method according to another aspect of the present invention includes a step of inputting a face image, a step of detecting a position of the face from the input face image, and a step of detecting a face based on the detected position of the face. Normalizing the image; calculating a Zernike moment from the normalized face image;
The method includes a step of calculating a feature amount based on the like moment and a step of creating a dictionary from a plurality of feature amounts obtained from a plurality of face images.

【0018】Zernikeモーメントに基づいた特徴
量から辞書を作成している。このため、低次元の特徴量
ベクトルを作成することが可能となり、辞書サイズを小
さくすることができる。
A dictionary is created from feature quantities based on Zernike moments. Therefore, a low-dimensional feature amount vector can be created, and the dictionary size can be reduced.

【0019】好ましくは、顔画像処理方法は、さらに、
入力画像に対して求められた特徴量と、予め作成された
辞書とを比較し、顔画像の認識を行なうステップを含
む。
Preferably, the face image processing method further comprises:
The method includes a step of comparing a feature amount obtained for the input image with a dictionary created in advance and performing face image recognition.

【0020】低次元の特徴量ベクトルを用いて、顔画像
の認識を行なうことができる。このため、高速に顔画像
の認識を行なうことができるようになる。
A face image can be recognized using a low-dimensional feature vector. For this reason, face images can be recognized at high speed.

【0021】[0021]

【発明の実施の形態】[実施の形態1]図1を参照し
て、本発明の実施の形態に係る顔画像処理装置は、画像
を入力するための画像入力機器11と、画像入力機器1
1に接続され、画像入力機器11で入力された画像をA
/D(Analog to Digital)変換するA/D変換部12
と、A/D変換部12に接続され、A/D変換部12よ
り出力されるデジタル画像を蓄積する画像メモリ18
と、画像メモリ18に接続され、A/D変換部12によ
りデジタル化された画像を画像メモリ18から読みだ
し、顔の位置を検出する顔検出部13と、顔検出部13
に接続され、顔検出部13により検出された顔の位置を
保持するメモリ17と、メモリ17および画像メモリ1
8に接続され、顔検出部13により検出された顔の位置
をメモリ17から読みだし、画像メモリ18に蓄積され
ている画像を正規化し、画像メモリ18に書込む顔画像
正規化部14とを含む。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment] Referring to FIG. 1, a face image processing apparatus according to an embodiment of the present invention includes an image input device 11 for inputting an image, and an image input device 1 for inputting an image.
1 and the image input by the image input device 11
A / D conversion unit 12 for performing / D (Analog to Digital) conversion
And an image memory 18 connected to the A / D converter 12 and storing digital images output from the A / D converter 12.
A face detection unit 13 connected to the image memory 18, reads an image digitized by the A / D conversion unit 12 from the image memory 18, and detects a face position;
, A memory 17 for holding the position of the face detected by the face detection unit 13, a memory 17 and an image memory 1
And a face image normalizing unit 14 that reads the position of the face detected by the face detecting unit 13 from the memory 17, normalizes the image stored in the image memory 18, and writes the image into the image memory 18. Including.

【0022】顔画像処理装置は、さらに、メモリ17お
よび画像メモリ18に接続され、顔画像正規化部14に
より正規化された画像を画像メモリ18から読みだし特
徴量を計算し、メモリ17に書込む特徴量計算部15
と、メモリ17に接続され、メモリ17に記憶された特
徴量より顔画像辞書を作成する辞書作成部16と、辞書
作成部16に接続され、辞書作成部16で作成された顔
画像辞書を記憶する外部記憶装置19と、メモリ17お
よび外部記憶装置19に接続され、メモリ17より特徴
量計算部15で計算された特徴量を読出し、外部記憶装
置19に記憶された顔画像辞書との比較を行なうことに
より、顔画像の認識を行なう認識部20とを含む。
The face image processing apparatus is further connected to a memory 17 and an image memory 18, reads out the image normalized by the face image normalizing section 14 from the image memory 18, calculates a feature amount, and writes the calculated feature amount into the memory 17. Feature calculating unit 15
And a dictionary creating unit 16 connected to the memory 17 and creating a face image dictionary from the feature amounts stored in the memory 17, and connected to the dictionary creating unit 16 and storing the face image dictionary created by the dictionary creating unit 16. The external storage device 19 which is connected to the memory 17 and the external storage device 19, reads out the feature amount calculated by the feature amount calculation unit 15 from the memory 17, and compares it with the face image dictionary stored in the external storage device 19. And a recognition unit 20 for performing face image recognition.

【0023】画像入力機器11は、画像を入力するため
の機器であればよく、たとえば、ビデオカメラ、デジタ
ルカメラ、スキャナ等があげられる。
The image input device 11 may be any device for inputting an image, and examples thereof include a video camera, a digital camera, and a scanner.

【0024】図2を参照して、顔画像辞書を作成する処
理について説明する。A/D変換部12は、画像入力機
器11より入力された画像をデジタル化する(S2
1)。顔検出部13は、デジタル化された画像から顔の
位置を検出する(S22)。顔画像正規化部14は、S
22で検出された顔の位置を元に顔画像を正規化する
(S23)。特徴量計算部15は、S23により正規化
された顔画像から特徴量を計算する(S24)。顔画像
辞書を作成するための画像がすべて入力されたか否かが
チェックされ(S25)、入力が終了していない画像が
あれば(S25でNo)、S21に戻る。すべての画像
が入力されていれば(S25でYes)、辞書作成部1
6は、S21からS24までの処理を繰り返すことによ
り得られた複数の特徴量から顔画像辞書を作成する(S
26)。
Referring to FIG. 2, a process for creating a face image dictionary will be described. The A / D converter 12 digitizes the image input from the image input device 11 (S2).
1). The face detection unit 13 detects the position of the face from the digitized image (S22). The face image normalizing unit 14 calculates S
The face image is normalized based on the position of the face detected in step S22 (S23). The feature amount calculation unit 15 calculates a feature amount from the face image normalized in S23 (S24). It is checked whether all the images for creating the face image dictionary have been input (S25), and if there is an image for which input has not been completed (No in S25), the process returns to S21. If all images have been input (Yes in S25), the dictionary creation unit 1
In step S6, a face image dictionary is created from a plurality of feature amounts obtained by repeating the processes from S21 to S24.
26).

【0025】S25における画像入力の終了チェック
は、任意の枚数を読込んだ段階でユーザが明示的に終了
を伝えても良いし、あらかじめ定められた枚数の画像が
入力された段階ですべての画像の入力が終了したと判断
してもよい。また、他の方法で終了を判断しても構わな
い。
The end check of the image input in S25 may be performed by the user by explicitly telling the end when an arbitrary number of images are read, or by checking all the images when a predetermined number of images are input. May be determined to have been input. The termination may be determined by another method.

【0026】なお、顔の位置の検出(S22)、顔画像
の正規化(S23)、特徴量計算(S24)および辞書
作成(S26)に関しては後述する。
The detection of the face position (S22), the normalization of the face image (S23), the calculation of the feature amount (S24), and the creation of the dictionary (S26) will be described later.

【0027】図3を参照して、顔画像を認識する処理に
ついて説明する。A/D変換部12は、画像入力機器1
1より入力された画像をデジタル化する(S31)。顔
検出部13は、デジタル化された画像から顔の位置を検
出する(S32)。顔画像正規化部14は、S32で検
出された顔の位置を元に顔画像を正規化する(S3
3)。特徴量計算部15は、S33により正規化された
顔画像から特徴量を計算する(S34)。認識部20
は、外部記憶装置19に記憶されている顔画像辞書とS
34により計算された特徴量とを比較し、顔画像の認識
を行なう(S35)。
The processing for recognizing a face image will be described with reference to FIG. The A / D converter 12 is a part of the image input device 1
The image input from step 1 is digitized (S31). The face detection unit 13 detects the position of the face from the digitized image (S32). The face image normalizing unit 14 normalizes the face image based on the position of the face detected in S32 (S3).
3). The feature amount calculation unit 15 calculates a feature amount from the face image normalized in S33 (S34). Recognition unit 20
Is the face image dictionary stored in the external storage device 19 and S
The facial image is recognized by comparing the feature amount calculated in step S34 (S35).

【0028】なお、顔の位置の検出(S32)、顔画像
の正規化(S33)、特徴量計算(S34)および顔画
像の認識(S35)に関しては後述する。
The face position detection (S32), face image normalization (S33), feature value calculation (S34), and face image recognition (S35) will be described later.

【0029】図4を参照して、顔の位置を検出する処理
(図2のS22および図3のS32)について説明す
る。
Referring to FIG. 4, the processing for detecting the face position (S22 in FIG. 2 and S32 in FIG. 3) will be described.

【0030】本手法は、眉間を中心とした円周上の画素
輝度の周波数を求めた場合に、理想的にはその値が2に
なることに着目している。
The present method focuses on the fact that when the frequency of the pixel luminance on the circumference centered on the eyebrows is obtained, the value ideally becomes 2.

【0031】画像の各座標位置におけるフーリエ変換の
最大強度MaxP(x,y)およびそのときの半径Ma
xR(x,y)を初期化する(S41)。あらかじめN
r個の半径r[i](i=0,1,…,Nr)を設定し
ておく(S42)。半径r[i]は、検出する顔の瞳間
の距離の1/2に相当するので、検出したい顔の大きさ
に応じて設定しておく。また、半径のインデックスiを
0で初期化しておく。
The maximum intensity MaxP (x, y) of the Fourier transform at each coordinate position of the image and the radius Ma at that time
xR (x, y) is initialized (S41). N in advance
r radii r [i] (i = 0, 1,..., Nr) are set (S42). Since the radius r [i] corresponds to half the distance between the pupils of the face to be detected, it is set according to the size of the face to be detected. The radius index i is initialized to 0.

【0032】現在着目している半径Rをr[i]とする
(S43)。着目する画像上の座標値x,yを0で初期
化する(S44およびS45)。座標(x,y)を中心
とする半径Rの円を考え、この円周上の画素の輝度値f
に対して、次式(1)で定義される周波数2のフーリエ
変換を施す(S46)。
The radius R currently focused on is set to r [i] (S43). The coordinate values x and y on the image of interest are initialized to 0 (S44 and S45). Consider a circle having a radius R centered on coordinates (x, y), and the luminance value f of a pixel on this circumference
Is subjected to a Fourier transform of frequency 2 defined by the following equation (1) (S46).

【0033】[0033]

【数1】 (Equation 1)

【0034】ここで、Nは円周上の点数であり、jは虚
数単位である。このように計算されたF2に基づいて、
座標(x,y)における強度P(x,y,R)を次式
(2)で定義する(S47)。
Here, N is the number of points on the circumference, and j is the imaginary unit. Based on the calculated F 2 ,
The intensity P (x, y, R) at the coordinates (x, y) is defined by the following equation (2) (S47).

【0035】[0035]

【数2】 (Equation 2)

【0036】S47で計算された強度P(x,y,R)
とこれまでに求められている強度P(x,y,R)の最
大値(最大強度MaxP(x,y))とを比較し、最大
強度MaxP(x,y)および最大強度を与える半径M
axR(x,y)を更新する(S48およびS49)。
この処理をすべての座標位置および半径に対して繰り返
すと(S410〜S415)、各座標における強度Ma
xP(x,y)および最大強度を与える半径MaxR
(x,y)が得られる。図4中、widthおよびhe
ightはそれぞれ画像の幅および高さを示す。
The intensity P (x, y, R) calculated in S47
Is compared with the maximum value (maximum intensity MaxP (x, y)) of the intensity P (x, y, R) determined so far, and the maximum intensity MaxP (x, y) and the radius M giving the maximum intensity are compared.
axR (x, y) is updated (S48 and S49).
When this process is repeated for all coordinate positions and radii (S410 to S415), the intensity Ma at each coordinate is obtained.
xP (x, y) and radius MaxR giving the maximum intensity
(X, y) is obtained. In FIG. 4, width and he
"light" indicates the width and height of the image, respectively.

【0037】各座標位置における最大強度MaxP
(x,y)のうちの最大値max(MaxP(x,y)
を求め、そのときのx座標およびy座標であるarg
{max(MaxP(x,y))}を、眉間座標(x
o,yo)とする(S416)。
The maximum intensity MaxP at each coordinate position
The maximum value max (MaxP (x, y) of (x, y)
And arg, which is the x and y coordinates at that time
{Max (MaxP (x, y))} is converted to the eyebrow coordinate (x
o, yo) (S416).

【0038】 (xo,yo)=arg{max(MaxP(x,y))} …(3) 図5を参照して、顔画像を正規化する処理(図2のS2
3および図3のS33)について説明する。
(Xo, yo) = arg {max (MaxP (x, y))} (3) Referring to FIG. 5, processing for normalizing a face image (S2 in FIG. 2)
3 and S33) of FIG. 3 will be described.

【0039】ここでは、正規化時の縮小処理は画素の輝
度値の間引きにより行なうが、輝度値の平均や補間を行
なってもよい。ただし、正規化後の画像(以下、「正規
化画像」という。)の大きさは2N×2Nとする。
Here, the reduction processing at the time of normalization is performed by thinning out the luminance values of the pixels, but the luminance values may be averaged or interpolated. However, the size of the image after normalization (hereinafter, referred to as “normalized image”) is 2N × 2N.

【0040】顔検出ステップ(図2のS22または図3
のS32)で得られた眉間座標(xo,yo)および半
径MaxR(xo,yo)を用いて、次式(4)〜
(7)に基づいて、正規化を行なう画像の範囲(sx,
sy)−(ex,ey)を決定する(S51)。
Face detection step (S22 in FIG. 2 or FIG. 3)
Using the eyebrow coordinates (xo, yo) and the radius MaxR (xo, yo) obtained in S32), the following equations (4) to
Based on (7), the range (sx,
sy)-(ex, ey) is determined (S51).

【0041】 sx=xo−2MaxR(xo,yo) …(4) ex=xo+2MaxR(xo,yo) …(5) sy=yo−MaxR(xo,yo) …(6) ey=yo+3MaxR(xo,yo) …(7) 画像のx方向の縮小率xratioおよびy方向の縮小
率yratioを次式により決定する(S52)。
Sx = xo−2MaxR (xo, yo) (4) ex = xo + 2MaxR (xo, yo) (5) sy = yo−MaxR (xo, yo) (6) ey = yo + 3MaxR (xo, yo) (7) The reduction ratio xratio in the x direction and the reduction ratio yratio in the y direction of the image are determined by the following equations (S52).

【0042】 xratio=(ex−sx+1)/2N …(8) yratio=(ey−sy+1)/2N …(9) 正規化画像のy座標およびx座標をそれぞれ示す変数i
およびjを0で初期化する(S53およびS54)。正
規化画像の座標(j,i)に対応する原画像の座標
(x,y)を次式(10)および(11)に従い求める
(S55)。
Xratio = (ex−sx + 1) / 2N (8) yratio = (ey−sy + 1) / 2N (9) Variable i indicating the y coordinate and the x coordinate of the normalized image, respectively.
And j are initialized to 0 (S53 and S54). The coordinates (x, y) of the original image corresponding to the coordinates (j, i) of the normalized image are obtained according to the following equations (10) and (11) (S55).

【0043】 x=sx+xratio*j …(10) y=sy+yratio*i …(11) 原画像の座標(x,y)の画素値を読出し、正規化画像
の座標(j,i)の画素値として画像メモリ18に書込
む(S56)。正規化画像のすべての座標について画素
値が設定されているか否かがチェックされる(S57〜
S510)。画素値が設定されていない座標について
は、上述の方法に従い、画素値が設定される。正規化画
像のすべての座標について画素値が設定された場合には
(S510でNO)、処理を終了する。
X = sx + xratio * j (10) y = sy + yratio * i (11) The pixel value of the coordinates (x, y) of the original image is read out and set as the pixel value of the coordinates (j, i) of the normalized image. Writing to the image memory 18 (S56). It is checked whether pixel values are set for all coordinates of the normalized image (S57 to S57).
S510). For coordinates for which a pixel value has not been set, a pixel value is set according to the method described above. If pixel values have been set for all coordinates of the normalized image (NO in S510), the process ends.

【0044】図6を参照して、正規化画像より特徴量を
計算する処理(図2のS24および図3のS34)につ
いて説明する。
With reference to FIG. 6, a description will be given of a process of calculating a feature amount from a normalized image (S24 in FIG. 2 and S34 in FIG. 3).

【0045】予め設定されている後述のZernike
多項式の最大次数nmaxに従い、次数nおよび反復数m
のテーブルを設定する(S61)。このときのテーブル
の要素数を#tableとする。実際のテーブルの要素
は、次式(12)および(13)の関係を満たすn,m
のすべての組合せである。ただし、辞書作成時と認識時
とnおよびmが一致していれば、任意の組合せのみを用
いても構わない。最大次数nmaxが8で、mを非負に限
定した場合の例を図7に示す。
A preset Zernike, which will be described later,
According to the maximum order n max of the polynomial, the order n and the number of iterations m
Is set (S61). The number of elements in the table at this time is #table. The elements of the actual table are n, m satisfying the relationship of the following equations (12) and (13).
Are all combinations of However, if n and m match at the time of dictionary creation and at the time of recognition, only an arbitrary combination may be used. FIG. 7 shows an example in which the maximum order n max is 8, and m is limited to non-negative.

【0046】 n−|m|:偶数 …(12) |m|<n …(13) テーブルのインデックス番号iを0で初期化する(S6
2)。式(14)に示すZernikeモーメントの定
義式に従い、顔画像正規化部14により作成された正規
化画像f(x´,y´)からZernikeモーメント
を計算する(S63)。
N− | m |: even number (12) | m | <n (13) The index number i of the table is initialized to 0 (S6)
2). The Zernike moment is calculated from the normalized image f (x ′, y ′) created by the face image normalization unit 14 according to the definition formula of the Zernike moment shown in Expression (14) (S63).

【0047】[0047]

【数3】 (Equation 3)

【0048】ただし、n,mはテーブルのi番目の要素
におけるn,mを表し、Vn,m(x,y)は次式(1
5)で定義されるZernike多項式と呼ばれる多項
式である。また、*は複素共役を表す記号である。
Here, n and m represent n and m in the i-th element of the table, and V n, m (x, y) is expressed by the following equation (1).
This is a polynomial called a Zernike polynomial defined in 5). * Is a symbol representing complex conjugate.

【0049】 Vn,m(x,y)=rn,m(ρ)ejmθ …(15) さらに、rn,m(ρ)は次式(16)で定義される半径
多項式と呼ばれる多項式であり、ρ=(x2
21/2、θ=tan-1(y/x)である。
V n, m (x, y) = r n, m (ρ) e jm θ (15) Further, r n, m (ρ) is called a radius polynomial defined by the following equation (16). Is a polynomial, and ρ = (x 2 +
y 2 ) 1/2 and θ = tan −1 (y / x).

【0050】[0050]

【数4】 (Equation 4)

【0051】式(14)に示したZernikeモーメ
ントの計算では、座標(x,y)を式(17)および
(18)のように定義し、すべての(x,y)が半径1
の単位円内に入るように変換している。
In the calculation of the Zernike moment shown in equation (14), coordinates (x, y) are defined as in equations (17) and (18), and all (x, y) have a radius of 1
Is converted to be within the unit circle of.

【0052】 x=x´/N−N …(17) y=y´/N−N …(18) インデックス番号iがインクリメントされ(S64)、
インデックス番号iとテーブルの要素数#tableと
が比較される(S65)。未処理のテーブル要素があれ
ば(S65でYES)、S63に戻る。
X = x ′ / N−N (17) y = y ′ / N−N (18) The index number i is incremented (S64),
The index number i is compared with the table element number #table (S65). If there is an unprocessed table element (YES in S65), the process returns to S63.

【0053】すべてのテーブル要素についてZerni
keモーメントが求められていれば(S65でNO)、
S63で求められた各テーブル要素に対するZerni
keモーメントAn,mをベクトルに変換する(S6
6)。本実施例においては、次式(19)に示すZer
nikeモーメントAn,mのパワーがベクトルの要素と
なるようにベクトル化する。もちろん他の変換方法を用
いてベクトル化を行なっても構わない。上記のベクトル
化を施し、図7のテーブルを使用した場合には、特徴ベ
クトルの次元数は25次元となる。
Zerni for all table elements
If the ke moment is determined (NO in S65),
Zerni for each table element obtained in S63
The ke moment A n, m is converted to a vector (S6
6). In this embodiment, the Zer shown in the following equation (19)
The vectorization is performed so that the power of the naked moment A n, m becomes a vector element. Of course, vectorization may be performed using another conversion method. When the above vectorization is performed and the table of FIG. 7 is used, the number of dimensions of the feature vector is 25.

【0054】[0054]

【数5】 (Equation 5)

【0055】図9を参照して、特徴ベクトルより顔画像
辞書を作成する処理(図2のS26)について説明す
る。
Referring to FIG. 9, the process of creating a face image dictionary from the feature vector (S26 in FIG. 2) will be described.

【0056】本実施の形態においては、後述するように
部分空間法を用いて顔画像の認識を行なう。このため、
ここでは部分空間法に基づいた辞書作成について述ベる
が、kNN(k Nearest Neighbor)法
等を用いて認識および辞書の作成を行なっても構わな
い。
In the present embodiment, face image recognition is performed using the subspace method as described later. For this reason,
Here, the dictionary creation based on the subspace method will be described. However, the recognition and dictionary creation may be performed using a kNN (k Nearest Neighbor) method or the like.

【0057】特徴量計算部15でベクトル化された特徴
量の分散共分散行列Sを次式(20)により計算する
(S71)。このとき、図2のS21からS25までの
繰り返し処理により#image枚の入力画像から#i
mage個の特徴ベクトルが計算されているものとす
る。また、ベクトル化された特徴量の次元をdとする。
ここでμは,特徴ベクトルの平均ベクトルであり、式
(21)で示される。
The variance-covariance matrix S of the feature vectorized by the feature calculator 15 is calculated by the following equation (20) (S71). At this time, by repeating the processing from S21 to S25 in FIG.
It is assumed that the number of feature vectors have been calculated. The dimension of the vectorized feature is d.
Here, μ is an average vector of the feature vectors, and is represented by Expression (21).

【0058】[0058]

【数6】 (Equation 6)

【0059】式(22)および(23)に示すように、
S71で計算された分散共分散行列Sを、行列Sの固有
ベクトルuiおよび固有値σiを用いてユニタリ相似変換
し、以下のように対角化する。なお、行列Uは、固有ベ
クトルuiからなる行列であり、行列Σは固有値σiから
なる対角行列である。
As shown in equations (22) and (23),
The variance-covariance matrix S calculated in S71 is unitarily similarized using the eigenvector u i and eigenvalue σ i of the matrix S, and is diagonalized as follows. Note that matrix U is a matrix composed of eigenvectors u i , and matrix Σ is a diagonal matrix composed of eigenvalues σ i .

【0060】[0060]

【数7】 (Equation 7)

【0061】σiは次式(24)の関係を有する。 σ1≧σ2≧…≧σd …(24) 次式(25)をみたす最小のrを部分空間の次元rとす
る(S73)。
Σ i has the relationship of the following equation (24). σ 1 ≧ σ 2 ≧ ... ≧ σ d ... (24) the dimension r of the smallest r subspaces satisfying the following equation (25) (S73).

【0062】[0062]

【数8】 (Equation 8)

【0063】ただし、depは所定の累積寄与率であ
る。S73により求められた次元数rまでの固有ベクト
ルを辞書として外部記憶装置19に登録する(S7
4)。
Where dep is a predetermined cumulative contribution ratio. The eigenvectors up to the dimension r obtained in S73 are registered as a dictionary in the external storage device 19 (S7).
4).

【0064】図10を参照して、特徴量計算部15で計
算された特徴量と、外部記憶装置19に記憶された顔画
像辞書との比較を行なうことにより、顔画像の認識を行
なう処理(図3のS35)について説明する。上述した
ように、本実施例では部分空間法を用いた認識について
述べるが、他の認識手法を用いても構わない。
Referring to FIG. 10, by comparing the feature amount calculated by feature amount calculation section 15 with the face image dictionary stored in external storage device 19, a process of recognizing a face image ( Step S35 in FIG. 3 will be described. As described above, in this embodiment, recognition using the subspace method will be described, but another recognition method may be used.

【0065】図9のS74の処理で登録された複数の辞
書を外部記憶装置19から読込む(S81)。このと
き、読込んだ辞書の数を#dicとする。図6のS66
の処理によりベクトル化された認識対象となっている入
力画像の特徴量を、メモリ17から読み出す(S8
2)。比較対象となる辞書を表わす辞書番号iを0で初
期化するとともに、入力ベクトルと辞書との距離が最も
短くなる辞書の辞書番号を表わす変数iminを0、その
ときの距離を表わす変数Lminを−1に初期化する(S
83)。次式により入力ベクトルxと辞書uj (i),(j
=0,…,r(i))との距離Liを計算する(S84)。
The plurality of dictionaries registered in the processing of S74 in FIG. 9 are read from the external storage device 19 (S81). At this time, the number of read dictionaries is #dic. S66 in FIG.
Is read out from the memory 17 (step S8).
2). The dictionary number i representing the dictionary to be compared is initialized to 0, the variable i min representing the dictionary number of the dictionary that minimizes the distance between the input vector and the dictionary is set to 0, and the variable L min representing the distance at that time. Is initialized to -1 (S
83). The input vector x and the dictionary u j (i) , (j
= 0, ..., to calculate the distance L i of the r (i)) (S84) .

【0066】[0066]

【数9】 (Equation 9)

【0067】ここで、r(i)は、図9のS73の処理で
求められた辞書番号iの辞書の次元数である。現在の最
短距離Lminの符号が負であるか、またはLiの方がL
minよりも小さければ(S85でYES)、次式(2
7)および(28)によりiminおよびLminを更新する
(S85A)。
Here, r (i) is the number of dimensions of the dictionary of the dictionary number i obtained in the process of S73 in FIG. The sign of the current shortest distance L min is negative or L i is L
If it is smaller than min (YES in S85), the following equation (2)
7) and updates the i min and L min by (28) (S85A).

【0068】 imin=i …(27) Lmin=Li …(28) S85の条件を満たさなかったか(S85でNO)また
はS85Aの処理の後、辞書番号iを1つインクリメン
トする(S86)。すべての辞書に対して距離を計算し
たか否かをチェックし(S87)、未処理辞書がある場
合には(S87でYES)、S84に戻る。すべての辞
書に対して距離の計算が終了していれば(S87でN
O)、所定の閾値THと最短距離Lminとが比較される
(S88)。LminがTHよりも大きければ(S88で
NO)、入力画像に映った人物の顔画像が顔画像辞書に
は登録されていないと判断する(S810)。Lmin
THよりも小さければ(S88でYES)、辞書番号i
の辞書の人物が入力画像に映った人物であると認識す
る。
I min = i (27) L min = L i (28) Whether the condition of S85 is not satisfied (NO in S85) or after the process of S85A, the dictionary number i is incremented by one (S86). . It is checked whether or not the distance has been calculated for all dictionaries (S87). If there is an unprocessed dictionary (YES in S87), the process returns to S84. If the distance calculation has been completed for all dictionaries (N in S87
O), and a predetermined threshold TH and the shortest distance L min are compared (S88). If L min is greater than TH (NO in S88), it is determined that the face image of the person shown in the input image is not registered in the face image dictionary (S810). If L min is smaller than TH (YES in S88), dictionary number i
Is recognized as a person in the input image.

【0069】図11は、本実施の形態で説明した方法に
よる特徴ベクトルの次元数、辞書サイズおよび演算量
と、従来の手法のそれらとの比較結果である。
FIG. 11 shows the result of comparison between the number of dimensions, the dictionary size, and the amount of calculation of the feature vector according to the method described in this embodiment and those of the conventional method.

【0070】辞書サイズは、特徴ベクトルから図9に記
載のフローチャートに従って認識辞書を作成した場合
に、すべての固有値および固有ベクトルを保持した場合
に必要な辞書サイズである。ここでは、各要素を8By
teとして計算している。
The dictionary size is a dictionary size necessary when all the eigenvalues and eigenvectors are held when a recognition dictionary is created from the feature vectors according to the flowchart shown in FIG. Here, each element is 8 By
It is calculated as te.

【0071】演算量とは、図10に示したフローチャー
トに従って認識を行った場合の積和演算の回数である。
The calculation amount is the number of product-sum operations when recognition is performed according to the flowchart shown in FIG.

【0072】本発明におけるZernikeモーメント
は、最大次数を8とし、図7に示した{m,n}を用
い、各Zernikeモーメントを自乗した値を特徴ベ
クトルとしている。したがって次元数は25である。
The Zernike moment in the present invention has a maximum order of 8, uses {m, n} shown in FIG. 7, and sets a value obtained by squaring each Zernike moment as a feature vector. Therefore, the number of dimensions is 25.

【0073】LogPolarFSP(フーリエパワー
スペクトル)は、従来技術1に記載されている手法であ
り、特徴ベクトルの次元数は、画像の大きさに比例す
る。ここで画像の大きさが32×32であるとした場
合、次元数は1024次元となる。4方向面特徴は、従
来技術2に記載されている手法であり、この手法の最も
認識率の高い次元数が256(=4×8×8)とされて
いる。このため、本発明により求められた特徴ベクトル
が最も低次元で、辞書サイズも小さく、演算量が少ない
のは明らかである。したがって、本発明による顔画像処
理方法を用いれば、高速な演算装置、大容量の外部記憶
装置やメモリなどが搭載できないPDAや携帯電話等の
携帯情報端末でも顔画像認識処理を実現することができ
るようになる。
Log Polar FSP (Fourier power spectrum) is a method described in the prior art 1, and the number of dimensions of the feature vector is proportional to the size of the image. If the size of the image is 32 × 32, the number of dimensions is 1024. The four-direction surface feature is a technique described in the related art 2, and the dimension number with the highest recognition rate of this technique is 256 (= 4 × 8 × 8). Therefore, it is apparent that the feature vector obtained by the present invention has the lowest dimension, the dictionary size is small, and the amount of calculation is small. Therefore, by using the face image processing method according to the present invention, a face image recognition process can be realized even in a portable information terminal such as a PDA or a mobile phone which cannot be equipped with a high-speed arithmetic device, a large-capacity external storage device or a memory. Become like

【0074】[Zernikeモーメント計算の変形例
1]図6のS63のZernikeモーメントの計算方
法を、図12に示すように変形してもよい。図12を参
照して、円環番号iを0、ZernikeモーメントA
n,mを0でそれぞれ初期化する(S91)。i番目の円
環ZernikeモーメントAi n,mを次式(29)に従
い計算する(S92)。
[Modification 1 of Zernike Moment Calculation] The calculation method of the Zernike moment in S63 of FIG. 6 may be modified as shown in FIG. Referring to FIG. 12, ring number i is 0, Zernike moment A
n and m are each initialized with 0 (S91). i-th circular Zernike moment A i n, the m is calculated in accordance with the following equation (29) (S92).

【0075】[0075]

【数10】 (Equation 10)

【0076】ここで、円環Zernikeモーメントと
は、図8に示すように単位円を複数の同心円で分割した
際の、各環状領域SiのZernikeモーメントであ
る。図8では、円環数は4である。S92により計算さ
れた円環ZernikeモーメントAi n,mをZerni
keモーメントAn,mに加算する(S93)。円環番号
iを更新し(S94)、円環番号iと円環数#ring
を比較する(S95)。未処理円環が存在すれば(S9
5でYES)、S92に戻る。それ以外の場合には、処
理を終了する。
[0076] Here, the circular Zernike moment, the time of dividing the unit circle as shown in FIG. 8 in a plurality of concentric circles, a Zernike moment of each annular area S i. In FIG. 8, the number of rings is four. Circular calculated by S92 Zernike moment A i n, Zerni the m
It is added to the ke moment An, m (S93). The ring number i is updated (S94), the ring number i and the ring number #ring
Are compared (S95). If there is an unprocessed ring (S9
(YES at 5) returns to S92. Otherwise, the process ends.

【0077】環状領域ごとにZernikeモーメント
が求められる。このため、1枚の画像から複数の特徴量
を算出することができ、高精度の画像認識が可能とな
る。
A Zernike moment is determined for each annular region. Therefore, a plurality of feature amounts can be calculated from one image, and highly accurate image recognition can be performed.

【0078】[Zernikeモーメント計算の変形例
2]図6のS63のZernikeモーメント計算方法
を、図13に示すように変形してもよい。図13を参照
して、円環番号iを0、ZernikeモーメントA
n,mを0でそれぞれ初期化する(S111)。円環番号
iが後述する予め設定されている非対象領域であれば
(S112でYES)、S115に進み、円環番号を更
新する。円環番号iが非対象領域でなければ(S112
でNO)、S113に進む。非対象領域とは、予め実験
で認識能力が低いと判断された円環である。例えば図8
の例では、S0は鼻の周囲に対応しており、個人の特徴
があまり顕著ではない。このため、非対象領域とされ
る。S113では、i番目の円環Zernikeモーメ
ントAi n,mを上述の式(29)により計算する。S11
3により計算された円環ZernikeモーメントAi
n,mをZernikeモーメントAn,mに加算する(S1
14)。円環番号iを更新し(S115)、円環番号i
と円環数#ringとを比較する(S116)。未処理
円環が存在すれば(S116でYES)、S112に戻
る。それ以外の場合には処理を終了する。
[Modification 2 of Zernike Moment Calculation] The Zernike moment calculation method of S63 in FIG. 6 may be modified as shown in FIG. Referring to FIG. 13, ring number i is set to 0, Zernike moment A
n and m are each initialized with 0 (S111). If the ring number i is a preset non-target area described later (YES in S112), the flow advances to S115 to update the ring number. If the ring number i is not the non-target area (S112
NO), and proceeds to S113. The non-target region is a ring that has been previously determined to have low recognition ability in an experiment. For example, FIG.
In the example, S 0 corresponds to the periphery of the nose, and the characteristics of the individual are not so remarkable. For this reason, it is set as a non-target area. In S113, i-th circular Zernike moment A i n, the m calculated by the above equation (29). S11
Ring Zernike moment A i calculated by Eq.
n, m is added to the Zernike moment A n, m (S1
14). The ring number i is updated (S115), and the ring number i is updated.
And the number of rings #ring (S116). If there is an unprocessed ring (YES in S116), the process returns to S112. Otherwise, the process ends.

【0079】識別能力の低い環状領域をZernike
モーメントの算出の対象から除外することができる。こ
のため、特徴量の計算を高速に行なうことができ、かつ
認識率が向上する。
A circular region having low discrimination ability is defined as Zernike.
It can be excluded from the calculation of the moment. Therefore, the calculation of the feature amount can be performed at high speed, and the recognition rate is improved.

【0080】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

【0081】[0081]

【発明の効果】大容量の記憶装置を必要とせず、高速に
顔画像の認識が可能となる。
According to the present invention, a face image can be quickly recognized without requiring a large-capacity storage device.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態に係る顔画像処理装置の
ハードウェア構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a hardware configuration of a face image processing apparatus according to an embodiment of the present invention.

【図2】 顔画像辞書の作成処理のフローチャートであ
る。
FIG. 2 is a flowchart of a face image dictionary creation process.

【図3】 顔画像の認識処理のフローチャートである。FIG. 3 is a flowchart of a face image recognition process.

【図4】 顔位置の検出処理のフローチャートである。FIG. 4 is a flowchart of a face position detection process.

【図5】 顔画像の正規化処理のフローチャートであ
る。
FIG. 5 is a flowchart of a face image normalization process.

【図6】 正規化画像より特徴量を計算する処理のフロ
ーチャートである。
FIG. 6 is a flowchart of a process of calculating a feature amount from a normalized image.

【図7】 次数nおよび反復数mのテーブルを説明する
ための図である。
FIG. 7 is a diagram for explaining a table of an order n and an iteration number m.

【図8】 円環Zernikeモーメントを説明するた
めの図である。
FIG. 8 is a diagram for explaining an annular Zernike moment.

【図9】 特徴ベクトルより顔画像辞書を作成する処理
のフローチャートである。
FIG. 9 is a flowchart of a process of creating a face image dictionary from a feature vector.

【図10】 顔画像の認識処理のフローチャートであ
る。
FIG. 10 is a flowchart of a face image recognition process.

【図11】 本発明と従来の手法との比較結果を示した
図である。
FIG. 11 is a diagram showing a comparison result between the present invention and a conventional method.

【図12】 Zernikeモーメントの処理のフロー
チャートである。
FIG. 12 is a flowchart of Zernike moment processing.

【図13】 Zernikeモーメントの処理のフロー
チャートである。
FIG. 13 is a flowchart of Zernike moment processing.

【符号の説明】[Explanation of symbols]

11 画像入力機器、12 A/D変換部、13 顔検
出部、14 顔画像正規化部、15 特徴量計算部、1
6 辞書作成部、17 メモリ、18 画像メモリ、1
9 外部記憶装置、20 認識部。
Reference Signs List 11 image input device, 12 A / D converter, 13 face detector, 14 face image normalizer, 15 feature amount calculator, 1
6 Dictionary creator, 17 memories, 18 image memories, 1
9 external storage device, 20 recognition unit.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 150 G06T 7/60 150A Fターム(参考) 5B043 AA09 BA04 CA00 DA04 EA15 FA00 GA02 5B057 AA20 BA24 CA12 CA16 CB12 CB16 CC01 CE20 CG05 CH01 CH11 CH12 DA12 DB02 DC02 DC33 5B075 ND06 NK07 NK13 NK37 UU08 5L096 BA18 CA02 CA24 DA02 EA14 FA23 FA55 GA59 HA09 JA11 KA01 LA05 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 7/60 150 G06T 7/60 150A F term (Reference) 5B043 AA09 BA04 CA00 DA04 EA15 FA00 GA02 5B057 AA20 BA24 CA12 CA16 CB12 CB16 CC01 CE20 CG05 CH01 CH11 CH12 DA12 DB02 DC02 DC33 5B075 ND06 NK07 NK13 NK37 UU08 5L096 BA18 CA02 CA24 DA02 EA14 FA23 FA55 GA59 HA09 JA11 KA01 LA05

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 顔画像を入力するための画像入力手段
と、 前記画像入力手段に接続され、入力された顔画像から顔
の位置を検出するための顔検出手段と、 前記顔検出手段に接続され、前記顔検出手段により検出
された顔の位置を元に、顔画像を正規化するための顔画
像正規化手段と、 前記顔画像正規化手段に接続され、正規化された顔画像
よりZernikeモーメントを計算し、前記Zern
ikeモーメントに基づいた特徴量を計算するための特
徴量計算手段と、 前記特徴量計算手段に接続され、複数枚の顔画像から得
られた複数の特徴量から辞書を作成するための辞書作成
手段とを含む、顔画像処理装置。
1. An image input means for inputting a face image, a face detection means connected to the image input means for detecting a position of a face from the input face image, and a connection to the face detection means A face image normalizing means for normalizing the face image based on the position of the face detected by the face detecting means; and a Zernike connected to the face image normalizing means and performing Zernike Calculate the moment, and
a feature value calculation unit for calculating a feature value based on the ike moment; a dictionary creation unit connected to the feature value calculation unit for creating a dictionary from a plurality of feature values obtained from a plurality of face images And a face image processing device.
【請求項2】 さらに、前記特徴量計算手段および前記
辞書作成手段に接続され、前記特徴量計算手段で求めら
れた特徴量と、前記辞書作成手段で作成された辞書とを
比較し、顔画像の認識を行なうための顔画像認識手段を
含む、請求項1に記載の顔画像処理装置。
2. The method according to claim 1, further comprising the step of: connecting the feature quantity calculated by the feature quantity calculation means to the dictionary created by the dictionary creation means, connected to the feature quantity calculation means and the dictionary creation means. The face image processing apparatus according to claim 1, further comprising a face image recognition unit for performing face recognition.
【請求項3】 前記特徴量計算手段は、前記正規化され
た顔画像内に設けられた基準となる円を複数の同心円で
分割した際の、環状領域ごとに求められるZernik
eモーメントに基づいて特徴量を計算する、請求項1ま
たは2に記載の顔画像処理装置。
3. The Zernik calculated for each annular region when a reference circle provided in the normalized face image is divided by a plurality of concentric circles.
3. The face image processing device according to claim 1, wherein the feature amount is calculated based on the e-moment.
【請求項4】 前記特徴量計算手段は、予め定められた
環状領域についてのみZernikeモーメントを求め
る、請求項3に記載の顔画像処理装置。
4. The face image processing apparatus according to claim 3, wherein said feature amount calculating means obtains a Zernike moment only for a predetermined annular area.
【請求項5】 顔画像を入力するステップと、 入力された顔画像から顔の位置を検出するステップと、 検出された顔の位置を元に、顔画像を正規化するステッ
プと、 正規化された顔画像よりZernikeモーメントを計
算し、前記Zernikeモーメントに基づいた特徴量
を計算するステップと、 複数枚の顔画像から得られた複数の特徴量から辞書を作
成するステップとを含む、顔画像処理方法。
5. A step of inputting a face image; a step of detecting a position of the face from the input face image; a step of normalizing the face image based on the detected position of the face; Face image processing, comprising: calculating a Zernike moment from the obtained face image, calculating a feature amount based on the Zernike moment; and creating a dictionary from a plurality of feature amounts obtained from the plurality of face images. Method.
【請求項6】 さらに、入力画像に対して求められた特
徴量と、予め作成された辞書とを比較し、顔画像の認識
を行なうステップを含む、請求項5に記載の顔画像処理
方法。
6. The face image processing method according to claim 5, further comprising the step of comparing a feature amount obtained for the input image with a dictionary created in advance and performing face image recognition.
JP2001147539A 2001-05-17 2001-05-17 Facial picture processor and facial picture processing method Withdrawn JP2002342760A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001147539A JP2002342760A (en) 2001-05-17 2001-05-17 Facial picture processor and facial picture processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001147539A JP2002342760A (en) 2001-05-17 2001-05-17 Facial picture processor and facial picture processing method

Publications (1)

Publication Number Publication Date
JP2002342760A true JP2002342760A (en) 2002-11-29

Family

ID=18993010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001147539A Withdrawn JP2002342760A (en) 2001-05-17 2001-05-17 Facial picture processor and facial picture processing method

Country Status (1)

Country Link
JP (1) JP2002342760A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038715A1 (en) * 2003-10-15 2005-04-28 Seiko Epson Corporation Face image candidate area search method, face image candidate area search system, and face image candidate area search program
JP2007212219A (en) * 2006-02-08 2007-08-23 Tokyo Electron Ltd Defect inspecting method of substrate, and program
JP2011019614A (en) * 2009-07-14 2011-02-03 Chino System Kaihatsu:Kk Engraved mark recognition system for steel ball

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038715A1 (en) * 2003-10-15 2005-04-28 Seiko Epson Corporation Face image candidate area search method, face image candidate area search system, and face image candidate area search program
EP1675066A1 (en) * 2003-10-15 2006-06-28 Seiko Epson Corporation Face image candidate area search method, face image candidate area search system, and face image candidate area search program
EP1675066A4 (en) * 2003-10-15 2007-03-28 Seiko Epson Corp Face image candidate area search method, face image candidate area search system, and face image candidate area search program
CN100382108C (en) * 2003-10-15 2008-04-16 精工爱普生株式会社 Face image candidate area search method, face image candidate area search system, and face image candidate area search program
JP2007212219A (en) * 2006-02-08 2007-08-23 Tokyo Electron Ltd Defect inspecting method of substrate, and program
JP4647510B2 (en) * 2006-02-08 2011-03-09 東京エレクトロン株式会社 Substrate defect inspection method and program
JP2011019614A (en) * 2009-07-14 2011-02-03 Chino System Kaihatsu:Kk Engraved mark recognition system for steel ball

Similar Documents

Publication Publication Date Title
US7711156B2 (en) Apparatus and method for generating shape model of object and apparatus and method for automatically searching for feature points of object employing the same
US8184914B2 (en) Method and system of person identification by facial image
KR101185525B1 (en) Automatic biometric identification based on face recognition and support vector machines
JP4318465B2 (en) Person detection device and person detection method
US6430307B1 (en) Feature extraction system and face image recognition system
US9152847B2 (en) Facial landmark localization by exemplar-based graph matching
CN109376604B (en) Age identification method and device based on human body posture
US11163985B2 (en) Evaluating the security of a facial recognition system using light projections
WO2021196721A1 (en) Cabin interior environment adjustment method and apparatus
CN111783748A (en) Face recognition method and device, electronic equipment and storage medium
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
CN112101360A (en) Target detection method and device and computer readable storage medium
JP4419543B2 (en) Detection apparatus and detection method
CN113269010B (en) Training method and related device for human face living body detection model
Roy et al. Heterogeneous face matching using geometric edge-texture feature (GETF) and multiple fuzzy-classifier system
Kumar et al. Memory optimized deep learning based face recognization
Zhang et al. Flame image recognition of alumina rotary kiln by artificial neural network and support vector machine methods
JP2005351814A (en) Detector and detecting method
Schenkel et al. A Comparative Study of Facial Recognition Techniques: With focus on low computational power
Lajevardi et al. Facial expression recognition using log-Gabor filters and local binary pattern operators
US8879804B1 (en) System and method for automatic detection and recognition of facial features
JP2002342760A (en) Facial picture processor and facial picture processing method
Salamh et al. A Novel Feature Extraction Descriptor for Face Recognition
Wang et al. Efficient iris localization via optimization model
CN112183357B (en) Multi-scale living body detection method and system based on deep learning

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805