JP2001266150A - Method for portraying, identifying and matching face surface by using high-order face surface characteristic value - Google Patents

Method for portraying, identifying and matching face surface by using high-order face surface characteristic value

Info

Publication number
JP2001266150A
JP2001266150A JP2000076580A JP2000076580A JP2001266150A JP 2001266150 A JP2001266150 A JP 2001266150A JP 2000076580 A JP2000076580 A JP 2000076580A JP 2000076580 A JP2000076580 A JP 2000076580A JP 2001266150 A JP2001266150 A JP 2001266150A
Authority
JP
Japan
Prior art keywords
facial
image
order
eigenvalue
obtaining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000076580A
Other languages
Japanese (ja)
Inventor
Rei Wan
ワン・レイ
Thiow Keng Tan
ケン・タン ティオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000076580A priority Critical patent/JP2001266150A/en
Publication of JP2001266150A publication Critical patent/JP2001266150A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method for portraying and recognizing a human face surface effectively and efficiently. SOLUTION: In order to normalize the image of a face surface, the upper/ lower positions of eyes are promptly obtained. In order to portray detailed information which cannot be portrayed by a first-order face surface characteristic value a high-order face characteristic is used. In order to simplify calculation, an expression is given to calculate high-order transformation matrix for photographing. The face surface is portrayed individually by using high-order feature or combining it with a first-order feature.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、内容主体のイメー
ジ検索用の顔面描写及び認識、銀行、セキュリティシス
テム及びテレビ電話用の人の顔面識別及び確認、監視及
び追跡、ディジタルライブラリ及びインターネットマル
チメディアデータベースに使用することができる。
The present invention relates to facial depiction and recognition for content-based image retrieval, human face identification and verification, monitoring and tracking for banks, security systems and videophones, digital libraries and Internet multimedia databases. Can be used for

【0002】[0002]

【従来技術】人の顔面の認識は、コンピュータ視覚業界
で活発な分野である。顔面の認識は、マルチメディアデ
ータベース探索及び多くの他の用途で重要な役割を果た
す。近年、顔面の検出及び認識の問題についてかなりの
進展が見られる。異なる具体的な技法が提案されてい
る。これらの技法の中で、ニューラルネット、伸縮テン
プレート一致、カルヒューネン−ルーヴェ(Karhunen-L
oeve) 展開、代数モーメント及び等密度線が、代表的
な方法である。
2. Description of the Related Art Human face recognition is an active field in the computer vision industry. Facial recognition plays an important role in multimedia database searching and many other applications. In recent years, considerable progress has been made on the problem of face detection and recognition. Different specific techniques have been proposed. Among these techniques are neural nets, stretch template matching, and Karhunen-L.
oeve) Expansions, algebraic moments and isopycnic lines are typical methods.

【0003】これらの方法の中で、主成分分析(PC
A)やKarhunen-Loeve 展開が重要な方法である。顔面
固有値計算方法は、PCAから派生しており、計算に便
利であり、識別において一貫した精度を有する。従来の
作業によれば、PCA法では異種の情報間で自発的に分
離した。大きな固有値を有する固有ベクトルは、顔面の
サブセットに共通の情報を収集し、小さな固有値を有す
る固有ベクトルは、個々の顔面に特有の情報を収集す
る。研究によれば、大きな固有値を有する固有ベクトル
により囲まれている情報のみを調整されていない新しい
顔面に一般化することができる。
Among these methods, principal component analysis (PC
A) and Karhunen-Loeve expansion are important methods. The facial eigenvalue calculation method is derived from PCA, is convenient for calculation, and has consistent accuracy in identification. According to the conventional work, the PCA method spontaneously separates information of different types. Eigenvectors with large eigenvalues collect information common to a subset of faces, and eigenvectors with small eigenvalues collect information specific to individual faces. Studies have shown that only information surrounded by eigenvectors with large eigenvalues can be generalized to unadjusted new faces.

【0004】[0004]

【発明が解決しようとする課題】顔面固有値方法の利点
は、大きな固有値を有する固有ベクトルが顔面の基本的
な形状及び構造に関する情報を伝達することである。こ
れは、大きな固有値を有する固有ベクトルから抽出され
た特徴を用いて人の顔面の主要な特徴を描写できること
を意味する。しかし、これはPCAの弱点でもある。我
々が大きな固有値を有する固有ベクトルから抽出された
特徴を考慮するだけである場合、我々は個々の顔面に対
応する顔面の詳細を得ることができない。個々の顔面の
これらの詳細を人の顔面の共通の特徴と共に描写するこ
とができると、人の顔面を一層正確に描写することが可
能となる。
The advantage of the facial eigenvalue method is that eigenvectors with large eigenvalues convey information about the basic shape and structure of the face. This means that the main features of the human face can be described using the features extracted from the eigenvectors having large eigenvalues. However, this is also a weak point of PCA. If we only consider features extracted from eigenvectors with large eigenvalues, we cannot get facial details corresponding to individual faces. Being able to describe these details of individual faces together with the common features of a person's face allows a more accurate description of the person's face.

【0005】更に、顔面のイメージが統一されたサイズ
に正規化されず、顔面が適当な位置に置かれていない場
合、人の顔面を表す適当な固有ベクトルを得ることは難
しい。顔面のイメージを正規化するために、我々は、顔
面のイメージを標準サイズに拡大又は縮小し、顔面認識
の前処理の際に適当な位置に顔面を突き止める必要があ
る。
[0005] Furthermore, if the image of the face is not normalized to a uniform size and the face is not placed at an appropriate position, it is difficult to obtain an appropriate eigenvector representing the human face. In order to normalize the facial image, we need to enlarge or reduce the facial image to a standard size and locate the face in a suitable position during preprocessing of the facial recognition.

【0006】[0006]

【課題を解決するための手段】顔面固有値計算方法は、
形状及び構造などの共通の顔面特徴を抽出するのに有効
である。小さな固有値を有する固有ベクトルを切り捨て
た際に失われた顔面の詳細を得るために、大きな固有値
を有する固有ベクトルからの特徴で再構成された顔面を
得るべきである。再構成された顔面イメージを用いて、
原イメージと再構成行列との間の残余イメージを得るこ
とができる。これらの残余顔面は、個々の顔面に関する
豊富な詳細情報をまだ含んでいる高域顔面イメージとし
て注目することができる。前記残余顔面を描写するため
に、顔面固有値方法を再度前記残余顔面に使用すること
ができる。得られた大きな固有値を有する固有ベクトル
は、残余顔面の共通の特徴を明らかにする。この方法を
用いて、大きな固有値を有する高次の固有ベクトルを、
対応する特徴を抽出するのに得ることができる。異なる
次数の顔面固有値からの前記特徴の組合せを用いて、顔
面を効果的に描写することができる。
A method of calculating a facial eigenvalue is as follows.
This is effective for extracting common facial features such as shape and structure. In order to obtain details of the face lost when truncating eigenvectors with small eigenvalues, a face reconstructed with features from eigenvectors with large eigenvalues should be obtained. Using the reconstructed facial image,
A residual image between the original image and the reconstruction matrix can be obtained. These residual faces can be viewed as high frequency facial images that still contain a wealth of detailed information about the individual faces. The facial eigenvalue method can be used again on the residual face to depict the residual face. The resulting eigenvectors with large eigenvalues reveal common features of the residual face. Using this method, higher-order eigenvectors with large eigenvalues are
It can be obtained to extract the corresponding features. The face can be effectively depicted using a combination of the features from different order facial eigenvalues.

【0007】顔面イメージを正規化するために、顔面イ
メージは標準サイズにサイズ変更される。目の上下位置
は、顔面の位置を突き止めるのに適当なパラメータであ
るため、その上下位置を用いて、顔面の位置を突き止め
て予め定められた位置に移動する。目の上下位置は、離
散フーリエ変換に基づく方法を用いて得られる。
[0007] To normalize the facial image, the facial image is resized to a standard size. Since the vertical position of the eyes is a parameter suitable for determining the position of the face, the position of the face is determined using the vertical position and moved to a predetermined position. The vertical position of the eyes is obtained using a method based on the discrete Fourier transform.

【0008】[0008]

【作用】本発明は、イメージ検索(顔面の例による照
会)、個人識別及び確認、監視及び追跡、及び他の顔面
認識用途に使用可能な人の顔面を描出する方法を提供す
る。顔面の特徴を描写するために、我々の意見及び誘導
によって高次顔面固有値の概念が提案されている。最初
は、すべての顔面イメージを標準サイズに正規化する。
次に、目の上下位置を計算して顔面を適当な位置に移動
する。これらの全前処理手続きを完了すると、顔面固有
値及び高次顔面固有値を調整顔面イメージのセットから
得ることができる。顔面イメージを顔面データベースに
照会するために、顔面固有値及び高次顔面固有値を用い
て投影された前記イメージの特徴を、選択された顔面固
有値及び高次顔面固有値を用いて計算することができ
る。これらの特徴の組合せを用いて顔面を描写すること
ができる。この描写の場合、類似性の測定にユークリッ
ド距離を使用することができる。類似性の精度を向上さ
せるために、前記特徴に重みをつけるべきである。
The present invention provides a method for rendering a human face that can be used for image search (querying by face example), personal identification and confirmation, monitoring and tracking, and other facial recognition applications. To depict facial features, the concept of higher-order facial eigenvalues has been proposed by our opinion and guidance. Initially, all facial images are normalized to a standard size.
Next, the vertical position of the eyes is calculated, and the face is moved to an appropriate position. Upon completion of all these pre-processing procedures, facial eigenvalues and higher-order facial eigenvalues can be obtained from the set of adjusted facial images. In order to query the facial image to the facial database, the features of the image projected using the facial eigenvalue and the higher-order facial eigenvalue may be calculated using the selected facial eigenvalue and the higher-order facial eigenvalue. A face can be depicted using a combination of these features. For this depiction, the Euclidean distance can be used to measure similarity. The features should be weighted to improve the similarity accuracy.

【0009】[0009]

【発明の実施の形態】本発明は、顔面の特徴を抽出する
方法を提供する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention provides a method for extracting facial features.

【0010】最初は、顔面の正規化のために目の上下位
置を突き止めることが必要である。目の位置の突き止め
は、次のようなステップを用いて得ることができる。 ・上下方向に沿って顔面イメージを投影するステップ ・離散フーリエ変換を用いて投影の高周波数係数を得る
ステップ ・前記高周波数係数(5〜10の低周波数係数をイメー
ジサイズによって保持可能)を廃棄するステップ ・残余周波数係数(対応する高周波数係数をゼロで埋め
る)に関して逆フーリエ変換を実行するステップ ・2つのピークの大きさが閾値よりも大きい1番目の2
つの局所ピーク間の曲線の極小を突き止めるステップ。
この極小は、高い確率で目の位置を捕捉する。予想領域
に極小がない場合、目の位置を最も可能性の高い位置に
設定する。
First, it is necessary to determine the vertical position of the eyes for normalization of the face. Eye location can be obtained using the following steps. Projecting the face image along the vertical direction Obtaining the high frequency coefficient of the projection using the discrete Fourier transform Discarding the high frequency coefficient (5 to 10 low frequency coefficients can be held depending on the image size) Performing the inverse Fourier transform on the residual frequency coefficients (filling the corresponding high frequency coefficients with zeros); the first two whose two peak magnitudes are greater than a threshold.
Locating the minimum of the curve between two local peaks.
This minimum captures the eye position with a high probability. If there is no local minimum in the prediction area, the eye position is set to the most likely position.

【0011】図1は、目の上下位置を突き止めるフロー
チャートを示す。HorizontalProjection(X)は、左右方
向に沿ってイメージXの画素値を累積する関数である。F
FT(y)は、yのフーリエ変換を与える。LocalPeak(y',k)
は、y'のk番目の極大を探索する関数であり、その値と
位置を戻す。LocalValley(y',Loc1,Loc2)は、極小値とL
oc1及びLoc2間の位置とを与える。Dは、予め定められた
省略時の目の位置である。プログラムが目の位置を適当
な位置に見つけることができない場合、Dを目の上下位
置として用いる。目の上下位置を突き止めた後、目を適
当な位置に置くことによりイメージを移動する。この方
法を用いて、効果的な顔面固有値を計算することができ
る。この正規化の後、顔面固有値は正規化前よりも一層
信頼性が向上する。
FIG. 1 shows a flowchart for determining the vertical position of the eye. HorizontalProjection (X) is a function for accumulating the pixel values of the image X along the horizontal direction. F
FT (y) gives the Fourier transform of y. LocalPeak (y ', k)
Is a function that searches for the k-th local maximum of y ′, and returns its value and position. LocalValley (y ', Loc1, Loc2) is the minimum and L
and the position between oc1 and Loc2. D is a predetermined default eye position. If the program cannot find the eye position in the appropriate position, it uses D as the top and bottom eye position. After locating the top and bottom of the eye, the image is moved by placing the eye in the appropriate position. Using this method, an effective facial eigenvalue can be calculated. After this normalization, the facial eigenvalues are more reliable than before.

【0012】正規化された顔面イメージを用いて、その
顔面固有値及び高次顔面固有値を次のように得ることが
できる。
Using the normalized face image, the face unique value and the higher-order face unique value can be obtained as follows.

【0013】Mイメージの収集のうちイメージΦi(ここ
で、Φiはラスタスキャンイメージの一次元ベクトルで
ある)を考える。Ψを平均イメージとして定義する。
Consider an image Φ i (where Φ i is a one-dimensional vector of a raster scan image) of the collection of M images. Ψ is defined as the average image.

【0014】あらゆるイメージは、平均イメージからベ
クトルΓi (1)=Φi−Ψだけ異なる。よって、データの
共分散行列は、次のように定義される。 ここで、 である。
Every image differs from the averaged image by a vector Γ i (1) = Φ i -Ψ. Therefore, the covariance matrix of the data is defined as follows. here, It is.

【0015】Q はwh×wh次元を有する(ここで、w はイ
メージの幅、hは高さである)ことに留意せよ。この行
列のサイズは巨大であるが、イメージベクトルMの有限
数を合計するだけであるため、この行列の列はM-1を超
えられない。νi (1)(i=1,2,...,M)の固有ベクトルである場合、 (ここで、λi (1)の固有値)であり、前式の左側にA(1)を掛けることによ
り分かるように の固有ベクトルであることに留意せよ。
Note that Q has dimensions wh × wh (where w is the width of the image and h is the height). Although the size of this matrix is huge, the columns of this matrix cannot exceed M-1 because it only adds up a finite number of image vectors M. ν i (1) (i = 1,2, ..., M) (Where λ i (1) is Eigenvalue), and as can be seen by multiplying the left side of the previous equation by A (1) Is Note that this is the eigenvector of.

【0016】しかし、 はサイズM×Mにすぎない。それゆえ、 の固有ベクトルui (1)を定義すると、次のようになる。 However, Is only a size M × M. therefore, Defining the eigenvector u i (1) of

【0017】固有値λi (1)は、固有ベクトルui (1)によ
り張られた新しい座標空間に沿った分散である。ここか
ら先、i の次数は、固有値λi (1)が減少するようにする
と仮定する。固有値は、指数的に減少している。よっ
て、 (ここで、 及び1=k=M1)を計算することにより、顔面イメージΓ
(1)をM1<<M次元のみの上へ投影することができる。wk
(1)は、新しい座標系のΓ(1)のk番目の座標である。こ
の文脈において、W(1)は一次特徴と呼ばれる。ベクトル
uk (1)は、実際にイメージであり、一次顔面固有値 (eig
enfaces) と呼ばれる(一般に、他の文書では顔面固有
値(eigenfaces)と呼ばれる)。 とすると、 となる。
The eigenvalue λ i (1) is the variance along the new coordinate space spanned by the eigenvector u i (1) . From here on, it is assumed that the order of i is such that the eigenvalue λ i (1) decreases. The eigenvalues decrease exponentially. Therefore, (here, And 1 = k = M 1 ) to calculate the facial image Γ
(1) can be projected onto only M 1 << M dimensions. w k
(1) is the k-th coordinate of Γ (1) in the new coordinate system. In this context, W (1) is called the primary feature. vector
u k (1) is actually the image, the primary facial eigenvalue (eig
enfaces) (commonly called eigenfaces in other documents). Then Becomes

【0018】図3は、一次特徴W(1)を計算する手順を示
す。同図において、eig(B,i)は、i番目の最大固有値及
びその対応する行列の固有ベクトルを計算する関数であ
る。式(3)から、興味深い副産物は、W(1)から再構成
行列を得ることができることである。U(1)はM1×P行列
であるので、その逆を得ることはできない。しかし、そ
の擬似逆を用いてその逆に近づけることはできる。 の擬似逆であるとすると、 ここで、 はW(1)及びU(1)からの再構成行列である。図2は、数枚
の原顔面イメージ及びそれらの対応する再構成顔面イメ
ージ(M1=25)を与える。上段のイメージは再構成顔面
イメージ であり、中段のイメージは対応する原顔面イメージであ
り、下段のイメージは残余イメージ である。再構成行列から、顔面の詳細が失われているこ
とが分かる。そのことは、W(1)が描写する内容を低域フ
ィルタイメージとして注目可能であることを意味する。
残余イメージは、対応する高域フィルタイメージであ
る。再構成行列を観察すると、一次特徴が前記イメージ
をうまく描写できないことを示す適当な解で再構成でき
ないイメージもある。再構成行列が悪いほど、より多く
の情報が残余イメージで保存される。これらの残余イメ
ージは個々のイメージに関する豊富な情報をまだ含むの
で、顔面特徴を再度これらの残余顔面から抽出すべきで
ある。
FIG. 3 shows a procedure for calculating the primary feature W (1) . In the figure, eig (B, i) is a function for calculating the i-th largest eigenvalue and its corresponding matrix eigenvector. From equation (3), an interesting by-product is that a reconstruction matrix can be obtained from W (1) . Since U (1) is an M 1 × P matrix, the inverse cannot be obtained. However, the pseudo inverse can be used to approach the opposite. But Is the inverse of here, Is the reconstructed matrix from W (1) and U (1) . FIG. 2 gives several original facial images and their corresponding reconstructed facial images (M 1 = 25). The upper image is a reconstructed facial image Where the middle image is the corresponding original face image and the lower image is the residual image It is. From the reconstruction matrix, it can be seen that facial details have been lost. This means that the content described by W (1) can be noticed as a low-pass filter image.
The residual image is the corresponding high pass filter image. When observing the reconstruction matrix, some images cannot be reconstructed with suitable solutions indicating that the primary features do not render the image well. The worse the reconstruction matrix, the more information is stored in the residual image. Since these residual images still contain a wealth of information about the individual images, facial features should be extracted again from these residual faces.

【0019】 とすると、λi (2)の固有値であり、νi (2)の対応する固有ベクトルである。また、 である。上述の記載に基づいて、 の固有ベクトルは である。よって、 を計算することにより、残余顔面イメージΓ(2)をM2<<M
次元のみの上へ投影することができる。ここで、 であり、1=k=M2である。uk (2)は残余顔面イメージの固
有ベクトルであるため、u k (2)は二次顔面固有値、wk (2)
は二次特徴と呼ばれる。
[0019]Then λi (2)IsEigenvalue of νi (2)IsIs the corresponding eigenvector. Also, It is. Based on the above description,The eigenvector of isIt is. Therefore,By calculating the residual facial image Γ(2)MTwo<< M
It can be projected onto dimensions only. here, And 1 = k = MTwoIt is. uk (2)Is the residual facial image
U k (2)Is the secondary facial eigenvalue, wk (2)
Are called secondary features.

【0020】 とすると、式(5)を次のように書くことができる。 [0020] Then, equation (5) can be written as follows.

【0021】 とすると、 である。[0021] Then It is.

【0022】U2は一定の変換行列であり、1回計算され
るだけであるため、計算効率に影響しない。顔面イメー
ジは、 (ここで、1=M1'=M1である)を用いて描写することがで
きる。顔面固有値Uから特徴を計算することのみに比べ
てΩ(Φ)を計算することについて計算の負担は増加しな
い。顔面イメージの類似性は、投影間の加重距離として
単に定義される。
U 2 is a constant transformation matrix and is calculated only once, so that it does not affect the calculation efficiency. The facial image is (Where 1 = M 1 ′ = M 1 ). Computing Ω (Φ) does not increase the computational burden compared to computing features only from the facial eigenvalue U. Facial image similarity is simply defined as the weighted distance between projections.

【0023】a1=0の場合、顔面イメージの類似性は、二
次特徴を用いるだけで測定される。説明の便宜上、残余
イメージを二次残余イメージと呼び、(原顔面イメージ
を零次残余イメージと呼ぶほうが良いように思われる
が)原顔面イメージを一次残余イメージと呼ぶ。
If a 1 = 0, the similarity of the facial images is measured using only the secondary features. For convenience of explanation, the residual image is called a secondary residual image, and the original facial image is called a primary residual image (although it seems better to call the original facial image a zero-order residual image).

【0024】同一の方法を用いて、三次、四次、…、n
次顔面固有値を導き出すこともできる。対応する次数の
残余イメージを投影することにより、三次、四次、…、
n次特徴を得ることができる。これらの高次特徴を用い
て、顔面イメージの類似性を投影間の加重ユークリッド
距離として定義することができる。図4は、i次顔面固
有値U(i)及び対応する変換行列Uiを計算する手順を示
す。同図において、Pseudo_Inv(B)は、行列Bの擬似逆を
計算する関数である。
Using the same method, tertiary, quaternary,..., N
The next facial eigenvalue can also be derived. By projecting the residual image of the corresponding order, the third, fourth,…,
An nth order feature can be obtained. Using these higher-order features, the similarity of facial images can be defined as a weighted Euclidean distance between projections. FIG. 4 shows a procedure for calculating the i- th facial eigenvalue U (i) and the corresponding transformation matrix Ui. In the figure, Pseudo_Inv (B) is a function for calculating a pseudo inverse of the matrix B.

【0025】前記特徴を効率的に表すために、特徴を圧
縮して表すこともできる。最も簡単な方法は、特徴を整
数に切り捨てることである。我々の意見によれば、1つ
の可能な方法は次の通りである。 ここで、round()は実数を整数に丸める関数である。よ
って、 はΩ(Φ)のコード化表示である。
In order to efficiently represent the features, the features may be compressed and represented. The simplest way is to truncate the features to integers. In our opinion, one possible way is as follows. Here, round () is a function for rounding a real number to an integer. Therefore, Is the coded representation of Ω (Φ).

【0026】上述の方法を用いて、顔面イメージを描写
する方法を次のように考えることができる。 1)前記顔面イメージを標準サイズに正規化すること 2)目の上下位置を迅速に突き止めること 3)頭を適当な位置に移動すること 4)前記顔面イメージを画素の一次元配列に走査するこ
と 5)平均イメージを用いて前記画素の一次元配列を引く
こと 6)前記一次及び高次顔面固有値を用いて前記引かれた
画素の一次元配列を掛けること 7)得られた特徴を顔面の描写として使用すること 8)前記特徴をコード化表示にコード化すること
A method of drawing a facial image using the above method can be considered as follows. 1) Normalizing the facial image to a standard size 2) Quickly locating the top and bottom of the eyes 3) Moving the head to an appropriate position 4) Scanning the facial image into a one-dimensional array of pixels 5) Subtracting the one-dimensional array of the pixels using an average image 6) Multiplying the one-dimensional array of the subtracted pixels using the primary and higher order facial eigenvalues 7) Depicting the resulting features in the face 8) encoding the features in a coded display

【0027】この方法を用いて、人の顔面を、効果的に
スペース効率良く描写することができ、時間的な複雑さ
を少なくして計算することができる。
Using this method, a human face can be effectively and efficiently described in space, and can be calculated with reduced temporal complexity.

【0028】[0028]

【発明の効果】本発明は、人の顔面を描写するのに非常
に効果的である。高次顔面固有値は、調整顔面イメージ
を用いて1回のみで計算可能であるため、高次特徴を一
次特徴と同じくらい効率良く得ることができる。しか
し、詳細情報は高次特徴を用いて明らかにすることがで
きるため、一次特徴及び高次特徴の組合せにより、同一
数の一次特徴と比べてより良い顔面描写が可能となる。
我々の実験によれば、一次特徴M1の数が20未満である
場合、二次特徴は、一次特徴よりも高い描写性能を有す
る。そのことは、顔面を描写するのに二次特徴を単に使
用することさえ意味し、同一数の一次特徴を使用するよ
りも認識率が向上する。
The present invention is very effective for depicting a person's face. Since the higher-order face eigenvalue can be calculated only once using the adjusted face image, the higher-order features can be obtained as efficiently as the primary features. However, because the detailed information can be revealed using higher-order features, the combination of primary features and higher-order features allows for better facial depiction than the same number of primary features.
According to our experiments, when the number of the primary feature M 1 is less than 20, the secondary feature has a superior image quality than the primary features. That even means simply using the secondary features to depict the face, which improves the recognition rate over using the same number of primary features.

【0029】本発明は、人の顔面を描写するのに非常に
効果的かつ効率的であり、インターネットマルチメディ
アデータベース検索、ビデオ編集、ディジタルライブラ
リ、監視及び追跡、及び顔面認識及び確認を広く用いた
他の用途で使用することができる。
The present invention is very effective and efficient in depicting human faces and makes extensive use of Internet multimedia database searching, video editing, digital libraries, surveillance and tracking, and facial recognition and verification. It can be used in other applications.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 目の上下位置を突き止めるフローチャートFIG. 1 is a flowchart for determining the vertical position of an eye.

【図2】 再構成顔面、対応する原顔面及び二次残余イ
メージの説明図
FIG. 2 is an explanatory diagram of a reconstructed face, a corresponding original face, and a secondary residual image.

【図3】 一次特徴W(1)を計算する手順を示すフローチ
ャート
FIG. 3 is a flowchart showing a procedure for calculating a primary feature W (1).

【図4】 i次顔面固有値U(i)及び対応する変換行列Ui
を計算する手順を示すフローチャート
FIG. 4 i-th face eigenvalue U (i) and corresponding transformation matrix U i
Flowchart showing the procedure for calculating

フロントページの続き (72)発明者 ティオ ケン・タン シンガポール534415シンガポール、タイ・ セン・アベニュー、ブロック1022、04− 3530番、タイ・セン・インダストリアル・ エステイト、パナソニック・シンガポール 研究所株式会社内 Fターム(参考) 5C054 AA02 CA04 CC03 EA05 FC12 HA05 HA18 HA23 HA24 5L096 BA02 BA18 CA02 EA13 EA14 FA23 FA69 FA81 JA11 Continuing on the front page (72) Inventor Tio Ken Tan Singapore 534415 Singapore, Thai Sen Avenue, Blocks 1022, 04-3530, Thai Sen Industrial Estate, Panasonic Singapore Institute F-term ( Reference) 5C054 AA02 CA04 CC03 EA05 FC12 HA05 HA18 HA23 HA24 5L096 BA02 BA18 CA02 EA13 EA14 FA23 FA69 FA81 JA11

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 調整顔面イメージを用いて一次顔面固有
値を計算するステップと、 前記調整顔面イメージを用いて二次顔面固有値を計算す
るステップと、 前記二次顔面固有値から描写されるべき顔面イメージ用
の二次特徴を得るステップと、 前記二次特徴から前記顔面イメージを描写する特徴を選
択するステップと、を含む、顔面描写用の特徴を抽出す
る方法。
Calculating a primary facial eigenvalue using the adjusted facial image; calculating a secondary facial eigenvalue using the adjusted facial image; and a facial image to be drawn from the secondary facial eigenvalue. A method for extracting features for facial depiction, comprising: obtaining a secondary feature of: and selecting a feature that describes the facial image from the secondary feature.
【請求項2】 調整顔面イメージを用いて一次顔面固有
値を計算するステップと、 前記一次顔面固有値から描写されるべき顔面イメージ用
の一次特徴を得るステップと、 前記調整顔面イメージを用いて二次顔面固有値を計算す
るステップと、 前記二次顔面固有値から描写されるべき前記顔面イメー
ジ用の二次特徴を得るステップと、 前記一次及び二次特徴から前記顔面イメージを描写する
特徴を選択するステップと、を含む、顔面描写用の特徴
を抽出する方法。
Calculating a primary facial eigenvalue using the adjusted facial image; obtaining a primary feature for the facial image to be drawn from the primary facial eigenvalue; and a secondary facial using the adjusted facial image. Calculating eigenvalues; obtaining secondary features for the facial image to be rendered from the secondary facial eigenvalues; selecting features from the primary and secondary features to describe the facial image; A method for extracting features for facial depiction, including:
【請求項3】 調整顔面イメージを用いて一次顔面固有
値を計算するステップと、 前記調整顔面イメージを用いて高次顔面固有値を計算す
るステップと、 前記高次顔面固有値から描写されるべき顔面イメージ用
の二次、三次、…、i次、…、n次特徴を得るステップ
と、 前記高次特徴から前記顔面イメージを描写する特徴を選
択するステップと、を含む、顔面描写用の特徴を抽出す
る方法。
Calculating a primary facial eigenvalue using the adjusted facial image; calculating a higher facial eigenvalue using the adjusted facial image; and a facial image to be drawn from the higher facial eigenvalue. , I-th,..., N-th features of the following, and selecting a feature that describes the facial image from the higher-order features: Method.
【請求項4】 調整顔面イメージを用いて一次顔面固有
値を計算するステップと、 前記一次顔面固有値を用いて描写されるべき顔面イメー
ジ用の一次特徴を得るステップと、 前記調整顔面イメージを用いて高次顔面固有値を計算す
るステップと、 前記高次顔面固有値を用いて描写されるべき前記顔面イ
メージ用の二次、三次、…、i次、…、n次特徴(高次
特徴)を得るステップと、 前記一次特徴及び前記高次特徴から前記顔面イメージを
描写する特徴を選択するステップと、を含む、顔面描写
用の特徴を抽出する方法。
Calculating a primary facial eigenvalue using the adjusted facial image; obtaining a primary feature for the facial image to be rendered using the primary facial eigenvalue; Calculating a secondary facial eigenvalue; and obtaining secondary, tertiary,..., I-order,..., N-order features (higher-order features) for the facial image to be rendered using the higher-order facial eigenvalue. Selecting a feature for describing the facial image from the primary feature and the higher-order feature.
【請求項5】 前記一次顔面固有値の擬似逆を計算する
ステップと、 二次残余イメージを得るステップと、 前記二次残余イメージの固有ベクトルを計算するステッ
プと、を含む、請求項1または2記載の二次顔面固有値
を計算する方法。
5. The method according to claim 1, further comprising: calculating a pseudo-inverse of the primary facial eigenvalue; obtaining a secondary residual image; and calculating an eigenvector of the secondary residual image. How to calculate the secondary facial eigenvalues.
【請求項6】 前記一次顔面固有値の擬似逆を計算する
ステップと、 二次残余イメージを得るステップと、 前記イメージの二次、三次、…、i次、…、n次固有ベ
クトル(これらの全固有ベクトルを高次顔面固有値と呼
ぶ)を計算するステップと、を含む、請求項3または4
記載の高次顔面固有値を計算する方法。
6. calculating a pseudo-inverse of said primary facial eigenvalue; obtaining a secondary residual image; secondary, tertiary,..., I-order,. Is referred to as a higher-order facial eigenvalue).
How to calculate the higher-order facial eigenvalues described.
【請求項7】 (i−1)次固有ベクトル行列の擬似逆
行列を計算するステップと、 i次残余イメージを得るステップと、 前記i次残余イメージのi次固有ベクトル行列を計算す
るステップと、を含む、請求項6記載のi次固有ベクト
ルを計算する方法。
7. The method includes: (i-1) calculating a pseudo-inverse of an eigenvector matrix, obtaining an i-th residual image, and calculating an i-th eigenvector matrix of the i-th residual image. 7. The method for calculating an i-th eigenvector according to claim 6.
【請求項8】 原イメージの再構成行列を得るステップ
と、 前記原イメージから原イメージの前記再構成行列を引い
て二次残余イメージを得るステップと、を含む、請求項
5または6記載の二次残余イメージを得る方法。
8. The method according to claim 5, further comprising: obtaining a reconstruction matrix of an original image; and subtracting the reconstruction matrix of the original image from the original image to obtain a quadratic residual image. How to get the next residual image.
【請求項9】 (i−1)次残余イメージを得るステッ
プと、 前記(i−1)次残余イメージの再構成行列を得るステ
ップと、 前記(i−1)次残余イメージ(ここで、一次残余イメ
ージは原顔面イメージ)から(i−1)次残余イメージ
の前記再構成行列を引くステップと、を含む、請求項7
記載のi次残余イメージを得る方法。
9. An image processing apparatus comprising: (i-1) obtaining a next-order residual image; (i-1) obtaining a reconstruction matrix of the (i-1) -th order residual image; Subtracting the reconstruction matrix of the (i-1) -th order residual image from the residual image (original face image).
A method for obtaining the described i-th residual image.
【請求項10】 一次固有ベクトル行列の擬似逆行列を
用いて一次特徴を掛けるステップを含む、請求項8記載
の原イメージの再構成行列を得る方法。
10. The method for obtaining a reconstruction matrix of an original image according to claim 8, comprising multiplying a first-order feature by using a pseudo-inverse of a first-order eigenvector matrix.
【請求項11】 (i−1)次固有ベクトル行列の擬似
逆行列を用いて(i−1)次特徴の特徴を掛けるステッ
プを含む、請求項9記載の(i−1)次残余イメージの
再構成行列を得る方法。
11. The method of claim 9, further comprising the step of: (i-1) multiplying the characteristic of the (i-1) -th order feature using a pseudo inverse matrix of the (i-1) -th order eigenvector matrix. How to get the constituent matrix.
【請求項12】 二次固有ベクトル行列を用いて二次残
余イメージを掛けるステップを含む、請求項1または2
記載の二次特徴を得る方法。
12. The method of claim 1, further comprising the step of multiplying the quadratic residual image with a quadratic eigenvector matrix.
A method for obtaining the described secondary features.
【請求項13】 i次固有ベクトル行列を用いてi次残
余イメージを掛けるステップを含む、請求項3または4
記載のi次特徴を得る方法。
13. The method of claim 3, further comprising the step of multiplying the i-th residual image with the i-th eigenvector matrix.
A method for obtaining the described i-th feature.
【請求項14】 目の上下位置を突き止めるステップ
と、 前記目を統一位置に置くことにより顔面イメージを移動
するステップと、を含む、頭の位置を正規化する方法。
14. A method of normalizing a head position, comprising: locating an upper and lower position of an eye; and moving a facial image by placing the eye in a uniform position.
【請求項15】 上下方向に沿って顔面イメージを投影
するステップと、 離散フーリエ変換を用いて投影の周波数係数を得るステ
ップと、 前記高周波数係数を廃棄するステップと、 残余周波数係数に関して逆フーリエ変換を実行するステ
ップと、 2つのピークの大きさが閾値よりも大きい1番目の2つ
の局所ピーク間の曲線の極小を突き止めるステップと、 極小を予想領域に見つけた場合、目の上下位置を前記極
小位置に設定するステップと、 前記予想領域に極小がない場合、目の上下位置を最も可
能性の高い位置に設定するステップと、を含む、請求項
14記載の目の上下位置を迅速に突き止める方法。
15. Projecting a facial image along a vertical direction, obtaining a frequency coefficient of the projection using a discrete Fourier transform, discarding the high frequency coefficient, and an inverse Fourier transform with respect to a residual frequency coefficient. And determining the minimum of the curve between the first two local peaks where the magnitude of the two peaks is greater than a threshold. If the minimum is found in the expected area, the vertical position of the eye is reduced to the minimum The method of claim 14, further comprising: setting a position of the eye; and setting the upper and lower positions of the eye to the most probable position when there is no local minimum in the expected area. .
【請求項16】 顔面イメージを標準サイズに正規化す
るステップと、 前記顔面イメージを画素の一次元配列に走査するステッ
プと、 平均イメージを用いて前記画素の一次元配列を引くステ
ップと、 前記一次及び高次顔面固有値を用いて前記引かれた画素
の一次元配列を掛けるステップと、 得られた特徴を顔面の描写として使用するステップと、
を含む、顔面イメージを描写する方法。
16. normalizing the facial image to a standard size; scanning the facial image into a one-dimensional array of pixels; subtracting the one-dimensional array of pixels using an average image; And multiplying the one-dimensional array of the drawn pixels using a higher-order facial eigenvalue and using the obtained features as a facial depiction;
How to render facial images, including.
【請求項17】 顔面イメージを標準サイズに正規化す
るステップと、 目の上下位置を突き止めるステップと、 頭を適当な位置に移動するステップと、 前記顔面イメージを画素の一次元配列に走査するステッ
プと、 平均イメージを用いて前記画素の一次元配列を引くステ
ップと、 前記一次及び高次顔面固有値を用いて前記引かれた画素
の一次元配列を掛けるステップと、 得られた特徴を顔面の描写として使用するステップと、
を含む、顔面イメージを描写する方法。
17. normalizing the face image to a standard size; locating the top and bottom of the eyes; moving the head to an appropriate position; and scanning the face image into a one-dimensional array of pixels. Subtracting a one-dimensional array of the pixels using an average image; multiplying the one-dimensional array of the extracted pixels using the primary and higher-order facial eigenvalues; Steps to use as
How to render facial images, including.
【請求項18】 顔面イメージを標準サイズに正規化す
るステップと、 前記顔面イメージを画素の一次元配列に走査するステッ
プと、 平均イメージを用いて前記画素の一次元配列を引くステ
ップと、 前記一次及び高次顔面固有値を用いて前記引かれた画素
の一次元配列を掛けるステップと、 得られた特徴を顔面の描写として使用するステップと、 前記特徴をコード化表示にコード化するステップと、を
含む、顔面イメージを描写する方法。
18. normalizing the facial image to a standard size; scanning the facial image into a one-dimensional array of pixels; subtracting the one-dimensional array of pixels using an average image; And multiplying the one-dimensional array of the drawn pixels using a higher-order face eigenvalue, using the obtained feature as a facial depiction, and coding the feature into a coded display. How to depict facial images, including.
【請求項19】 顔面イメージを標準サイズに正規化す
るステップと、 目の上下位置を突き止めるステップと、 頭を適当な位置に移動するステップと、 前記顔面イメージを画素の一次元配列に走査するステッ
プと、 平均イメージを用いて前記画素の一次元配列を引くステ
ップと、 前記一次及び高次顔面固有値を用いて前記引かれた画素
の一次元配列を掛けるステップと、 得られた特徴を顔面の描写として使用するステップと、 前記特徴をコード化表示にコード化するステップと、を
含む、顔面イメージを描写する方法。
19. normalizing the facial image to a standard size; locating the upper and lower positions of the eyes; moving the head to an appropriate position; and scanning the facial image into a one-dimensional array of pixels. Subtracting a one-dimensional array of the pixels using an average image; multiplying the one-dimensional array of the extracted pixels using the primary and higher-order facial eigenvalues; And encoding the features into a coded representation.
JP2000076580A 2000-03-17 2000-03-17 Method for portraying, identifying and matching face surface by using high-order face surface characteristic value Pending JP2001266150A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000076580A JP2001266150A (en) 2000-03-17 2000-03-17 Method for portraying, identifying and matching face surface by using high-order face surface characteristic value

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000076580A JP2001266150A (en) 2000-03-17 2000-03-17 Method for portraying, identifying and matching face surface by using high-order face surface characteristic value

Publications (1)

Publication Number Publication Date
JP2001266150A true JP2001266150A (en) 2001-09-28

Family

ID=18594301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000076580A Pending JP2001266150A (en) 2000-03-17 2000-03-17 Method for portraying, identifying and matching face surface by using high-order face surface characteristic value

Country Status (1)

Country Link
JP (1) JP2001266150A (en)

Similar Documents

Publication Publication Date Title
EP2676224B1 (en) Image quality assessment
US7369687B2 (en) Method for extracting face position, program for causing computer to execute the method for extracting face position and apparatus for extracting face position
JP3986583B2 (en) Method and apparatus for detecting, recognizing and encoding complex objects using stochastic eigenspace analysis
Kandaswamy et al. Efficient texture analysis of SAR imagery
US7869657B2 (en) System and method for comparing images using an edit distance
US9165184B2 (en) Identifying matching images
US10192142B2 (en) Supervised facial recognition system and method
Immidisetti et al. Simultaneous face hallucination and translation for thermal to visible face verification using axial-gan
Kekre et al. CBIR feature vector dimension reduction with eigenvectors of covariance matrix using row, column and diagonal mean sequences
Aneesh et al. Optimal feature selection based on image pre-processing using accelerated binary particle swarm optimization for enhanced face recognition
JP3252941B2 (en) Image segmentation recognition device
JP2004272326A (en) Probabilistic facial component fusion method for face description and recognition using subspace component feature
JP2001266150A (en) Method for portraying, identifying and matching face surface by using high-order face surface characteristic value
US7876832B2 (en) Method for the characterization of a digital image and the applications thereof
Pande et al. Parallel processing for multi face detection and recognition
JP2006163614A (en) Image processing device and method
JP2004038937A (en) Method and device for face description and recognition using high-order eigen-component
WO2003088131A2 (en) Method and apparatus for face description and recognition using high-order eigencomponents
Ragaglia et al. On the exploitation of DCT statistics for cropping detectors
Teymourzadeh et al. Design an advance computer-aided tool for image authentication and classification
Buoncompagni et al. Shape features for candidate photo selection in sketch recognition
Tuffour Enhancing Facial Recognition: A Comparative Analysis of Image Preprocessing Techniques in PCA, KL Expansion and SVD
Strobel et al. MMAP: Modified Maximum a Posteriori algorithm for image segmentation in large image/video databases
Shreeja et al. Facial feature extraction using statistical quantities of curve coefficients
Zeng An Ensemble Method of Global and Local Representation for Face Recognition