JP2004038937A - Method and device for face description and recognition using high-order eigen-component - Google Patents

Method and device for face description and recognition using high-order eigen-component Download PDF

Info

Publication number
JP2004038937A
JP2004038937A JP2003101768A JP2003101768A JP2004038937A JP 2004038937 A JP2004038937 A JP 2004038937A JP 2003101768 A JP2003101768 A JP 2003101768A JP 2003101768 A JP2003101768 A JP 2003101768A JP 2004038937 A JP2004038937 A JP 2004038937A
Authority
JP
Japan
Prior art keywords
component
face
primary
test
operable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003101768A
Other languages
Japanese (ja)
Inventor
Yongsheng Gao
ガオ・ヨンシェン
Juu Lee Chaku
チャク ジュー・リー
Mei Shen Shen
シェン メイ・シェン
Zhongyang Huang
ファング・ゾンヤン
Takanori Senoo
妹尾 孝憲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003101768A priority Critical patent/JP2004038937A/en
Publication of JP2004038937A publication Critical patent/JP2004038937A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and device for face description and recognition using a high-order eigen-component. <P>SOLUTION: High-order eigen-components are proposed to describe detailed regional information on a particular facial component. A formula is given to calculate a high-order transform matrix for projection. High-order component features can be used individually to describe a facial component or combined with first-order component features. The combination of first-order component features and high-order component features of eyes, eyebrows, nose, mouth and outline, which depends on the significance of identity information on the corresponding area, has better face description capability than first-order eigen-face features or combined first-order and high-order eigen-face features. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、高次固有成分を用いる、顔の記述および認識のための方法および装置に関する。本発明は、コンテンツに基づく画像検索用の顔の記述および認識、銀行、セキュリティシステムおよびテレビ電話用の人物の顔の識別および認証、監視および追跡、電子図書館およびインターネット・マルチメディア・データベースに利用できる。
【0002】
【従来の技術】
人物の顔認識はコンピュータビジョン分野において盛んな領域である。顔認識はマルチメディアのデータベース検索やその他各種のアプリケーションにおいて重要な役割を果たすであろう。近年、顔の検知および認識問題において相当の進展があり、さまざまな技術が提案されている。これらのうち、ニューラルネットワーク、弾性テンプレート・マッチング、カルーネン・レーベ(Karhunen−Loeve)展開、代数的モーメントおよび等密度線が典型的な方法である。
【0003】
これらの方法のうち、主成分分析(PCA)またはカルーネン・レーベ(Karhunen−Loeve)展開が重要な流れである。固有顔法はPCAから導かれ、計算に好都合であり、識別能力が一貫して正確である。従来の研究によれば、PCAアプローチは異なる種類の情報同士を自然に区別できることがわかっている。固有値が大きい固有ベクトルは顔の部分構造に共通の情報を取得し、固有値が小さい固有ベクトルは個々の顔に固有の情報を取得する。研究により、固有値が大きい固有ベクトルが含む情報だけが、未学習の新しい顔に一般化できることがわかっている。
【0004】
【発明が解決しようとする課題】
固有顔法の利点は、固有値が大きい固有ベクトルが顔の基本形状と構造に対応する情報を持っていることである。これは、固有値が大きい固有ベクトルから抽出された特徴を利用して人物の顔の主要な特徴を記述することができることを意味する。しかし、これは同時にPCAの弱点でもある。固有値が大きい固有ベクトルから抽出された特徴だけを考慮したならば、個々の顔に対応する顔の細部を得ることができない。個々の顔のこれらの細部を、人物の顔共通の特徴で記述することができれば、人物の顔記述がより正確になる。
【0005】
固有顔法の欠点の一つは、顔成分の寄与率がすべて等しいことである。識別情報は、顔全体に均等に分布しているのではなく、目、眉、鼻、口および輪郭等、主として顔の中心部に存在する。頬の部分は識別情報を少ししか含まず、照明状態の変化や表情の変化の影響を受けやすい。顔成分について識別性の重要度が利用できるならば、人物の顔の認識がより正確に行なえるだろう。
【0006】
【課題を解決するための手段】
固有顔法は、形状や構造等、顔の一般的な特徴を抽出するのに効率的である。固有値が小さい固有ベクトルが切り捨てれた場合に失われる顔の細部を取得するために、固有値が大きい固有ベクトルからの特徴により再構築された顔を取得する必要がある。再構築された顔の画像により、元の画像と再構築されたマトリックスの間の残余画像が得られる。これらの残余顔は高域通過された顔画像と見なされ、依然として個々の顔の細部情報を豊富に含んでいる。これらの残余顔を記述するために、固有顔法を再びこれらの残余顔に適用することができる。取得された、固有値が大きい固有ベクトルにより残余顔に共通する特徴が明らかになろう。本方法により、固有値が大きい高次固有ベクトルを取得して対応する特徴を抽出することができる。異なる次数の固有顔から得られた特徴を組み合わせて効率的に顔を記述することができる。
【0007】
同様に、顔成分の一次およびより高次の主成分(固有成分)を取得して対応する顔領域の特徴を記述することができる。異なる次数の固有成分から得られたこれらの特徴を組み合わせて利用することにより、個々の顔成分を効率的に記述することができる。最終的に、人物の顔をさまざまな注目度で重み付けされた異なる次数の固有成分の組合わせで表現することができる。各種の用途に応じて、さまざまな成分の機能性(長所や短所)に当然相違があろう。それぞれの成分に対して異なる重み付けを割り当てる必要がある。
【0008】
【作用】
本発明、画像検索(サンプル顔によるクエリー)、人物の識別および認証、監視および追跡、その他の顔認識用途に利用可能な、人物の顔を解釈する方法を提供する。顔特徴を記述するために、発明者の観察および導出に基づいて高次固有成分の概念を提案する。最初に、すべての顔画像を標準サイズに正規化する。次に目の垂直位置を計算して、顔を適切な位置に移す。これらの前処理がすべて終了したならば、固有成分および高次固有成分を学習用顔画像の集合から取得することができる。顔データベース内で顔画像を検索するために、固有成分と高次固有成分が射影された画像の特徴を、選択された固有成分と高次固有成分から計算することができる。これらの特徴を組み合わせて顔を記述することができる。この記述により、ユークリッド距離を用いて類似度を測定することができる。類似度の正確さを高めるために、特徴に重み付けをする必要がある。
【0009】
【発明の実施の形態】
本発明は、異なる次数の成分の特徴を組み合わせて、より高次の固有成分特徴を抽出し、顔を表現する方法を提供する。
【0010】
正規化された顔画像を用いて、固有成分および高次固有成分は以下のように取得できる。
【0011】
最初に、正規化された顔画像の所定のブロックを用いて、顔成分(目、眉、鼻、口や輪郭等)を得る。
【0012】
ラスタースキャン表現された顔成分の1次元ベクトルである顔成分Φに対し、平均成分Ψを次式で定義する。
【数1】

Figure 2004038937
【0013】
すべての顔成分は平均の成分と、次式のベクトルだけ異なる。
【数2】
Figure 2004038937
【0014】
データの共分散行列は従って次式で定義される。
【数3】
Figure 2004038937
ここで、
【数4】
Figure 2004038937
【0015】
Qの次元はwh×whであり、wとhはそれぞれ成分の幅と高さである点に留意されたい。この行列の大きさは巨大であるが、有限個数の成分ベクトルMだけを加算するため、この行列の階数はM−1を超えることはない。v (1)
Figure 2004038937
(i=1,2,...M)の固有ベクトルであるならば、λ (1)
Figure 2004038937
の固有値として
Figure 2004038937
であり、従って上式の左辺にA(1)を乗じることにより
Figure 2004038937

Figure 2004038937
の固有ベクトルになることに留意する。
【数5】
Figure 2004038937
【0016】
従って、固有ベクトルv (1)、および固有値λ (1)は次式によって得られる。
【数6】
Figure 2004038937
【0017】
しかし
Figure 2004038937
の大きさはM×Mに過ぎない。従ってu (1)
Figure 2004038937
の固有ベクトルとして次式を得る。
【数7】
Figure 2004038937
【0018】
固有値λ (1)は、固有ベクトルu (1)が張る新しい座標空間に沿った分散である。これ以降、iの次数が大きいほど固有値λ (1)を減少するものと仮定する。固有値は指数的に減少する。従って、
Figure 2004038937
を計算することにより(ここに
Figure 2004038937
かつ1≦k≦M)、顔成分Γ(1)をM<<M次元だけに射影することができる。w (1)は新座標系におけるΓ(1)のk番目の座標である。この前提でW(1)を一次成分特徴と呼ぶ。ベクトルu (1)は実際には画像であり、一次固有成分と呼ぶ。
【0019】
【数8】
Figure 2004038937
これによれば、次式を得る。
【数9】
Figure 2004038937
【0020】
(1)はM×P行列であるため、逆行列は得られない。しかし、その擬似逆行列を用いて逆行列を近似することができる。
Figure 2004038937
を次式のように
Figure 2004038937
の擬似逆行列とする。
【数10】
Figure 2004038937
これによれば、次式を得る。
【数11】
Figure 2004038937
ここに、
Figure 2004038937
はW(1)およびU(1)から再構成された行列である。
【0021】
次いで、次式が残余成分Г (2)を得るために実行される。
【数12】
Figure 2004038937
【0022】
残余の顔成分ベクトルは依然として個々の成分の情報を豊富に含んでいるため、顔成分特徴を再び残余成分から抽出する必要がある。
Figure 2004038937
、λ (2)
Figure 2004038937
の固有値、v (2)
Figure 2004038937
の対応する固有ベクトルとすると、
Figure 2004038937
である。上述の議論に基づいて、
Figure 2004038937
の固有ベクトルは
Figure 2004038937
である。従って、
Figure 2004038937
を計算することにより、残余成分Γ(2)をM<<M次元だけに射影することができる。ここに、
【数13】
Figure 2004038937
かつ1≦k≦Mである。u (2)は残余成分の固有ベクトルであるため、u (2)を二次固有成分、w (2)を二次成分特徴と呼ぶ。
【0023】
【数14】
Figure 2004038937
とすれば、式(13)は以下のように書ける。
【数15】
Figure 2004038937
また、
【数16】
Figure 2004038937
とすれば次式を得る。
【数17】
Figure 2004038937
【0024】
は定数変換行列であって一度しか計算されないため、計算効率には影響しない。顔成分は次式で記述できる。
【数18】
Figure 2004038937
ここに、
Figure 2004038937
である。Ω(Φ)を計算する際の計算負荷は、固有成分Uから成分特徴を計算するだけの場合と比べて増大はしない。
【0025】
残余成分を二次残余成分と呼び、元の成分を一次残余成分と呼ぶ。
【0026】
同じ方法により、三次、四次、・・・、n次固有成分を導くことができる。対応する次数の残余成分を射影することにより、三次、四次、・・・、n次成分特徴が得られる。これらの高次成分特徴を用いて、成分の類似度を射影間の重み付ユークリッド距離として定義することができる。図2にi次固有成分U(i)および対応する変換行列Uの計算手順を示す。同図においてPseudo_Inv(B)は行列Bの擬似逆行列を計算する関数である。
【0027】
二つの顔HとHの非類似度を、固有成分(例:固有目、固有眉、固有鼻、固有口および固有輪郭)と固有顔の射影から生成された各種の顔成分特徴間の合成距離として定義する。
【数19】
Figure 2004038937
a1=0の場合、顔画像の類似度は二次特徴だけを用いて測定される。
【0028】
上述の方法により、顔画像を記述する方法は以下のように考察できる。
1)成分ウインドウ左上隅から始めて成分ウインドウの右下隅までラスタスキャン方式により前記顔成分を走査して一次元ピクセル配列を得る。
2)前記一次元ピクセル配列から平均成分を減算する。
3)前記減算された一次元ピクセル配列に前記一次および高次固有成分を乗ずる。
4)得られた成分の特徴を顔の記述として用いる。
5)前記特徴を符号化表現としてコーディングする。
【0029】
本方法により、人物の顔の識別情報の重要度応じて異なる注目度で重み付けを行ない、人物の顔を効果的かつ空間効率良く記述することができる。
【0030】
次に、本発明による顔特徴抽出の全体の演算を、図3および4を参照して説明する。演算は図4に示される学習モード演算(ステップ#22〜#31)、および図3に示される試験モード演算(ステップ#32〜#42)を含む。学習モードでは、まず、多くの顔サンプルを学習し、累積し、かつ一次平均の係数を得るための演算を行なう。
【0031】
学習モードはステップ#22から開始し、ステップ#31まで続く。学習モードは、試験モードで使用される種々のパラメータを生成するために設けられている。
【0032】
ステップ#22において、複数のサンプル顔画像が入力される。
【0033】
ステップ#23において、各サンプル顔画像は、右目、左目、右眉、左眉、鼻、口、輪郭のような、複数の顔部分に分割され、各部分は解析されて、基本顔成分Φを得る。顔成分Φは人の顔の識別性の重要度に基づいて重み付けがなされる。
【0034】
ステップ#24において、鼻部分のような同じ部分の顔成分が複数のサンプル顔画像から収集される。鼻部分の顔成分は鼻成分と呼ばれる。各部分の収集された顔成分が平均されて、式(1)を用いて一次平均顔成分Φを得る。同じ演算が実行されて、異なる顔成分に対する一次平均顔成分を得る。一次平均顔成分Φは、ステップ#34における試験モード演算で使用される。
【0035】
ステップ#25において、各サンプル顔画像の任意の顔成分、例えば鼻の顔成分が、鼻の一次平均顔成分Φで引き算され、式(2)によって与えられる鼻のベクトルを得る。異なる顔成分の各々に対して、同じ演算が実行される。
【0036】
ステップ#22〜#25はまとめて、学習用顔画像を解析する解析ステップと呼ばれる。
【0037】
ステップ#26において、式(4)、(5)、(6)、(7)、および(8)が実行され、一次固有成分U(1)を得る。一次固有成分U(1)は、ステップ#35における試験モード演算で使用される。
【0038】
ステップ#27において、式(10)を用いて逆行列U(1)+が生成される。逆行列U(1)+は、U(1)Tにほぼ等しい。逆行列U(1)+は、ステップ#37における試験モード演算で使用される。
【0039】
ステップ#28において、逆行列U(1)+は、式(11)を用いて顔成分の差を得るために使用される。こうして、ステップ#22で収集された元の顔画像の基本顔成分に対する顔成分の差が得られる。ステップ#28で生成されたデータは差顔成分と呼ばれる。
【0040】
ステップ#29において、差顔成分と一次平均顔成分との差が得られる。
【0041】
ステップ#27〜#29はまとめて、一次固有成分を解析する解析ステップと呼ばれる。
【0042】
ステップ#30において、ステップ#29で得られる差を用いて、二次K−L係数U(2)(これは二次固有成分とも呼ばれる)が、式(4)、(6)、(7)、(14)、および(16)を用いて計算される。二次K−L係数U(2)は、K−L変換(ステップ#40)における試験モードで使用される。
【0043】
試験モードは、ステップ#32から始まり、ステップ#42まで続く。一次成分特徴W(1)およびニ次成分特徴W(2)を生成するために、試験モードが設けられている。
【0044】
ステップ#32において、試験対象であるひとつの顔画像が入力される。
【0045】
ステップ#33において、入力された顔画像は、右目、左目、右眉、左眉、鼻、口、輪郭のような、複数の顔部分に分割され、各部分は解析されて、基本顔成分Φを得る。顔成分Φは人の顔の識別の重要度に基づいて重み付けがなされる。
【0046】
ステップ#34において、基本顔成分が一次平均顔成分Ψで引き算され、第1差Γ(1)(一次平均残余成分とも呼ばれる)を得る。第1差Γ(1)はステップ#35およびステップ#39で利用される。
【0047】
ステップ#32〜#34はまとめて、試験用顔画像を解析する解析ステップと呼ばれる。
【0048】
ステップ#35において、第1差Γ(1)および一次固有成分U(1)を用いて、式(9)で示されるK−L変換が実行され、一次成分特徴W(1)を得る。
【0049】
ステップ#36において、一次成分特徴W(1)が生成される。一次成分特徴W(1)は、ステップ#32で入力された試験用顔の特徴を表わす。一次成分特徴W(1)は試験用顔を表わす情報として使用され得るが、比較的大きいサイズのデータを有する。次に説明する更なる計算が実行されれば、データサイズを減らすことが出来る。
【0050】
ステップ#37において、式(11)を用いて、K−L逆変換が実行されて、再構成行列
Figure 2004038937
を生成する。
【0051】
ステップ#38において、再構成行列
Figure 2004038937
が生成される。
【0052】
ステップ#39において、式(12)が実行され、第1差Γ(1)と再構成行列
Figure 2004038937
との差を生成して、第2差Γ(2)を得る。これは通常第2残余成分Γ (2)と呼ばれる。
【0053】
ステップ#37〜#39はまとめて、一次成分特徴を解析する解析ステップと呼ばれる。
【0054】
ステップ#40において、第2差Γ(2)および二次K−L係数U(2)を用い、式(17)によるK−L変換が実行されて、二次成分特徴W(2)を生成する。
【0055】
ステップ#41において、二次成分特徴W(2)が生成される。二次成分特徴W(2)は、試験モードにおいて入力された試験用顔の特徴を表わす情報として用いられる。
【0056】
図3および4に示されるフローチャートは、サンプル顔画像および試験用顔画像を捕らえるカメラが接続されたコンピュータによって実行される。2つのコンピュータのセットを準備することも可能である。一方のセットは学習モード演算用とし、他方のセットは試験モード演算用として用いる。各セットにコンピュータとカメラを含むことも可能である。学習モード演算用セットは、ステップ#22〜#30を実行する様プログラムされている一方、試験モード演算用セットは、ステップ#32〜#42を実行する様プログラムされているようにすることも出来る。試験モード演算用セットにおいて、記憶装置が設けられて、一次平均顔成分Ψ、一次固有成分U(1)、逆行列U(1)+、およびニ次固有成分U(2)のような、学習モード演算用セットで得られた情報を前もって格納することも可能である。
【0057】
本発明は、成分主体の特徴を用いることにより、人物の顔記述を極めて効率的に得ることが出来る。高次固有成分が学習用成分を用いて一度だけ計算すれば良いため、高次成分特徴は一次成分特徴と同程度の効率で得られる。しかし、詳細な局部的な識別情報は高次成分特徴により明らかになるため、目、眉、鼻、口および輪郭の一次成分特徴と高次成分特徴にさまざまな注目度の重み付けを組み合わせれば、一次固有顔特徴のみ、または一次固有顔特徴と高次固有顔特徴との組合わせだけの場合よりも性能の良い顔記述を得ることが出来る。
【0058】
本発明は、インターネット・マルチメディア、データベース検索、ビデオ編集、電子図書館、監視および追跡、および顔認識と認証を利用するその他広範な用途に利用可能な顔記述を極めて効果的かつ効率的に提供する。
【図面の簡単な説明】
【図1】一次特徴W(1)の計算手順を示すフローチャートである。
【図2】i次固有成分U(i)および対応する変換行列Uの計算手順を示すフローチャートである。
【図3】学習モード演算のフローチャートである。
【図4】試験モード演算のフローチャートである。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method and apparatus for facial description and recognition using higher-order eigencomponents. The present invention can be used for face description and recognition for content-based image retrieval, human face identification and authentication, monitoring and tracking for banks, security systems and videophones, electronic libraries and Internet multimedia databases. .
[0002]
[Prior art]
Human face recognition is an active area in the field of computer vision. Face recognition will play an important role in multimedia database searching and various other applications. In recent years, there has been considerable progress in the face detection and recognition problem, and various techniques have been proposed. Of these, neural networks, elastic template matching, Karhunen-Loeve expansion, algebraic moments and isopycnic lines are typical methods.
[0003]
Among these methods, principal component analysis (PCA) or Karhunen-Loeve expansion is an important trend. The eigenface method is derived from PCA, is computationally convenient, and the discriminating ability is consistently accurate. Previous studies have shown that the PCA approach can naturally distinguish between different types of information. An eigenvector having a large eigenvalue acquires information common to the partial structure of the face, and an eigenvector having a small eigenvalue acquires information unique to each face. Studies have shown that only the information contained in eigenvectors with large eigenvalues can be generalized to unlearned new faces.
[0004]
[Problems to be solved by the invention]
An advantage of the eigenface method is that an eigenvector having a large eigenvalue has information corresponding to the basic shape and structure of the face. This means that main features of a person's face can be described using features extracted from eigenvectors having large eigenvalues. However, this is also a weak point of PCA. If only features extracted from eigenvectors with large eigenvalues are taken into account, it is not possible to obtain facial details corresponding to individual faces. If these details of individual faces can be described by common features of the face of the person, the face description of the person will be more accurate.
[0005]
One of the drawbacks of the eigenface method is that the contribution ratios of the face components are all equal. The identification information is not evenly distributed over the entire face but exists mainly in the center of the face, such as the eyes, eyebrows, nose, mouth, and contour. The cheek portion contains little identification information and is susceptible to changes in lighting conditions and changes in facial expressions. If the importance of discrimination is available for the face component, the recognition of the face of a person may be performed more accurately.
[0006]
[Means for Solving the Problems]
The eigenface method is efficient for extracting general features of a face, such as a shape and a structure. In order to capture the details of the face that would be lost if the eigenvectors with lower eigenvalues were truncated, it would be necessary to obtain a face reconstructed with features from the eigenvectors with higher eigenvalues. The reconstructed face image gives a residual image between the original image and the reconstructed matrix. These residual faces are considered high-passed face images and still contain a wealth of individual face detail information. To describe these residual faces, the eigenface method can be applied again to these residual faces. The acquired eigenvectors with large eigenvalues will reveal features common to residual faces. According to this method, a higher-order eigenvector having a large eigenvalue can be acquired and a corresponding feature can be extracted. A face can be efficiently described by combining features obtained from eigenfaces of different orders.
[0007]
Similarly, primary and higher order principal components (eigencomponents) of the face component can be obtained and the features of the corresponding face region can be described. By combining and using these features obtained from eigen components of different orders, individual face components can be described efficiently. Finally, a person's face can be represented by a combination of eigencomponents of different orders weighted with various degrees of attention. Depending on the various applications, the functionality (advantages and disadvantages) of the various components will, of course, vary. Different weights need to be assigned to each component.
[0008]
[Action]
The present invention provides a method for interpreting a person's face that can be used for image retrieval (query with sample faces), person identification and authentication, monitoring and tracking, and other face recognition applications. To describe facial features, we propose the concept of higher-order eigencomponents based on the inventors' observations and derivations. First, all face images are normalized to a standard size. Then calculate the vertical position of the eyes and move the face to the appropriate position. When all of these preprocessings are completed, the eigencomponents and higher-order eigencomponents can be obtained from the set of learning face images. In order to search for a face image in the face database, features of the image onto which the eigencomponents and higher-order eigencomponents are projected can be calculated from the selected eigencomponents and higher-order eigencomponents. A face can be described by combining these features. With this description, the similarity can be measured using the Euclidean distance. In order to increase the accuracy of the similarity, it is necessary to weight the features.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
The present invention provides a method for extracting a higher-order eigencomponent feature by combining features of components of different orders and expressing a face.
[0010]
Using the normalized face image, the eigen component and the higher-order eigen component can be obtained as follows.
[0011]
First, face components (eyes, eyebrows, nose, mouth, contour, etc.) are obtained using predetermined blocks of the normalized face image.
[0012]
An average component Ψ is defined by the following equation with respect to a face component Φ i which is a one-dimensional vector of the face component represented by the raster scan.
(Equation 1)
Figure 2004038937
[0013]
All face components differ from the average component by the vector of:
(Equation 2)
Figure 2004038937
[0014]
The covariance matrix of the data is thus defined by:
[Equation 3]
Figure 2004038937
here,
(Equation 4)
Figure 2004038937
[0015]
Note that the dimension of Q is wh × wh, where w and h are the width and height of the component, respectively. Although the size of this matrix is huge, since only a finite number of component vectors M are added, the rank of this matrix does not exceed M-1. v i (1) is
Figure 2004038937
(I = 1, 2,... M), λ i (1)
Figure 2004038937
As the eigenvalue of
Figure 2004038937
Therefore, by multiplying the left side of the above equation by A (1) ,
Figure 2004038937
Is
Figure 2004038937
Note that the eigenvector of
(Equation 5)
Figure 2004038937
[0016]
Therefore, the eigenvector v i (1) and the eigenvalue λ i (1) are obtained by the following equations.
(Equation 6)
Figure 2004038937
[0017]
However
Figure 2004038937
Is only M × M. Therefore, u i (1)
Figure 2004038937
The following equation is obtained as the eigenvector of
(Equation 7)
Figure 2004038937
[0018]
The eigenvalue λ i (1) is the variance along the new coordinate space spanned by the eigenvector u i (1) . Hereinafter, it is assumed that the eigenvalue λ i (1) decreases as the order of i increases. The eigenvalues decrease exponentially. Therefore,
Figure 2004038937
By calculating (here
Figure 2004038937
And 1 ≦ k ≦ M 1 ), and the face component Γ (1) can be projected only to M 1 << M dimensions. w k (1) is the k-th coordinate of Γ (1) in the new coordinate system. On this premise, W (1) is called the primary component feature. Vector u k (1) is actually an image and is called the primary eigencomponent.
[0019]
(Equation 8)
Figure 2004038937
According to this, the following equation is obtained.
(Equation 9)
Figure 2004038937
[0020]
Since U (1) is an M 1 × P matrix, an inverse matrix cannot be obtained. However, the inverse matrix can be approximated using the pseudo inverse matrix.
Figure 2004038937
As follows:
Figure 2004038937
Is a pseudo inverse matrix.
(Equation 10)
Figure 2004038937
According to this, the following equation is obtained.
[Equation 11]
Figure 2004038937
here,
Figure 2004038937
Is a matrix reconstructed from W (1) and U (1) .
[0021]
Then, the following equation is executed to obtain the residual component i i (2) .
(Equation 12)
Figure 2004038937
[0022]
Since the remaining face component vectors still contain a wealth of information on individual components, it is necessary to extract face component features from the remaining components again.
Figure 2004038937
, Λ i (2)
Figure 2004038937
Eigenvalues, v i (2)
Figure 2004038937
Let the corresponding eigenvectors be
Figure 2004038937
It is. Based on the above discussion,
Figure 2004038937
The eigenvector of is
Figure 2004038937
It is. Therefore,
Figure 2004038937
, The residual component Γ (2) can be projected only to the M 2 << M dimension. here,
(Equation 13)
Figure 2004038937
And is 1 ≦ k ≦ M 2. Since u k (2) is the eigenvector of the residual component, u k (2) is called a secondary eigen component and w k (2) is called a secondary component feature.
[0023]
[Equation 14]
Figure 2004038937
Then, equation (13) can be written as follows.
[Equation 15]
Figure 2004038937
Also,
(Equation 16)
Figure 2004038937
Then, the following equation is obtained.
[Equation 17]
Figure 2004038937
[0024]
Since U 2 is not calculated only once a constant conversion matrix does not affect the computational efficiency. The face component can be described by the following equation.
(Equation 18)
Figure 2004038937
here,
Figure 2004038937
It is. The calculation load when calculating Ω (Φ) does not increase as compared with the case where only the component feature is calculated from the eigencomponent U.
[0025]
The residual component is called a secondary residual component, and the original component is called a primary residual component.
[0026]
The same method can be used to derive the third, fourth,. By projecting the residual components of the corresponding order, tertiary, quaternary,..., N-order component features are obtained. Using these higher order component features, the similarity of the components can be defined as a weighted Euclidean distance between the projections. FIG. 2 shows a procedure for calculating the i- th eigencomponent U (i) and the corresponding transformation matrix U i . In the figure, Pseudo_Inv (B) is a function for calculating a pseudo inverse matrix of the matrix B.
[0027]
The dissimilarity of the two faces H 1 and H 2, specific components: between (eg specific day, specific eyebrows, specific nasal, specific ports and specific contour) and generated from the projection of eigenface various facial component feature Defined as composite distance.
[Equation 19]
Figure 2004038937
When a1 = 0, the similarity of the face images is measured using only the secondary features.
[0028]
The method of describing a face image by the above method can be considered as follows.
1) The face component is scanned by a raster scan method from the upper left corner of the component window to the lower right corner of the component window to obtain a one-dimensional pixel array.
2) Subtract an average component from the one-dimensional pixel array.
3) Multiply the subtracted one-dimensional pixel array by the primary and higher order eigencomponents.
4) The features of the obtained components are used as a description of the face.
5) Coding the features as a coded representation.
[0029]
According to the present method, weighting is performed with different degrees of attention according to the importance of identification information of a person's face, and a person's face can be described effectively and space-efficiently.
[0030]
Next, the overall calculation of the facial feature extraction according to the present invention will be described with reference to FIGS. The calculation includes a learning mode calculation (steps # 22 to # 31) shown in FIG. 4 and a test mode calculation (steps # 32 to # 42) shown in FIG. In the learning mode, first, many face samples are learned, accumulated, and an operation for obtaining a coefficient of a primary average is performed.
[0031]
The learning mode starts from step # 22 and continues to step # 31. The learning mode is provided to generate various parameters used in the test mode.
[0032]
In step # 22, a plurality of sample face images are input.
[0033]
In step # 23, each sample face image is divided into a plurality of face parts such as a right eye, a left eye, a right eyebrow, a left eyebrow, a nose, a mouth, and a contour, and each part is analyzed to obtain a basic face component Φ i. Get. The face component Φ i is weighted based on the degree of importance of human face discrimination.
[0034]
In step # 24, face components of the same part, such as the nose, are collected from a plurality of sample face images. The face component of the nose is called the nose component. The collected face components of each part are averaged to obtain a primary average face component Φ using equation (1). The same operation is performed to obtain a primary average face component for different face components. The primary average face component Φ is used in the test mode calculation in step # 34.
[0035]
In step # 25, an arbitrary face component of each sample face image, for example, the nose face component is subtracted by the nose primary average face component Φ to obtain a nose vector given by equation (2). The same operation is performed for each of the different face components.
[0036]
Steps # 22 to # 25 are collectively called an analysis step of analyzing the learning face image.
[0037]
In step # 26, equations (4), (5), (6), (7), and (8) are executed to obtain a first-order eigencomponent U (1) . The primary eigencomponent U (1) is used in the test mode calculation in step # 35.
[0038]
In step # 27, an inverse matrix U (1) + is generated using equation (10). The inverse matrix U (1) + is approximately equal to U (1) T. The inverse matrix U (1) + is used in the test mode calculation in step # 37.
[0039]
In step # 28, the inverse matrix U (1) + is used to obtain the difference between the face components using equation (11). Thus, the difference between the face component and the basic face component of the original face image collected in step # 22 is obtained. The data generated in step # 28 is called a difference face component.
[0040]
In step # 29, the difference between the difference face component and the primary average face component is obtained.
[0041]
Steps # 27 to # 29 are collectively called an analysis step of analyzing the primary eigencomponent.
[0042]
In step # 30, using the difference obtained in step # 29, the second-order KL coefficient U (2) (also referred to as a second-order eigencomponent ) is calculated by using equations (4), (6), and (7). , (14), and (16). The secondary KL coefficient U (2) is used in the test mode in the KL conversion (Step # 40).
[0043]
The test mode starts from step # 32 and continues to step # 42. A test mode is provided to generate primary component features W (1) and secondary component features W (2) .
[0044]
In step # 32, one face image to be tested is input.
[0045]
In step # 33, the input face image is divided into a plurality of face parts such as a right eye, a left eye, a right eyebrow, a left eyebrow, a nose, a mouth, and a contour, and each part is analyzed to obtain a basic face component Φ. Get i . The face component Φ i is weighted based on the importance of identifying a human face.
[0046]
In step # 34, the basic face component is subtracted by the primary average face component Ψ to obtain a first difference Γ (1) (also called primary average residual component). The first difference Γ (1) is used in step # 35 and step # 39.
[0047]
Steps # 32 to # 34 are collectively called an analysis step of analyzing the test face image.
[0048]
In step # 35, using the first difference Γ (1) and the first-order eigencomponent U (1) , the KL conversion represented by the equation (9) is performed to obtain a first-order component feature W (1) .
[0049]
In step # 36, a primary component feature W (1) is generated. The primary component feature W (1) represents the feature of the test face input in step # 32. The primary component feature W (1) can be used as information representing a test face, but has data of a relatively large size. If further calculations described below are performed, the data size can be reduced.
[0050]
In step # 37, the inverse KL transformation is performed using the equation (11), and the reconstruction matrix
Figure 2004038937
Generate
[0051]
In step # 38, the reconstruction matrix
Figure 2004038937
Is generated.
[0052]
In step # 39, equation (12) is executed, and the first difference Γ (1) and the reconstruction matrix
Figure 2004038937
And a second difference Γ (2) is obtained. This is usually called the second residual component i i (2) .
[0053]
Steps # 37 to # 39 are collectively called an analysis step of analyzing the primary component characteristics.
[0054]
In step # 40, using the second differential gamma (2) and the secondary K-L coefficient U (2), and K-L transform according to equation (17) is executed, it generates a secondary component, wherein W (2) I do.
[0055]
In step # 41, a secondary component feature W (2) is generated. The secondary component feature W (2) is used as information representing the feature of the test face input in the test mode.
[0056]
The flowcharts shown in FIGS. 3 and 4 are executed by a computer to which a camera for capturing the sample face image and the test face image is connected. It is also possible to prepare a set of two computers. One set is used for learning mode calculation, and the other set is used for test mode calculation. Each set can include a computer and a camera. The learning mode calculation set is programmed to execute steps # 22 to # 30, while the test mode calculation set may be programmed to execute steps # 32 to # 42. . In the test mode calculation set, a storage device is provided for learning, such as a primary average face component Ψ, a primary eigencomponent U (1) , an inverse matrix U (1) + , and a secondary eigencomponent U (2). It is also possible to store the information obtained by the mode calculation set in advance.
[0057]
According to the present invention, a face description of a person can be obtained extremely efficiently by using the feature mainly composed of components. Since the higher-order eigen component only needs to be calculated once using the learning component, the higher-order component feature can be obtained with approximately the same efficiency as the primary component feature. However, since the detailed local identification information is revealed by the higher-order component features, if the primary component features and the higher-order component features of the eyes, eyebrows, nose, mouth, and contour are combined with various attention weightings, It is possible to obtain a face description with better performance than when only the primary unique face features or only the combination of the primary unique face features and the higher-order unique face features is used.
[0058]
The present invention provides a face description that can be used very effectively and efficiently for Internet multimedia, database searching, video editing, electronic libraries, surveillance and tracking, and a wide variety of other applications utilizing face recognition and authentication. .
[Brief description of the drawings]
FIG. 1 is a flowchart showing a calculation procedure of a primary feature W (1) .
FIG. 2 is a flowchart showing a calculation procedure of an i- th eigencomponent U (i) and a corresponding transformation matrix U i .
FIG. 3 is a flowchart of a learning mode calculation.
FIG. 4 is a flowchart of a test mode calculation.

Claims (18)

顔を記述するために顔の各成分の特徴を抽出する方法であって、
学習モード演算を処理する工程であって、
複数の学習用顔画像を解析する工程と、
解析された学習用顔画像を用いて、一次固有成分U(1)を計算する工程と、
解析された学習用顔画像を用いて、二次固有成分U(2)を計算する工程と、を含む工程と、
試験モード演算を処理する工程であって、
試験用顔画像を解析する工程と、
二次固有成分U(2)を用いて、試験用顔画像の二次成分特徴W(2)を得る工程とを含む工程と、
を含む方法。
A method of extracting features of each component of a face to describe the face,
Processing a learning mode operation,
Analyzing a plurality of learning face images;
Calculating a primary eigencomponent U (1) using the analyzed learning face image;
Calculating a secondary eigencomponent U (2) using the analyzed learning face image;
Processing the test mode operation,
Analyzing the test face image;
Obtaining a secondary component feature W (2) of the test face image using the secondary eigen component U (2) ;
A method that includes
顔を記述するために顔の各成分の特徴を抽出する方法であって、
学習モード演算を処理する工程であって、
複数の学習用顔画像を解析して、学習用顔の一次残余成分Γ(1)を生成する工程と、
学習用顔の一次残余成分Γ(1)を用いて、一次固有成分U(1)を計算する工程と、
一次固有成分U(1)を解析して、学習用顔の二次残余成分Γ(2)を生成する工程と、
学習用顔の二次残余成分Γ(2)を用いて、二次固有成分U(2)を計算する工程と、を含む工程と、
試験モード演算を処理する工程であって、
試験用顔画像を解析して、試験用顔の一次残余成分Γ(1)を生成する工程と、
試験用顔の一次固有成分U(1)および一次残余成分Γ(1)を用いて、試験用顔画像の一次成分特徴W(1)を得る工程と、
一次成分特徴W(1)を解析して、試験用顔の二次残余成分Γ(2)を生成する工程と、
試験用顔の二次固有成分U(2)および二次残余成分Γ(2)を用いて、試験用顔画像の二次成分特徴W(2)を得る工程と、を含む工程と、
を含む方法。
A method of extracting features of each component of a face to describe the face,
Processing a learning mode operation,
Analyzing a plurality of learning face images to generate a primary residual component Γ (1) of the learning face;
Calculating a primary eigencomponent U (1) using a primary residual component Γ (1) of the learning face;
Analyzing the primary eigencomponent U (1 ) to generate a secondary residual component Γ (2) of the learning face;
Calculating the secondary eigen component U (2) using the secondary residual component Γ (2) of the learning face;
Processing the test mode operation,
Analyzing the test face image to generate a primary residual component 試 験(1) of the test face;
Obtaining a primary component feature W (1) of the test face image using the primary eigen component U (1) and the primary residual component Γ (1) of the test face;
Analyzing the primary component feature W (1 ) to generate a secondary residual component Γ (2) of the test face;
Obtaining a secondary component feature W (2) of the test face image using the secondary eigen component U (2) and the secondary residual component Γ (2) of the test face;
A method that includes
複数の学習用顔画像を解析する前記工程が、
各サンプル顔画像を顔部分に分割して、顔部分の顔成分Φを得る工程と、
各顔部分の顔成分を平均して、一次平均顔成分Ψを得る工程と、
顔成分から一次平均顔成分Ψを減算して、学習用顔の一次残余成分Γ(1)を生成する工程と、
を含む、請求項2に記載の顔成分の特徴を抽出する方法。
The step of analyzing a plurality of learning face images,
Dividing each sample face image into face portions to obtain a face component Φ i of the face portions;
Averaging the face components of each face part to obtain a primary average face component Ψ,
Subtracting a primary average face component か ら from the face component to generate a primary residual component 学習(1) of the learning face;
The method for extracting features of a face component according to claim 2, comprising:
一次固有成分を解析する前記工程が、
再構成行列
Figure 2004038937
を得る工程と、
再構成行列
Figure 2004038937
を学習用顔の一次残余成分Γ(1)から減算して、学習用顔の二次残余成分Γ(2)を生成する工程と、
を含む請求項2に記載の顔成分の特徴を抽出する方法。
The step of analyzing the primary eigencomponent,
Reconstruction matrix
Figure 2004038937
Obtaining a
Reconstruction matrix
Figure 2004038937
Subtracting from the primary residual component 学習(1) of the learning face to generate a secondary residual component Γ (2) of the learning face;
3. The method of extracting facial component features according to claim 2, comprising:
試験用顔画像を解析する前記工程が、
試験用顔画像を顔部分に分割して、顔部分の顔成分Φを得る工程と、
顔成分Φから一次平均顔成分Ψを減算して、試験用顔の一次残余成分Γ(1)を生成する工程と、
を含む、請求項2に記載の顔成分の特徴を抽出する方法。
The step of analyzing the test face image,
Dividing the test face image into face portions to obtain face components Φ i of the face portions;
Subtracting the primary average face component Ψ from the face component Φ i to generate a primary residual component Γ (1) of the test face;
The method for extracting features of a face component according to claim 2, comprising:
試験用顔画像を解析する前記工程が、
再構成行列
Figure 2004038937
を得る工程と、
再構成行列
Figure 2004038937
を試験用顔の一次残余成分Γ(1)から減算して、試験用顔の二次残余成分Γ(2)を生成する工程とを含む、請求項2に記載の顔成分の特徴を抽出する方法。
The step of analyzing the test face image,
Reconstruction matrix
Figure 2004038937
Obtaining a
Reconstruction matrix
Figure 2004038937
Subtracting from the primary residual component 試 験(1) of the test face to generate a secondary residual component Γ (2) of the test face. Method.
学習用顔画像の顔部分の前記顔成分Φが重み付けされることを特徴とする、請求項3に記載の顔成分の特徴を抽出する方法。The method of claim 3, wherein the face component Φ i of the face portion of the learning face image is weighted. 試験用顔画像の顔部分の前記顔成分Φが重み付けされることを特徴とする、請求項5に記載の顔成分の特徴を抽出する方法。The method for extracting features of a face component according to claim 5, wherein the face component Φ i of the face portion of the test face image is weighted. 顔を記述するために成分の特徴を抽出する装置であって、
学習モード演算を処理するように動作可能な構成部であって、
複数の学習用顔画像を解析するように動作可能な構成部と、
解析された学習用顔画像を用いて、一次固有成分U(1)を計算するように動作可能な構成部と、
解析された学習用顔画像を用いて、二次固有成分U(2)を計算するように動作可能な構成部とを備える構成部と、
試験モード演算を処理するように動作可能な構成部であって、
試験用顔画像を解析するように動作可能な構成部と、
二次固有成分U(2)を用いて、試験用顔画像の二次成分特徴W(2)を得るように動作可能な構成部とを備える構成部と、
を備える装置。
A device for extracting a feature of a component to describe a face,
A component operable to process a learning mode operation,
A component operable to analyze a plurality of learning face images;
A component operable to calculate a primary eigencomponent U (1) using the analyzed learning face image;
A component comprising: a component operable to calculate a secondary eigencomponent U (2) using the analyzed learning face image;
A component operable to process a test mode operation,
A component operable to analyze the test face image;
A component comprising: a component operable to obtain a secondary component feature W (2) of the test face image using the secondary eigencomponent U (2) ;
An apparatus comprising:
顔を記述するために顔の各成分の特徴を抽出する装置であって、
学習モード演算を処理するように動作可能な構成部であって、
複数の学習用顔画像を解析して、学習用顔の一次残余成分Γ(1)を生成するように動作可能な構成部と、
学習用顔の一次残余成分Γ(1)を用いて、一次固有成分U(1)を計算するように動作可能な構成部と、
一次固有成分U(1)を解析して、学習用顔の二次残余成分Γ(2)を生成するように動作可能な構成部と、
学習用顔の二次残余成分Γ(2)を用いて、二次固有成分U(2)を計算するように動作可能な構成部と、を備える構成部と、
試験モード演算を処理するように動作可能な構成部であって、
試験用顔画像を解析して、試験用顔の一次残余成分Γ(1)を生成するように動作可能な構成部と、
試験用顔の一次固有成分U(1)および一次残余成分Γ(1)を用いて、試験用顔画像の一次成分特徴W(1)を得るように動作可能な構成部と、
一次成分特徴W(1)を解析して、試験用顔の二次残余成分Γ(2)を生成するように動作可能な構成部と、
試験用顔の二次固有成分U(2)および二次残余成分Γ(2)を用いて、試験用顔画像の二次成分特徴W(2)を得るように動作可能な構成部と、を備える構成部と、
を備える装置。
An apparatus for extracting a feature of each component of the face to describe the face,
A component operable to process a learning mode operation,
A component operable to analyze a plurality of learning face images and generate a primary residual component Γ (1) of the learning face;
A component operable to calculate a primary eigencomponent U (1) using a primary residual component Γ (1) of the learning face;
A component operable to analyze the primary eigencomponent U (1 ) to generate a secondary residual component Γ (2) of the learning face;
A component operable to calculate a secondary eigencomponent U (2) using the secondary residual component Γ (2) of the learning face;
A component operable to process a test mode operation,
A component operable to analyze the test face image and generate a primary residual component Γ (1) of the test face;
A component operable to obtain a primary component feature W (1) of the test face image using the primary eigen component U (1) and the primary residual component Γ (1) of the test face;
A component operable to analyze the primary component feature W (1 ) to generate a secondary residual component Γ (2) of the test face;
A component operable to obtain a secondary component feature W (2) of the test face image using the secondary eigen component U (2) and the secondary residual component Γ (2) of the test face; A component unit to be provided;
An apparatus comprising:
複数の学習用顔画像を解析するように動作可能な前記装置が、
各サンプル顔画像を顔部分に分割して、顔部分の顔成分Φを得るように動作可能な構成部と、
各顔部分の顔成分を平均して、一次平均顔成分Ψを得るように動作可能な構成部と、
顔成分から一次平均顔成分Ψを減算して、学習用顔の一次残余成分Γ(1)を生成するように動作可能な構成部と、
を備える、請求項10に記載の顔成分の特徴を抽出する装置。
The apparatus operable to analyze a plurality of learning face images,
A component operable to divide each sample face image into face portions to obtain a face component Φ i of the face portions;
A component operable to average the face components of each face portion to obtain a primary average face component Ψ,
A component operable to subtract the primary average face component か ら from the face component to generate a primary residual component 学習(1) of the learning face;
The apparatus for extracting features of a face component according to claim 10, comprising:
一次固有成分を解析するように動作可能な前記装置が、
再構成行列
Figure 2004038937
を得るように動作可能な構成部と、
再構成行列
Figure 2004038937
を学習用顔の一次残余成分Γ(1)から減算して、学習用顔の二次残余成分Γ(2)を生成するように動作可能な構成部と、
を備える、請求項10に記載の顔成分の特徴を抽出する装置。
The apparatus operable to analyze a primary eigencomponent,
Reconstruction matrix
Figure 2004038937
A component operable to obtain
Reconstruction matrix
Figure 2004038937
A component operable to subtract from the primary residual component 学習(1) of the learning face to generate a secondary residual component Γ (2) of the learning face;
The apparatus for extracting features of a face component according to claim 10, comprising:
試験用顔画像を解析するように動作可能な前記装置が、
試験用顔画像を顔部分に分割して、顔部分の顔成分Φを得るように動作可能な構成部と、
顔成分Φから一次平均顔成分Ψを減算して、試験用顔の一次残余成分Γ(1)を生成するように動作可能な構成部と、
を備える、請求項10に記載の顔成分の特徴を抽出する装置。
The apparatus operable to analyze a test face image,
A component operable to divide the test face image into face portions and obtain a face component Φ i of the face portions;
A component operable to subtract the primary average face component Ψ from the face component Φ i to generate a primary residual component 試 験(1) of the test face;
The apparatus for extracting features of a face component according to claim 10, comprising:
試験用顔画像を解析するように動作可能な前記装置が、
再構成行列
Figure 2004038937
を得るように動作可能な構成部と、
再構成行列
Figure 2004038937
を試験用顔の一次残余成分Γ(1)から減算して、試験用顔の二次残余成分Γ(2)を生成するように動作可能な構成部と、
を備える、請求項10に記載の顔成分の特徴を抽出する装置。
The apparatus operable to analyze a test face image,
Reconstruction matrix
Figure 2004038937
A component operable to obtain
Reconstruction matrix
Figure 2004038937
A component operable to subtract from the primary residual component Γ (1) of the test face to generate a secondary residual component Γ (2) of the test face;
The apparatus for extracting features of a face component according to claim 10, comprising:
学習用顔画像の顔部分の前記顔成分Φが重み付けされることを特徴とする、請求項11に記載の顔成分の特徴を抽出する装置。The apparatus for extracting features of a face component according to claim 11, wherein the face component Φ i of the face portion of the learning face image is weighted. 試験用顔画像の顔部分の前記顔成分Φが重み付けされることを特徴とする、請求項12に記載の顔成分の特徴を抽出する装置。13. The apparatus for extracting features of a face component according to claim 12, wherein the face component Φ i of the face portion of the test face image is weighted. 顔を記述するために顔の各成分の特徴を抽出する装置であって、
学習モード演算を処理するように動作可能な構成部であって、
複数の学習用顔画像を解析して、学習用顔の一次残余成分Γ(1)を生成するように動作可能な構成部と、
学習用顔の一次残余成分Γ(1)を用いて、一次固有成分U(1)を計算するように動作可能な構成部と、
一次固有成分U(1)を解析して、学習用顔の二次残余成分Γ(2)を生成するように動作可能な構成部と、
学習用顔の二次残余成分Γ(2)を用いて、二次固有成分U(2)を計算するように動作可能な構成部と、を備える構成部
を備える装置。
An apparatus for extracting a feature of each component of the face to describe the face,
A component operable to process a learning mode operation,
A component operable to analyze a plurality of learning face images and generate a primary residual component Γ (1) of the learning face;
A component operable to calculate a primary eigencomponent U (1) using a primary residual component Γ (1) of the learning face;
A component operable to analyze the primary eigencomponent U (1 ) to generate a secondary residual component Γ (2) of the learning face;
An apparatus comprising: a component operable to calculate a secondary eigencomponent U (2) using a secondary residual component Γ (2) of a learning face.
顔を記述するために顔の各成分の特徴を抽出する装置であって、
一次平均顔成分Ψ、一次固有成分U(1)、逆行列U(1)+、および二次固有成分U(2)を格納する記憶構成部と、
試験モード演算を処理するように動作可能な構成部であって、
試験用顔画像を解析して、試験用顔の一次残余成分Γ(1)を生成するように動作可能な構成部と、
試験用顔の一次固有成分U(1)および一次残余成分Γ(1)を用いて、試験用顔画像の一次成分特徴W(1)を得るように動作可能な構成部と、
一次成分特徴W(1)を解析して、試験用顔の二次残余成分Γ(2)を生成するように動作可能な構成部と、
試験用顔の二次固有成分U(2)および二次残余成分Γ(2)を用いて、試験用顔画像の二次成分特徴W(2)を得るように動作可能な構成部と、を備える構成部と、
を備える装置。
An apparatus for extracting a feature of each component of the face to describe the face,
A storage component for storing a primary average face component Ψ, a primary eigencomponent U (1) , an inverse matrix U (1) + , and a secondary eigencomponent U (2) ;
A component operable to process a test mode operation,
A component operable to analyze the test face image and generate a primary residual component Γ (1) of the test face;
A component operable to obtain a primary component feature W (1) of the test face image using the primary eigen component U (1) and the primary residual component Γ (1) of the test face;
A component operable to analyze the primary component feature W (1 ) to generate a secondary residual component Γ (2) of the test face;
A component operable to obtain a secondary component feature W (2) of the test face image using the secondary eigen component U (2) and the secondary residual component Γ (2) of the test face; A component unit to be provided;
An apparatus comprising:
JP2003101768A 2002-04-12 2003-04-04 Method and device for face description and recognition using high-order eigen-component Pending JP2004038937A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003101768A JP2004038937A (en) 2002-04-12 2003-04-04 Method and device for face description and recognition using high-order eigen-component

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002110936 2002-04-12
JP2003101768A JP2004038937A (en) 2002-04-12 2003-04-04 Method and device for face description and recognition using high-order eigen-component

Publications (1)

Publication Number Publication Date
JP2004038937A true JP2004038937A (en) 2004-02-05

Family

ID=31719242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003101768A Pending JP2004038937A (en) 2002-04-12 2003-04-04 Method and device for face description and recognition using high-order eigen-component

Country Status (1)

Country Link
JP (1) JP2004038937A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244385A (en) * 2005-03-07 2006-09-14 Fuji Photo Film Co Ltd Face-discriminating apparatus, program and learning method for the apparatus
JP2009513205A (en) * 2005-10-25 2009-04-02 ブラッコ イメージング ソチエタ ペル アチオニ Image processing system especially used for diagnostic images
US7835549B2 (en) 2005-03-07 2010-11-16 Fujifilm Corporation Learning method of face classification apparatus, face classification method, apparatus and program
CN112183394A (en) * 2020-09-30 2021-01-05 江苏智库智能科技有限公司 Face recognition method and device and intelligent security management system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244385A (en) * 2005-03-07 2006-09-14 Fuji Photo Film Co Ltd Face-discriminating apparatus, program and learning method for the apparatus
US7835549B2 (en) 2005-03-07 2010-11-16 Fujifilm Corporation Learning method of face classification apparatus, face classification method, apparatus and program
JP2009513205A (en) * 2005-10-25 2009-04-02 ブラッコ イメージング ソチエタ ペル アチオニ Image processing system especially used for diagnostic images
CN112183394A (en) * 2020-09-30 2021-01-05 江苏智库智能科技有限公司 Face recognition method and device and intelligent security management system

Similar Documents

Publication Publication Date Title
JP3986583B2 (en) Method and apparatus for detecting, recognizing and encoding complex objects using stochastic eigenspace analysis
US20030169908A1 (en) Method and apparatus of recognizing face using component-based 2nd-order principal component analysis (PCA)/independent component analysis (ICA)
US20050105779A1 (en) Face meta-data creation
US20080014563A1 (en) Method for Recognising Faces by Means of a Two-Dimensional Linear Disriminant Analysis
Lata et al. Facial recognition using eigenfaces by PCA
WO2010144259A1 (en) Ultra-low dimensional representation for face recognition under varying expressions
Kekre et al. Eigenvectors of covariance matrix using row mean and column mean sequences for face recognition
CN108564061A (en) A kind of image-recognizing method and system based on two-dimensional principal component analysis
Bąk et al. Person re-identification using deformable patch metric learning
Çevik et al. A novel high-performance holistic descriptor for face retrieval
Das Comparative analysis of PCA and 2DPCA in face recognition
JP2004038937A (en) Method and device for face description and recognition using high-order eigen-component
JP2004272326A (en) Probabilistic facial component fusion method for face description and recognition using subspace component feature
WO2004027692A1 (en) Sketch-photo recognition
KR20040101221A (en) Method and apparatus for face description and recognition using high-order eigencomponents
Pande et al. Parallel processing for multi face detection and recognition
Salan et al. Large pose invariant face recognition using feature-based recurrent neural network
Goudelis et al. Automated facial pose extraction from video sequences based on mutual information
Oprea et al. Face Recognition Using Tensors and Gradient Descriptors
Koruga et al. A Review of Face Recognition Algorithms and Their Application in Age Estimation
Yu et al. Face recognition fusing global and local features
Wang et al. A novel approach of fingerprint recognition based on multilinear ICA
Bhamre et al. Face recognition using singular value decomposition and hidden Markov model
Maw et al. Evaluation of face recognition techniques for facial expression analysis
Altaei Face Recognition Based on Image Integration and DCT Analysis