JP2003208619A - Face description method by use of primary and secondary inherent features and not affected by illumination and visual angle - Google Patents

Face description method by use of primary and secondary inherent features and not affected by illumination and visual angle

Info

Publication number
JP2003208619A
JP2003208619A JP2001371005A JP2001371005A JP2003208619A JP 2003208619 A JP2003208619 A JP 2003208619A JP 2001371005 A JP2001371005 A JP 2001371005A JP 2001371005 A JP2001371005 A JP 2001371005A JP 2003208619 A JP2003208619 A JP 2003208619A
Authority
JP
Japan
Prior art keywords
eigenfeatures
primary
obtaining
adjusted
eigenface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001371005A
Other languages
Japanese (ja)
Other versions
JP3668455B2 (en
Inventor
Rei Wan
ワン・レイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001371005A priority Critical patent/JP3668455B2/en
Publication of JP2003208619A publication Critical patent/JP2003208619A/en
Application granted granted Critical
Publication of JP3668455B2 publication Critical patent/JP3668455B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method usable in multimedia data base retrieval through the Internet, electronic library, video editing, monitoring/pursuit, and face recognition/collation and capable of interpreting and recognizing human face not affected by illumination. <P>SOLUTION: Secondary inherent feature is used in face description not affected by illumination, and both of primary and secondary inherent features are used in the face description not affected by a visual angle. After normalization and quantization, these features can describe the face effectively and efficiently. Furthermore, quantized inherent feature can be put into a code using a variable length code to reduce the size of face descriptor. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、コンテンツに基づ
くイメージ検索用の顔面記述、認識、銀行、セキュリテ
ィシステムやテレビ電話用の人の顔面識別および照合、
監視や追跡、電子図書館、およびインターネットマルチ
メディアデータベースに利用することができる。
FIELD OF THE INVENTION The present invention relates to facial description, recognition for content-based image retrieval, facial identification and verification of people for banks, security systems and videophones.
It can be used for surveillance and tracking, electronic libraries, and internet multimedia databases.

【0002】[0002]

【従来の技術】人の顔面の認知は、コンピュータビジョ
ン研究において活発な分野である。顔面の認識は、マル
チメディアデータベース検索その他多くの用途で今後重
要な役割を果たすであろう。近年、顔面の検出/認識の
問題についてかなりの進展が見られる。各種の具体的な
技術が提案された。これらの技術の中で、ニューラルネ
ット、伸縮テンプレートマッチング、Karhunen-Loeve展
開、代数モーメントおよび等密度線が、代表的な方法で
ある。
BACKGROUND OF THE INVENTION Human facial recognition is an active area of computer vision research. Face recognition will play an important role in multimedia database search and many other applications. Significant progress has been made in recent years on the problem of face detection / recognition. Various specific technologies have been proposed. Among these techniques, neural networks, elastic template matching, Karhunen-Loeve expansion, algebraic moments and isopycnic lines are typical methods.

【0003】これらの方法のうち、主成分分析(PC
A)すなわちKarhunen-Loeve展開は重要な方法である。
固有顔面法は、PCAから導出されていて、計算に便利
であり、一貫した精度で識別が可能である。従来の研究
によれば、PCA法は異なる種類の情報を自然に分離す
る。固有値が大きい固有ベクトルは、顔面のサブセット
に共通の情報を取得し、固有値が小さい固有ベクトル
は、個々の顔面に特有の情報を得る。研究によれば、固
有値が大きい固有ベクトルに含まれる情報のみを、まだ
学習されていない新しい顔面に対して汎用的に用いるこ
とができる。
Of these methods, principal component analysis (PC
A) That is, Karhunen-Loeve expansion is an important method.
The eigenface method is derived from PCA, is convenient for calculation, and can be identified with consistent accuracy. According to previous studies, the PCA method naturally separates different kinds of information. The eigenvector with a large eigenvalue obtains information common to a subset of faces, and the eigenvector with a small eigenvalue obtains information unique to each face. Research shows that only information contained in eigenvectors with large eigenvalues can be used universally for new faces that have not yet been learned.

【0004】[0004]

【発明が解決しようとする課題】固有顔面法の利点は、
固有値が大きい固有ベクトルが顔面の基本的な形状およ
び構造に関する情報を伝達することである。これは、固
有値が大きい固有ベクトルから抽出された特徴を用いて
人の顔面の主要な特徴を記述できることを意味する。し
かし、これはPCAの弱点でもある。固有値が大きい固
有ベクトルから抽出された特徴だけを考慮するならば、
個々の顔面に対応する顔面の細部を得ることができな
い。これら個々の顔面の細部を人の顔面の共通特徴と合
わせて記述することができれば、人の顔面をより正確に
記述することが可能となる。
The advantages of the eigenface method are:
The eigenvectors with large eigenvalues convey information about the basic shape and structure of the face. This means that the main features of the human face can be described using the features extracted from the eigenvectors with large eigenvalues. However, this is also a weakness of PCA. If we consider only the features extracted from the eigenvectors with large eigenvalues,
It is not possible to obtain facial details that correspond to individual faces. If these individual details of the face can be described together with the common features of the human face, the human face can be described more accurately.

【0005】さらに、顔面のイメージが異なる照明条件
や異なる視角のもとで撮影されている場合、人の顔面を
表現する適当な固有ベクトルを得ることは難しい。発明
者らの経験上、通常の固有顔面法は異なる照明条件下で
顔面を認識するには適していない。しかし、同一人物の
多くの顔面イメージが異なる照明および視角条件下で撮
影されている。照明にも視角にも影響されない顔面記述
は依然として探索すべき重要な分野である。
Further, when the image of the face is taken under different illumination conditions and different viewing angles, it is difficult to obtain an appropriate eigenvector representing the human face. In our experience, the conventional eigenface method is not suitable for recognizing a face under different lighting conditions. However, many face images of the same person are taken under different lighting and viewing angle conditions. Facial description, which is independent of lighting and viewing angle, remains an important area to explore.

【0006】[0006]

【課題を解決するための手段】固有顔面法は、形状や構
造などの共通的な顔面特徴を抽出するのに有効である。
固有値が小さい固有ベクトルを切り捨てた際に失われた
顔面の細部を得るために、固有値が大きい固有ベクトル
からの特徴で再構成された顔面を取得すべきである。再
構成された顔面イメージを用いて、原イメージと再構成
されたイメージとの間の残余イメージを得ることができ
る。これらの残余顔面は、個々の顔面に関する豊富な詳
細情報をまだ含んでいる高域通過された顔面イメージと
みなすことができる。前記残余顔面を記述するために、
固有顔面法を再度これらの残余顔面に適用することがで
きる。得られた固有値が大きい固有ベクトルは、残余顔
面の共通の特徴を明らかにする。この方法を用いて、固
有値が大きい二次の固有ベクトルが得られ、対応する特
徴を抽出することができる。発明者らの実験によれば、
一次および二次固有特徴は共に視角に影響されない顔面
記述に有効であるが、二次固有特徴はまた照明に影響さ
れない顔面記述にも有効である。従って、一次および二
次固有特徴の組み合わせは視角に影響されない顔面記述
に、二次固有特徴は照明に影響されない顔面記述に用い
ることができる。顔面記述のもう一つの方法は、一次固
有特徴だけを用いることである。照明に影響されない顔
面記述のためには、固有値の大きさが上位k個の固有顔
面から発生する照明の変動を避けるために固有値の大き
さが上位k番目からN番目(0<k<N)の範囲にある
固有顔面から抽出された固有特徴のみが用いられる。視
角に影響されない顔面特徴は大きさが上位N個の固有値
に対応する固有顔面から抽出された固有特徴であってよ
い。
The eigenface method is effective for extracting common facial features such as shape and structure.
A face reconstructed with features from the eigenvectors with high eigenvalues should be obtained in order to obtain the details of the face lost when truncating the eigenvectors with low eigenvalues. The reconstructed facial image can be used to obtain a residual image between the original image and the reconstructed image. These residual faces can be regarded as high pass face images that still contain a wealth of detailed information about the individual faces. To describe the residual face,
The eigenface method can again be applied to these residual faces. The resulting eigenvectors with large eigenvalues reveal common features of the residual face. Using this method, a quadratic eigenvector with a large eigenvalue can be obtained and the corresponding feature can be extracted. According to the experiments by the inventors,
Both primary and secondary eigenfeatures are useful for facial descriptions that are not affected by viewing angle, while secondary eigenfeatures are also useful for facial descriptions that are not affected by illumination. Therefore, the combination of the primary and secondary characteristic features can be used for the facial description that is not affected by the viewing angle, and the secondary characteristic feature can be used for the facial description that is not affected by the illumination. Another method of facial description is to use only primary eigenfeatures. For a face description that is not affected by illumination, the eigenvalue magnitudes are from the top kth to the Nth (0 <k <N) in order to avoid fluctuations in illumination that occur from the top k eigenfaces with eigenvalue magnitudes. Only the characteristic features extracted from the characteristic face in the range of are used. The facial feature that is not affected by the viewing angle may be a characteristic feature extracted from the characteristic face corresponding to the top N characteristic values in size.

【0007】また、顔面記述を考える際に重要な特徴と
して顔面の対称性がある。大多数の人々の顔面は対称で
ある。そこで同一人物を表現するのに左右の鏡像が形成
された顔面イメージの利用が考えられる。その結果、原
イメージおよび鏡像形成されたイメージの固有特徴は共
に同一人物を表現することができる。従って、2個のイ
メージの固有特徴の線形結合を用いて原イメージを表現
することができる。原イメージと鏡像形成されたイメー
ジを区別するために、異なる重みを用いて固有特徴を組
合せてもよい。
Further, when considering the facial description, the symmetry of the face is an important feature. The faces of the majority of people are symmetrical. Therefore, it is possible to use a facial image in which left and right mirror images are formed to represent the same person. As a result, the unique features of the original image and the mirror imaged image can both represent the same person. Therefore, the original image can be represented using a linear combination of the characteristic features of the two images. The characteristic features may be combined with different weights to distinguish between the original image and the mirrored image.

【0008】請求項1の発明は、 顔面イメージの調整
された二次固有特徴を得るステップと、前記調整された
二次固有特徴を量子化するステップと、前記量子化され
た二次固有特徴から顔面を記述するための顔面記述子を
構成する特徴を選択するステップと、を含む、照明に影
響されない顔面記述用の特徴を抽出する方法である。
According to a first aspect of the present invention, there is provided a step of obtaining an adjusted secondary eigenfeature of a facial image, a step of quantizing the adjusted secondary eigenfeature, and a step of quantizing the quantized secondary eigenfeature. And a step of selecting features constituting a facial descriptor for describing the face, the method including extracting features for the facial description that are not affected by illumination.

【0009】請求項2の発明は、 顔面イメージの調整
された二次固有特徴を得るステップと、前記調整された
二次固有特徴を量子化するステップと、前記量子化され
た二次固有特徴から顔面を記述するための顔面記述子を
構成する特徴を選択するステップと、前記選択された固
有特徴を照明に影響されない顔面記述子にコード化する
ステップと、を含む、照明に影響されない顔面記述用の
特徴を抽出する方法である。
According to a second aspect of the present invention, there is provided a step of obtaining an adjusted secondary eigenfeature of a facial image, a step of quantizing the adjusted secondary eigenfeature, and a step of quantizing the quantized secondary eigenfeature. Illumination-insensitive facial description, comprising: selecting features that make up a facial descriptor for describing a face; and encoding the selected unique features into an illumination-insensitive facial descriptor. Is a method for extracting the features of.

【0010】請求項3の発明は、 顔面イメージの調整
された一次固有特徴を得るステップと、顔面イメージの
調整された二次固有特徴を得るステップと、前記調整さ
れた一次固有特徴を量子化するステップと、前記調整さ
れた二次固有特徴を量子化するステップと、前記量子化
された一次および二次固有特徴から顔面を記述するため
の顔面記述子を構成する特徴を選択するステップと、を
含む、視角に影響されない顔面記述用の特徴を抽出する
方法である。
According to a third aspect of the present invention, a step of obtaining an adjusted primary eigenfeature of the face image, a step of obtaining an adjusted secondary eigenfeature of the face image, and quantizing the adjusted primary eigenfeature. Quantizing the adjusted secondary eigenfeatures, and selecting features that make up a facial descriptor for describing a face from the quantized primary and secondary eigenfeatures. This is a method for extracting facial description features that are not affected by the viewing angle.

【0011】請求項4の発明は、 調整された一次固有
特徴を得るステップと、調整された二次固有特徴を得る
ステップと、前記調整された一次固有特徴を量子化する
ステップと、前記調整された二次固有特徴を量子化する
ステップと、前記量子化された一次および二次固有特徴
から顔面を記述するための顔面記述子を構成する特徴を
選択するステップと、前記選択された固有特徴を視角に
影響されない顔面記述子にコード化するステップと、を
含む、視角に影響されない顔面記述用の特徴を抽出する
方法である。
According to a fourth aspect of the present invention, a step of obtaining an adjusted primary eigenfeature, a step of obtaining an adjusted secondary eigenfeature, a step of quantizing the adjusted primary eigenfeature, and the adjustment Quantizing the secondary eigenfeatures, selecting features that make up a facial descriptor for describing a face from the quantized primary and secondary eigenfeatures, and selecting the selected eigenfeatures. Encoding a facial descriptor that is not affected by a visual angle, and extracting a feature for facial description that is not affected by a visual angle.

【0012】請求項5の発明は、 顔面イメージと調整
された二次固有顔面行列の内積を求めるステップを含
む、請求項1乃至4のいずれか1項に記載の顔面イメー
ジの調整された二次固有特徴を求める方法である。
The invention according to claim 5 includes the step of obtaining an inner product of the face image and the adjusted secondary eigenface matrix, and the adjusted secondary image of the face image according to any one of claims 1 to 4. This is a method for obtaining the characteristic feature.

【0013】請求項6の発明は、 顔面イメージと調整
された一次固有顔面行列の内積を求めるステップを含
む、請求項3または4のいずれか1項に記載の顔面イメ
ージの調整された一次固有特徴を求める方法である。
The invention of claim 6 includes the step of obtaining an inner product of the facial image and the adjusted primary eigenface matrix, and the adjusted primary eigenfeature of the facial image according to claim 3 or 4. Is a method of asking for.

【0014】請求項7の発明は、 一次固有顔面行列を
計算するステップと、前記一次固有顔面行列を調整する
ステップと、を含む、請求項6に記載の前記調整された
一次固有顔面行列を計算する方法である。
The invention of claim 7 includes the step of calculating a primary eigenface matrix, and the step of adjusting the primary eigenface matrix, wherein the adjusted primary eigenface matrix of claim 6 is calculated. Is the way to do it.

【0015】請求項8の発明は、 二次固有顔面行列を
計算するステップと、前記二次固有顔面行列を調整する
ステップと、を含む、請求項5に記載の前記調整された
二次固有顔面行列を計算する方法である。
The invention of claim 8 includes the step of calculating a quadratic eigenface matrix, and the step of adjusting the quadratic eigenface matrix, wherein the adjusted quadratic eigenface matrix of claim 5 is included. This is a method of calculating a matrix.

【0016】請求項9の発明は、 学習用顔面イメージ
の一次固有特徴を得るステップと、一次固有顔面を原イ
メージの二次元配列として構成するステップと、前記二
次元配列の鏡像形成された固有顔面を得るステップと、
前記鏡像形成された固有顔面イメージに重み付けを行な
うステップと、前記重み付けられた固有顔面イメージを
前記一次固有顔面に加えるステップと、一次元の調整さ
れた一次固有顔面を得るために一次固有顔面を再構成す
るステップと、一次固有顔面を正規化するステップと、
距離計算のために調整された一次固有特徴の重みを得る
ステップと、距離計算のための一次固有特徴の重みを調
整された一次固有顔面行列へ乗ずるステップと一次固有
顔面行列を量子化するステップと、を含む、請求項7に
記載の前記一次固有顔面を調整する方法である。
According to a ninth aspect of the present invention, a step of obtaining primary eigenfeatures of a training face image, a step of configuring the primary eigenface as a two-dimensional array of original images, and a mirror-imaged eigenface of the two-dimensional array. To get
Weighting the mirrored eigenface image, adding the weighted eigenface image to the primary eigenface, and re-priming the primary eigenface to obtain a one-dimensional adjusted primary eigenface. Configuring, and normalizing the primary eigenface,
Obtaining the adjusted primary eigenfeature weights for distance calculation, multiplying the adjusted primary eigenfeature weights for distance calculation to the adjusted primary eigenface matrix, and quantizing the primary eigenface matrix 8. The method of adjusting the primary eigenface of claim 7, including:

【0017】請求項10の発明は、 一次固有顔面行列
を計算するステップと、学習用顔面イメージから一次固
有特徴を得るステップと、前記一次固有顔面行列の擬似
逆行列を計算するステップと、前記一次固有特徴を一次
固有顔面行列の前記逆行列に乗ずることにより再構成さ
れた一次顔面イメージを計算するステップと、原イメー
ジから再構成された一次顔面イメージを差し引くことに
より二次残余イメージを得るステップと、前記二次残余
イメージの固有ベクトルを計算することにより二次固有
顔面を得るステップと、を含む、請求項8に記載の二次
固有顔面を計算する方法である。
According to a tenth aspect of the present invention, a step of calculating a primary eigenface matrix, a step of obtaining primary eigenfeatures from a learning face image, a step of calculating a pseudo inverse matrix of the primary eigenface matrix, and the primary Calculating a reconstructed primary facial image by multiplying the eigenfeatures by the inverse of the primary eigenface matrix; and obtaining a secondary residual image by subtracting the reconstructed primary facial image from the original image. Calculating a eigenvector of the secondary residual image to obtain a quadratic eigenface. 9.

【0018】請求項11の発明は、 顔面イメージと二
次固有顔面の内積を計算することにより学習用顔面イメ
ージの二次固有特徴を得るステップと、二次固有顔面を
原イメージの形状に再整形し、左右対称に鏡像形成され
た固有顔面イメージを得るステップと、鏡像形成された
固有顔面イメージに重み付けを行ない、それらを対応す
る原イメージに整形された二次固有顔面イメージに加え
るステップと、一次元の調整された二次固有顔面を得る
ために原イメージに整形された二次固有顔面を再構成す
るステップと、調整された二次固有顔面を正規化するス
テップと、距離計算のために二次固有特徴の重みを得る
ステップと、距離計算のための二次固有特徴の重みを調
整された二次固有顔面行列へ乗ずるステップと二次固有
顔面行列を量子化するステップと、を含む、請求項8に
記載の二次固有顔面を調整する方法である。
According to the invention of claim 11, the step of obtaining the secondary eigenfeatures of the training face image by calculating the inner product of the face image and the secondary eigenface, and reshaping the secondary eigenface into the shape of the original image. Then, a step of obtaining a mirror-formed eigenface image symmetrically, a step of weighting the mirror-imaged eigenface image and adding them to the corresponding eigenimage of the secondary eigenface image, the primary Reconstructing the shaped quadratic eigenfaces into the original image to obtain the original adjusted quadratic eigenfaces, normalizing the adjusted quadratic eigenfaces, and two for distance calculation. Obtaining the weights of the next eigenfeatures, multiplying the weights of the quadratic eigenfeatures for distance calculation to the adjusted quadratic eigenface matrix, and quantizing the quadratic eigenface matrix 9. The method of adjusting a secondary eigenface according to claim 8, further comprising the step of:

【0019】請求項12の発明は、 調整された一次固
有顔面行列の最大値および最小値を得るステップと、前
記最大値と前記最小値の間を複数の量子化レベルに分割
することにより量子化刻みを得るステップと、前記調整
された二次固有顔面行列を前記量子化刻みで除算するス
テップと、前記除算された値を最も近い整数に丸めるス
テップと、を含む、請求項9に記載の調整された一次固
有顔面行列を量子化する方法である。
According to a twelfth aspect of the present invention, the step of obtaining the maximum value and the minimum value of the adjusted primary eigenface matrix and the quantization by dividing the maximum value and the minimum value into a plurality of quantization levels. 10. The adjustment according to claim 9, comprising: obtaining a step, dividing the adjusted quadratic eigenface matrix by the quantization step, and rounding the divided value to the nearest integer. This is a method of quantizing the generated primary eigenface matrix.

【0020】請求項13の発明は、 前記調整された二
次固有顔面行列の最大値および最小値を得るステップ
と、前記最大値と前記最小値の間を複数の量子化レベル
に分割することにより量子化刻みを得るステップと、前
記調整された二次固有顔面行列を前記量子化刻みで除算
するステップと、前記除算された値を最も近い整数に丸
めるステップと、を含む、請求項11に記載の調整され
た二次固有顔面行列を量子化する方法である。
According to a thirteenth aspect of the present invention, there is provided a step of obtaining a maximum value and a minimum value of the adjusted quadratic eigenface matrix, and dividing the maximum value and the minimum value into a plurality of quantization levels. 12. The method of claim 11, comprising: obtaining a quantization step, dividing the adjusted quadratic eigenface matrix by the quantization step, and rounding the divided value to the nearest integer. Is a method for quantizing the adjusted quadratic eigenface matrix of.

【0021】請求項14の発明は、 前記量子化された
二次固有顔面行列に請求項11の前記量子化刻みを乗ず
ることにより、復元された調整済み二次固有顔面を得る
ステップと、復元された調整済み二次固有顔面の各列に
顔面イメージの各行を乗ずることにより二次固有特徴を
得るステップと、を含む、請求項1乃至4のいずれか1
項に記載の調整された二次固有特徴を得る方法である。
According to a fourteenth aspect of the present invention, there is provided a step of obtaining a reconstructed adjusted quadratic eigenface by multiplying the quantized quadratic eigenface matrix by the quantization step of the eleventh aspect. Multiplying each column of the adjusted secondary eigenfaces by each row of the facial image to obtain secondary eigenfeatures.
It is a method of obtaining the adjusted quadratic characteristic feature described in the section.

【0022】請求項15の発明は、 前記量子化された
一次固有顔面行列に請求項12の前記量子化刻みを乗ず
ることにより、復元された調整済み一次固有顔面を得る
ステップと、復元された調整済み一次固有顔面の各列に
顔面イメージの各行を乗ずることにより一次固有特徴を
得るステップと、を含む、請求項3または4のいずれか
1項に記載の目の調整された一次固有特徴を得る方法で
ある。
According to a fifteenth aspect of the present invention, a step of obtaining a restored adjusted primary eigenface by multiplying the quantized primary eigenface matrix by the quantization step of the twelfth aspect, and the restored adjustment. Obtaining the adjusted primary eigenfeatures of any one of claims 3 or 4, comprising: multiplying each column of the completed primary eigenfaces by each row of the facial image to obtain the primary eigenfeatures. Is the way.

【0023】請求項16の発明は、 学習用イメージの
前記調整された二次固有特徴の最大値および最小値を得
るステップと、前記最大値と前記最小値の間を複数の量
子化レベルに分割することにより量子化刻みを得るステ
ップと、前記調整された二次固有特徴を前記量子化刻み
で除算するステップと、前記除算された値を最も近い整
数に丸めるステップと、を含む、請求項1乃至4のいず
れか1項に記載の調整された二次固有特徴を量子化する
方法である。
According to a sixteenth aspect of the present invention, the step of obtaining the maximum value and the minimum value of the adjusted secondary eigenfeatures of the training image, and dividing the maximum value and the minimum value into a plurality of quantization levels. Obtaining a quantized step by doing, dividing the adjusted quadratic eigenfeature by the quantized step, and rounding the divided value to the nearest integer. The method for quantizing the adjusted secondary eigenfeature according to any one of items 1 to 4.

【0024】請求項17の発明は、 学習用イメージの
前記調整された二次固有特徴の最大値および最小値を得
るステップと、前記最大値と前記最小値の間を複数の量
子化レベルに分割することにより量子化刻みを得るステ
ップと、前記調整された二次固有特徴を前記量子化刻み
で除算するステップと、前記除算された値を最も近い整
数に丸めるステップと、標準偏差の最小値で除算された
学習用集合内の対応固有特徴の標準偏差の丸められた対
数を計算することにより、異なる固有特徴に異なる個数
のビットを割当てるステップと、前記固有特徴を対応ビ
ット割当てに従って量子化するステップと、を含む、請
求項1乃至4のいずれか1項に記載の調整された二次固
有特徴を量子化する方法である。
According to a seventeenth aspect of the present invention, the step of obtaining the maximum value and the minimum value of the adjusted secondary eigenfeatures of the training image, and dividing the maximum value and the minimum value into a plurality of quantization levels. To obtain a quantizing step, dividing the adjusted quadratic eigenfeature by the quantizing step, rounding the divided value to the nearest integer, and the minimum standard deviation. Assigning a different number of bits to different eigenfeatures by calculating the rounded log of the standard deviation of the corresponding eigenfeatures in the divided training set, and quantizing said eigenfeatures according to the corresponding bit assignments A method for quantizing a tuned quadratic eigenfeature according to any one of claims 1 to 4, comprising:

【0025】請求項18の発明は、 学習用イメージの
前記調整された一次固有特徴の最大値および最小値を得
るステップと、前記最大値と前記最小値の間を複数の量
子化レベルに分割することにより量子化刻みを得るステ
ップと、前記調整された一次固有特徴を前記量子化刻み
で除算するステップと、前記除算された値を最も近い整
数に丸めるステップと、を含む、請求項3または4のい
ずれか1項に記載の調整された一次固有特徴を量子化す
る方法である。
According to a eighteenth aspect of the present invention, the step of obtaining the maximum value and the minimum value of the adjusted primary eigenfeatures of the training image, and dividing the maximum value and the minimum value into a plurality of quantization levels. Obtaining a quantized step by dividing the adjusted primary eigenfeature by the quantized step; and rounding the divided value to the nearest integer. The method for quantizing the adjusted primary eigenfeature according to any one of 1.

【0026】請求項19の発明は、 学習用イメージの
前記調整された一次固有特徴の最大値および最小値を得
るステップと、前記最大値と前記最小値の間を複数の量
子化レベルに分割することにより量子化刻みを得るステ
ップと、前記調整された一次固有特徴を前記量子化刻み
で除算するステップと、前記除算された値を最も近い整
数に丸めるステップと、標準偏差の最小値で除算された
学習用集合内の対応固有特徴の標準偏差の丸められた対
数を計算することにより、異なる固有特徴に異なる個数
のビットを割当てるステップと、前記固有特徴を対応ビ
ット割当てに従って量子化するステップと、を含む、請
求項3または4のいずれか1項に記載の調整された一次
固有特徴を量子化する方法である。
According to a nineteenth aspect of the present invention, the step of obtaining the maximum value and the minimum value of the adjusted primary eigenfeatures of the training image, and dividing the maximum value and the minimum value into a plurality of quantization levels. To obtain a quantization step, dividing the adjusted primary eigenfeature by the quantization step, rounding the divided value to the nearest integer, and dividing by the minimum standard deviation. Calculating a rounded logarithm of the standard deviation of the corresponding eigenfeatures in the learning set, allocating a different number of bits to the different eigenfeatures, and quantizing the eigenfeatures according to the corresponding bit allocation, A method of quantizing a tuned primary eigenfeature according to any one of claims 3 or 4 including.

【0027】請求項20の発明は、 学習用顔面イメー
ジの前記調整された一次固有特徴の標準偏差を得るステ
ップと、前記標準偏差の平方根を抽出することにより重
みを得るステップと、を含む、距離計算のための調整さ
れた一次固有特徴の重みを得る請求項9に記載の方法で
ある。
The twentieth aspect of the invention includes the steps of: obtaining a standard deviation of the adjusted first-order eigenfeatures of a training face image; and obtaining a weight by extracting a square root of the standard deviation. The method of claim 9, wherein the adjusted primary eigenfeature weights for the calculation are obtained.

【0028】請求項21の発明は、 学習用顔面イメー
ジの前記調整された二次固有特徴の分散を得るステップ
と、前記分散の平方根を抽出することにより、調整され
た二次固有特徴の重みを得るステップと、を含む、距離
計算のために調整された二次固有特徴の重みを得る請求
項11に記載の方法である。
According to a twenty-first aspect of the present invention, a step of obtaining a variance of the adjusted secondary eigenfeatures of a training face image and a step of extracting a square root of the variances to obtain the weights of the adjusted secondary eigenfeatures. 12. The method of claim 11, further comprising: obtaining adjusted weights of the secondary eigenfeatures for distance calculation.

【0029】請求項22の発明は、 請求項1または2
に記載の方法により照明に影響されない顔面記述のため
の顔面の固有特徴を抽出するステップと、前記顔面の固
有特徴のユークリッド距離を得るステップと、最適に合
致する顔面のペアを示す最小ユークリッド距離を選択す
るステップと、を含む、照明に影響されない顔面同士の
類似度を測定する方法である。
The invention of claim 22 is the same as claim 1 or 2.
The step of extracting the eigenfeatures of the face for the face description that is not affected by the illumination by the method described in 1, the step of obtaining the Euclidean distance of the eigenfeatures of the face, and the minimum Euclidean distance indicating the pair of faces that optimally match. And a step of selecting, which is a method of measuring the similarity between faces that are not affected by illumination.

【0030】請求項23の発明は、 請求項3または4
に記載の方法により視角に影響されない顔面記述のため
の顔面の固有特徴を抽出するステップと、顔面の特徴の
ユークリッド距離を得るステップと、最適に合致する顔
面のペアを示す最小ユークリッド距離を選択するステッ
プと、を含む、視角に影響されない顔面同士の類似度を
測定する方法である。
The invention of claim 23 is the invention of claim 3 or 4.
The step of extracting the eigenfeatures of the face for the face description that is not affected by the viewing angle by the method described in 1), the step of obtaining the Euclidean distance of the face features, and the selection of the minimum Euclidean distance indicating the pair of the faces that optimally match. And a step of measuring the degree of similarity between the faces that are not affected by the viewing angle.

【0031】請求項24の発明は、 請求項1または2
に記載の方法により学習用集合の前記量子化された固有
特徴を得るステップと、ビット割当てに従って前記固有
特徴をグループに分類するステップと、エントロピーコ
ード化法を用いて同一ビット割当てを有する前記固有特
徴のグループの各々に対してコード表を構成するステッ
プと、を含む、照明に影響されない顔面記述子を可変コ
ード化(VLC)するためのコード表を得る方法であ
る。
The invention of claim 24 is the invention of claim 1 or 2.
Obtaining the quantized eigenfeatures of the training set by the method according to claim 1, classifying the eigenfeatures into groups according to bit allocation, and using the entropy coding method the eigenfeatures having the same bit allocation. Configuring a code table for each of the groups of <RTIgt; of, </ RTI> a method for obtaining a code table for variable coding (VLC) of the illumination independent face descriptors.

【0032】請求項25の発明は、 請求項3または4
に記載の方法により学習用集合の前記量子化された固有
特徴を得るステップと、ビット割当てに従って前記固有
特徴をグループに分類するステップと、エントロピーコ
ード化手法を用いて同一ビット割当てを有する前記固有
特徴のグループを各々に対してコード表を構成するステ
ップと、を含む、視角に影響されない顔面記述子を可変
コード化(VLC)するためのコード表を得る方法であ
る。
The invention of claim 25 is the invention of claim 3 or 4.
Obtaining the quantized eigenfeatures of the training set by the method of claim 1, classifying the eigenfeatures into groups according to bit allocation, and using the entropy coding technique the eigenfeatures having the same bit allocation. Forming a code table for each of the groups, and obtaining a code table for variable coding (VLC) the facial descriptors that are not affected by the viewing angle.

【0033】請求項26の発明は、 前記エントロピー
コード化手法は量子化レベルの確率に基づいたHuff
manコード化手法である、請求項24または25のい
ずれか1項に記載のコード表構成方法である。
In the twenty-sixth aspect of the present invention, the entropy coding method is a Huff based on a probability of a quantization level.
The code table construction method according to claim 24 or 25, which is a man coding method.

【0034】請求項27の発明は、 前記エントロピー
コード化手法は量子化レベルの確率に基づいた算術コー
ド化手法である、請求項24または25のいずれか1項
に記載のコード表構成方法である。
The invention of claim 27 is the code table construction method according to claim 24 or 25, wherein the entropy coding method is an arithmetic coding method based on a probability of a quantization level. .

【0035】請求項28の発明は、 各々の量子化され
た固有特徴について請求項24に記載の方法により生成
されたコード表を参照し、対応するコード語を用いて前
記量子化された固有特徴を表現するステップを含む、請
求項1または2のいずれか1項に記載の照明に影響され
ない顔面記述子をコード化する方法である。
The invention of claim 28 refers to the code table generated by the method of claim 24 for each quantized characteristic feature, and uses the corresponding code word to perform the quantized characteristic feature. A method for coding a lighting-independent facial descriptor according to claim 1 or 2, including the step of expressing

【0036】請求項29の発明は、 各々の量子化され
た固有特徴について請求項25に記載の方法により生成
されたコード表を参照し、対応するコード語を用いて前
記量子化された固有特徴を表現するステップを含む、請
求項3または4のいずれか1項に記載の視角に影響され
ない顔面記述子をコード化する方法である。
The invention of claim 29 refers to the code table generated by the method of claim 25 for each quantized eigenfeature, and uses the corresponding codeword to perform the quantized eigenfeature A method of encoding a viewing angle insensitive facial descriptor according to claim 3 or 4, including the step of expressing

【0037】請求項30の発明は、 請求項7に記載の
方法により顔面イメージの調整された一次固有特徴を得
るステップと、請求項19に記載の方法により前記調整
された一次固有特徴を量子化するステップと、前記量子
化された一次固有特徴から顔面を記述する顔面記述子を
構成するために特徴を選択するステップと、を含む、一
般的な顔面記述用の特徴を抽出する方法である。
According to a thirtieth aspect of the present invention, the step of obtaining the adjusted primary eigenfeatures of the facial image by the method of the seventh aspect, and the quantization of the adjusted primary eigenfeatures by the method of the nineteenth aspect. And a step of selecting a feature to construct a facial descriptor describing a face from the quantized primary eigenfeature, and extracting a feature for general facial description.

【0038】請求項31の発明は、 請求項7に記載の
方法により顔面イメージの調整された一次固有特徴を得
るステップと、請求項19に記載の方法により前記調整
された一次固有特徴を量子化するステップと、前記量子
化された一次固有特徴から顔面を記述する顔面記述子を
構成するために特徴を選択するステップと、前記選択さ
れた固有特徴を顔面記述子にコード化するステップと、
を含む、一般的な顔面記述用の特徴を抽出する方法であ
る。
According to a thirty-first aspect of the present invention, the step of obtaining the adjusted primary eigenfeatures of the facial image by the method of the seventh aspect, and the quantization of the adjusted primary eigenfeatures by the method of the nineteenth aspect. Selecting a feature to construct a facial descriptor that describes a face from the quantized primary eigenfeatures, and encoding the selected eigenfeatures into a facial descriptor.
This is a method for extracting general facial description features including.

【0039】請求項32の発明は、 視角に影響されな
い顔面記述を行なうために大きさが上位N個の固有値に
対応する固有特徴を選択するステップを含む、請求項3
0または31のいずれかに記載の、前記量子化された一
次固有特徴から顔面を記述する顔面記述子を構成する特
徴を選択する方法である。
The invention of claim 32 includes the step of selecting eigenfeatures corresponding to the top N eigenvalues of size in order to perform a facial description that is not affected by the viewing angle.
A method of selecting a feature constituting a facial descriptor describing a face from the quantized primary eigenfeatures described in either 0 or 31.

【0040】請求項33の発明は、 照明に影響されな
い顔面記述を行なうために大きさが上位k番目からN番
目の固有値(0<k<N)に対応する固有特徴を選択す
るステップを含む、請求項30または31のいずれかに
記載の、前記量子化された一次固有特徴から顔面を記述
する顔面記述子を構成する特徴を選択する方法である。
According to a thirty-third aspect of the present invention, there is included a step of selecting eigenfeatures corresponding to the kth to Nth eigenvalues (0 <k <N) in order of magnitude in order to perform a face description that is not affected by illumination. 32. A method according to any of claims 30 or 31 for selecting features comprising a facial descriptor that describes a face from the quantized primary eigenfeatures.

【0041】[0041]

【発明の実施の形態】本発明は、照明や視角に影響され
ることなく人の顔面を記述する2種類の方法を提供す
る。これらはイメージ検索(顔面の例による照会)、個
人識別および照合、監視および追跡、および他の顔面認
識用途に利用できる。顔面の特徴を記述するために、発
明者らの知見および推論に基づいて二次固有顔面の概念
を提案する。最初に、学習用顔面イメージの集合から一
次および二次固有顔面が導かれる。次に顔面の対称性の
特徴を用いて固有顔面を調整することができる。これら
の調整された固有顔面を用いて、調整された一次および
二次固有特徴が得られる。これらの特徴の組合せを用い
て顔面を記述することができる。この記述の場合、類似
度の測定にユークリッド距離を使用することができる。
DETAILED DESCRIPTION OF THE INVENTION The present invention provides two methods of describing a person's face without being affected by lighting or viewing angles. These can be used for image retrieval (facial example query), personal identification and matching, monitoring and tracking, and other facial recognition applications. To describe facial features, we propose a concept of secondary eigenface based on our knowledge and inference. First, the primary and secondary eigenfaces are derived from the set of learning face images. The facial symmetry feature can then be used to adjust the eigenface. With these adjusted characteristic faces, adjusted primary and secondary characteristic features are obtained. A combination of these features can be used to describe the face. For this description, Euclidean distance can be used to measure similarity.

【0042】図2の中段のイメージは、撮影したままの
デジタル写真のイメージであって、何の処理もされてい
ない原顔面イメージ1a,2a,3a,4a,5a,6aであ
る。原顔面イメージ1aを一次元ベクトルで示すと、Φ
と表示される。同様に、原顔面イメージ2a,3a,4
a,5a,6aを一次元ベクトルで示すと、Φ、Φ
Φ、Φ,Φと表示される。一般的に、顔面イメー
ジiaをベクトルΦiで示す。
The image in the middle of FIG. 2 is an image of a digital photograph as it is taken, and is original face images 1a, 2a, 3a, 4a, 5a, 6a which have not been processed. If the original facial image 1a is represented by a one-dimensional vector, Φ
Displayed as 1 . Similarly, the original facial images 2a, 3a, 4
When a, 5a, and 6a are represented by a one-dimensional vector, Φ 2 , Φ 3 ,
Displayed as Φ 4 , Φ 5 , and Φ 6 . In general, the face image ia is represented by the vector Φi.

【0043】6個全ての原顔面イメージの一次元ベクト
ルを足し合せ、その合計を6で割れば、平均イメージΨ
が得られる。すなわち、 Ψ=(Φ+Φ+Φ+Φ+Φ+Φ)/6 が得られる。イメージ1aの一次元ベクトルΦと平均
イメージΨとの差をΓ (1)で定義する。同様に、イ
メージ2a,3a,4a,5a,6aについてもそれぞれΓ
1)、Γ (1)、Γ (1)、Γ (1)、Γ
(1)が定義される。
If the one-dimensional vectors of all six original facial images are added and the total is divided by 6, the average image Ψ
Is obtained. That is, Ψ = (Φ 1 + Φ 2 + Φ 3 + Φ 4 + Φ 5 + Φ 6 ) / 6 is obtained. The difference between the one-dimensional vector Φ 1 of the image 1a and the average image Ψ is defined by Γ 1 (1) . Similarly, for images 2a, 3a, 4a, 5a, 6a,
2 ( 1) , Γ 3 (1) , Γ 4 (1) , Γ 5 (1) , Γ 6
(1) is defined.

【0044】すなわち、 Γ (1)=Φ−Ψ Γ (1)=Φ−Ψ Γ (1)=Φ−Ψ Γ (1)=Φ−Ψ Γ (1)=Φ−Ψ Γ (1)=Φ−Ψ となる。That is, Γ 1 (1) = Φ 1 −Ψ Γ 2 (1) = Φ 2 −Ψ Γ 3 (1) = Φ 3 −Ψ Γ 4 (1) = Φ 4 −Ψ Γ 5 (1) = Φ 5 −Ψ Γ 6 (1) = Φ 5 −Ψ.

【0045】Γ (1)は、後で説明するように、イメ
ージ1aの一次特徴W (1)を得るためのベースとな
る。同様に、Γ (1)、Γ (1)、Γ (1)、Γ
1)、Γ (1)は、それぞれイメージ2a,3a,
4a,5a,6aの一次特徴W (1)、W (1)、W
(1)、W (1)、W (1)を得るためのベース
となる。記号式の右上の(1)は、一次特徴に係わる値
であることを示す。また、Γ (1)、Γ (1)、Γ
(1)、Γ (1)、Γ (1)、Γ (1)のそれ
ぞれをローパスフィルタで処理したものを再構成行列 として表わす。
Γ1 (1)As I will explain later,
Primary feature W of page 1a1 (1)To get a base
It Similarly, ΓTwo (1), ΓThree (1), ΓFour (1), Γ
5 ( 1), Γ6 (1)Are images 2a, 3a,
Primary features W of 4a, 5a, 6a Two (1), WThree (1), W
Four (1), W5 (1), W6 (1)Base for getting
Becomes (1) at the upper right of the symbolic expression is the value related to the primary feature
Is shown. Also, Γ1 (1), ΓTwo (1), Γ
Three (1), ΓFour (1), Γ5 (1), Γ6 (1)That of
Reconstruction matrix obtained by processing each with a low-pass filter Express as.

【0046】図2の上段のイメージ1b、2b、3b、
4b、5b、6bは、それぞれ平均イメージΨに、再構
成行列 を加えた和 で表わされる再構成顔面イメージである。すなわち、 となる。
The images 1b, 2b, 3b in the upper part of FIG.
4b, 5b, and 6b are the average image Ψ and the reconstruction matrix, respectively. Sum with It is a reconstructed face image represented by. That is, Becomes

【0047】再構成顔面イメージは、ローパスフィルタ
で処理したデータを含んでいるので、顔の角度が少し変
わっていても、顔の情報に大きな変化は生じない。図2
の下段のイメージ1c、2c、3c、4c、5c、6c
は、図2の中段の原顔面イメージΦから同上段の再構成
顔面イメージ を引いた結果の残余イメージΓ(2)である。すなわ
ち、 となる。
Since the reconstructed face image includes data processed by the low-pass filter, even if the face angle slightly changes, the face information does not change significantly. Figure 2
Lower images 1c, 2c, 3c, 4c, 5c, 6c
Is the reconstructed facial image from the original facial image Φ in the middle of FIG. Is the residual image Γ (2) as a result of subtracting. That is, Becomes

【0048】残余イメージは、原顔面イメージに含まれ
る照明による明るさの情報と、再構成顔面イメージに含
まれる照明による明るさの情報が引き算により相殺され
るので、残余イメージには、照明による明るさによる影
響を受けない者となっている。以下、一般式で、本発明
を説明する。
In the residual image, the brightness information due to the illumination included in the original facial image and the brightness information due to the illumination included in the reconstructed facial image are canceled by subtraction, so that the residual image has the brightness due to the illumination. It is a person who is not affected by the influence. Hereinafter, the present invention will be described with reference to the general formula.

【0049】M個(図2の中断では6個)のイメージ群
の中でイメージ を考える(図1、ステップ110)。ここで、 はラスタスキャンイメージの一次元ベクトルであり、 を平均イメージとして定義する(図1、ステップ12
0)。
Image in M (6 in the case of interruption in FIG. 2) image group (Step 110 in FIG. 1). here, Is a one-dimensional vector of the raster scan image, Is defined as the average image (FIG. 1, step 12).
0).

【数1】 [Equation 1]

【0050】すべてのイメージは、平均イメージからベ
クトル だけ異なる(図1、ステップ130)。よって、データ
の共分散行列は、次のように定義される。
All images are vectors from the average image Only (step 130, FIG. 1). Therefore, the covariance matrix of the data is defined as follows.

【数2】 ここで、 である(図1、ステップ140)。[Equation 2] here, (FIG. 1, step 140).

【0051】Qは 次元である。ここで、wはイメージの幅、hは高さであ
る。この行列のサイズは巨大であるが、イメージベクト
ルMの有限個数を合計するだけであるため、この行列の
階数がM−1を超えることはない。 (i=1,2,..,M)の固有ベクトルである場合(図1、ステッ
プ150)、 (ここで、 の固有値)であり、前式の左辺に を乗ずることにより分かるように の固有ベクトルである。すなわち、
Q is It is a dimension. Where w is the image width and h is the height. The size of this matrix is huge, but since it only sums a finite number of image vectors M, the rank of this matrix does not exceed M-1. But If the eigenvector of (i = 1,2, .., M) (FIG. 1, step 150), (here, Is Is the eigenvalue of As you can see by multiplying Is Is the eigenvector of. That is,

【数3】 となる。[Equation 3] Becomes

【0052】しかし、 のサイズは にすぎない。それゆえ、 の固有ベクトル を定義すると、次のようになる。However, The size of Nothing more. therefore, Eigenvector of If is defined, it becomes as follows.

【数4】 [Equation 4]

【0053】固有値 は、固有ベクトル が張る新しい座標空間に沿った分散である(図1、ステ
ップ160)。以後、固有値 が減少するようiが順序付けられているものと仮定す
る。固有値は、指数的に減少している。よって、 (ここで、 および を計算することにより、顔面イメージ をM1次元のみ の上へ射影することができる。 は、新しい座標系の のk番目の座標である。この意味で、 を一次特徴と呼ぶ。ベクトル は、実際にはイメージであり、一次固有顔面と呼ぶ(一
般に、他の文書では固有顔面と呼ばれる)。 とすると(図1、ステップ170)、
Eigenvalue Is the eigenvector Is the variance along the new coordinate space (step 160 in FIG. 1). After that, the eigenvalue Suppose i is ordered so that decreases. The eigenvalues are decreasing exponentially. Therefore, (here, and Facial image by calculating To M 1 dimension only Can be projected onto. Is in the new coordinate system Is the k-th coordinate of. In this sense Is called a primary feature. vector Is actually an image and is called the primary eigenface (typically called eigenface in other documents). Then (FIG. 1, step 170),

【数5】 (図1、ステップ180)となる。[Equation 5] (FIG. 1, step 180).

【0054】図1に一次特徴 を計算する手順を示す。同図において、 は、i番目に大きい固有値およびそれに対応する行列の
固有ベクトルを計算する関数である。式(3)の興味深
い副産物は、 から再構成行列を得ることができることである。 行列であるため、その逆行列は求められない。しかし、
その擬似逆行列を用いて逆行列を近似することはでき
る。 の擬似逆行列とすると、
Primary features in FIG. The procedure for calculating is shown. In the figure, Is a function that calculates the i-th largest eigenvalue and its corresponding eigenvector. An interesting by-product of equation (3) is The reconstruction matrix can be obtained from Is Since it is a matrix, its inverse cannot be obtained. But,
The pseudo matrix can be used to approximate the inverse matrix. To If we take the pseudo-inverse of

【数6】 ここで、 および から再構成された行列である。図2で、数枚の原顔面イ
メージおよびそれらに対応する再構成顔面イメージ を与える。上段のイメージは再構成顔面イメージ であり、中段のイメージは対応する原顔面イメージであ
り、下段のイメージは残余イメージ である。再構成行列から、顔面の細部が失われているこ
とが分かる。すなわち、 が記述する内容を低域通過フィルタイメージとみなすこ
とができる。残余イメージは、対応する高域通過フィル
タイメージである。再構成行列を観察すると、いくつか
のイメージは適当な解像度で再構成できず、これは一次
特徴がこれらのイメージをうまく記述できないことを示
す。再構成行列の質が悪いほど、より多くの情報が残余
イメージに残されている。これらの残余イメージは個々
のイメージに関する豊富な情報を依然として含むため、
これらの残余顔面から顔面特徴を再度抽出すべきであ
る。
[Equation 6] here, Is and Is a matrix reconstructed from In Figure 2, several original facial images and their corresponding reconstructed facial images give. The upper image is a reconstructed facial image And the middle image is the corresponding original facial image, the lower image is the residual image. Is. The reconstruction matrix shows that the facial details are lost. That is, The contents described by can be regarded as a low-pass filter image. The residual image is the corresponding high pass filtered image. Looking at the reconstruction matrix, some images could not be reconstructed at a reasonable resolution, indicating that primary features do not describe these images well. The poorer the reconstruction matrix, the more information is left in the residual image. These residual images still contain a wealth of information about the individual images, so
Facial features should be extracted again from these residual faces.

【0055】 の固有値、 の対応する固有ベクトルとすると、 である。上述の記載に基づいて、 の固有ベクトルは である。よって、 を計算することにより、残余顔面イメージ をM2次元のみ の上へ射影することができる。ここで、[0055] , To Eigenvalue of, To Given the corresponding eigenvectors of Is. Based on the above description, The eigenvector of is Is. Therefore, Residual facial image by calculating For M 2 dimensions only Can be projected onto. here,

【数7】 および である。 は残余顔面イメージの固有ベクトルであるため、 を二次固有顔面、 を二次特徴と呼ぶ。[Equation 7] and Is. Is the eigenvector of the residual facial image, The secondary eigenface, Is called a secondary feature.

【0056】 とすると、式(5)は以下のように書ける。[0056] Then, equation (5) can be written as follows.

【数8】 [Equation 8]

【0057】 とすると、[0057] Then,

【数9】 である。[Equation 9] Is.

【0058】 は定数変換行列であり、1回計算されるだけであるた
め、計算効率に影響しない。顔面イメージは、 (ここで、 )により記述できる。固有顔面Uからの特徴計算のみに
比べて を計算することによる計算量の負荷は増加しない。説明
の便宜上、残余イメージを二次残余イメージと呼び、原
顔面イメージを一次残余イメージと呼ぶ(原顔面イメー
ジを零次残余イメージと呼ぶほうが良いように思われる
にもかかわらず)。
[0058] Is a constant conversion matrix and does not affect the calculation efficiency because it is calculated only once. The facial image is (here, ). Compared with the feature calculation only from the eigenface U The calculation load does not increase by calculating. For convenience of explanation, the residual image is called a secondary residual image and the original facial image is called a primary residual image (although it seems better to call the original facial image a zero-order residual image).

【0059】一次固有特徴は原イメージの特徴を記述
し、二次固有特徴は高域通過イメージの特徴を示す。こ
れらの特徴は異なる用途に利用できる。
The primary characteristic describes the characteristic of the original image, and the secondary characteristic represents the characteristic of the high-pass image. These features can be used in different applications.

【0060】照明に影響されないケースでは、イメージ
の視角はほぼ同じであるが、照明条件は異なる。照明光
は左、右、あるいは両方向から照らされる可能性があ
る。また顔面も明るかったり暗かったりする。この状況
で、イメージの特徴はフィルタリングした後で抽出され
ねばならない。すなわち、原画像イメージのデータは照
明の特徴を含んでいるし、一次特徴のデータも照明の特
徴を含んでいる。従って、一次固有特徴はこのケースに
は適していない。従って、原画像イメージから、この一
次特徴画像を引き算した二次特徴は、照明の影響が除去
されており、照明に影響されない特徴を有するデータと
して利用できる。二次固有特徴のみが適している。一
方、視角に影響されないケースを考える場合、同一人物
のイメージをほぼ同じ照明条件下で撮影するが視角ある
いはポースは同じではない。この状況で、顔面を記述す
るのに一次および二次固有特徴が重要である。一次特徴
は、原画像イメージをローパスフィルタで処理したイメ
ージであり、顔面画像の大局的な特徴を示すので、視角
度の異なるイメージでも、ほぼ同じ特徴が抽出される。
よって、視角度が異なる場合は、二次特徴に加えて一次
特徴も使うことで、視角に影響されない記述子として使
用されうる。
In the case of being unaffected by illumination, the viewing angles of the images are almost the same, but the illumination conditions are different. Illumination light can come from the left, right, or both directions. Also, the face may be bright or dark. In this situation, the image features have to be extracted after filtering. That is, the data of the original image includes the characteristic of illumination, and the data of the primary characteristic also includes the characteristic of illumination. Therefore, the primary characteristic is not suitable for this case. Therefore, the secondary feature obtained by subtracting the primary feature image from the original image image has the effect of illumination removed and can be used as data having a feature that is not affected by illumination. Only secondary eigenfeatures are suitable. On the other hand, in the case of being unaffected by the viewing angle, the images of the same person are shot under substantially the same lighting conditions, but the viewing angles or poses are not the same. In this situation, primary and secondary eigenfeatures are important to describe the face. The primary feature is an image obtained by processing the original image image with a low-pass filter, and shows the global feature of the facial image. Therefore, almost the same feature is extracted even in images with different viewing angles.
Therefore, when the viewing angle is different, the primary feature is used in addition to the secondary feature, and thus the descriptor can be used as a descriptor that is not affected by the viewing angle.

【0061】従って、照明に影響されない状況を記述す
る顔面記述子として二次固有特徴を、視角に影響されな
い状況を記述する顔面記述子として一次および二次固有
特徴を用いることにする。
Therefore, the secondary eigenfeatures will be used as the facial descriptors that describe the situation unaffected by illumination, and the primary and secondary eigenfeatures will be used as the face descriptors that describe the situation unaffected by the viewing angle.

【0062】顔面記述を考える際に重要な特徴として顔
面の対称性がある。大多数の人々の顔面は対称である。
そこで同一人物を表現するのに鏡像形成された顔面イメ
ージの利用が考えられる。その結果、原イメージおよび
鏡像形成されたイメージの固有特徴は共に同一人物を表
現することができる。従って、2個のイメージの固有特
徴の線形結合を用いて原イメージを表現することができ
る。原イメージと鏡像形成されたイメージを区別するた
めに、異なる重みを用いて特徴を計算してもよい。
The symmetry of the face is an important feature when considering the face description. The faces of the majority of people are symmetrical.
Therefore, it is possible to use a facial image formed as a mirror image to represent the same person. As a result, the unique features of the original image and the mirror imaged image can both represent the same person. Therefore, the original image can be represented using a linear combination of the characteristic features of the two images. Features may be calculated using different weights to distinguish between the original image and the mirrored image.

【0063】 を原イメージ、 の鏡像形成であるとすると、調整された固有特徴は以下
で表わされる。
[0063] The original image, To The adjusted intrinsic features are given below, given the mirror image formation of

【数10】 および[Equation 10] and

【数11】 ここで、0≦c≦1は調整の重みである。計算を簡略化
するために、計算順序を並べ替えてもよい。
[Equation 11] Here, 0 ≦ c ≦ 1 is an adjustment weight. The calculation order may be rearranged to simplify the calculation.

【0064】 であるため、以下が成り立つ。[0064] Therefore, the following holds.

【数12】 ここで、 の鏡像形成された固有顔面である。図3に から を得る手続きを示す。同じ方法を用いて以下が得られ
る。
[Equation 12] here, Is It is a mirror-image formed peculiar face. In Figure 3 From Shows the procedure for obtaining. Using the same method the following is obtained:

【数13】 および[Equation 13] and

【数14】 ここで、mirror()は鏡面行列への左/右方向の鏡像形成
関数である。式(8),式(9)を用いて、一次および
二次固有顔面は、 に合わせることができる。
[Equation 14] Where mirror () is the left / right mirror image forming function for the mirror surface matrix. Using equations (8) and (9), the primary and secondary eigenfaces are When Can be adjusted to

【0065】上述の固有特徴を利用して人の顔面を効果
的に記述することができる。しかし、固有特徴を顔面認
識や関連用途向けの特徴とみなすならば、固有特徴はそ
の範囲が同じでないため正規化すべきである。
A human face can be effectively described by utilizing the above-mentioned characteristic features. However, if we consider the characteristic features as those for facial recognition and related applications, the characteristic features should be normalized because their range is not the same.

【0066】合理的な正規化の方法の一つは、当該固有
特徴を学習用集合内の固有特徴の対応する標準偏差で除
算することである。 を学習用集合内の の標準偏差とする。ここに、j=1,2は一次または二次固
有特徴を示す。するとイメージ の正規化された固有特徴は以下で与えられる。
One rational normalization method is to divide the eigenfeature by the corresponding standard deviation of the eigenfeature in the learning set. In the learning set The standard deviation of Here, j = 1,2 indicates a primary or secondary characteristic feature. Then the image The normalized eigenfeatures of are given below.

【数15】 [Equation 15]

【0067】顔面イメージの類似度は、単に正規化され
た射影間の重み付き距離として定義される。
The facial image similarity is simply defined as the weighted distance between the normalized projections.

【数16】 [Equation 16]

【0068】 の場合、照明に影響されない顔面記述について顔面イメ
ージの類似度は二次特徴のみを用いて測定される。視点
に影響されない顔面記述の場合、一次および二次特徴の
両方が必要である。重みは以下のように選ばれる。
[0068] In the case of, the similarity of the facial image for the facial description that is not affected by illumination is measured using only the secondary features. For face-independent facial descriptions, both primary and secondary features are needed. The weights are chosen as follows.

【数17】 and [Equation 17] and

【0069】重みはまた用途に応じて別の数を選択して
もよい。実際、計算量を減らすために重みは調整された
固有顔面に埋め込まれてもよく、正規化パラメータもま
た固有顔面行列へ移動させられてもよい。記憶容量を減
らすために、固有顔面行列および固有特徴を浮動小数点
から整数に量子化すべきである。
Other weights may be selected depending on the application. In fact, weights may be embedded in the adjusted eigenfaces to reduce the amount of computation, and the normalization parameters may also be moved to the eigenface matrix. The eigenface matrix and eigenfeatures should be quantized from floating point to integers to reduce storage requirements.

【0070】 とする。ここに、 Round()は丸め関数、およびj=1,2である。固有特徴は以
下を用いて量子化できる。
[0070] And here, Round () is a rounding function and j = 1,2. Intrinsic features can be quantized using:

【数18】 ここで、 は学習用集合内のイメージである。特徴集合は および と書ける。従って、各固有特徴は8ビットに量子化でき
る。
[Equation 18] here, Is the image in the learning set. The feature set is and Can be written. Therefore, each unique feature can be quantized to 8 bits.

【0071】さらに、固有特徴全体のサイズを減らすた
めに、固有特徴を学習用集合の標準偏差に従って再量子
化することができる。これは顔面記述子と検索精度の間
のトレードオフと考えられる。発明者らの実験によれ
ば、各固有特徴についてのビットを以下のように割当て
ることができる。
Furthermore, in order to reduce the overall size of the characteristic features, the characteristic features can be requantized according to the standard deviation of the training set. This is considered a trade-off between facial descriptors and search accuracy. According to the inventors' experiments, the bits for each unique feature can be assigned as follows.

【数19】 ここで、 はj次固有特徴の標準偏差の最小値である。異なる固有
特徴は異なるビットを割当てるが、範囲は依然として
[−128,127]のままである。この量子化方策に
より、顔面記述子のサイズは約40%減少するのに対
し、検索精度は1乃至2%しか落ちない。元の量子化方
策が受容できるならば、さらなる量子化は不要である。
ここで、正規化およびクリッピングの例を示す。これに
より更なる量子化がなされ、式(10-1)から得られる特
徴よりもよりコンパクトなものが得られ、各固有特徴は
画一的に5ビットで表すことが可能となる。 ここで、Z=16384*8 であり、これは経験的に求められた
正規化定数である。上式により、視角に影響されない記
述の場合における2個の顔面イメージ 間の距離は以下のように計算される。
[Formula 19] here, Is the minimum standard deviation of the jth characteristic feature. Different unique features allocate different bits, but the range remains [-128,127]. This quantisation strategy reduces the size of the facial descriptors by about 40%, whereas the search accuracy drops by only 1-2%. If the original quantization strategy is acceptable, no further quantization is needed.
Here is an example of normalization and clipping. As a result, further quantization is performed, and a more compact one is obtained than that obtained from the equation (10-1), and each eigenfeature can be uniformly represented by 5 bits. Where Z = 16384 * 8, which is an empirically determined normalization constant. From the above formula, two facial images in the case of a description that is not affected by the viewing angle The distance between is calculated as follows.

【数20】 また、照明に影響されない記述の場合における2個の顔
面イメージ 間の距離は以下のように計算される。
[Equation 20] In addition, two facial images in the case of a description that is not affected by lighting The distance between is calculated as follows.

【数21】 [Equation 21]

【0072】さらに顔面記述子を圧縮するために、量子
化された固有特徴に可変長コード化を適用することがで
きる。この作業にHuffmanコード化および算術コード化
が利用できる。コード表は以下のように計算される。 1)学習用集合内のイメージについて固有特徴を計算す
る。 2)上述の方策により固有特徴を量子化する。 3)同一のビット割当てを有する量子化された固有特徴
について各量子化レベルの確率を計算する。 4)すべての量子化レベルについて可変長コードを計算
する。 5)すべてのビット割当てケースについてステップ3)
および4)を用いてすべてのコード表を計算する。
Variable length coding can be applied to the quantized eigenfeatures to further compress the facial descriptors. Huffman and arithmetic coding are available for this task. The code table is calculated as follows. 1) Compute unique features for images in the learning set. 2) Quantize the characteristic features by the above measures. 3) Compute the probability of each quantization level for quantized eigenfeatures with the same bit allocation. 4) Compute the variable length code for all quantization levels. 5) Step 3) for all bit allocation cases
And 4) are used to calculate all chord tables.

【0073】この方法により、顔面記述子をさらに圧縮
できる。それに対応して、2個の顔面記述子間の距離が
計算できるようにするには、コード化された顔面記述子
をデコードする必要がある。
With this method, the facial descriptor can be further compressed. Correspondingly, the coded face descriptors need to be decoded before the distance between the two face descriptors can be calculated.

【0074】発明者らの観察によれば、視角および照明
に影響されない顔面特徴を記述するのに一次特徴自身も
また利用できる。視角に影響されない顔面特徴は大きさ
が上位N個の固有値に対応する固有顔面から抽出された
固有特徴であってよい。照明に影響されない顔面特徴は
大きさが上位k個からN個の範囲にある固有値に対応す
る固有顔面から抽出された固有特徴であってよい。ここ
に0<k<Nであるが、一般には4≦k≦10かつ40
≦N≦60である。好ましくは、k=8、N=40で、
総固有顔面値は48である。図4、図5は、それぞれ照
明に影響されない顔面特徴を抽出する方法、視角に影響
されない顔面特徴を抽出する方法を示したフローチャー
トである。
According to our observation, the primary features themselves can also be used to describe facial features that are independent of viewing angle and illumination. The facial feature that is not affected by the viewing angle may be a characteristic feature extracted from the characteristic face corresponding to the top N characteristic values in size. The facial features that are not affected by illumination may be the characteristic features extracted from the characteristic face corresponding to the characteristic values in the range from the top k to N in size. Here 0 <k <N, but generally 4 ≦ k ≦ 10 and 40
≦ N ≦ 60. Preferably, with k = 8, N = 40,
The total eigenface value is 48. 4 and 5 are flowcharts showing a method of extracting a facial feature that is not affected by illumination and a method of extracting a facial feature that is not affected by a viewing angle.

【0075】図4の照明に影響されない顔面特徴を抽出
する方法は、次のステップからなる。 ステップ410: 調整された二次固有顔面行列を計算
する。 ステップ420: 調整された二次固有特徴を得る。 ステップ430: 調整された二次固有特徴から顔面を
記述する特徴を選択する。 ステップ440: VLCにより量子化された固有特徴
をコード化する。このステップは省略しても良い。
The method for extracting the facial features that are not affected by illumination in FIG. 4 comprises the following steps. Step 410: Compute the adjusted quadratic eigenface matrix. Step 420: Obtain adjusted secondary eigenfeatures. Step 430: Select features that describe the face from the adjusted secondary eigenfeatures. Step 440: Encode the characteristic features quantized by VLC. This step may be omitted.

【0076】図5の視角に影響されない顔面特徴を抽出
する方法は、次のステップからなる。 ステップ510: 調整された一次固有顔面行列を計算
する。 ステップ520: 調整された二次固有顔面行列を計算
する。 ステップ530: 調整された一次固有特徴を得る。 ステップ540: 調整された二次固有特徴を得る。 ステップ550: 調整された一次および二次固有特徴
を量子化する。 ステップ560: 調整された一次および二次固有特徴
から顔面を記述する特徴を選択する。 ステップ570: VLCにより量子化された固有特徴
をコード化する。このステップは省略しても良い。
The method for extracting facial features that are not affected by the viewing angle in FIG. 5 comprises the following steps. Step 510: Compute the adjusted primary eigenface matrix. Step 520: Compute the adjusted quadratic eigenface matrix. Step 530: Obtain adjusted primary characteristic features. Step 540: Obtain adjusted secondary eigenfeatures. Step 550: Quantize the adjusted primary and secondary eigenfeatures. Step 560: Select facial description features from the adjusted primary and secondary eigenfeatures. Step 570: Encode the characteristic features quantized by VLC. This step may be omitted.

【0077】[0077]

【発明の効果】本発明は、人の顔面を記述するのに極め
て有効である。二次固有顔面は、学習用顔面イメージを
用いて1回の計算だけから得られるため、二次特徴を一
次特徴と同じくらい効率良く得ることができる。詳細情
報は高次固有特徴を用いて明らかにすることができるた
め、一次および二次特徴の組合せのパフォーマンスは同
一個数の一次固有特徴に比べて、視角に影響されない顔
面記述において優れている。二次固有特徴は照明に影響
されない顔面記述能力において、一次固有特徴よりもは
るかに優れている。本発明は人の顔面を記述するのに極
めて有効かつ効率的である。本記述法はインターネット
マルチメディアデータベース検索、ビデオ編集、電子図
書館、監視/追跡、および顔面認識/照合を広範に用い
るその他の用途で利用することができる。
INDUSTRIAL APPLICABILITY The present invention is extremely effective for describing the human face. Since the secondary eigenface is obtained from only one calculation using the learning face image, the secondary feature can be obtained as efficiently as the primary feature. Since the detailed information can be revealed by using the higher-order eigenfeatures, the performance of the combination of the primary and secondary features is superior to that of the same number of primary eigenfeatures in the facial description that is not affected by the viewing angle. Secondary eigenfeatures are far superior to primary eigenfeatures in their ability to describe facial features independent of lighting. The present invention is extremely effective and efficient in describing the human face. The present description can be used in Internet multimedia database searching, video editing, electronic libraries, surveillance / tracking, and other applications that make extensive use of face recognition / matching.

【図面の簡単な説明】[Brief description of drawings]

【図1】i次特徴 を計算する手順を示すフローチャートである。FIG. 1 i-th order feature It is a flow chart which shows the procedure of calculating.

【図2】再構成顔面、対応する原顔面および二次残余イ
メージを示す図である。
FIG. 2 is a diagram showing a reconstructed face, a corresponding original face and a secondary residual image.

【図3】固有顔面の鏡像形成を得る手順を示す模式図で
ある。
FIG. 3 is a schematic diagram showing a procedure for obtaining a mirror image formation of a proper face.

【図4】照明に影響されない顔面記述子を生成するフロ
ーチャートである。
FIG. 4 is a flowchart of generating a face descriptor that is not affected by lighting.

【図5】視角に影響されない顔面記述子を生成するフロ
ーチャートである。
FIG. 5 is a flowchart of generating a facial descriptor that is not affected by a viewing angle.

【符号の説明】 320 再整形 340 鏡像形成を行なう 360 再整形[Explanation of symbols] 320 Reshaping 340 Mirror image formation 360 reshaping

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B075 ND08 NK06 NR12 PR06 QM08 5L096 BA18 DA02 EA07 FA33 FA81 GA06 JA03 JA05 JA11 KA04 KA09 MA05    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 5B075 ND08 NK06 NR12 PR06 QM08                 5L096 BA18 DA02 EA07 FA33 FA81                       GA06 JA03 JA05 JA11 KA04                       KA09 MA05

Claims (33)

【特許請求の範囲】[Claims] 【請求項1】 顔面イメージの調整された二次固有特徴
を得るステップと、 前記調整された二次固有特徴を量子化するステップと、 前記量子化された二次固有特徴から顔面を記述するため
の顔面記述子を構成する特徴を選択するステップと、を
含む、照明に影響されない顔面記述用の特徴を抽出する
方法。
1. Obtaining adjusted secondary eigenfeatures of a facial image, quantizing the adjusted secondary eigenfeatures, and describing a face from the quantized secondary eigenfeatures. Selecting the features that make up the facial descriptor of the method, and extracting the features for lighting-independent facial description.
【請求項2】 顔面イメージの調整された二次固有特徴
を得るステップと、 前記調整された二次固有特徴を量子化するステップと、 前記量子化された二次固有特徴から顔面を記述するため
の顔面記述子を構成する特徴を選択するステップと、 前記選択された固有特徴を照明に影響されない顔面記述
子にコード化するステップと、 を含む、照明に影響されない顔面記述用の特徴を抽出す
る方法。
2. Obtaining adjusted secondary eigenfeatures of a facial image, quantizing the adjusted secondary eigenfeatures, and describing a face from the quantized secondary eigenfeatures. And selecting the features that make up the facial descriptor of the above, and encoding the selected unique features into a facial descriptor that is not affected by lighting, and extracting features for facial description that is not affected by lighting. Method.
【請求項3】 顔面イメージの調整された一次固有特徴
を得るステップと、 顔面イメージの調整された二次固有特徴を得るステップ
と、 前記調整された一次固有特徴を量子化するステップと、 前記調整された二次固有特徴を量子化するステップと、 前記量子化された一次および二次固有特徴から顔面を記
述するための顔面記述子を構成する特徴を選択するステ
ップと、を含む、視角に影響されない顔面記述用の特徴
を抽出する方法。
3. Obtaining adjusted primary eigenfeatures of the facial image; obtaining adjusted secondary eigenfeatures of the facial image; quantizing the adjusted primary eigenfeatures; Affecting the viewing angle, the method comprising: quantizing a quantized secondary eigenfeature; and selecting features that make up a facial descriptor for describing a face from the quantized primary and secondary eigenfeatures. Method for extracting features for facial description that are not processed.
【請求項4】 調整された一次固有特徴を得るステップ
と、 調整された二次固有特徴を得るステップと、 前記調整された一次固有特徴を量子化するステップと、 前記調整された二次固有特徴を量子化するステップと、 前記量子化された一次および二次固有特徴から顔面を記
述するための顔面記述子を構成する特徴を選択するステ
ップと、 前記選択された固有特徴を視角に影響されない顔面記述
子にコード化するステップと、 を含む、視角に影響されない顔面記述用の特徴を抽出す
る方法。
4. Obtaining the adjusted primary eigenfeatures, obtaining the adjusted secondary eigenfeatures, quantizing the adjusted primary eigenfeatures, and the adjusted secondary eigenfeatures. A step of selecting a feature that constitutes a facial descriptor for describing a face from the quantized primary and secondary eigenfeatures, and a face that is not affected by a viewing angle of the selected eigenfeature. A method of extracting facial description-independent facial description features, the method comprising: encoding into a descriptor.
【請求項5】 顔面イメージと調整された二次固有顔面
行列の内積を求めるステップを含む、請求項1乃至4の
いずれか1項に記載の顔面イメージの調整された二次固
有特徴を求める方法。
5. A method for determining an adjusted quadratic eigenfeature of a face image according to any one of claims 1 to 4, including a step of obtaining an inner product of the face image and the adjusted quadratic eigenface matrix. .
【請求項6】 顔面イメージと調整された一次固有顔面
行列の内積を求めるステップを含む、請求項3または4
のいずれか1項に記載の顔面イメージの調整された一次
固有特徴を求める方法。
6. The method according to claim 3, further comprising a step of obtaining an inner product of the face image and the adjusted primary eigenface matrix.
The method for obtaining the adjusted primary eigenfeature of the facial image according to any one of 1.
【請求項7】 一次固有顔面行列を計算するステップ
と、 前記一次固有顔面行列を調整するステップと、 を含む、請求項6に記載の前記調整された一次固有顔面
行列を計算する方法。
7. The method of calculating the adjusted primary eigenface matrix of claim 6, comprising: calculating a primary eigenface matrix; and adjusting the primary eigenface matrix.
【請求項8】 二次固有顔面行列を計算するステップ
と、 前記二次固有顔面行列を調整するステップと、 を含む、請求項5に記載の前記調整された二次固有顔面
行列を計算する方法。
8. The method of calculating the adjusted quadratic eigenface matrix of claim 5, comprising: calculating a quadratic eigenface matrix; adjusting the quadratic eigenface matrix. .
【請求項9】 学習用顔面イメージの一次固有特徴を得
るステップと、 一次固有顔面を原イメージの二次元配列として構成する
ステップと、 前記二次元配列の鏡像形成された固有顔面を得るステッ
プと、 前記鏡像形成された固有顔面イメージに重み付けを行な
うステップと、 前記重み付けられた固有顔面イメージを前記一次固有顔
面に加えるステップと、 一次元の調整された一次固有顔面を得るために一次固有
顔面を再構成するステップと、 一次固有顔面を正規化するステップと、距離計算のため
に調整された一次固有特徴の重みを得るステップと、 距離計算のための一次固有特徴の重みを調整された一次
固有顔面行列へ乗ずるステップと一次固有顔面行列を量
子化するステップと、を含む、請求項7に記載の前記一
次固有顔面を調整する方法。
9. A step of obtaining primary eigenfeatures of a training face image, a step of configuring the primary eigenfaces as a two-dimensional array of original images, a step of obtaining a mirror-imaged eigenface of the two-dimensional array, Weighting the mirrored eigenface image, adding the weighted eigenface image to the primary eigenface, and re-priming the primary eigenface to obtain a one-dimensional adjusted primary eigenface. The steps of constructing, normalizing the primary eigenfaces, obtaining the weights of the adjusted primary eigenfeatures for distance calculation, and adjusting the weights of the primary eigenfeatures for distance calculation Adjusting the primary eigenfaces of claim 7, comprising multiplying a matrix and quantizing a primary eigenface matrix. Method.
【請求項10】 一次固有顔面行列を計算するステップ
と、 学習用顔面イメージから一次固有特徴を得るステップ
と、 前記一次固有顔面行列の擬似逆行列を計算するステップ
と、 前記一次固有特徴を一次固有顔面行列の前記逆行列に乗
ずることにより再構成された一次顔面イメージを計算す
るステップと、 原イメージから再構成された一次顔面イメージを差し引
くことにより二次残余イメージを得るステップと、 前記二次残余イメージの固有ベクトルを計算することに
より二次固有顔面を得るステップと、を含む、請求項8
に記載の二次固有顔面を計算する方法。
10. A step of calculating a primary eigenface matrix, a step of obtaining primary eigenfeatures from a training facial image, a step of calculating a pseudo inverse matrix of the primary eigenface matrix, and a step of calculating the primary eigenfeatures to primary eigenfeatures. Calculating a reconstructed primary facial image by multiplying the inverse of the facial matrix, obtaining a secondary residual image by subtracting the reconstructed primary facial image from the original image, and the secondary residual Obtaining a quadratic eigenface by calculating the eigenvectors of the image.
The method for calculating the secondary eigenface described in.
【請求項11】 顔面イメージと二次固有顔面の内積を
計算することにより学習用顔面イメージの二次固有特徴
を得るステップと、 二次固有顔面を原イメージの形状に再整形し、左右対称
に鏡像形成された固有顔面イメージを得るステップと、 鏡像形成された固有顔面イメージに重み付けを行ない、
それらを対応する原イメージに整形された二次固有顔面
イメージに加えるステップと、 一次元の調整された二次固有顔面を得るために原イメー
ジに整形された二次固有顔面を再構成するステップと、 調整された二次固有顔面を正規化するステップと、 距離計算のために二次固有特徴の重みを得るステップ
と、 距離計算のための二次固有特徴の重みを調整された二次
固有顔面行列へ乗ずるステップと二次固有顔面行列を量
子化するステップと、 を含む、請求項8に記載の二次固有顔面を調整する方
法。
11. A step of obtaining secondary eigenfeatures of a learning face image by calculating an inner product of the facial image and the secondary eigenface, and reshaping the secondary eigenface into the shape of the original image to obtain bilateral symmetry. Obtaining a mirror-imaged eigenface image, weighting the mirror-imaged eigenface image,
Adding them to the shaped secondary eigenface image in the corresponding original image, and reconstructing the shaped secondary eigenface to obtain a one-dimensional adjusted secondary eigenface. , Normalizing the adjusted secondary eigenfaces, obtaining secondary eigenfeature weights for distance calculation, and adjusting secondary eigenfeature weighted secondary eigenfaces for distance calculation 9. A method for adjusting a quadratic eigenface according to claim 8, comprising: multiplying a matrix and quantizing a quadratic eigenface matrix.
【請求項12】 調整された一次固有顔面行列の最大値
および最小値を得るステップと、 前記最大値と前記最小値の間を複数の量子化レベルに分
割することにより量子化刻みを得るステップと、 前記調整された二次固有顔面行列を前記量子化刻みで除
算するステップと、 前記除算された値を最も近い整数に丸めるステップと、 を含む、請求項9に記載の調整された一次固有顔面行列
を量子化する方法。
12. Obtaining maximum and minimum values of the adjusted primary eigenfacial matrix, and obtaining a quantization step by dividing the maximum value and the minimum value into a plurality of quantization levels. The adjusted primary eigenfaces of claim 9, comprising: dividing the adjusted quadratic eigenface matrix by the quantization step; and rounding the divided value to the nearest integer. How to quantize a matrix.
【請求項13】 前記調整された二次固有顔面行列の最
大値および最小値を得るステップと、 前記最大値と前記最小値の間を複数の量子化レベルに分
割することにより量子化刻みを得るステップと、 前記調整された二次固有顔面行列を前記量子化刻みで除
算するステップと、 前記除算された値を最も近い整数に丸めるステップと、
を含む、請求項11に記載の調整された二次固有顔面行
列を量子化する方法。
13. Obtaining a maximum and minimum value of the adjusted quadratic eigenface matrix, and obtaining a quantization step by dividing between the maximum value and the minimum value into a plurality of quantization levels. A step of dividing the adjusted quadratic eigenface matrix by the quantization step, and rounding the divided value to the nearest integer,
A method for quantizing a conditioned quadratic eigenface matrix according to claim 11, comprising:
【請求項14】 前記量子化された二次固有顔面行列に
請求項11の前記量子化刻みを乗ずることにより、復元
された調整済み二次固有顔面を得るステップと、 復元された調整済み二次固有顔面の各列に顔面イメージ
の各行を乗ずることにより二次固有特徴を得るステップ
と、 を含む、請求項1乃至4のいずれか1項に記載の調整さ
れた二次固有特徴を得る方法。
14. Obtaining a reconstructed adjusted quadratic eigenface by multiplying the quantized quadratic eigenface matrix by the quantization step of claim 11, wherein the reconstructed adjusted quadratic eigenface is obtained. 5. Obtaining a quadratic eigenfeature by multiplying each column of the eigenface by each row of the facial image, the method comprising: obtaining the adjusted quadratic eigenfeature according to any one of claims 1 to 4.
【請求項15】 前記量子化された一次固有顔面行列に
請求項12の前記量子化刻みを乗ずることにより、復元
された調整済み一次固有顔面を得るステップと、 復元された調整済み一次固有顔面の各列に顔面イメージ
の各行を乗ずることにより一次固有特徴を得るステップ
と、 を含む、請求項3または4のいずれか1項に記載の調整
された一次固有特徴を得る方法。
15. Obtaining a reconstructed adjusted primary eigenface by multiplying the quantized primary eigenface matrix by the quantized step of claim 12. 5. Obtaining the primary eigenfeatures by multiplying each column by each row of the facial image, the method comprising: obtaining the adjusted primary eigenfeatures according to claim 3 or 4.
【請求項16】 学習用イメージの前記調整された二次
固有特徴の最大値および最小値を得るステップと、 前記最大値と前記最小値の間を複数の量子化レベルに分
割することにより量子化刻みを得るステップと、 前記調整された二次固有特徴を前記量子化刻みで除算す
るステップと、 前記除算された値を最も近い整数に丸めるステップと、 を含む、請求項1乃至4のいずれか1項に記載の調整さ
れた二次固有特徴を量子化する方法。
16. Obtaining maximum and minimum values of the adjusted quadratic eigenfeatures of the training image, and quantizing by dividing the maximum value and the minimum value into a plurality of quantization levels. 5. A step of obtaining a step, a step of dividing the adjusted quadratic eigenfeature by the quantization step, and a step of rounding the divided value to the nearest integer. A method for quantizing a tuned quadratic eigenfeature according to item 1.
【請求項17】 学習用イメージの前記調整された二次
固有特徴の最大値および最小値を得るステップと、 前記最大値と前記最小値の間を複数の量子化レベルに分
割することにより量子化刻みを得るステップと、 前記調整された二次固有特徴を前記量子化刻みで除算す
るステップと、 前記除算された値を最も近い整数に丸めるステップと、 標準偏差の最小値で除算された学習用集合内の対応固有
特徴の標準偏差の丸められた対数を計算することによ
り、異なる固有特徴に異なる個数のビットを割当てるス
テップと、 前記固有特徴を対応ビット割当てに従って量子化するス
テップと、を含む、請求項1乃至4のいずれか1項に記
載の調整された二次固有特徴を量子化する方法。
17. Obtaining maximum and minimum values of the adjusted quadratic eigenfeatures of the training image, and quantizing by dividing the maximum value and the minimum value into a plurality of quantization levels. Obtaining a step, dividing the adjusted quadratic eigenfeature by the quantization step, rounding the divided value to the nearest integer, and learning for dividing by the minimum standard deviation. Allocating a different number of bits to different eigenfeatures by calculating the rounded logarithm of the standard deviation of the corresponding eigenfeatures in the set, and quantizing the eigenfeatures according to the corresponding bit allocation. A method of quantizing a tuned quadratic eigenfeature according to any one of claims 1 to 4.
【請求項18】 学習用イメージの前記調整された一次
固有特徴の最大値および最小値を得るステップと、 前記最大値と前記最小値の間を複数の量子化レベルに分
割することにより量子化刻みを得るステップと、 前記調整された一次固有特徴を前記量子化刻みで除算す
るステップと、前記除算された値を最も近い整数に丸め
るステップと、 を含む、請求項3または4のいずれか1項に記載の調整
された一次固有特徴を量子化する方法。
18. Obtaining maximum and minimum values of the adjusted primary eigenfeatures of a training image; quantizing steps by dividing the maximum value and the minimum value into a plurality of quantization levels. 5. The method according to claim 3, further comprising: obtaining the adjusted primary eigenfeatures, dividing the adjusted primary eigenfeatures by the quantization step, and rounding the divided value to the nearest integer. A method for quantizing the adjusted primary eigenfeatures according to claim 1.
【請求項19】 学習用イメージの前記調整された一次
固有特徴の最大値および最小値を得るステップと、 前記最大値と前記最小値の間を複数の量子化レベルに分
割することにより量子化刻みを得るステップと、 前記調整された一次固有特徴を前記量子化刻みで除算す
るステップと、 前記除算された値を最も近い整数に丸めるステップと、 標準偏差の最小値で除算された学習用集合内の対応固有
特徴の標準偏差の丸められた対数を計算することによ
り、異なる固有特徴に異なる個数のビットを割当てるス
テップと、前記固有特徴を対応ビット割当てに従って量
子化するステップと、 を含む、請求項3または4のいずれか1項に記載の調整
された一次固有特徴を量子化する方法。
19. Obtaining maximum and minimum values of the adjusted primary eigenfeatures of the training image; quantizing steps by dividing the maximum value and the minimum value into a plurality of quantization levels. A step of dividing the adjusted first-order eigenfeatures by the quantization step, a step of rounding the divided value to the nearest integer, and a learning set divided by the minimum standard deviation. Allocating a different number of bits to different eigenfeatures by calculating the rounded logarithm of the standard deviation of the corresponding eigenfeatures of, and quantizing the eigenfeatures according to the corresponding bit allocation. Method for quantizing the adjusted primary eigenfeatures according to any one of clauses 3 or 4.
【請求項20】 学習用顔面イメージの前記調整された
一次固有特徴の標準偏差を得るステップと、 前記標準偏差の平方根を抽出することにより重みを得る
ステップと、 を含む、距離計算のための調整された一次固有特徴の重
みを得る請求項9に記載の方法。
20. An adjustment for distance calculation, comprising: obtaining a standard deviation of the adjusted primary eigenfeatures of a training facial image; obtaining a weight by extracting a square root of the standard deviation. The method of claim 9, wherein the weights of the selected primary eigenfeatures are obtained.
【請求項21】 学習用顔面イメージの前記調整された
二次固有特徴の分散を得るステップと、 前記分散の平方根を抽出することにより、調整された二
次固有特徴の重みを得るステップと、 を含む、距離計算のために調整された二次固有特徴の重
みを得る請求項11に記載の方法。
21. Obtaining a variance of the adjusted secondary eigenfeatures of a training face image; and obtaining a weight of the adjusted secondary eigenfeatures by extracting a square root of the variance. 12. The method of claim 11, including obtaining adjusted secondary eigenfeature weights for distance calculation.
【請求項22】 請求項1または2に記載の方法により
照明に影響されない顔面記述のための顔面の固有特徴を
抽出するステップと、 前記顔面の固有特徴のユークリッド距離を得るステップ
と、 最適に合致する顔面のペアを示す最小ユークリッド距離
を選択するステップと、を含む、照明に影響されない顔
面同士の類似度を測定する方法。
22. Extracting the eigenfeatures of the face for lighting-independent face description by the method of claim 1 or 2, obtaining the Euclidean distance of the eigenfeatures of the face, and optimally matching Selecting a minimum Euclidean distance indicating a pair of faces to be faced, and measuring the similarity between the faces that are not affected by illumination.
【請求項23】 請求項3または4に記載の方法により
視角に影響されない顔面記述のための顔面の固有特徴を
抽出するステップと、 顔面の特徴のユークリッド距離を得るステップと、 最適に合致する顔面のペアを示す最小ユークリッド距離
を選択するステップと、を含む、視角に影響されない顔
面同士の類似度を測定する方法。
23. A method of extracting a characteristic feature of a face for a face description which is not affected by a visual angle by the method according to claim 3; a step of obtaining a Euclidean distance of the feature of the face; and an optimally matching face. Selecting a minimum Euclidean distance that indicates a pair of F., and measuring the degree of similarity between faces that are not affected by the viewing angle.
【請求項24】 請求項1または2に記載の方法により
学習用集合の前記量子化された固有特徴を得るステップ
と、 ビット割当てに従って前記固有特徴をグループに分類す
るステップと、 エントロピーコード化法を用いて同一ビット割当てを有
する前記固有特徴のグループの各々に対してコード表を
構成するステップと、 を含む、照明に影響されない顔面記述子を可変コード化
(VLC)するためのコード表を得る方法。
24. Obtaining said quantized eigenfeatures of a training set by the method of claim 1 or 2, classifying said eigenfeatures into groups according to bit allocation, and entropy coding method. Constructing a code table for each of said groups of unique features having the same bit allocation using, and obtaining a code table for variably coding (VLC) a lighting-independent face descriptor. .
【請求項25】 請求項3または4に記載の方法により
学習用集合の前記量子化された固有特徴を得るステップ
と、 ビット割当てに従って前記固有特徴をグループに分類す
るステップと、 エントロピーコード化手法を用いて同一ビット割当てを
有する前記固有特徴のグループを各々に対してコード表
を構成するステップと、を含む、視角に影響されない顔
面記述子を可変コード化(VLC)するためのコード表
を得る方法。
25. Obtaining the quantized eigenfeatures of a training set by the method of claim 3 or 4, classifying the eigenfeatures into groups according to bit allocation, and entropy coding techniques. Constructing a code table for each of said groups of unique features having the same bit allocation using a method for obtaining a code table for variable coding (VLC) a facial descriptor independent of viewing angle. .
【請求項26】 前記エントロピーコード化手法は量子
化レベルの確率に基づいたHuffmanコード化手法
である、請求項24または25のいずれか1項に記載の
コード表構成方法。
26. The code table constructing method according to claim 24, wherein the entropy coding method is a Huffman coding method based on a probability of a quantization level.
【請求項27】 前記エントロピーコード化手法は量子
化レベルの確率に基づいた算術コード化手法である、請
求項24または25のいずれか1項に記載のコード表構
成方法。
27. The code table construction method according to claim 24, wherein the entropy coding method is an arithmetic coding method based on a probability of a quantization level.
【請求項28】 各々の量子化された固有特徴について
請求項24に記載の方法により生成されたコード表を参
照し、対応するコード語を用いて前記量子化された固有
特徴を表現するステップを含む、請求項1または2のい
ずれか1項に記載の照明に影響されない顔面記述子をコ
ード化する方法。
28. Referencing the code table generated by the method of claim 24 for each quantized eigenfeature, and expressing the quantized eigenfeature using corresponding codewords. A method of encoding a lighting-independent facial descriptor according to any one of claims 1 or 2, comprising.
【請求項29】 各々の量子化された固有特徴について
請求項25に記載の方法により生成されたコード表を参
照し、対応するコード語を用いて前記量子化された固有
特徴を表現するステップを含む、請求項3または4のい
ずれか1項に記載の視角に影響されない顔面記述子をコ
ード化する方法。
29. Referring to the code table generated by the method of claim 25 for each quantized eigenfeature, and expressing the quantized eigenfeature with corresponding codewords. A method of encoding a viewing angle insensitive facial descriptor according to any one of claims 3 or 4, comprising.
【請求項30】 請求項7に記載の方法により顔面イメ
ージの調整された一次固有特徴を得るステップと、 請求項19に記載の方法により前記調整された一次固有
特徴を量子化するステップと、 前記量子化された一次固有特徴から顔面を記述する顔面
記述子を構成するために特徴を選択するステップと、を
含む、一般的な顔面記述用の特徴を抽出する方法。
30. Obtaining the adjusted primary eigenfeatures of a facial image according to the method of claim 7, quantizing the adjusted primary eigenfeatures according to the method of claim 19, Selecting features to construct a facial descriptor that describes the face from the quantized primary eigenfeatures, and extracting features for general facial description.
【請求項31】 請求項7に記載の方法により顔面イメ
ージの調整された一次固有特徴を得るステップと、 請求項19に記載の方法により前記調整された一次固有
特徴を量子化するステップと、 前記量子化された一次固有特徴から顔面を記述する顔面
記述子を構成するために特徴を選択するステップと、 前記選択された固有特徴を顔面記述子にコード化するス
テップと、を含む、一般的な顔面記述用の特徴を抽出す
る方法。
31. Obtaining adjusted primary eigenfeatures of a facial image by the method of claim 7; quantizing the adjusted primary eigenfeatures by the method of claim 19; Selecting a feature to construct a facial descriptor that describes a face from the quantized primary eigenfeature; and encoding the selected intrinsic feature into a facial descriptor. A method for extracting features for facial description.
【請求項32】 視角に影響されない顔面記述を行なう
ために大きさが上位N個の固有値に対応する固有特徴を
選択するステップを含む、請求項30または31のいず
れかに記載の、前記量子化された一次固有特徴から顔面
を記述する顔面記述子を構成する特徴を選択する方法。
32. The quantization of claim 30 or 31, including the step of selecting eigenfeatures corresponding in magnitude to the top N eigenvalues to provide a facial description that is independent of viewing angle. A method for selecting features that form a facial descriptor that describes a face from the generated primary eigenfeatures.
【請求項33】 照明に影響されない顔面記述を行なう
ために大きさが上位k番目からN番目の固有値(0<k
<N)に対応する固有特徴を選択するステップを含む、
請求項30または31のいずれかに記載の、前記量子化
された一次固有特徴から顔面を記述する顔面記述子を構
成する特徴を選択する方法。
33. The kth to Nth eigenvalues (0 <k) whose magnitudes are high in order to perform a face description that is not affected by illumination.
<N) corresponding characteristic step is selected,
32. A method according to any of claims 30 or 31 for selecting from the quantized primary eigenfeatures the features that make up a facial descriptor describing a face.
JP2001371005A 2000-12-19 2001-12-05 Face description method independent of illumination and viewing angle using primary and secondary eigenfeatures Expired - Lifetime JP3668455B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001371005A JP3668455B2 (en) 2000-12-19 2001-12-05 Face description method independent of illumination and viewing angle using primary and secondary eigenfeatures

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2000-385126 2000-12-19
JP2000385126 2000-12-19
JP2001-340384 2001-11-06
JP2001340384 2001-11-06
JP2001371005A JP3668455B2 (en) 2000-12-19 2001-12-05 Face description method independent of illumination and viewing angle using primary and secondary eigenfeatures

Publications (2)

Publication Number Publication Date
JP2003208619A true JP2003208619A (en) 2003-07-25
JP3668455B2 JP3668455B2 (en) 2005-07-06

Family

ID=27670134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001371005A Expired - Lifetime JP3668455B2 (en) 2000-12-19 2001-12-05 Face description method independent of illumination and viewing angle using primary and secondary eigenfeatures

Country Status (1)

Country Link
JP (1) JP3668455B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316809A (en) * 2006-05-24 2007-12-06 Fujifilm Corp Face collation apparatus and method, and program
JP2014186534A (en) * 2013-03-22 2014-10-02 Toshiba Corp Feature quantity extraction device, feature quantity extraction method, and image identification device
CN111950429A (en) * 2020-08-07 2020-11-17 南京审计大学 Face recognition method based on weighted collaborative representation
CN114419383A (en) * 2022-01-21 2022-04-29 北部湾大学 Image illumination correction algorithm based on principal component analysis

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316809A (en) * 2006-05-24 2007-12-06 Fujifilm Corp Face collation apparatus and method, and program
JP2014186534A (en) * 2013-03-22 2014-10-02 Toshiba Corp Feature quantity extraction device, feature quantity extraction method, and image identification device
CN111950429A (en) * 2020-08-07 2020-11-17 南京审计大学 Face recognition method based on weighted collaborative representation
CN111950429B (en) * 2020-08-07 2023-11-14 南京审计大学 Face recognition method based on weighted collaborative representation
CN114419383A (en) * 2022-01-21 2022-04-29 北部湾大学 Image illumination correction algorithm based on principal component analysis

Also Published As

Publication number Publication date
JP3668455B2 (en) 2005-07-06

Similar Documents

Publication Publication Date Title
US6996257B2 (en) Method for lighting- and view -angle-invariant face description with first- and second-order eigenfeatures
Liu et al. Fusion of deep learning and compressed domain features for content-based image retrieval
Furuya et al. Deep aggregation of local 3d geometric features for 3d model retrieval.
JP5950864B2 (en) A method for representing images using quantized embedding of scale-invariant image features
Dony Karhunen-loeve transform
Guo et al. Image indexing using the color and bit pattern feature fusion
Guo et al. Effective image retrieval system using dot-diffused block truncation coding features
Chadha et al. Voronoi-based compact image descriptors: Efficient region-of-interest retrieval with VLAD and deep-learning-based descriptors
Wang et al. A real-time database architecture for motion capture data
JP2005514683A (en) Logic device, data structure, system and method for multi-linear representation of multimodal data populations for synthesis, recognition and compression
JP2003208619A (en) Face description method by use of primary and secondary inherent features and not affected by illumination and visual angle
KR20090037585A (en) Image feature extracting method and apparatus, content-based image retrieval method and apparatus using the same and recording medium storing program for performing the method thereof
Manjunath et al. Texture features for image retrieval
Veinidis et al. On the retrieval of 3D mesh sequences of human actions
Idris et al. Storage and retrieval of compressed images using wavelet vector quantization
Kekre et al. Vector quantized codebook optimization using modified genetic algorithm
Doan et al. Deep multi-view learning from sequential data without correspondence
Watanapongse et al. Application of the principal wavelet component in pattern classification
Eftekhari-Moghadam et al. Image retrieval based on index compressed vector quantization
Janet et al. Incremental codebook generation for vector quantization in large scale content based image retrieval
Zhao et al. Image and Graphics: 10th International Conference, ICIG 2019, Beijing, China, August 23–25, 2019, Proceedings, Part III
Du et al. A Low Overhead Progressive Transmission for Visual Descriptor Based on Image Saliency.
Chang et al. Fingerprint image compression by a natural clustering neural network
Janet et al. Vector quantization based index cube model for image retrieval
US8392424B2 (en) Method for hierarchical signal quantization and hashing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050408

R150 Certificate of patent or registration of utility model

Ref document number: 3668455

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080415

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090415

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100415

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110415

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120415

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130415

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130415

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term