JP2006031388A - Image similarity computation device, image recognition device using the computation device, image siimilarity computation method, image recognition method using the computation method, image-collating computer program and recording medium to which the program is recorded - Google Patents

Image similarity computation device, image recognition device using the computation device, image siimilarity computation method, image recognition method using the computation method, image-collating computer program and recording medium to which the program is recorded Download PDF

Info

Publication number
JP2006031388A
JP2006031388A JP2004209052A JP2004209052A JP2006031388A JP 2006031388 A JP2006031388 A JP 2006031388A JP 2004209052 A JP2004209052 A JP 2004209052A JP 2004209052 A JP2004209052 A JP 2004209052A JP 2006031388 A JP2006031388 A JP 2006031388A
Authority
JP
Japan
Prior art keywords
image
feature
similarity
value
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004209052A
Other languages
Japanese (ja)
Other versions
JP4468756B2 (en
Inventor
Mutsumi Yoshida
睦 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2004209052A priority Critical patent/JP4468756B2/en
Publication of JP2006031388A publication Critical patent/JP2006031388A/en
Application granted granted Critical
Publication of JP4468756B2 publication Critical patent/JP4468756B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image similarity computation device and an image similarity computation method which can precisely compute the similarity of a pair of images, and also provide an image recognition device and an image recognition method which use the computation device and the computation method. <P>SOLUTION: A characteristic area setting part 45 sets T pieces of characteristic area A<SB>j</SB>(1≤j≤T) in common in a first image I<SP>1</SP>and a second image I<SP>2</SP>. For each of T pieces of the characteristic area A<SB>j</SB>, a first and second characteristic quantity computation parts 46 and 47 compute an area value x<SP>1</SP><SB>k</SB>, and x<SP>2</SP><SB>k</SB>of p<SB>j</SB>pieces of partial area a<SB>k</SB>(1≤k≤p<SB>j</SB>) in the characteristic area A<SB>j</SB>of the first and second images I<SP>1</SP>and I<SP>2</SP>. Based on the area values, a correlation value computation part 48 computes a correlation value (1) in the characteristic area A<SB>j</SB>of the first and second images I<SP>1</SP>and I<SP>2</SP>. The correlation value C<SB>j</SB>is compared with a threshold value θ<SB>j</SB>in a comparison part 49. The result of the comparison is added by multiplying a weighting coefficient w<SB>j</SB>by means of a weighting addition part 50 to find the similarity. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、たとえば顔画像その他の画像認識に適用可能な画像類似度演算装置およびそれを利用した画像認識装置、画像類似度演算方法およびそれを利用した画像認識方法、ならびに画像照合用コンピュータプログラムおよびそれを記録した記録媒体に関する。   The present invention relates to, for example, an image similarity calculation device applicable to face image and other image recognition, an image recognition device using the same, an image similarity calculation method, an image recognition method using the image recognition method, an image verification computer program, and The present invention relates to a recording medium on which it is recorded.

特定の区域への立ち入りを制限する場合、入口での個人認証が行われる。個人認証のために従来から用いられてきた装置の一つの例は、カード読取装置である。この場合、立ち入りが許可された者に予め磁気カードのような識別カードが配布される。立ち入り制限区域に立ち入ろうとする者は、入口に配置されたカード読取装置により、識別カードに記録された識別情報を読み取らせる。読み取られた識別情報が予め登録されている識別情報と一致すれば、立ち入りが許可され、入口に設置されたゲートが開かれるか、またはドアロックが解錠される。   When restricting access to specific areas, personal authentication is performed at the entrance. One example of an apparatus conventionally used for personal authentication is a card reader. In this case, an identification card such as a magnetic card is distributed in advance to those who are permitted to enter. A person who intends to enter the restricted access area causes the card reader arranged at the entrance to read the identification information recorded on the identification card. If the read identification information matches the identification information registered in advance, entry is permitted and the gate installed at the entrance is opened or the door lock is unlocked.

しかし、このようなシステムでは、カードの携行を忘れたり、カードを紛失したりすると、たとえ立ち入りが許可された者であっても、入場ができなくなる。また、カードの盗難により、セキュリティが容易に破られてしまうという問題もある。
個人認証のための従来の装置の他の例は、パスワード入力装置である。この場合、立ち入りが許可された者には、予めパスワードが教示される。立ち入り制限区域に入場しようとする者は、入口に配置されたパスワード入力装置からパスワードを入力する。その入力結果が予め登録されているパスワードと一致すれば、立ち入りが許可され、入口に設置されたゲートが開かれるか、ドアロックが解錠される。
However, in such a system, if a person forgets to carry a card or loses a card, even a person who is permitted to enter cannot enter. Another problem is that security is easily broken due to theft of the card.
Another example of a conventional device for personal authentication is a password input device. In this case, a password is taught in advance to those who are permitted to enter. A person who wants to enter the restricted access area inputs a password from a password input device arranged at the entrance. If the input result matches a pre-registered password, entry is permitted and the gate installed at the entrance is opened or the door lock is unlocked.

このシステムでは、カードの携行忘れや紛失のおそれはない。しかし、立ち入りが許可されている者がパスワードを失念してしまえば、やはりその者の入場が不可能になる。また、パスワードが漏洩すれば、セキュリティが破られてしまう。
最近では、人間の生体情報(バイオメトリクスデータ)を用いた個人認証技術の開発が盛んに行われている。生体情報を用いた個人認証であれば、前述のような問題はいずれも解消される。
With this system, there is no risk of forgetting or losing the card. However, if a person who is allowed access has forgotten his password, that person will not be able to enter. Also, if a password is leaked, security is broken.
Recently, personal authentication technology using human biometric information (biometric data) has been actively developed. If personal authentication using biometric information is used, all of the above-mentioned problems are solved.

生体情報を用いた個人認証技術には、指紋を利用するもの、虹彩を利用するもの、顔画像を利用するものなどがある。ところが、指紋を利用する場合には、指紋を予め登録しておく必要がある。そのため、抵抗感を持つ使用者が少なくない。また、虹彩を利用した個人認証のためには、使用者は、認証時に、カメラに極近接した位置に目の位置を合わさなければならない。したがって、使用者は、個人認証手続を強く意識することになり、煩わしさを感じることになる。顔画像を利用した個人認証にはこのような欠点がなく、抵抗感の少ない個人認証システムを構築できる可能性がある。   Personal authentication techniques using biometric information include those using fingerprints, those using irises, and those using facial images. However, when using a fingerprint, it is necessary to register the fingerprint in advance. Therefore, there are many users who have a sense of resistance. In addition, for personal authentication using an iris, the user must position his eyes at a position in close proximity to the camera at the time of authentication. Therefore, the user is strongly aware of the personal authentication procedure and feels annoyed. Personal authentication using face images does not have such disadvantages, and there is a possibility that a personal authentication system with less resistance can be constructed.

顔画像を用いた個人認証には、顔画像を認識するために、たとえばコンピュータシステムによって構成された画像認識装置が用いられる(特許文献1および特許文献2)。この画像認識装置は、立ち入り制限区域への入場が許可されている人物の顔画像の画像データまたはその画像データの特徴量データを照合データとして予め登録した照合データ記憶手段を備えている。さらに、画像認識装置は、認識対象の人物の顔画像を撮像して画像データに変換する撮像装置と、この撮像装置が出力する画像データと照合データ記憶手段の登録データとを照合する照合手段と、この照合手段による照合結果に基づいて認識結果を出力する判定手段とを有している。   For personal authentication using a face image, for example, an image recognition device configured by a computer system is used to recognize the face image (Patent Document 1 and Patent Document 2). This image recognition apparatus includes collation data storage means in which image data of a face image of a person permitted to enter a restricted access area or feature data of the image data is registered in advance as collation data. Further, the image recognition device includes an imaging device that captures a face image of a person to be recognized and converts the image into image data, a collation unit that collates image data output by the imaging device and registration data in the collation data storage unit, And determining means for outputting a recognition result based on the collation result by the collating means.

照合手段は、撮像装置によって撮像された顔画像と照合データ記憶手段に登録された照合データに対応する顔画像との類似度を演算する。判定手段は、演算された類似度を所定の認識しきい値と比較し、その類似度が認識しきい値を超える場合に、認識対象の人物が照合データ記憶手段に登録されている人物の一人と一致する旨の判定結果を出力する。
顔画像の照合のための先行技術は、たとえば、下記非特許文献1に示されている。この非特許文献1に開示された先行技術では、ブースティングアルゴリズムを用いた学習によって予め選択された複数のフィルタが用いられる。この複数のフィルタは、形状、大きさおよび位置のいずれかが異なるフィルタ領域を顔画像中に設定する。フィルタ領域内は2つの部分領域に分割され、それぞれの部分領域内の画素値の総和が求められる。そして、2つの部分領域の画素値総和の差がフィルタ応答値として求められる。このフィルタ応答値が、被照合顔画像と登録顔画像との間で近似していれば、それらは同一人物の画像ペアである可能性が高いと判断でき、フィルタ応答値が近似していなければ他人の画像ペアである可能性が高いと判断できる。
The collation means calculates the similarity between the face image captured by the imaging device and the face image corresponding to the collation data registered in the collation data storage means. The determination means compares the calculated similarity with a predetermined recognition threshold value, and if the similarity exceeds the recognition threshold value, the person to be recognized is one of the persons registered in the collation data storage means. Outputs the result of determination to match.
The prior art for collating face images is shown, for example, in Non-Patent Document 1 below. In the prior art disclosed in Non-Patent Document 1, a plurality of filters previously selected by learning using a boosting algorithm are used. The plurality of filters set filter regions in the face image that are different in shape, size, or position. The filter area is divided into two partial areas, and the sum of the pixel values in each partial area is obtained. Then, the difference between the pixel value sums of the two partial areas is obtained as a filter response value. If this filter response value is approximated between the face image to be matched and the registered face image, it can be determined that they are likely to be image pairs of the same person, and if the filter response value is not approximated It can be determined that there is a high possibility that it is an image pair of another person.

このようなフィルタがブースティングによって複数個求められ、個々のフィルタを用いた識別結果(弱仮説)を重み付けして加算することにより、画像ペアの類似度が求められる。この類似度が所定のしきい値よりも高ければ、当該画像ペアは同一人物のものであると判断され、類似度が当該しきい値以下であれば、当該画像ペアは他人のものであると判断される。
特開2003−346149号公報 特開2001−266151号公報 Michael J. Jonesら著、「Face Recognition Using Boosted Local Features」、2003年、MITSUBISHI ELECTRIC RESEARCH LABORATORIES、[2004年6月28日検索]、インターネット<URL: http://www.merl.com/reports/docs/TR2003-25.pdf> Yoav Freundら著、「A decision-theoretic generalization of on-line learning and an application to boosting」、Journal of Computer and System Sciences、1997年、p.119-139
A plurality of such filters are obtained by boosting, and the similarity between the image pairs is obtained by weighting and adding the identification results (weak hypotheses) using the individual filters. If the similarity is higher than a predetermined threshold value, it is determined that the image pair belongs to the same person. If the similarity is equal to or less than the threshold value, the image pair belongs to another person. To be judged.
JP 2003-346149 A JP 2001-266151 A Michael J. Jones et al., “Face Recognition Using Boosted Local Features”, 2003, MITSUBISHI ELECTRIC RESEARCH LABORATORIES, [Search June 28, 2004], Internet <URL: http://www.merl.com/reports/ docs / TR2003-25.pdf> Yoav Freund et al., “A decision-theoretic generalization of on-line learning and an application to boosting”, Journal of Computer and System Sciences, 1997, p.119-139.

しかし、フィルタ応答値の差を特徴量として画像を認識する前述の先行技術では、必ずしも類似度(同一人物らしさ)を正確に検出できない場合がある。また、認識対象人物の撮像時の照明条件、認識対象人物の姿勢およびその表情のような変動要因に対する頑健さの点でも必ずしも十分ではない。
たとえば、同一人物の画像I1,I2のペアに関して、これらの画像中に共通に設定した第1および第2領域P1,P2内の各複数箇所の画素値が、図21に示すような値をとる場合を想定する。この場合、第1領域P1の画像が大きな変化を含んでいるのに対して、第2領域P2の画像はノイズのような微小な変化を含んでいるに過ぎない。すなわち、第1領域P1の方が明らかに重要な情報を含んでいる。
However, in the above-described prior art for recognizing an image using a difference in filter response values as a feature amount, there are cases where the similarity (likeness of the same person) cannot always be detected accurately. Moreover, the robustness with respect to fluctuation factors such as the illumination conditions at the time of imaging of the recognition target person, the posture of the recognition target person, and their facial expressions is not necessarily sufficient.
For example, regarding the pair of images I 1 and I 2 of the same person, the pixel values at a plurality of locations in the first and second regions P 1 and P 2 set in common in these images are as shown in FIG. Suppose that it takes a large value. In this case, the image in the first region P 1 includes a large change, whereas the image in the second region P 2 includes only a minute change such as noise. That is, the first region P 1 clearly contains more important information.

ところが、第1領域P1におけるフィルタ応答値の画像I1,I2間の差は、|(6−1)−(7−0)|=2であり、第2領域P2におけるフィルタ応答値の画像I1,I2間の差は、|(1−0)−(1−1)|=1である。フィルタ応答値は、絶対値が小さいほど同一人物らしいという意味合いを持つから、学習の過程において、フィルタ領域として、第1領域P1は選択されずに第2領域P2が選択されることになる。 However, the difference between the filter response values in the first region P 1 between the images I 1 and I 2 is | (6-1) − (7-0) | = 2, and the filter response value in the second region P 2 . The difference between the images I 1 and I 2 is | (1-0) − (1-1) | = 1. The filter response value has the meaning that the smaller the absolute value, the more likely it is to be the same person. Therefore, in the learning process, the second region P 2 is selected as the filter region without selecting the first region P 1. .

これにより、類似度の演算が必ずしも正確に行えなくなるとともに、ノイズ等の変動に対して過敏な顔画像認識処理が行われるおそれがあり、変動に対する頑健さが不足するおそれがある。
そこで、この発明の目的は、一対の画像の類似度を正確に演算することができる画像類似度演算装置および画像類似度演算方法、ならびにこれらを利用した画像認識装置および画像認識方法を提供することである。
As a result, it is not always possible to accurately calculate the similarity, and face image recognition processing that is sensitive to fluctuations in noise or the like may be performed, and robustness against fluctuations may be insufficient.
Accordingly, an object of the present invention is to provide an image similarity calculation device and an image similarity calculation method capable of accurately calculating the similarity between a pair of images, and an image recognition device and an image recognition method using them. It is.

また、この発明の他の目的は、一対の画像の照合を正確に行うことができる装置としてコンピュータを動作させることができるコンピュータプログラムおよびそれを記録した記録媒体を提供することである。   Another object of the present invention is to provide a computer program capable of operating a computer as a device capable of accurately performing a pair of image collation and a recording medium on which the computer program is recorded.

上記の目的を達成するための請求項1記載の発明は、第1画像I1と第2画像I2との類似度を求めるための装置であって、前記第1画像I1および第2画像I2中に共通に設定可能なT個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)のそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj内における対応するpj個の部分領域akの領域値x2 kに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段と、この相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段とを含むことを特徴とする画像類似度演算装置である。
In order to achieve the above object, the invention according to claim 1 is an apparatus for obtaining the similarity between the first image I 1 and the second image I 2 , wherein the first image I 1 and the second image I 2 are obtained. For each of T (T is a natural number greater than or equal to 2) feature regions A j (j is a natural number of 1 ≦ j ≦ T) that can be set in common in I 2 , the feature region A in the first image I 1 p j number (p j is a natural number of 2 or more) partial area a k (k is 1 ≦ k ≦ p j is a natural number) of domain values x 1 k and the feature region of the second in the image I 2 in the in the j based on the area value x 2 k of p j-number of partial areas a k corresponding in the a j, the correlation value of the first image I 1 and the second image I 2 of the feature region a j
Based on the correlation value calculation means for calculating the correlation value C j for the T feature regions A j obtained by the correlation value calculation means, the similarity between the first image I 1 and the second image I 2 An image similarity calculation device including correlation-based similarity calculation means for calculating.

この構成によれば、第1および第2画像I1,I2中に共通に設定したT個の特徴領域A1〜ATに関する第1および第2画像I1,I2間の相関値C1〜CTに基づいて第1および第2画像I1,I2の類似度が求められる。
たとえば、前述の図21のような画像ペアについて第1および第2領域P1,P2の相関値を求める場合を考える。第1領域P1についての相関値は、1×0+6×7=43であり、第2領域P2についての相関値は、0×1+1×1=1である。相関値は、その値が大きいほど、同一人物らしいという意味合いを持つ。したがって、たとえば、学習によって特徴領域Ajを選択するとすれば、第1領域P1が優先的に選択されることになる。
According to this configuration, the correlation value between the first and second image I 1, the first and second images I relating to the T of feature areas A 1 to A T set in common in I 2 1, I 2 C 1 -C first and second image I on the basis of T 1, the similarity of the I 2 is calculated.
For example, consider a case where the correlation values of the first and second regions P 1 and P 2 are obtained for the image pair as shown in FIG. The correlation value for the first region P 1 is 1 × 0 + 6 × 7 = 43, and the correlation value for the second region P 2 is 0 × 1 + 1 × 1 = 1. The larger the correlation value, the more likely it is that the person is the same person. Therefore, for example, if the feature region A j is selected by learning, the first region P 1 is preferentially selected.

このように、相関値を用いることで、学習によって特徴領域を決める際に、より重要な情報が含まれる領域を特徴領域として選択でき、ノイズ程度の情報しか含まない領域の優先度を低くすることができる。したがって、正確に類似度を求めることができ、かつ、変動に対して頑健な(ロバストな)画像類似度演算装置を実現できる。
「類似度」とは、第1および第2画像I1,I2が同一対象物の画像である蓋然性(同一対象物らしさ)、または同種対象物の画像である蓋然性(同種対象物らしさ)の度合いをいう。また、「領域値」とは、領域内の画素値の平均値であってもよいし、領域内の画素値の総和であってもよい。一般に、この領域値は、部分領域の輝度に対応する。
In this way, by using a correlation value, when a feature region is determined by learning, a region containing more important information can be selected as a feature region, and the priority of a region containing only noise-level information is reduced. Can do. Therefore, it is possible to obtain an image similarity calculation device that can accurately determine the similarity and is robust against fluctuations (robust).
“Similarity” is a probability that the first and second images I 1 and I 2 are images of the same object (likeness of the same object), or a probability of being an image of the same kind of object (likeness of the same kind of object). Say. Further, the “region value” may be an average value of pixel values in the region, or may be a total sum of pixel values in the region. In general, this region value corresponds to the luminance of the partial region.

前記T個の特徴領域は、サイズ、形状、位置および部分領域のうちの少なくともいずれか1つが異なるものであることが好ましい。部分領域akは、特徴領域Ajをpj個に分割(たとえば、pj個に等分)して得られる領域であることが好ましい。この場合、特徴領域Ajの分割の態様が異なれば、サイズ、形状および位置が同じであっても、異なる特徴領域として取り扱われることが好ましい。 The T feature regions are preferably different in at least one of size, shape, position, and partial region. The partial region a k is preferably a region obtained by dividing the feature region A j into p j (for example, equally divided into p j ). In this case, if the feature area A j is divided differently, it is preferably handled as a different feature area even if the size, shape, and position are the same.

前記係数αjは、αj=β/pj(βは定数。たとえば、β=1)のように定められてもよい。ただし、pjがT個の特徴領域A1〜ATに関して等しい値をとる場合(すなわち、p1=p2=……=pT)には、αj=γ(γは定数)のように定めればよい。
請求項2記載の発明は、第1画像I1と第2画像I2との類似度を求めるための装置であって、T個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)を、前記第1画像I1および第2画像I2中に共通に設定する特徴領域設定手段と、この特徴領域設定手段によって設定されたT個の特徴領域Ajのそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj内における対応するpj個の部分領域akの領域値x2 kに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段と、この相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段とを含むことを特徴とする画像類似度演算装置である。
The coefficient α j may be defined as α j = β / p j (β is a constant. For example, β = 1). However, when p j takes the same value for the T feature regions A 1 to A T (that is, p 1 = p 2 =... = P T ), α j = γ (γ is a constant) Can be determined.
The invention according to claim 2 is an apparatus for determining the similarity between the first image I 1 and the second image I 2, and is T (T is a natural number of 2 or more) feature regions A j (j is A natural number of 1 ≦ j ≦ T) in common in the first image I 1 and the second image I 2 , and T feature regions A j set by the feature region setting unit , P j (p j is a natural number of 2 or more) partial areas a k (k is a natural number of 1 ≦ k ≦ p j ) in the feature area A j in the first image I 1. Based on x 1 k and the region value x 2 k of the corresponding p j partial regions a k in the feature region A j in the second image I 2 , the first image I 1 and the second image I 2 correlation values in the feature area A j
Based on the correlation value calculation means for calculating the correlation value C j for the T feature regions A j obtained by the correlation value calculation means, the similarity between the first image I 1 and the second image I 2 An image similarity calculation device including correlation-based similarity calculation means for calculating.

この構成により、請求項1の発明と同様な効果を実現できる。
また、この発明では、特徴領域設定手段によって第1および第2画像I1,I2に共通に特徴領域A1〜ATを設定し、各特徴領域Ajについて、第1および第2画像I1,I2間の相関値Cjが求められる。したがって、たとえば、第1画像I1を予め登録しておき、第2画像I2と照合する際に、第1画像I1の画像データ自体を登録しておけばよい。つまり、事前の処理を少なくすることができる。
With this configuration, the same effect as that of the first aspect of the invention can be realized.
In the present invention, the feature areas A 1 to A T are set in common to the first and second images I 1 and I 2 by the feature area setting means, and the first and second images I for each feature area A j are set. A correlation value C j between 1 and I 2 is obtained. Therefore, for example, the first image I 1 may be registered in advance, and the image data itself of the first image I 1 may be registered when collating with the second image I 2 . That is, it is possible to reduce the prior processing.

請求項3記載の発明は、第1画像I1と第2画像I2との類似度を求めるための装置であって、前記第1画像I1および第2画像I2中に共通に設定可能なT個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)のそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kを、前記第1画像I1の特徴量を表す照合データとして記憶した照合データ記憶手段と、前記T個の特徴領域Ajを、前記第2画像I2中に設定する特徴領域設定手段と、この特徴領域設定手段によって設定されたT個の特徴領域Ajのそれぞれに関して、前記第2画像I2中の当該特徴領域Aj内におけるpj個の部分領域akの領域値x2 kを前記第2画像I2の特徴量として演算する特徴量演算手段と、前記T個の特徴領域Ajのそれぞれに関して、前記照合データ記憶手段に記憶された第1画像I1の領域値x1 kと、前記特徴量演算手段によって演算された第2画像I2の領域値x2 kとに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段と、この相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段とを含むことを特徴とする画像類似度演算装置である。
According to a third aspect of the invention, a device for obtaining the first image I 1 and the similarity between the second image I 2, can be set in common to the first image I 1 and the second in the image I 2 p j number (p in such respect to T (T is a natural number of 2 or more) each feature region a j of the (j is a natural number of 1 ≦ j ≦ T), characterized in the area a j of the first in the image I 1 Collation data in which a region value x 1 k of a partial region a k (k is a natural number of 1 ≦ k ≦ p j ) of j is a natural number of 2 or more is stored as collation data representing the feature amount of the first image I 1 storage means, the T number of feature areas a j, and the feature region setting means for setting the second in the image I 2, for each of the set T number of feature areas a j this feature region setting means, the second image p in I 2 in the feature region a j of the j partial area a k region value x wherein the 2 k second image I A feature value calculating means for calculating the feature value of 2 and the region value x 1 k of the first image I 1 stored in the matching data storage means for each of the T feature areas A j , and the feature quantity Based on the region value x 2 k of the second image I 2 calculated by the calculating means, the correlation value in the feature region A j of the first image I 1 and the second image I 2
Based on the correlation value calculation means for calculating the correlation value C j for the T feature regions A j obtained by the correlation value calculation means, the similarity between the first image I 1 and the second image I 2 An image similarity calculation device including correlation-based similarity calculation means for calculating.

この構成により、請求項1の発明と同様な効果を実現できる。
また、この発明では、第1画像I1については、特徴領域A1〜ATの各部分領域akの領域値x1 kが照合データとして予め演算され、照合データ記憶手段に格納されている。したがって、第1および第2画像I1,I2の類似度を演算するときの演算量を少なくすることができ、短時間の処理で類似度を演算できる。これにより、第1画像I1を予め登録しておき、第2画像I2を当該装置に入力して類似度を求めるときの処理時間を短縮できる。
With this configuration, the same effect as that of the first aspect of the invention can be realized.
In the present invention, for the first image I 1 , the region value x 1 k of each partial region a k of the feature regions A 1 to A T is calculated in advance as collation data and stored in the collation data storage means. . Therefore, it is possible to reduce the amount of calculation when calculating the degree of similarity between the first and second images I 1 and I 2 , and the degree of similarity can be calculated in a short time. Accordingly, it is possible to shorten the processing time when the first image I 1 is registered in advance and the second image I 2 is input to the apparatus to obtain the similarity.

請求項4記載の発明は、前記相関ベース類似度演算手段が、前記相関値演算手段によって求められた相関値Cjを所定のしきい値θj(好ましくは特徴領域Aj毎に定めたしきい値)と比較し、前記相関値Cjが前記しきい値θjを超えていれば、前記第1画像I1および第2画像I2が類似していること(より具体的には、同一対象の画像または同種対象の画像であること)を表す第1弱識別値hj(I1,I2)=H1を出力し、前記相関値Cjが前記しきい値θj以下であれば、前記第1および第2画像I1,I2が非類似であること(より具体的には、同一対象の画像または同種対象の画像ではないこと)を表す第2弱識別値hj(I1,I2)=H2(ただし、H1>H2)を出力する比較手段と、前記T個の特徴領域Ajについての前記比較手段の出力値hj(I1,I2)を、重み付け係数wj(好ましくは個々の特徴領域Aj毎に定めた係数)を乗じて線形結合することにより、前記第1画像I1および第2画像I2の類似度
を演算する重み付け加算手段とを含むことを特徴とする請求項1ないし3のいずれかに記載の画像類似度演算装置である。
According to a fourth aspect of the present invention, the correlation-based similarity calculating means determines the correlation value C j obtained by the correlation value calculating means for each predetermined threshold value θ j (preferably for each feature region A j. If the correlation value C j exceeds the threshold θ j , the first image I 1 and the second image I 2 are similar (more specifically, A first weak discrimination value h j (I 1 , I 2 ) = H 1 representing the same target image or the same target image), and the correlation value C j is less than or equal to the threshold θ j If there is, the second weak identification value h j indicating that the first and second images I 1 and I 2 are dissimilar (more specifically, they are not the same target image or the same target image). (I 1, I 2) = H 2 ( however, H 1> H 2) and comparing means for outputting the output of said comparison means for said T number of feature areas a j h j The (I 1, I 2), the weighting coefficient w j (preferably coefficients determined for each individual feature areas A j) by a linear combination by multiplying the first image I 1 and the second image I Similarity of 2
4. The image similarity calculation device according to claim 1, further comprising weighted addition means for calculating

この構成によれば、複数の特徴領域A1〜ATについてそれぞれ求められた複数の相関値C1〜CTを所定のしきい値θ1〜θTとそれぞれ比較する比較手段が設けられている。そして、複数の相関値C1〜CTによる比較結果を表す弱識別値h1(I1,I2)〜 hT(I1,I2)を重み付けして加算することにより、第1および第2画像I1,I2の類似度が求められる。
特徴領域A1〜ATに対応した弱識別値h1(I1,I2)〜 hT(I1,I2)にそれぞれ乗じられる重み付け係数w1〜wTは、たとえば、学習によって求めることができる。これにより、第1および第2画像I1,I2の類似/非類似の判断に有効な特徴領域の弱識別値ほど大きく重み付けすることができるから、類似度を正確に求めることができる。
According to this configuration, a plurality of characteristic regions A 1 to A T plurality of correlation values C 1 -C T determined respectively for a predetermined threshold value theta 1 through? T and comparing means for comparing each provided Yes. Then, the weak identification values h 1 (I 1 , I 2 ) to h T (I 1 , I 2 ) representing the comparison results of the plurality of correlation values C 1 to C T are weighted and added to obtain the first and The similarity between the second images I 1 and I 2 is obtained.
The weighting factors w 1 to w T respectively multiplied by the weak identification values h 1 (I 1 , I 2 ) to h T (I 1 , I 2 ) corresponding to the feature regions A 1 to A T are obtained by learning, for example. be able to. As a result, the weaker identification value of the feature region that is effective for the similarity / dissimilarity determination of the first and second images I 1 and I 2 can be weighted more heavily, and therefore the similarity can be accurately obtained.

請求項5記載の発明は、前記部分領域akは、前記第1画像I1および第2画像I2を所定の一方向のみに関して特徴領域Ajを分割して得られる領域であることを特徴とする請求項1ないし4のいずれかに記載の画像類似度演算装置である。
この構成によれば、所定の一方向に関して特徴領域Ajを分割して部分領域akが定められ、このような部分領域akに関する相関値(単方向相関値)が求められるから、変動要因に対してより頑健な構成とすることができる。これは、画像を一次元的に分割することにより、画像の特徴を抽出しやすくなるからである。より具体的には、画像中の領域を直交する2方向(x方向およびy方向)の両方に分割(すなわち、格子状に分割)して画像の特徴を抽出する場合に比較して、その画像を第1方向(x方向)についてのみ分割して特徴を抽出し、さらにその画像を第2方向(y方向)についてのみ分割して特徴を抽出する方が、その画像からより多くの特徴を抽出することができる。つまり、画像の特徴をx方向成分およびy方向成分に成分分解して、抽出することができる。
The invention according to claim 5 is characterized in that the partial area a k is an area obtained by dividing the first image I 1 and the second image I 2 into a characteristic area A j only in a predetermined direction. An image similarity calculation device according to any one of claims 1 to 4.
According to this configuration, the partial area a k is determined by dividing the characteristic area A j with respect to a predetermined direction, and a correlation value (unidirectional correlation value) regarding such a partial area a k is obtained. Can be made more robust. This is because image features can be easily extracted by dividing the image one-dimensionally. More specifically, the image is compared with the case where the region of the image is divided into two orthogonal directions (x direction and y direction) (that is, divided into a lattice shape) and the features of the image are extracted. Extract features by dividing only in the first direction (x direction) and then extract features by dividing the image only in the second direction (y direction). can do. That is, the feature of the image can be extracted by decomposing it into an x-direction component and a y-direction component.

前記部分領域akは、前記所定の一方向に直交する分割線(直線)によって特徴領域Ajを分割して得られる領域であってもよい。
請求項6記載の発明は、請求項1ないし5のいずれかに記載の画像類似度演算装置と、この画像類似度演算装置によって演算された類似度が所定の認識しきい値を超えていれば、前記第1画像I1と第2画像I2とが類似している(より具体的には、同一対象または同種対象の画像である)と判断し、前記画像類似度演算装置によって演算された類似度が前記認識しきい値以下であれば、前記第1画像I1と第2画像I2とが非類似である(より具体的には、同一対象または同種対象の画像ではない)と判断する判断手段とを含むことを特徴とする画像認識装置である。
The partial area a k may be an area obtained by dividing the feature area A j by a dividing line (straight line) orthogonal to the predetermined one direction.
According to a sixth aspect of the present invention, if the image similarity calculation device according to any one of the first to fifth aspects and the similarity calculated by the image similarity calculation device exceed a predetermined recognition threshold value. The first image I 1 and the second image I 2 are determined to be similar (more specifically, they are images of the same target or the same type of target) and calculated by the image similarity calculation device. If the similarity is equal to or less than the recognition threshold value, it is determined that the first image I 1 and the second image I 2 are dissimilar (more specifically, they are not images of the same object or similar objects). And an image recognition device characterized by including a determination means.

この構成によれば、第1および第2画像I1,I2の類似/非類似(具体的には、同一対象または同種対象の画像か否か)を、正確に演算された類似度に基づいて判定できる。しかも、類似度の演算のための構成が変動要因に対して頑健である。よって、画像の認識を正確に行うことができ、かつ、変動要因に対して頑健な画像認識装置を実現できる。
画像認識の認識対象物は、それ自体の外観が変化する物であってもよい。外観の変化の要因の例は、対象物自身の形態の変化(動的な変化や経年変化)、照度に依存する見かけ上の変化、付属物(眼鏡や化粧など)の有無による変化を含む。このような認識対象物の例は、動物(とくに人間)の顔および動物の体格を含む。「形態」とは、形状、模様もしくは色彩、またはこれらの任意の組み合わせを含む概念を意味する。
According to this configuration, the similarity between the first and second images I 1 and I 2 (specifically, whether the images are the same object or the same object) is determined based on the accurately calculated similarity. Can be determined. Moreover, the configuration for calculating the similarity is robust against fluctuation factors. Therefore, it is possible to realize an image recognition apparatus that can accurately recognize an image and is robust against a variation factor.
The recognition object for image recognition may be an object whose appearance changes itself. Examples of changes in appearance include changes in the shape of the object itself (dynamic changes and changes over time), apparent changes depending on illuminance, and changes due to the presence or absence of an accessory (such as glasses or makeup). Examples of such recognition objects include animal (especially human) faces and animal physiques. “Form” means a concept including shape, pattern or color, or any combination thereof.

また、認識対象物は、様々な外観を呈する同種物(一定の範囲で形態等が異なる物)であってもよい。このような認識対象物の例は、果物、空き瓶、自動車、機械部品、および航空機から見た地上の物体(建造物等)を含む。
処理対象の画像の画像データは、認識対象物を撮像して画像データを出力する撮像装置(カメラ)から入力されてもよいし、メモリ、光ディスクその他の記録媒体に記録された画像データを再生する画像再生装置から入力されてもよく、通信によって取得されてもよい。
In addition, the recognition target object may be the same kind of object having various appearances (an object having a different form or the like within a certain range). Examples of such recognition objects include fruits, empty bottles, automobiles, machine parts, and ground objects (such as buildings) viewed from an aircraft.
The image data of the processing target image may be input from an imaging device (camera) that captures the recognition target and outputs the image data, or reproduces the image data recorded on a recording medium such as a memory, an optical disk, or the like. It may be input from the image reproduction device or acquired by communication.

請求項7記載の発明は、第1画像I1と第2画像I2との類似度を求めるための方法であって、T個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)を、前記第1画像I1中に設定する第1特徴領域設定ステップと、前記T個の特徴領域Ajを前記第2画像I2中に設定する第2特徴領域設定ステップと、前記第1画像I1に設定されたT個の特徴領域Ajのそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kを演算する第1領域値演算ステップと、前記第2画像I2に設定されたT個の特徴領域Ajのそれぞれに関して、前記第2画像I2中の特徴領域Aj内におけるpj個の部分領域akの領域値x2 kを演算する第2領域値演算ステップと、前記T個の特徴領域Ajのそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個の部分領域akの領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj内における対応するpj個の部分領域akの領域値x2 kに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算ステップと、求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算ステップとを含むことを特徴とする画像類似度演算方法である。
The invention according to claim 7 is a method for determining the similarity between the first image I 1 and the second image I 2 , wherein T (T is a natural number of 2 or more) feature regions A j (j is A first feature region setting step of setting 1 ≦ j ≦ T) in the first image I 1 and a second feature of setting the T feature regions A j in the second image I 2. a region setting step, for each of the first T-number set in the image I 1, wherein the area a j, p j number in the feature region a j of the first in the image I 1 (p j is 2 or more A first region value calculating step for calculating a region value x 1 k of a partial region a k (k is a natural number of 1 ≦ k ≦ p j ) and T features set in the second image I 2 for each region a j, second territory for computing the area value x 2 k of p j-number of partial areas a k in the characteristic region a j of the second in the image I 2 Value calculating step, wherein the T for each characteristic region A j, p j-number of partial areas a k region values x 1 k and the second image in the feature area A j of the first in the image I 1 based on the area value x 2 k corresponding p j number of partial areas a k within the feature region a j in I 2, the first image I 1 and the second image I 2 the feature region a j Correlation value
A correlation value calculating step for calculating the similarity between the first image I 1 and the second image I 2 based on the correlation values C j for the T feature regions A j obtained An image similarity calculation method comprising: a degree calculation step.

この方法により、画像間の相関を利用することにより、第1および第2画像I1,I2の類似度を正確に求めることができる。
請求項8記載の発明は、前記相関ベース類似度演算ステップが、特徴領域Ajに関して前記相関値演算ステップによって求められた相関値Cjを所定のしきい値θjと比較し、前記相関値Cjが前記しきい値θjを超えていれば、前記第1画像I1および第2画像I2が類似していることを表す第1弱識別値hj(I1,I2)=H1を当該特徴領域Ajに関する識別値とし、前記相関値Cjが前記しきい値θj以下であれば、前記第1および第2画像I1,I2が非類似であることを表す第2弱識別値hj(I1,I2)=H2を当該特徴領域Ajに関する識別値とする比較ステップと、前記T個の特徴領域Ajについての前記識別値hj(I1,I2)を、重み付け係数wjを乗じて線形結合することにより、前記第1画像I1および第2画像I2の類似度
を演算する重み付け加算ステップとを含むことを特徴とする請求項7記載の画像類似度演算方法である。
With this method, the similarity between the first and second images I 1 and I 2 can be accurately obtained by using the correlation between the images.
Invention of claim 8, compared the correlation-based similarity computing step, the correlation value C j obtained by said correlation value calculation step with respect to the feature region A j with a predetermined threshold theta j, the correlation value If C j exceeds the threshold value θ j , the first weak identification value h j (I 1 , I 2 ) = representing that the first image I 1 and the second image I 2 are similar. If H 1 is an identification value related to the feature region A j and the correlation value C j is equal to or less than the threshold value θ j, it indicates that the first and second images I 1 and I 2 are dissimilar. the second weak identification value h j (I 1, I 2 ) = a comparison step of H 2 and the identification value relating to the feature region a j, the T number of feature areas a j the identification value h j for (I 1 , I 2 ) are multiplied by a weighting coefficient w j and linearly combined to obtain a similarity between the first image I 1 and the second image I 2 .
The image similarity calculation method according to claim 7, further comprising a weighted addition step of calculating.

この構成によれば、第1および第2画像I1,I2の類似/非類似の判断に有効な特徴領域ほど大きく重み付けされるように適切に係数wjを定めることにより、正確な類似度を求めることができる。
請求項9記載の発明は、前記部分領域akは、前記第1画像I1および第2画像I2を所定の一方向のみに関して特徴領域Ajを分割して得られる領域であることを特徴とする請求項7または8記載の画像類似度演算方法である。
According to this configuration, the accurate similarity is determined by appropriately determining the coefficient w j so that the feature region effective for the similarity / dissimilarity determination of the first and second images I 1 and I 2 is weighted more appropriately. Can be requested.
The invention according to claim 9 is characterized in that the partial area a k is an area obtained by dividing the first image I 1 and the second image I 2 by dividing the feature area A j only in a predetermined direction. The image similarity calculation method according to claim 7 or 8.

この方法により、単方向相関値に基づいて類似度が演算されるので、変動要因に対して頑健な類似度演算が可能になる。
請求項10記載の発明は、請求項7ないし9のいずれかに記載の画像類似度演算方法による類似度演算ステップと、この類似度演算ステップによって演算された類似度が所定の認識しきい値を超えていれば、前記第1画像I1と第2画像I2とが類似していると判断し、前記画像類似度演算装置によって演算された類似度が前記認識しきい値以下であれば、前記第1画像I1と第2画像I2とが非類似であると判断する判断ステップとを含むことを特徴とする画像認識方法である。
According to this method, since the similarity is calculated based on the unidirectional correlation value, it is possible to calculate the similarity that is robust against the variation factor.
According to a tenth aspect of the present invention, the similarity calculation step by the image similarity calculation method according to any one of the seventh to ninth aspects, and the similarity calculated by the similarity calculation step has a predetermined recognition threshold value. If it exceeds, it is determined that the first image I 1 and the second image I 2 are similar, and if the similarity calculated by the image similarity calculation device is equal to or less than the recognition threshold value, The image recognition method includes a determination step of determining that the first image I 1 and the second image I 2 are dissimilar.

この方法により、正確でかつ変動要因に対して頑健な類似度演算処理によって求められた類似度を用いているため、第1および第2画像I1,I2の類似/非類似を正確に判断でき、かつ、変動要因による影響も少なくすることができる。
請求項11記載の発明は、第1画像I1と第2画像I2とを照合するための装置としてコンピュータを動作させるためのコンピュータプログラムであって、前記コンピュータプログラムは、前記コンピュータを、前記第1画像I1および第2画像I2中に共通に設定可能なT個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)のそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj内における対応するpj個の部分領域akの領域値x2 kに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段、ならびにこの相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段として機能させるものであることを特徴とするコンピュータプログラムである。
By this method, since the similarity obtained by the similarity calculation process that is accurate and robust against the variation factor is used, the similarity / dissimilarity between the first and second images I 1 and I 2 is accurately determined. It is possible to reduce the influence of fluctuation factors.
The invention according to claim 11 is a computer program for operating a computer as a device for collating the first image I 1 and the second image I 2 , wherein the computer program With respect to each of T (T is a natural number of 2 or more) feature regions A j (j is a natural number of 1 ≦ j ≦ T) that can be set in common in one image I 1 and second image I 2 , the first The region values x 1 k of the p j (p j is a natural number of 2 or more) partial regions a k (k is a natural number of 1 ≦ k ≦ p j ) in the feature region A j in the image I 1 and the second based on the area value x 2 k of p j-number of partial areas a k corresponding within the feature region a j in the image I 2, the first image I 1 and a second image I 2 of the feature region a j Correlation value in
And a similarity degree between the first image I 1 and the second image I 2 based on the correlation value C j regarding the T feature regions A j obtained by the correlation value calculation means. It is a computer program characterized by functioning as a correlation base similarity calculation means for calculating.

このコンピュータプログラムをコンピュータ上で実行することにより、請求項1の画像類似度演算装置を構成できる。
請求項12記載の発明は、第1画像I1と第2画像I2とを照合するための装置としてコンピュータを動作させるためのコンピュータプログラムであって、前記コンピュータプログラムは、前記コンピュータを、T個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)を、前記第1画像I1および第2画像I2中に共通に設定する特徴領域設定手段、この特徴領域設定手段によって設定されたT個の特徴領域Ajのそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj内における対応するpj個の部分領域akの領域値x2 kに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段、ならびにこの相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段として機能させるものであることを特徴とするコンピュータプログラムである。
By executing the computer program on a computer, the image similarity calculation device according to claim 1 can be configured.
The invention described in claim 12 is a computer program for operating a computer as a device for collating the first image I 1 and the second image I 2 , wherein the computer program includes T computers. Feature region setting means for commonly setting (T is a natural number of 2 or more) feature regions A j (j is a natural number of 1 ≦ j ≦ T) in the first image I 1 and the second image I 2 , For each of the T feature regions A j set by the feature region setting means, p j (p j is a natural number of 2 or more) partial regions a k in the feature region A j in the first image I 1. (k is 1 ≦ k ≦ p natural number j) domain values x 2 k corresponding p j number of partial areas a k in the region value x 1 k and the second the features in the image I 2 in the area a j of Based on the first image I 1 and the second image I 2 Correlation value in feature area A j
And a similarity degree between the first image I 1 and the second image I 2 based on the correlation value C j regarding the T feature regions A j obtained by the correlation value calculation means. It is a computer program characterized by functioning as a correlation base similarity calculation means for calculating.

このコンピュータプログラムをコンピュータ上で実行することにより、請求項2の画像類似度演算装置を構成できる。
請求項13記載の発明は、第1画像I1と第2画像I2とを照合するための装置としてコンピュータを動作させるためのコンピュータプログラムであって、前記コンピュータは、前記第1画像I1および第2画像I2中に共通に設定可能なT個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)のそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kを、前記第1画像I1の特徴量を表す照合データとして記憶した照合データ記憶手段を含み、前記コンピュータプログラムは、前記コンピュータを、前記T個の特徴領域Ajを、前記第2画像I2中に設定する特徴領域設定手段、この特徴領域設定手段によって設定されたT個の特徴領域Ajのそれぞれに関して、前記第2画像I2中の当該特徴領域Aj内におけるpj個の部分領域akの領域値x2 kを前記第2画像I2の特徴量として演算する特徴量演算手段、前記T個の特徴領域Ajのそれぞれに関して、前記照合データ記憶手段に記憶された第1画像I1の領域値x1 kと、前記特徴量演算手段によって演算された第2画像I2の領域値x2 kとに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段、ならびにこの相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段として機能させるものであることを特徴とするコンピュータプログラムである。
By executing the computer program on a computer, the image similarity calculation device according to claim 2 can be configured.
The invention according to claim 13 is a computer program for operating a computer as a device for collating the first image I 1 and the second image I 2 , the computer comprising the first image I 1 and for each feature region a j of the common settable to T (T is a natural number of 2 or more) (j is a natural number of 1 ≦ j ≦ T) during the second image I 2, of the first in the image I 1 The region value x 1 k of p j (p j is a natural number of 2 or more) partial regions a k (k is a natural number of 1 ≦ k ≦ p j ) in the feature region A j is obtained from the first image I 1 . Collation data storage means stored as collation data representing feature quantities, wherein the computer program sets the T feature areas A j in the second image I 2 ; T pieces set by the feature region setting means For each feature region A j of calculating an area value x 2 k of p j-number of partial areas a k in the second the features in the image I 2 in the area A j as the feature quantity of the second image I 2 For each of the T feature areas A j , the area value x 1 k of the first image I 1 stored in the collation data storage means and the feature value calculation means calculated by the feature quantity calculation means 2 on the basis of the area value x 2 k of the image I 2, the correlation value of the first image I 1 and the second image I 2 of the feature region a j
And a similarity degree between the first image I 1 and the second image I 2 based on the correlation value C j regarding the T feature regions A j obtained by the correlation value calculation means. It is a computer program characterized by functioning as a correlation base similarity calculation means for calculating.

このコンピュータプログラムをコンピュータ上で実行することにより、請求項3の画像類似度演算装置を構成できる。
請求項14記載の発明は、前記相関ベース類似度演算手段が、前記相関値演算手段によって求められた相関値Cjを所定のしきい値θjと比較し、前記相関値Cjが前記しきい値θjを超えていれば、前記第1画像I1および第2画像I2が類似していることを表す第1弱識別値hj(I1,I2)=H1を出力し、前記相関値Cjが前記しきい値θj以下であれば、前記第1および第2画像I1,I2が非類似であることを表す第2弱識別値hj(I1,I2)=H2(ただし、H1>H2)を出力する比較手段と、前記T個の特徴領域Ajについての前記比較手段の出力値hj(I1,I2)を、重み付け係数wjを乗じて線形結合することにより、前記第1画像I1および第2画像I2の類似度
を演算する重み付け加算手段とを含むことを特徴とする請求項11ないし13のいずれかに記載のコンピュータプログラムである。
By executing this computer program on a computer, the image similarity calculation device of claim 3 can be configured.
In the fourteenth aspect of the invention, the correlation base similarity calculation means compares the correlation value C j obtained by the correlation value calculation means with a predetermined threshold value θ j, and the correlation value C j If the threshold value θ j is exceeded, a first weak discrimination value h j (I 1 , I 2 ) = H 1 indicating that the first image I 1 and the second image I 2 are similar is output. If the correlation value C j is less than or equal to the threshold value θ j , a second weak identification value h j (I 1 , I 2) indicating that the first and second images I 1 and I 2 are dissimilar. 2 ) = H 2 (where H 1 > H 2 ) and the output value h j (I 1 , I 2 ) of the comparison means for the T feature regions A j are weighted coefficients The similarity between the first image I 1 and the second image I 2 by multiplying w j and linearly combining them
The computer program according to claim 11, further comprising weighted addition means for calculating.

このコンピュータプログラムをコンピュータ上で実行することにより、請求項4の画像類似度演算装置を構成できる。
請求項15記載の発明は、前記部分領域akが、前記第1画像I1および第2画像I2を所定の一方向のみに関して特徴領域Ajを分割して得られる領域であることを特徴とする請求項11ないし14のいずれかに記載のコンピュータプログラムである。
By executing this computer program on a computer, the image similarity calculation device of claim 4 can be configured.
The invention according to claim 15 is characterized in that the partial area a k is an area obtained by dividing the first image I 1 and the second image I 2 by dividing the feature area A j only in a predetermined direction. A computer program according to any one of claims 11 to 14.

このコンピュータプログラムをコンピュータ上で実行することにより、請求項5の画像類似度演算装置を構成できる。
請求項16記載の発明は、前記コンピュータを、さらに、前記重み付け加算手段によって演算された類似度が所定の認識しきい値を超えていれば、前記第1画像I1と第2画像I2とが類似していると判断し、前記画像類似度演算装置によって演算された類似度が前記認識しきい値以下であれば、前記第1画像I1と第2画像I2とが非類似であると判断する判断手段として機能させることを特徴とする請求項11ないし15のいずれかに記載のコンピュータプログラムである。
By executing this computer program on a computer, the image similarity calculation device of claim 5 can be configured.
According to the sixteenth aspect of the present invention, when the similarity calculated by the weighted addition means exceeds a predetermined recognition threshold, the first image I 1 and the second image I 2 If the similarity calculated by the image similarity calculation device is equal to or less than the recognition threshold value, the first image I 1 and the second image I 2 are dissimilar. The computer program according to claim 11, wherein the computer program is made to function as a determination unit that determines that

このコンピュータプログラムをコンピュータ上で実行することにより、請求項6の画像認識装置を構成できる。
請求項17記載の発明は、請求項11ないし16のいずれかに記載のコンピュータプログラムが記録されたコンピュータ読取可能な記録媒体である。
この記録媒体に記録されたコンピュータプログラムをコンピュータに実行させることにより、このコンピュータを前述のような画像認識装置として機能させることができる。
By executing this computer program on a computer, the image recognition apparatus of claim 6 can be configured.
The invention described in claim 17 is a computer-readable recording medium in which the computer program according to any one of claims 11 to 16 is recorded.
By causing a computer to execute the computer program recorded on the recording medium, the computer can function as the image recognition apparatus as described above.

コンピュータプログラムは、どのような形式で記録媒体に記録されていてもよく、たとえば、圧縮した形式で記録されていてもよい。記録媒体には、磁気記録媒体、光記録媒体および光磁気記録媒体を含む任意の記録形式のものを適用できる。   The computer program may be recorded on the recording medium in any format, for example, may be recorded in a compressed format. As the recording medium, any recording format including a magnetic recording medium, an optical recording medium, and a magneto-optical recording medium can be applied.

以下では、この発明の実施の形態を、添付図面を参照して詳細に説明する。
図1は、この発明の一実施形態に係る個人認証システムの構成を示す図解的なブロック図である。この個人認証システムは、たとえば、立ち入り制限がされた特定の区域への入場管理のために用いられる。この個人認証システムは、当該立ち入り制限区域への入口に配置され、この入口に現れた者の顔画像を撮像する撮像装置としてのカメラ1と、このカメラ1にケーブル2を介して接続されたコンピュータ3と、入口に配置された表示器4と、入口に設置されたゲートを開閉(またはドアロックを解錠/施錠)するゲート開閉器7とを備えている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a schematic block diagram showing a configuration of a personal authentication system according to an embodiment of the present invention. This personal authentication system is used, for example, for entrance management to a specific area where entry is restricted. This personal authentication system is arranged at the entrance to the restricted access area, and has a camera 1 as an imaging device that captures a face image of a person appearing at the entrance, and a computer connected to the camera 1 via a cable 2. 3, a display 4 disposed at the entrance, and a gate switch 7 that opens and closes a gate installed at the entrance (or unlocks / locks the door lock).

コンピュータ3には、マンマシンインタフェースとしてのディスプレイ5および入力操作部6(たとえば、キーボードおよびマウス)が接続されている。表示器4は、たとえば、コンピュータ3からの指令信号を受けてメッセージを表示することができる二次元表示デバイスであってもよいし、たとえば、コンピュータ3によって制御される複数色のLEDランプを備えたランプ表示デバイスであってもよい。ゲート開閉器7は、コンピュータ3からの制御信号に応じて、ゲートを開閉(またはドアロックを解錠/施錠)し、入口に現れた者の入場を許可したり禁止したりする。   The computer 3 is connected to a display 5 as a man-machine interface and an input operation unit 6 (for example, a keyboard and a mouse). The display device 4 may be a two-dimensional display device that can display a message in response to a command signal from the computer 3, for example, and includes a plurality of color LED lamps controlled by the computer 3. It may be a lamp display device. The gate switch 7 opens and closes the gate (or unlocks / locks the door lock) in accordance with a control signal from the computer 3 to permit or prohibit entry of a person who appears at the entrance.

コンピュータ3は、CPU10、ROM11およびRAM12を備え、これらがバス13に接続された一般的な構成のものである。バス13には、さらに、外部記憶装置としてのハードディスクドライブ(HDD)14、記録媒体の一例であるCD−ROM8に記録されたデータを読み取ることができる記録媒体読取装置としてのCD−ROMドライブ15、ディスプレイ5の制御のためのディスプレイコントローラ16、および入力操作部6の制御のための入力部コントローラ17(たとえば、キーボードコントローラおよびマウスコントローラ)が接続されている。また、カメラ1から生成される撮像画像に対応した画像データを受け入れるための画像入力インタフェース部18、表示器4に制御信号を出力するための表示制御インタフェース部19、およびゲート開閉器7に制御信号を出力するためのゲート開閉制御インタフェース部20が、バス13に接続されている。   The computer 3 includes a CPU 10, a ROM 11 and a RAM 12, and has a general configuration in which these are connected to a bus 13. The bus 13 further includes a hard disk drive (HDD) 14 as an external storage device, a CD-ROM drive 15 as a recording medium reader capable of reading data recorded on a CD-ROM 8 which is an example of a recording medium, A display controller 16 for controlling the display 5 and an input unit controller 17 (for example, a keyboard controller and a mouse controller) for controlling the input operation unit 6 are connected. The image input interface unit 18 for receiving image data corresponding to the captured image generated from the camera 1, the display control interface unit 19 for outputting a control signal to the display 4, and the control signal to the gate switch 7 Is connected to the bus 13.

当該立ち入り制限区域への立ち入りが許可された者の顔画像は、たとえば、予めカメラ1によって撮像され、その顔画像に対応した個別照合データが予めハードディスクドライブ14内の所定の記憶領域である照合データ記憶部25に登録される。この照合データ記憶部25には、後述するように、各人の個別照合データを代表する代表照合データが併せて登録される。   The face image of the person permitted to enter the restricted access area is captured in advance by the camera 1, for example, and the individual verification data corresponding to the face image is a predetermined storage area in the hard disk drive 14 in advance. Registered in the storage unit 25. As will be described later, representative verification data representing individual verification data of each person is also registered in the verification data storage unit 25.

一方、入口に現れた者の画像は、カメラ1によって撮像される。撮像された画像を表す画像データは、コンピュータ3へと伝送され、この画像データからその者の顔画像データが抽出される。この抽出された顔画像データが、ハードディスクドライブ14の照合データ記憶部25に予め登録されている個別照合データと照合される。この照合の結果、個別照合データの形態で登録されたいずれかの顔画像と入口に現れた者の顔画像とが符合すれば、すなわち、両顔画像の類似度が予め定める認識しきい値を超えていれば、コンピュータ3は、ゲート開閉器7によってゲートを開き(またはドアロックを解錠し)、その者の入場を許可する。   On the other hand, an image of a person who appears at the entrance is captured by the camera 1. Image data representing the captured image is transmitted to the computer 3, and the person's face image data is extracted from the image data. The extracted face image data is collated with the individual collation data registered in advance in the collation data storage unit 25 of the hard disk drive 14. As a result of this collation, if any face image registered in the form of the individual collation data matches the face image of the person appearing at the entrance, that is, the recognition threshold value determined by the similarity between both face images is set in advance. If it exceeds, the computer 3 opens the gate (or unlocks the door lock) by the gate switch 7 and permits the person to enter.

コンピュータ3によるこのような働きを実現するためのコンピュータプログラムは、たとえば、記録媒体の一例であるCD−ROM8に記録されて提供されてもよい。この場合、このCD−ROM8をCD−ROMドライブ15に装填し、所定のインストール操作を行って、当該コンピュータプログラムをコンピュータ3にインストールすることによって、コンピュータ3は、前述のような機能を実現可能となる。   A computer program for realizing such an operation by the computer 3 may be provided by being recorded on a CD-ROM 8 which is an example of a recording medium. In this case, by loading the CD-ROM 8 into the CD-ROM drive 15, performing a predetermined installation operation, and installing the computer program in the computer 3, the computer 3 can realize the functions as described above. Become.

インストールされたそのコンピュータプログラムをコンピュータ3上で実行すると、たとえば、図2に示すような画面がディスプレイ5に表示される。前記コンピュータプログラムの実行中のコンピュータ3は、画像認識装置として動作し、立ち入りが許可された者の顔画像を登録するための登録モードと、カメラ1によって撮像された画像から顔画像を抽出して認識処理を行う認識モードとのいずれかのモードで動作する。   When the installed computer program is executed on the computer 3, for example, a screen as shown in FIG. The computer 3 executing the computer program operates as an image recognition device, extracts a face image from a registration mode for registering a face image of a person permitted to enter, and an image captured by the camera 1. It operates in one of the recognition modes for performing recognition processing.

前記立ち入り制限区域への立ち入りが許可された者の顔画像の個別照合データを照合データ記憶部25に登録するときには、操作者は、入力操作部6を操作して、コンピュータ3を登録モードで動作させる。この状態で、立ち入りが許可された者がカメラ1によって撮像される。このときにカメラ1から生成される画像データがコンピュータ3へと伝送され、RAM12内の記憶領域(必要に応じてさらにハードディスクドライブ14内の仮想メモリ領域)で構成される画像メモリ12aに格納される。さらに、その画像データから顔画像データが抽出される。この抽出された顔画像データに対応する個別照合データが照合データ記憶部25に登録される。個別照合データは、顔画像データ自体であってもよいし、顔画像データから抽出された所定の特徴量を表す特徴量データであってもよい。   When registering individual verification data of a face image of a person permitted to enter the restricted access area in the verification data storage unit 25, the operator operates the input operation unit 6 to operate the computer 3 in the registration mode. Let In this state, a person who is permitted to enter is imaged by the camera 1. At this time, the image data generated from the camera 1 is transmitted to the computer 3 and stored in the image memory 12a constituted by a storage area in the RAM 12 (and a virtual memory area in the hard disk drive 14 as necessary). . Further, face image data is extracted from the image data. Individual collation data corresponding to the extracted face image data is registered in the collation data storage unit 25. The individual verification data may be face image data itself or feature amount data representing a predetermined feature amount extracted from the face image data.

人間の顔画像は、表情によって様々に変化し、眼鏡のような付属物の有無によっても大きく変化するうえ、撮像条件(照度等)の影響も受ける。そこで、立ち入りが許可された者の個別照合データの登録時には、その者に様々な表情をさせて顔画像を撮像したり、付属物有りおよび付属物なしの状態でそれぞれ撮像を行ったり、様々な撮像条件での撮像を行ったりする。こうして、各人に対して複数枚(たとえば、50枚〜100枚)の顔画像が撮像され、個々の顔画像に対応した個別照合データが照合データ記憶部25に登録される。   Human face images change in various ways depending on facial expressions, change greatly depending on the presence or absence of accessories such as glasses, and are also affected by imaging conditions (such as illuminance). Therefore, when registering the individual verification data of a person who is allowed to enter, various facial expressions can be taken for the person, and a face image can be taken, and images can be taken with and without accessories. Imaging is performed under imaging conditions. In this way, a plurality of (for example, 50 to 100) face images are captured for each person, and individual matching data corresponding to each face image is registered in the matching data storage unit 25.

以下では、前述のようにして個別照合データの登録を終えた者を、「登録者」といい、個別照合データの登録をしていない者を「未登録者」という。
図3は、前記コンピュータプログラムの実行状態におけるコンピュータ3の機能的な構成を説明するためのブロック図である。コンピュータ3は、CPU10によって前記コンピュータプログラムを実行させることにより、このCPU10がROM11およびRAM12と協働することによって実現される複数の機能処理部を実質的に備えることになる。この複数の機能処理部は、カメラ1が生成した画像データから顔画像の領域を抽出して顔画像データを生成する顔画像検出部30と、この顔画像検出部30が抽出した顔画像データを予め登録された個別照合データと照合する顔認識処理部40とを備えている。
Hereinafter, a person who has completed the registration of the individual verification data as described above is referred to as a “registrant”, and a person who has not registered the individual verification data is referred to as an “unregistered person”.
FIG. 3 is a block diagram for explaining a functional configuration of the computer 3 in the execution state of the computer program. The computer 3 substantially includes a plurality of function processing units realized by the CPU 10 cooperating with the ROM 11 and the RAM 12 by causing the CPU 10 to execute the computer program. The plurality of function processing units extract a face image area from the image data generated by the camera 1 to generate face image data, and the face image data extracted by the face image detection unit 30. A face recognition processing unit 40 for collating with individual collation data registered in advance is provided.

顔画像検出部30は、入力画像データから顔画像領域を切り出し、さらに、サイズおよび傾き(左右の傾き)を正規化した顔画像データを被照合顔画像データとして出力する。切り出される顔画像領域は、たとえば、髪型の影響を受けにくく、かつ、発話時の顎の上下動の影響を受けにくい領域である。より具体的には、たとえば、左右方向に関しては両目尻の間を含み、上下方向に関しては眉から口元までの範囲を含む矩形領域が顔画像領域として切り出される。正規化された顔画像データは、たとえば、32画素×32画素の正方形画像に対応する。   The face image detection unit 30 cuts out a face image area from the input image data, and further outputs face image data normalized in size and inclination (left and right inclination) as face image data to be verified. The face image area to be cut out is an area that is not easily affected by the hairstyle and is not easily affected by the vertical movement of the jaw during speech. More specifically, for example, a rectangular region including the range from the eyebrows to the mouth is included as a face image region including the space between both eyes in the left-right direction and the range from the eyebrows to the mouth in the up-down direction. The normalized face image data corresponds to, for example, a square image of 32 pixels × 32 pixels.

顔認識処理部40は、被照合顔画像データといずれかの個別照合データとの間に一定程度以上の符合が見られれば、被照合顔画像データが当該個別照合データに対応する登録者の顔画像であると判定する。この場合、カメラ1によって撮像された者は登録者であると判定され、コンピュータ3は、ゲート開閉器7によってゲートを開き(または、ドアロックを解錠し)、その者の入場を許可する。一方、顔認識処理部40は、被照合顔画像データと一定程度以上の符合が見られる個別照合データが照合データ記憶部25に登録されていなければ、被照合顔画像は登録者の顔画像ではないと判定する。この場合、カメラ1によって撮像された者は未登録者であると判定され、コンピュータ3は、ゲート開閉器7によってゲートを閉状態に保持(または、ドアロックを施錠状態に保持)し、その者の入場を禁止する。   The face recognition processing unit 40, if a certain degree of agreement is found between the face image data to be collated and any individual collation data, the face of the registrant corresponding to the individual collation data corresponds to the face image data to be collated. Judged to be an image. In this case, it is determined that the person imaged by the camera 1 is a registered person, and the computer 3 opens the gate (or unlocks the door lock) by the gate switch 7 and permits the person to enter. On the other hand, the face recognition processing unit 40 determines that the face image to be checked is the face image of the registrant unless individual matching data that matches a certain degree of matching with the face image data to be checked is registered in the matching data storage unit 25. Judge that there is no. In this case, it is determined that the person imaged by the camera 1 is an unregistered person, and the computer 3 holds the gate in the closed state (or holds the door lock in the locked state) by the gate switch 7. Is prohibited from entering.

顔認識処理部40は、被照合顔画像と照合データ(個別照合データまたは代表照合データ)に対応した顔画像との類似度(同一人物らしさ)を演算する類似度演算部41と、照合データ記憶部25に登録されている照合データのうちいずれの照合データを照合対象とするかを選択する照合データ選択部42と、類似度演算部41によって演算された類似度を所定の認識しきい値と比較することによって被照合顔画像が登録者の顔画像かどうかを判断する判断部43(判断手段、判断ステップ)とを有している。   The face recognition processing unit 40 calculates a similarity (similarity of person) between a face image to be verified and a face image corresponding to the verification data (individual verification data or representative verification data), and a verification data storage A collation data selection unit 42 for selecting which collation data to be collated among the collation data registered in the unit 25, and the similarity calculated by the similarity calculation unit 41 as a predetermined recognition threshold value. It has a determination unit 43 (determination means, determination step) for determining whether or not the face image to be checked is a registrant's face image by comparison.

判断部43は、複数の個別照合データに対して求められた類似度のうちの最高値(最高類似度)が前記認識しきい値を超えていれば、被照合顔画像の人物が登録者であると判断し、そのことを表す認識結果データを出力する。認識結果データは、当該最高類似度の個別照合データに対応する登録者を特定するための情報(たとえば、当該登録者の氏名情報や登録番号情報)を含んでいてもよい。この認識結果データを受けて、表示器4には、認識結果が表示される。この表示は、単に、登録者である旨を表す表示であってもよく、登録者の特定情報(たとえば氏名)の表示であってもよい。   If the highest value (highest similarity) among the similarities obtained for the plurality of individual verification data exceeds the recognition threshold, the determination unit 43 determines that the person of the face image to be verified is a registrant. It is judged that there is, and recognition result data indicating that is output. The recognition result data may include information (for example, name information and registration number information of the registrant) for specifying the registrant corresponding to the individual matching data with the highest similarity. Receiving the recognition result data, the display unit 4 displays the recognition result. This display may simply be a display indicating that the user is a registrant, or may be a display of specific information (for example, name) of the registrant.

一方、類似度が前記認識しきい値を超える個別照合データが存在しなければ、判断部43は、被照合顔画像の人物が登録者でないと判断し、その旨を表す識別結果データが出力される。この場合、表示器4は、その人物の登録が確認できない旨を表示する。
類似度演算部41は、照合データ記憶部25に格納された照合データと、ハードディスクドライブ14内の記憶領域で構成された照合用辞書記憶部26に格納された照合用特徴辞書とに基づいて、被照合顔画像と登録された顔画像(照合データの形式で記憶されたもの)との類似度を演算する。照合用特徴辞書は、2つの画像の類似度を演算する際の指標となるデータ(照合用特徴データ)を一定のデータ構造で保持している。類似度演算部41は、照合用特徴辞書に保持された照合用特徴データに基づいて、被照合顔画像データから特徴量を抽出し、かつ照合データと照合する。
On the other hand, if there is no individual verification data whose similarity exceeds the recognition threshold value, the determination unit 43 determines that the person of the face image to be verified is not a registrant, and outputs identification result data indicating that fact. The In this case, the display 4 displays that the person's registration cannot be confirmed.
The similarity calculating unit 41 is based on the collation data stored in the collation data storage unit 25 and the collation feature dictionary stored in the collation dictionary storage unit 26 configured by the storage area in the hard disk drive 14. The similarity between the face image to be collated and the registered face image (stored in the form of collation data) is calculated. The matching feature dictionary holds data (matching feature data) serving as an index when calculating the similarity between two images in a fixed data structure. The similarity calculation unit 41 extracts a feature amount from the face image data to be collated based on the collation feature data held in the collation feature dictionary, and collates it with the collation data.

図4は、照合データ記憶部25における照合データの登録状態を説明するための図解図である。この図4には、m人の登録者があり、各登録者に対してn枚の顔画像に対応したn個の個別照合データを登録した例が示されている。より具体的には、個々の登録者に対して登録番号1,2,……,mが付与され、この登録番号にそれぞれ対応して、登録者の名前(名前1、名前2、……、名前m)と、各1個の代表照合データ(代表照合データ1、代表照合データ2、……、代表照合データm)と、各n個の個別照合データ(個別照合データ1−1,1−2,…,1−n;2−1,2−2,…,2−n;……;m−1,m−2,…,m−n)が登録されている。むろん、登録者毎に個別照合データの数が異なっていても差し支えない。   FIG. 4 is an illustrative view for explaining a registration state of collation data in the collation data storage unit 25. FIG. 4 shows an example in which there are m registrants and n individual verification data corresponding to n face images are registered for each registrant. More specifically, registration numbers 1, 2,..., M are assigned to individual registrants, and registrant names (name 1, name 2,. Name m), each representative collation data (representative collation data 1, representative collation data 2,..., Representative collation data m), and each n individual collation data (individual collation data 1-1, 1- 2, ..., 1-n; 2-1, 2-2, ..., 2-n; ...; m-1, m-2, ..., mn) are registered. Of course, the number of individual verification data may differ for each registrant.

各登録者の代表照合データは、当該登録者に対応したn個の個別照合データを代表する照合データである。より具体的には、各登録者の代表照合データは、当該登録者に対応して登録されたn個の個別照合データの平均値データであってもよい。
このような代表照合データは、個別照合データを照合データ記憶部25に登録する際に、CPU10などの働きによって自動で生成されて照合データ記憶部25に書き込まれてもよい。また、代表照合データは、登録される顔画像の画像データまたは個別照合データを用いた操作者の手動操作によって作成されたうえで、同じく操作者の手動操作によって照合データ記憶部25に書き込まれてもよい。
The representative collation data of each registrant is collation data representing n pieces of individual collation data corresponding to the registrant. More specifically, the representative collation data of each registrant may be average value data of n pieces of individual collation data registered corresponding to the registrant.
Such representative collation data may be automatically generated by the operation of the CPU 10 or the like and written to the collation data storage unit 25 when the individual collation data is registered in the collation data storage unit 25. The representative collation data is created by an operator's manual operation using registered face image data or individual collation data, and is also written into the collation data storage unit 25 by the operator's manual operation. Also good.

図5は、照合データ記憶部25における照合データの登録状態をより直感的に表した図である。この例では、9人の登録者A〜Iに対して、各1枚の代表顔画像データが代表照合データとして登録されており、さらに、各3枚の顔画像データが個別照合データとして登録されている。この例のように、各登録者に対して複数の顔画像データを個別照合データとして登録し、この複数の顔画像データの平均値演算によって得られる代表顔画像データを代表照合データとして登録してもよい。また、画像データ自体ではなく、類似度演算部41による類似度の演算に用いられる特徴量を予め個々の顔画像から抽出し、この特徴量を個別照合データとして照合データ記憶部25に登録しておき、各登録者に対する個別照合データ(特徴量)の平均値を代表照合データとして照合データ記憶部25に登録してもよい。   FIG. 5 is a diagram more intuitively showing the registration state of the collation data in the collation data storage unit 25. In this example, for each of nine registrants A to I, one representative face image data is registered as representative collation data, and each three face image data is registered as individual collation data. ing. As in this example, a plurality of face image data is registered as individual verification data for each registrant, and representative face image data obtained by calculating an average value of the plurality of face image data is registered as representative verification data. Also good. Also, instead of the image data itself, feature amounts used for similarity calculation by the similarity calculation unit 41 are extracted in advance from individual face images, and the feature amounts are registered in the verification data storage unit 25 as individual verification data. Alternatively, the average value of the individual verification data (feature value) for each registrant may be registered in the verification data storage unit 25 as representative verification data.

このように、照合データ記憶部25は、被照合顔画像データと照合される照合データを記憶する照合データ記憶手段としての働きを有している。
図6は、顔認識処理部40による処理の一例を説明するためのフローチャートである。被照合顔画像データが顔認識処理部40に入力されると、照合データ選択部42は、照合データ記憶部25を参照して、登録者の代表照合データを順に選択する(ステップS1)。類似度演算部41は、照合データ選択部42によって選択された代表照合データに対応する代表顔画像と、被照合顔画像との類似度を演算し、RAM12内の代表類似度記憶領域12b(図1および図3参照)に書き込む(ステップS2)。 こうして、照合データ記憶部25に登録されたすべての登録者の代表照合データに関して類似度が求まると、照合データ選択部42は、被照合顔画像データと照合すべき個別照合データを抽出するための処理を実行する(ステップS3)。この処理は、端的には、被照合顔画像データと明らかに符合しないと考えられる登録者の個別照合データを照合対象から除外するための処理である。
Thus, the collation data storage unit 25 functions as a collation data storage unit that stores collation data to be collated with the face image data to be collated.
FIG. 6 is a flowchart for explaining an example of processing by the face recognition processing unit 40. When the face image data to be collated is input to the face recognition processing unit 40, the collation data selection unit 42 refers to the collation data storage unit 25 and sequentially selects the representative collation data of the registrant (step S1). The similarity calculation unit 41 calculates the similarity between the representative face image corresponding to the representative collation data selected by the collation data selection unit 42 and the face image to be collated, and the representative similarity storage area 12b (see FIG. 1 and FIG. 3) (step S2). Thus, when the similarity is obtained for the representative collation data of all the registrants registered in the collation data storage unit 25, the collation data selection unit 42 extracts individual collation data to be collated with the face image data to be collated. Processing is executed (step S3). This process is simply a process for excluding the individual collation data of the registrant who is considered not to agree with the face image data to be collated, from the collation target.

照合対象の個別照合データを抽出するための処理内容の1つの具体例は、図7に示されている。この例では、照合データ選択部42は、代表照合データに対して求められた前記の類似度を所定の棄却しきい値と比較する(ステップS11)。照合データ選択部42は、類似度が前記棄却しきい値を超えない代表照合データに対応する登録者については、照合対象から除外(棄却)する(ステップS12)。つまり、その登録者に関して照合データ記憶部25に登録された複数の個別照合データが一括して棄却される。これにより、類似度が棄却しきい値を超える代表照合データに対応する登録者についてのみ、その個別照合データが照合対象とされる(ステップS13)。照合データ選択部42は、全ての代表照合データに関して同様な処理を行って(ステップS14)、照合対象の個別照合データの抽出を終了する。   One specific example of the processing content for extracting the individual collation data to be collated is shown in FIG. In this example, the collation data selection unit 42 compares the similarity obtained for the representative collation data with a predetermined rejection threshold (step S11). The matching data selection unit 42 excludes (rejects) the registrant corresponding to the representative matching data whose similarity does not exceed the rejection threshold (rejected) (step S12). That is, a plurality of individual verification data registered in the verification data storage unit 25 for the registrant are collectively rejected. As a result, only the registrant corresponding to the representative collation data whose similarity exceeds the rejection threshold value is subjected to collation (step S13). The collation data selection unit 42 performs the same process for all the representative collation data (step S14), and ends the extraction of the individual collation data to be collated.

照合対象の個別照合データを抽出するための処理の他の例は、図8に示されている。この例では、照合データ選択部42は、代表類似度記憶領域12bに記憶された全登録者の代表照合データを順位付け(ソート)し、(ステップS15)、上位の所定数または所定割合の登録者については、その個別照合データを照合対象として抽出する(ステップS16)。照合データ選択部42は、残余の登録者の各複数の個別照合データについては、一括して照合対象から除外する(ステップS17)。なお、この場合にも、上位所定数以内または上位所定割合以内の類似度のうち、所定の棄却しきい値を超えないものがあれば、そのような類似度に対応した登録者の個別照合データは照合対象から除外してもよい。   Another example of the process for extracting the individual collation data to be collated is shown in FIG. In this example, the collation data selection unit 42 ranks (sorts) the representative collation data of all registrants stored in the representative similarity storage area 12b (step S15), and registers a predetermined number or a predetermined ratio of the higher rank. For the person, the individual collation data is extracted as a collation target (step S16). The collation data selection unit 42 collectively excludes the plurality of individual collation data of the remaining registrants from the collation target (step S17). In this case as well, if there is a similarity within the upper predetermined number or within the upper predetermined ratio that does not exceed the predetermined rejection threshold, the individual verification data of the registrant corresponding to such similarity May be excluded from verification targets.

照合データ選択部42は、このようにして抽出された一部の登録者の個別照合データを、類似度演算部41による照合演算の対象として、1つずつ順次選択する(図6のステップS4)。類似度演算部41は、選択された個別照合データに対応する顔画像と、被照合顔画像との類似度を演算する。こうして、照合データ選択部42によって抽出された個別照合データのすべてに関して類似度の演算が行われる(ステップS5)。演算された類似度は、RAM12内の個別類似度記憶領域12cに書き込まれる。   The collation data selection unit 42 sequentially selects the individual collation data of a part of the registrants extracted in this way one by one as the target of the collation calculation by the similarity calculation unit 41 (step S4 in FIG. 6). . The similarity calculation unit 41 calculates the similarity between the face image corresponding to the selected individual verification data and the face image to be verified. Thus, the similarity is calculated for all the individual verification data extracted by the verification data selection unit 42 (step S5). The calculated similarity is written in the individual similarity storage area 12 c in the RAM 12.

次に、判断部43は、個別類似度記憶領域12cを参照して、演算された類似度の最高値(最高類似度)を検索する(ステップS6)。そして、判断部43は、この検索された最高類似度を所定の認識しきい値と比較する(ステップS7)。その結果、その最高類似度が認識しきい値を超えていれば(ステップS6のYES)、判断部43は、被照合顔画画像が登録者の顔画像であると判定し、当該最高類似度の個別照合データに対応する登録者を被照合顔画像の人物であると特定する(ステップS8)。一方、当該最高類似度が前記認識しきい値以下であるときには、被照合顔画像の人物は未登録であると判定する(ステップS9)。   Next, the determination unit 43 refers to the individual similarity storage area 12c and searches for the highest value (highest similarity) of the calculated similarity (step S6). Then, the determination unit 43 compares the retrieved maximum similarity with a predetermined recognition threshold value (step S7). As a result, if the highest similarity exceeds the recognition threshold value (YES in step S6), the determination unit 43 determines that the collated face image is a registrant's face image, and the highest similarity is determined. The registrant corresponding to the individual collation data is identified as the person of the face image to be collated (step S8). On the other hand, when the highest similarity is not more than the recognition threshold value, it is determined that the person of the face image to be verified is not registered (step S9).

このようにして、被照合顔画像データと代表照合データとの照合によって照合対象の個別照合データを絞ることができる。これにより、被照合顔画像データと個別照合データとの照合演算を大幅に削減することができ、認識処理に要する時間を大幅に短縮することができる。また、登録者一人あたりの個別照合データの数を増やして認識精度の向上を図る場合にも、認識に要する時間が大幅に増加することがない。したがって、短時間の処理で正確に顔画像を認識できるようになる。   In this way, the individual collation data to be collated can be narrowed down by collating the face image data to be collated with the representative collation data. Thereby, the collation calculation of the face image data to be collated and the individual collation data can be greatly reduced, and the time required for the recognition process can be greatly shortened. Also, when the number of individual verification data per registrant is increased to improve recognition accuracy, the time required for recognition does not increase significantly. Therefore, the face image can be accurately recognized by a short time process.

図9は、顔認識処理部40による処理の他の例を説明するためのフローチャートである。被照合顔画像データが顔認識処理部40に入力されると、照合データ選択部42は、照合データ記憶部25を参照して、登録者の代表照合データを順に選択する(ステップS21)。類似度演算部41は、照合データ選択部42によって選択された代表照合データに対応する代表画像と被照合顔画像との類似度を演算し、代表類似度記憶領域12bに書き込む(ステップS22)。   FIG. 9 is a flowchart for explaining another example of processing by the face recognition processing unit 40. When the face image data to be collated is input to the face recognition processing unit 40, the collation data selection unit 42 refers to the collation data storage unit 25 and sequentially selects the representative collation data of the registrant (step S21). The similarity calculation unit 41 calculates the similarity between the representative image corresponding to the representative collation data selected by the collation data selection unit 42 and the face image to be collated, and writes it in the representative similarity storage area 12b (step S22).

こうして、照合データ記憶部25に登録されたすべての登録者の代表照合データに関して類似度が求まると、照合データ選択部42は、照合すべき個別照合データを抽出するための処理を実行する。この処理は、端的には、被照合顔画像データと明らかに符合しないと考えられる登録者の個別照合データを照合対象から除外するための処理である。
より具体的には、照合データ選択部42は、前記代表類似度記憶領域12bを参照して、全登録者の代表照合データを類似度によって降順にソートする(ステップS23)。さらに、照合データ選択部42は、類似度の順序に従って、登録者を複数のグループに分ける(ステップS24)。たとえば、図5の例のような照合データが照合データ記憶部25に登録されているとすると、類似度が上位の3人を第1グループに分類し、類似度が中位の3人を第2グループに分類し、類似度が下位の3人を第3グループに分類してもよい。むろん、類似度に基づく登録者のグループ分けは、複数のグループ間で人数が等しくなるようにする必要はない。
Thus, when the similarity is obtained for the representative collation data of all registrants registered in the collation data storage unit 25, the collation data selection unit 42 executes a process for extracting individual collation data to be collated. This process is simply a process for excluding the individual collation data of the registrant who is considered not to agree with the face image data to be collated, from the collation target.
More specifically, the collation data selection unit 42 refers to the representative similarity storage area 12b and sorts the representative collation data of all registrants in descending order according to the similarity (step S23). Furthermore, the collation data selection part 42 divides a registrant into a some group according to the order of similarity (step S24). For example, if collation data as in the example of FIG. 5 is registered in the collation data storage unit 25, the three people with the highest similarity are classified into the first group, and the three people with the middle similarity are the first. You may classify | categorize into 2 groups and classify 3 people with low similarity into a 3rd group. Of course, the grouping of registrants based on similarity does not have to be equal among a plurality of groups.

照合データ選択部42は、さらに、最上位のグループ(たとえば前述の第1グループ)の登録者の個別照合データを照合対象として抽出し(ステップS25)、他のグループ(前述の例では第2および第3グループ)の登録者の個別照合データは、暫定的に、照合対象から除外する(ステップS26)。
照合データ選択部42は、このようにして抽出された最上位のグループの登録者の個別照合データを照合対象として、1つずつ順次選択する(ステップS27)。類似度演算部41は、選択された個別照合データに対応する顔画像と、被照合顔画像との類似度を演算する。こうして、最上位のグループの登録者の個別照合データのすべてに関して類似度の演算が行われる(ステップS28)。演算された類似度は、RAM12内の個別類似度記憶領域12cに書き込まれる。
The collation data selection unit 42 further extracts the individual collation data of the registrant of the highest group (for example, the first group described above) as a collation target (step S25), and the other groups (second and second in the above example). Individual collation data of registrants of the third group is provisionally excluded from collation targets (step S26).
The collation data selection unit 42 sequentially selects the individual collation data of the registrants of the highest group extracted in this manner one by one as a collation target (step S27). The similarity calculation unit 41 calculates the similarity between the face image corresponding to the selected individual verification data and the face image to be verified. Thus, the similarity is calculated for all the individual collation data of the registrants in the highest group (step S28). The calculated similarity is written in the individual similarity storage area 12 c in the RAM 12.

次に、判断部43は、個別類似度記憶領域12cを参照して、演算された類似度の最大値(最高類似度)を検索する(ステップS29)。そして、この検索された最高類似度を所定の認識しきい値と比較する(ステップS30)。その結果、その最高類似度が認識しきい値を超えていれば(ステップS30のYES)、判断部43は、被照合顔画像が登録者の顔画像であると判定し、当該最高類似度の個別照合データに対応する登録者を、被照合顔画像の人物であると特定する(ステップS31)。   Next, the determination unit 43 refers to the individual similarity storage area 12c and searches for the maximum value (highest similarity) of the calculated similarity (step S29). Then, the retrieved maximum similarity is compared with a predetermined recognition threshold (step S30). As a result, if the maximum similarity exceeds the recognition threshold value (YES in step S30), the determination unit 43 determines that the face image to be verified is a registrant's face image, and determines the highest similarity. The registrant corresponding to the individual verification data is specified as the person of the face image to be verified (step S31).

一方、当該最高類似度が前記認識しきい値以下であるときには(ステップS30のNO)、照合データ選択部42は、照合データ記憶部25に登録されている全登録者に関して個別照合データの照合が完了したかどうかを判断する(ステップS32)。この判断は、登録者を代表照合データの類似度の大小によって分類した前記の全てのグループに関して照合処理を完了したかどうかの判断と等価である。いずれかの登録者についての照合処理が未完了である場合には(ステップS32のNO)、照合データ選択部42は、暫定的に候補から除外していたグループ中で最も最上位のグループ(すなわち、次位のグループ。たとえば前述の例では第2グループ)に属する登録者を照合対象候補とし、ステップS27からの処理を繰り返す。すなわち、当該次位のグループの登録者の個別照合データが順次選択される。   On the other hand, when the highest similarity is equal to or less than the recognition threshold value (NO in step S30), the collation data selection unit 42 collates the individual collation data for all registrants registered in the collation data storage unit 25. It is determined whether or not it has been completed (step S32). This determination is equivalent to the determination of whether or not the collation processing has been completed for all the groups in which the registrant is classified according to the similarity of the representative collation data. When the collation process for any registrant is not completed (NO in step S32), the collation data selection unit 42 is the highest group among the groups that have been temporarily excluded from the candidates (that is, The registrant belonging to the next group (for example, the second group in the above example) is set as a candidate for collation, and the processing from step S27 is repeated. That is, the individual verification data of the registrants of the next group are sequentially selected.

前述の場合と同様に、類似度演算部41は、選択された個別照合データに対応する顔画像と、被照合顔画像との類似度を演算する。こうして、次位のグループの登録者の照合データのすべてに関して類似度の演算が行われる(ステップS28)。
次に、判断部43は、演算された類似度の最高値(最高類似度)を検索する(ステップS29)。そして、この検索された最高類似度を前記認識しきい値と比較する(ステップS30)。その結果、その最大の類似度が認識しきい値を超えていれば、当該類似度の個別照合データに対応した登録者を、被照合顔画像の人物であると特定する(ステップS31)。
Similar to the case described above, the similarity calculation unit 41 calculates the similarity between the face image corresponding to the selected individual verification data and the face image to be verified. Thus, the similarity is calculated for all the collation data of the registrants of the next group (step S28).
Next, the determination unit 43 searches for the highest calculated similarity (the highest similarity) (step S29). Then, the retrieved maximum similarity is compared with the recognition threshold (step S30). As a result, if the maximum similarity exceeds the recognition threshold value, the registrant corresponding to the individual matching data of the similarity is specified as the person of the face image to be compared (step S31).

このようにして、認識しきい値を超える類似度を有する個別照合データが見つかるまで、同様の処理が行われる。もしも、照合データ記憶部25に格納されたすべての個別照合データに対して照合処理を行ったにもかかわらず、類似度が前記認識しきい値を超える個別照合データが見つからなかった場合には(ステップS32のYES)、判断部43は、被照合顔画像の人物は未登録であると判定する(ステップS34)。   In this way, the same processing is performed until individual collation data having a similarity exceeding the recognition threshold is found. If the individual collation data whose similarity is higher than the recognition threshold value is not found even though the collation processing is performed on all the individual collation data stored in the collation data storage unit 25 ( The determination unit 43 determines that the person of the face image to be verified has not been registered (step S34).

この図9に示した処理では、適切な認識結果が得られない場合には、一旦棄却された個別照合データが照合対象として復活させられる。これにより、登録者が認識されなくなるなどという事態を確実に回避できる。
図9の例では、被照合顔画像の人物が未登録であると判定する場合に、登録者の全てに関して個別照合データに対する照合処理が行われる。しかし、被照合顔画像データと代表照合データとの照合結果として得られる類似度が著しく低い場合には、個別照合データとの照合による認識しきい値よりも高い類似度が得られる確率は低い。したがって、代表顔画像データに対して演算された類似度が所定の棄却しきい値に達しないグループに関しては、登録者の個別照合データを照合対象として復活させないようにしてもよい。
In the process shown in FIG. 9, when an appropriate recognition result cannot be obtained, the individual verification data once rejected is restored as a verification target. As a result, it is possible to reliably avoid a situation in which the registrant is not recognized.
In the example of FIG. 9, when it is determined that the person of the face image to be verified is unregistered, the verification process for the individual verification data is performed for all of the registrants. However, when the similarity obtained as a result of matching between the face image data to be matched and the representative matching data is extremely low, the probability that a similarity higher than the recognition threshold value obtained by matching with the individual matching data is low. Therefore, for the group whose similarity calculated for the representative face image data does not reach the predetermined rejection threshold value, the individual collation data of the registrant may not be revived as a collation target.

なお、この実施形態では、一人の登録者に対して1つの代表照合データが登録される例が示されているが、一人の登録者に対して複数(2つ以上)の代表照合データが照合データ記憶部25に登録されるようにしてもよい。たとえば、眼鏡を使用する登録者の場合に、眼鏡を装着した状態の個別照合データを代表する第1代表照合データと、眼鏡を装着していない状態の個別照合データを代表する第2代表照合データとを登録しておいてもよい。この場合にも、代表照合データに関して求められた類似度に基づいて、代表照合データごとに、対応する一群の個別照合データを照合対象とするか否かを決定すればよい。   In this embodiment, an example is shown in which one representative collation data is registered for one registrant, but a plurality (two or more) of representative collation data are collated for one registrant. It may be registered in the data storage unit 25. For example, in the case of a registrant who uses spectacles, first representative collation data representing individual collation data in the state of wearing spectacles and second representative collation data representing individual collation data in a state of wearing no spectacles. And may be registered. Also in this case, it is only necessary to determine whether or not a corresponding group of individual collation data is to be collated for each representative collation data based on the similarity obtained for the representative collation data.

次に、顔画像の類似度の計算について説明する。
図10に示すように、サイズおよび傾きが正規化された第1顔画像I1および第2顔画像I2の類似度を求める場合について説明する。第1顔画像I1は、たとえば、照合データ記憶部25に格納された個別照合データに対応する登録顔画像であり、第2顔画像I2は、たとえば、カメラ1によって撮像された画像から顔画像検出部30によって抽出された被照合顔画像データに対応する。
Next, calculation of the similarity of face images will be described.
As shown in FIG. 10, a case where the similarity between the first face image I 1 and the second face image I 2 whose size and inclination are normalized will be described. The first face image I 1 is, for example, a registered face image corresponding to the individual collation data stored in the collation data storage unit 25, and the second face image I 2 is a face from an image captured by the camera 1, for example. This corresponds to the face image data to be verified extracted by the image detection unit 30.

まず、サイズ、形状、位置および後述する種類のうちの少なくともいずれか1つが異なるT個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)を、順次、第1顔画像I1および第2顔画像I2中に共通に設定する。特徴領域Ajは、少なくとも2画素を含み、かつ、第1および第2顔画像I1,I2と同じ大きさか、またはそれよりも小さな領域である。特徴領域Ajの形状としては、矩形(正方形を含む。)、円形、鉤形など、任意の形状を選択することができ、複数の特徴領域A1〜AT間で形状が異なっていてもよい。 First, T feature regions A j (j is a natural number of 1 ≦ j ≦ T) having different sizes, shapes, positions, and at least one of the types described later (T is a natural number of 2 or more), sequentially, It is set in common in the first face image I 1 and the second face image I 2 . The feature area A j is an area that includes at least two pixels and has the same size as or smaller than the first and second face images I 1 and I 2 . As the shape of the feature region A j , an arbitrary shape such as a rectangle (including a square), a circle, or a bowl shape can be selected, and even if the shape is different among the plurality of feature regions A 1 to AT. Good.

たとえば、特徴領域の形状を正方形とすることにし、第1および第2顔画像I1,I2が32画素×32画素の正方形であるとし、さらに、特徴領域を2分割して分析(すなわち、後述の分割数pjを「2」に固定)する場合を想定すると、最小の特徴領域は2画素×2画素の大きさの正方形であり、最大の特徴領域は32画素×32画素の大きさの正方形であって、さらに、サイズ(正方形領域の一辺にならぶ画素数で表される。)が偶数画素の場合のみが許容される。ただし、2画素×2画素の特徴領域は小さすぎてあまり意味を持たないことが経験的にわかっているので、実際は、最小の特徴領域の大きさは4画素×4画素である。4画素×4画素の特徴領域は32画素×32画素の正方形領域内で29×29個の異なる位置をとることができ、次の大きさの6画素×6画素の特徴領域は32画素×32画素の正方形領域内で27×27個の異なる位置をとることができる。同様の考察により、32画素×32画素の第1および第2顔画像I1,I2中には、合計で4495個の特徴領域が設定可能となる。さらに、位置およびサイズが同じ領域を横方向(水平方向)xに2分して分析する場合と、縦方向(垂直方向)yに2分して分析する場合とを区別して、別の特徴領域とみなすこととすれば、合計で8990個の特徴領域の設定が可能となる。これらの特徴領域の一部または全部が、類似度の計算のための特徴領域Aj(j=1,2,……,T)として用いられる。 For example, assume that the shape of the feature region is a square, the first and second face images I 1 and I 2 are squares of 32 pixels × 32 pixels, and the feature region is divided into two parts for analysis (ie, Assuming a case where the number of divisions p j described later is fixed to “2”), the minimum feature area is a square having a size of 2 pixels × 2 pixels, and the maximum feature area is a size of 32 pixels × 32 pixels. In addition, it is allowed only when the size is the even number of pixels (represented by the number of pixels along one side of the square area). However, since it has been empirically known that the feature area of 2 pixels × 2 pixels is too small to be meaningful, the size of the minimum feature area is actually 4 pixels × 4 pixels. The feature region of 4 pixels × 4 pixels can take 29 × 29 different positions within the square region of 32 pixels × 32 pixels, and the feature region of 6 pixels × 6 pixels of the next size is 32 pixels × 32 27 × 27 different positions can be taken within the square area of the pixel. Based on the same consideration, a total of 4495 feature areas can be set in the first and second face images I 1 and I 2 of 32 pixels × 32 pixels. Further, a separate feature region is distinguished between the case where the region having the same position and size is divided into two in the horizontal direction (horizontal direction) x and the case where the analysis is divided into two in the vertical direction (vertical direction) y. In this case, a total of 8990 feature areas can be set. Some or all of these feature regions are used as feature regions A j (j = 1, 2,..., T) for calculating similarity.

特徴領域Ajが設定されると、次に、第1顔画像I1における特徴領域Aj中のpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)内の領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj中の対応するpj個の部分領域ak内の領域値x2 kが求められる。特徴領域Ajの分割数pjは、特徴領域毎に異なる数であってもよく、特徴領域A1〜ATで共通の値p(=p1=p2=……=pT)としてもよい。 When the feature region A j is set, next, p j (p j is a natural number of 2 or more) partial regions a k (k is 1 ≦ k ≦) in the feature region A j in the first face image I 1 . The region value x 1 k in the natural number of p j and the region value x 2 k in the corresponding p j partial regions a k in the feature region A j in the second image I 2 are obtained. The number of divisions p j of the feature area A j may be different for each feature area, and the value p (= p 1 = p 2 = …… = p T ) common to the feature areas A 1 to A T. Also good.

部分領域akは、たとえば、図11(a)に示すように、特徴領域Aj内を水平方向xに沿う水平分割線55で垂直方向にpj個に等分して得られる領域(図11(a)ではx方向に長い矩形領域)であってもよい。また、部分領域akは、図11(b)に示すように特徴領域Aj内を垂直方向yに沿う垂直分割線56で水平方向にpj個に等分して得られる領域(図11(b)ではy方向に長い矩形領域)であってもよい。また、複数の特徴領域A1ないしAT間で、領域の分割方向が異なっていてもよい。以下では、領域分割の方向が異なる特徴領域は、形状および大きさならびに位置が同じであっても、異なる特徴領域として取り扱う。 The partial area a k, for example, FIG. 11 (a), the region (Fig obtained by equally dividing the inside characteristic region A j to p j pieces vertically horizontal dividing line 55 along the horizontal direction x 11 (a) may be a rectangular area long in the x direction). Further, as shown in FIG. 11B, the partial area a k is an area obtained by equally dividing p j in the horizontal direction by a vertical dividing line 56 along the vertical direction y in the characteristic area A j (FIG. 11). (b) may be a rectangular region that is long in the y direction. Further, the division direction of the regions may be different among the plurality of feature regions A 1 to AT . In the following, feature regions with different region division directions are treated as different feature regions even if they have the same shape, size, and position.

部分領域ak内の領域値x1 k,x2 kは、たとえば、当該部分領域ak内に含まれる複数の画素のデータの平均値(平均画素値)であり、当該部分領域akの輝度値に相当する。ただし、当該部分領域akにただ一つの画素が含まれる場合(たとえば、2画素×1画素の特徴領域の場合)には、その画素のデータ自身がその部分領域akの領域値となる。特徴領域Ajの各部分領域akの領域値x1 k,x2 kは、当該特徴領域Ajに関する第1および第2顔画像I1,I2の特徴量である。 Domain values x 1 k in the partial area a k, x 2 k, for example, an average value of data of a plurality of pixels included in the partial area a k (average pixel value) of the partial region a k It corresponds to the luminance value. However, when the partial area ak includes only one pixel (for example, in the case of a feature area of 2 pixels × 1 pixel), the data of the pixel itself becomes the area value of the partial area ak . Domain values x 1 k, x 2 k of the partial regions a k of feature areas A j is the feature amount of the feature region A j first and second face images related to I 1, I 2.

j個の部分領域akについて前述の領域値x1 k,x2 kが求まると、次に、第1および第2顔画像I1,I2の当該特徴領域Aj内の相関が求められる。より具体的には、次式により、相関値Cjが演算される。 When the above-described region values x 1 k and x 2 k are obtained for the p j partial regions a k , the correlation in the feature region A j of the first and second face images I 1 and I 2 is then obtained. It is done. More specifically, the correlation value C j is calculated by the following equation.

ただし、すべての特徴領域A1〜ATにおける分割数pjがいずれも等しい場合には、右辺の係数1/pjは省かれてもよい。
画像間の相関を求める操作は、特徴領域をx方向およびy方向の2方向について分割(すなわち、格子状に分割)して得られる部分領域を用いて行われてもよい。しかし、この実施形態では、x方向またはy方向のいずれか一方向について特徴領域Ajを分割して得られる部分領域akを用いて、相関を求める操作が行われる。以下では、このようにして求められる相関を「単方向相関」という。
However, when the division numbers p j in all the feature regions A 1 to A T are all equal, the coefficient 1 / p j on the right side may be omitted.
The operation for obtaining the correlation between the images may be performed using a partial region obtained by dividing the feature region in two directions of the x direction and the y direction (that is, dividing in a lattice shape). However, in this embodiment, an operation for obtaining the correlation is performed using the partial region a k obtained by dividing the feature region A j in either the x direction or the y direction. Hereinafter, the correlation obtained in this way is referred to as “unidirectional correlation”.

このような単方向相関を求める操作が、前記複数の特徴領域A1〜ATに関して実行され、これにより、相関値C1,C2,……,CTが求められる。
こうして求められた各特徴領域Ajの相関値Cjは、特徴領域Aj毎に定めた次式の弱識別器(Weak Classifier)hj(I1,I2)にかけられる。
Such unidirectional correlate seek operation, the are performed on a plurality of characteristic regions A 1 to A T, thereby, the correlation values C 1, C 2, ......, C T is determined.
The correlation value C j of each feature area A j thus obtained is applied to a weak classifier (Weak Classifier) h j (I 1 , I 2 ) defined for each feature area A j .

すなわち、各特徴領域Ajに関する相関値Cjは、特徴領域Aj毎に予め定めた所定のしきい値θjと比較される。その結果、相関値Cjがしきい値θjを超えていれば、第1および第2顔画像I1,I2が同一人物の顔画像であることを表す第1識別値「+1」(肯定的結論を表す弱仮説(Weak Hypothesis))が生成される。一方、前記相関値Cjがしきい値θj以下であれば、第1および第2顔画像I1,I2が同一人物の顔画像ではないことを表す第2識別値「−1」(否定的結論を表す弱仮説)が生成される。 That is, the correlation value C j for each feature area A j is compared to a predetermined threshold value theta j determined in advance for each feature region A j. As a result, if the correlation value C j exceeds the threshold value θ j , the first identification value “+1” (1) indicating that the first and second face images I 1 and I 2 are face images of the same person. A weak hypothesis (Weak Hypothesis) is generated. On the other hand, if the correlation value C j is equal to or smaller than the threshold value θ j , the second identification value “−1” (1) indicating that the first and second face images I 1 and I 2 are not the same person's face image. A weak hypothesis representing a negative conclusion) is generated.

前記T個の特徴領域A1〜ATの個々についての前記弱識別器の出力値h1(I1,I2)〜hT(I1,I2)(弱仮説)が求められると、次に、これらは、個々の特徴領域Aj毎に定めた重み付け係数wjを乗じて加算(線形結合)される。これにより、第1および第2顔画像I1,I2の類似度(同一人物らしさ)が求められる。すなわち、類似度は、次式で与えられる。 When the output values h 1 (I 1 , I 2 ) to h T (I 1 , I 2 ) (weak hypothesis) of the weak classifiers for each of the T feature regions A 1 to A T are obtained, Next, these are multiplied by a weighting coefficient w j determined for each feature region A j and added (linear combination). Thereby, the similarity (likeness of the same person) between the first and second face images I 1 and I 2 is obtained. That is, the similarity is given by the following equation.

前記単方向相関値Cjの演算に適用される特徴領域A1〜ATの選択、弱識別器におけるしきい値θj、および重み付け係数wjは、事前の学習によって定められる。この学習には、たとえば、非特許文献2に記載されたブースティング学習アルゴリズム(アダブースト:AdaBoost)が適用される。 The selection of the feature regions A 1 to A T applied to the calculation of the unidirectional correlation value C j , the threshold value θ j in the weak classifier, and the weighting coefficient w j are determined by prior learning. For this learning, for example, a boosting learning algorithm (AdaBoost) described in Non-Patent Document 2 is applied.

具体的には、図12のフローチャートに示すように、予め、同一人物の異なる顔画像データのペアをポジティブサンプル(同一人物であるとの結論が正解となるサンプル)として複数個準備し、また、他人同士の顔画像データのペアをネガティブサンプル(同一人物であるとの結論が不正解となるサンプル)として複数個準備しておき、初期化処理として、これらのサンプルに一律に(均等に)ウエイト(weight)を配分する(ステップS50)。   Specifically, as shown in the flowchart of FIG. 12, a plurality of pairs of different face image data of the same person are prepared in advance as positive samples (samples in which the conclusion that they are the same person is correct), Prepare multiple pairs of face image data of other people as negative samples (samples where the conclusion that they are the same person is incorrect), and as an initialization process, weight these samples uniformly (equally). (Weight) is distributed (step S50).

次に、正規化された顔画像データ中に特徴領域A(たとえば、正方形の特徴領域)を設定し、前記第(1)式で表される単方向相関値Cが、全てのサンプル(ポジティブサンプルおよびネガティブサンプル)に関して演算される。この演算が、正規化された顔画像中に設定可能な全ての特徴領域A(たとえば、位置、大きさおよび領域の分割方向のうちの少なくともいずれか1つが異なる正方形領域)に関して実行される(ステップS51)。そして、T個の特徴領域A1〜ATを選択し、かつT個の弱識別器h1(I1,I2)〜hT(I1,I2)を定めるためのT回の学習(for t=1 to T ループ)が開始される(ステップS52)。 Next, a feature region A (for example, a square feature region) is set in the normalized face image data, and the unidirectional correlation value C expressed by the above equation (1) is set to all samples (positive samples). And negative samples). This calculation is executed with respect to all feature areas A (for example, square areas in which at least one of position, size, and division direction of the areas is different) that can be set in the normalized face image (step). S51). Then, T feature regions A 1 to A T are selected, and T times of learning are performed to determine T weak classifiers h 1 (I 1 , I 2 ) to h T (I 1 , I 2 ). (For t = 1 to T loop) is started (step S52).

具体的には、まず、未選択の個々の特徴領域A(t=1のときは全ての特徴領域A)ごとに、ウエイト(t=1のときは均一なウエイト)が与えられた全ポジティブサンプルおよび全ネガティブサンプルに関し、それぞれ、単方向相関値Cについてのヒストグラム(ウエイトが与えられたサンプルに対応した重み付けヒストグラム)が作成される(ステップS53)。このヒストグラムの例を図13に示す。   Specifically, first, all positive samples in which weights (uniform weights when t = 1) are given to each unselected individual feature area A (all feature areas A when t = 1). With respect to all negative samples, a histogram for each unidirectional correlation value C (weighted histogram corresponding to a sample given a weight) is created (step S53). An example of this histogram is shown in FIG.

一般に、相関値Cの値の比較的小さな範囲にネガティブサンプルの分布が現れ、相関値Cの値の比較的大きな範囲にポジティブサンプルの分布が現れる。しきい値θは、当該しきい値と相関値Cとを比較したときの誤識別率(エラー率)が最小となるように定められる(ステップS54)。
たとえば、しきい値θを大きな値θLに定めると、異なる人物の画像ペア(ネガティブサンプル)を同一人物の画像ペアであるとする誤識別(他人受入れ(False Accept)エラー、フォルスポジティブエラー)は少なくなるが、同一人物の画像ペア(ポジティブサンプル)を異なる人物の画像ペアであるとする誤識別(本人棄却(False Reject)エラー、フォルスネガティブエラー)が多くなる。逆に、しきい値θを小さな値θSに定めると、異なる人物の画像ペア(ネガティブサンプル)を同一人物の画像ペアであるとする誤識別(他人受入れエラー、フォルスポジティブエラー)が多くなる反面、同一人物の画像ペア(ポジティブサンプル)を異なる人物の画像ペアであるとする誤識別(本人棄却エラー、フォルスネガティブエラー)は少なくなる。
In general, the distribution of negative samples appears in a relatively small range of correlation values C, and the distribution of positive samples appears in a relatively large range of correlation values C. The threshold value θ is determined so that the misidentification rate (error rate) when the threshold value and the correlation value C are compared is minimized (step S54).
For example, when the threshold θ is set to a large value θ L , misidentification (False Accept error, false positive error) that an image pair (negative sample) of different persons is an image pair of the same person is Although the number is reduced, misidentification (False Reject error, false negative error) that the image pair (positive sample) of the same person is an image pair of different persons increases. Conversely, if the threshold value θ is set to a small value θ S , misidentification (an error for accepting another person, a false positive error) that images pairs of different persons (negative samples) are image pairs of the same person increases. In addition, misidentification (person rejection error, false negative error) that an image pair (positive sample) of the same person is an image pair of different persons is reduced.

しきい値θは、前記の誤識別が全体として最小となる値に定められる。一般的には、ポジティブサンプルの分布範囲とネガティブサンプルの分布範囲の間、またはそれらの重なり区間の値がしきい値θとされる。このしきい値θとともに、当該しきい値θに対応した誤識別率が求められる。
このようにして未選択の全ての特徴領域Aのしきい値θを定めることによって、全特徴領域Aに対応した弱識別器hが作成されることになる。
The threshold value θ is set to a value that minimizes the erroneous identification as a whole. In general, the threshold θ is a value between the distribution range of the positive sample and the distribution range of the negative sample, or an overlap interval thereof. Along with this threshold value θ, an erroneous identification rate corresponding to the threshold value θ is obtained.
In this way, by determining the threshold value θ of all unselected feature regions A, the weak classifier h corresponding to all the feature regions A is created.

これらの弱識別器hのなかで最も誤識別率(エラー率)の低い弱識別器が第t番目の識別器ht(t=1のときは第1の識別器h1(特徴領域A1に対応))として選択され(ステップS55)、その誤識別率に応じた重み付け係数wt(t=1のときは重み付け係数w1)が定められる(ステップS56)。
次いで、第t弱識別器htにより正解が得られるサンプルには小さなウエイトを与え、第t弱識別器htにより不正解となるサンプルには大きなウエイトを与えるように重みの再配分(re-weighting)を行い、これに対してステップS52以降の学習を実行する(ステップS57)。すなわち、未選択の全ての特徴領域(特徴領域A1〜At以外の特徴領域A)について、前記ウエイトが与えられたサンプルに対する重み付けヒストグラムが作成される(ステップS53)。そして、それらの特徴領域Aに対応した弱識別器のうちで誤識別率が最も小さくなる弱識別器が第(t+1)の識別器ht+1とされる(ステップS55)。つまり、たとえば、第2の識別器h2には、第1の識別器h1が誤識別しやすいサンプルに対して高確率で正解を与える弱識別器が選択される。そして、この第(t+1)の弱識別器ht+1の誤識別率に応じた重み付け係数wt+1が定められる(ステップS56)。
Among these weak classifiers h, the weak classifier having the lowest misclassification rate (error rate) is the t-th classifier h t (when t = 1, the first classifier h 1 (feature area A 1). )) (Step S55), and a weighting coefficient w t (weighting coefficient w 1 when t = 1) corresponding to the misidentification rate is determined (step S56).
Then, the samples correct by the t weak classifier h t is obtained given a small weight, redistribution of the weights so as to provide a large portion in the sample to be incorrect by the t weak classifier h t (re- weighting), and learning from step S52 is performed on this (step S57). That is, the entire feature area unselected (feature region A the non-characteristic regions A 1 to A t), weighted histogram is generated for the sample in which the weight is given (step S53). Of the weak classifiers corresponding to the feature region A, the weak classifier having the smallest misclassification rate is set as the (t + 1) th classifier h t + 1 (step S55). That is, for example, a weak classifier that gives a correct answer with high probability to a sample that is easily misidentified by the first classifier h 1 is selected as the second classifier h 2 . Then, the first (t + 1) weighting factor w t + 1 according to the misidentification rate of weak classifier h t + 1 of is determined (step S56).

同様の操作を、T個の弱識別器h1〜hTが得られるまで繰り返し、T回の学習を行うことにより、類似度の演算に適したT個の特徴領域A1〜ATが選択されることになる。そして、T個の弱識別器h1〜hTに各重み付け係数w1〜wTを乗じて線形結合することにより、前記第(3)式による類似度演算式が得られる。
そして、前記第(3)式によって求められた類似度が所定の認識しきい値Rthと比較される。求められた類似度が認識しきい値Rthを超える場合には、第1および第2顔画像I1,I2が同一人物の顔画像である判定され、認識しきい値Rth以下の場合には、第1および第2顔画像I1,I2は異なる人物の顔画像であると判定される。
The same operation is repeated until T weak classifiers h 1 to h T are obtained, and T feature regions A 1 to A T suitable for calculating similarity are selected by performing T learning. Will be. Then, by multiplying the T weak discriminators h 1 to h T by the respective weighting coefficients w 1 to w T and linearly combining them, the similarity calculation formula according to the above-mentioned formula (3) is obtained.
Then, the similarity obtained by the equation (3) is compared with a predetermined recognition threshold value Rth . When the obtained similarity exceeds the recognition threshold value R th , it is determined that the first and second face images I 1 and I 2 are face images of the same person, and the recognition threshold value R th or less. The first and second face images I 1 and I 2 are determined to be face images of different persons.

つまり、次式により、判定結果が与えられる。   That is, the determination result is given by the following equation.

図14は、照合用辞書記憶部26(図1および図3参照)の保持内容を説明するための図である。照合用辞書記憶部26には、前記第(3)式の類似度演算式に対応した特徴領域A1〜ATの情報が格納されている。すなわち、特徴番号1〜Tに対応して、特徴領域A1〜ATを指定するための特徴領域指定情報と、各特徴領域A1〜ATの相関値C1〜CTに対して適用されるしきい値θ1〜θTと、各特徴領域A1〜ATの弱識別器h1〜hTに対して与えられる重み付け係数w1〜wTとが格納されている。 FIG. 14 is a diagram for explaining the contents held in the collation dictionary storage unit 26 (see FIGS. 1 and 3). The collation dictionary storage unit 26 stores information on the feature areas A 1 to A T corresponding to the similarity calculation expression of the expression (3). That is, corresponding to the feature numbers 1 to T , it is applied to the feature region designation information for designating the feature regions A 1 to AT and the correlation values C 1 to CT of the feature regions A 1 to AT . and threshold theta 1 through? T is, the weighting factor is given and w 1 to w T is stored for weak classifiers h 1 to h T of the feature regions a 1 to a T.

特徴領域指定情報は、特徴領域の位置、形状、サイズおよび種類を指定するための情報である。図14には、特徴領域の形状を一定形状(たとえば正方形)に固定し、かつ、特徴領域の分割数pjを一定値pに固定する場合の例が示されている。したがって、特徴領域指定情報として、位置、サイズおよび種類が登録されている。特徴領域の位置は、照合される2つの顔画像I1,I2中における位置を表す。具体的には、たとえば、図11に示すように、特徴領域が矩形形状の場合、その左下角を原点とみなし、この原点のx座標およびy座標によって、当該特徴領域の位置が表される。サイズは、たとえば正方形の特徴領域の場合における一辺の長さ(画素数)で表される。種類は、特徴領域をx方向(水平方向)に分割(図11(b)参照)するか、y方向(垂直方向)に分割(図11(a)参照)するかを表す情報である。 The feature area designation information is information for designating the position, shape, size, and type of the feature area. FIG. 14 shows an example in which the shape of the feature region is fixed to a fixed shape (for example, a square) and the number of divisions p j of the feature region is fixed to a fixed value p. Therefore, the position, size, and type are registered as the feature area designation information. The position of the feature region represents the position in the two face images I 1 and I 2 to be collated. Specifically, for example, as shown in FIG. 11, when the feature area is rectangular, the lower left corner is regarded as the origin, and the position of the feature area is represented by the x and y coordinates of the origin. The size is represented by, for example, the length of one side (number of pixels) in the case of a square feature region. The type is information indicating whether the feature region is divided in the x direction (horizontal direction) (see FIG. 11B) or divided in the y direction (vertical direction) (see FIG. 11A).

図15は、類似度演算部41(図3参照)の構成例を説明するためのブロック図である。この構成例の類似度演算部41は、照合対象の第1顔画像I1(たとえば、代表照合データに対応した代表顔画像または個別照合データに対応した登録顔画像)および第2顔画像I2(たとえば、カメラ1で撮像された被照合顔画像)に対して共通に特徴領域Ajを設定する特徴領域設定部45(特徴領域設定手段)と、第1顔画像I1の特徴量を演算する第1特徴量演算部46(特徴量演算手段)と、第2顔画像I2の特徴量を演算する第2特徴量演算部47(特徴量演算手段)とを備えている。 FIG. 15 is a block diagram for explaining a configuration example of the similarity calculation unit 41 (see FIG. 3). The similarity calculation unit 41 of this configuration example includes a first face image I 1 to be collated (for example, a representative face image corresponding to representative collation data or a registered face image corresponding to individual collation data) and a second face image I 2. A feature region setting unit 45 (feature region setting means) that sets a feature region A j in common (for example, a face image to be checked captured by the camera 1) and a feature amount of the first face image I 1 are calculated. A first feature quantity computing section 46 (feature quantity computing means) and a second feature quantity computing section 47 (feature quantity computing means) for computing the feature quantity of the second face image I 2 .

特徴領域設定部45は、照合用辞書記憶部26から特徴領域A1〜ATを読み出し、第1および第2顔画像I1,I2中に順次設定する(第1および第2特徴領域設定ステップ)。
第1特徴量演算部46は、照合用辞書記憶部26を参照し、特徴領域設定部45によって設定された第1顔画像I1内の特徴領域Ajについて、その「種類」の情報に従って領域を分割し、その分割された部分領域ak毎の領域値x1 kを特徴量として求める(第1領域値演算ステップ)。同様に、第2特徴量演算部47は、照合用辞書記憶部26を参照し、特徴領域設定部45によって設定された第2顔画像I2内の特徴領域Ajについて、その「種類」の情報に従って領域を分割し、その分割された部分領域ak毎の領域値x2 kを特徴量として求める(第2領域値演算ステップ)。
The feature region setting unit 45 reads the feature regions A 1 to AT from the collation dictionary storage unit 26 and sequentially sets them in the first and second face images I 1 and I 2 (first and second feature region setting). Step).
The first feature quantity calculation unit 46 refers to the collation dictionary storage unit 26, and sets the region according to the “type” information for the feature region A j in the first face image I 1 set by the feature region setting unit 45. dividing the obtained area value x 1 k of that broken portion each area a k as the characteristic amount (first region value calculation step). Similarly, the second feature amount calculation unit 47 refers to the collation dictionary storage unit 26 and sets the “type” of the feature region A j in the second face image I 2 set by the feature region setting unit 45. dividing the area according to the information, it obtains the domain values x 2 k of that broken portion each area a k as the characteristic amount (second region value calculation step).

類似度演算部41は、さらに、第1および第2特徴量演算部46,47によって求められた領域値x1 k,x2 kに基づいて相関値Cjを演算する相関値演算部48(相関値演算手段、相関値演算ステップ)と、この相関値演算部48によって求められた相関値Cjを当該特徴領域Ajに対応したしきい値θjと比較する比較部49(比較手段、比較ステップ)と、この比較部49による比較結果hj(I1,I2)に重み付け係数wjを乗じて加算する重み付け加算部50(重み付け加算手段、重み付け加算ステップ)とを備えている。これらの比較部49および重み付け加算部50は、本願発明における相関ベース類似度演算手段を構成しており、これらの働きによって相関ベース類似度演算ステップが実行される。 The similarity calculation unit 41 further includes a correlation value calculation unit 48 that calculates a correlation value C j based on the region values x 1 k and x 2 k obtained by the first and second feature amount calculation units 46 and 47. A correlation value calculating means, a correlation value calculating step), and a comparing section 49 (comparing means, comparing means) for comparing the correlation value C j obtained by the correlation value calculating section 48 with a threshold value θ j corresponding to the feature area A j . A comparison step) and a weighting addition unit 50 (weighting addition means, weighting addition step) for multiplying the comparison result h j (I 1 , I 2 ) by the comparison unit 49 by a weighting coefficient w j and adding the result. The comparison unit 49 and the weighted addition unit 50 constitute a correlation base similarity calculation means in the present invention, and a correlation base similarity calculation step is executed by these functions.

比較部49は、照合用辞書記憶部26を参照し、特徴領域Ajに対応したしきい値θjを読み出す。そして、比較部49は、相関値Cjがしきい値θjよりも大きければ第1識別値「+1」(第1および第2顔画像が同一人物の顔画像であることを表す弱仮説)を出力する。一方、相関値Cjがしきい値θj以下であれば、比較部49は、第2識別値「−1」(第1および第2顔画像が他人の顔画像であることを表す弱仮説)を出力する。 The comparison unit 49 reads the threshold value θ j corresponding to the feature region A j with reference to the matching dictionary storage unit 26. If the correlation value C j is larger than the threshold value θ j , the comparison unit 49 has the first identification value “+1” (a weak hypothesis indicating that the first and second face images are face images of the same person). Is output. On the other hand, if the correlation value C j is less than or equal to the threshold value θ j , the comparison unit 49 determines that the second identification value “−1” (a weak hypothesis indicating that the first and second face images are the face images of others). ) Is output.

重み付け加算部50は、比較部49の出力値に対して特徴領域Ajに対応した重み付け係数を乗じ、特徴領域A1〜ATに関する比較部49の出力値を線形結合して、前記(3)式で表される類似度を求めて出力する。すなわち、重み付け加算部50は、比較部49から与えられる特徴領域A1〜ATについての比較結果hj(I1,I2)に対して重み付け係数wjを乗じ、これらを加算する。 The weighting addition unit 50 multiplies the output value of the comparison unit 49 by a weighting coefficient corresponding to the feature region A j , and linearly combines the output values of the comparison unit 49 for the feature regions A 1 to A T to obtain the (3 The similarity represented by the formula is obtained and output. That is, the weighting addition unit 50 multiplies the comparison result h j (I 1 , I 2 ) for the feature regions A 1 to AT given from the comparison unit 49 by the weighting coefficient w j and adds them.

図16は、類似度演算部41の他の構成例を説明するためのブロック図である。この図16において、前述の図15に示された各部と同等の機能部分には、図15の場合と同一の参照符号を付して示す。この図16の構成は、照合データ記憶部25に、顔画像の照合データ(代表照合データおよび個別照合データ)が特徴量の形式で登録されている場合に好適である。この場合、照合データ記憶部25には、各登録顔画像について特徴領域A1〜ATに関する特徴量が個別照合データとして記憶されている。同様に、代表照合データとしては、代表顔画像についての特徴領域A1〜ATに関する特徴量が記憶されている。これら特徴量は、個々の照合データに対して、特徴領域A1〜ATごとに照合データ記憶部に25記憶されている。記憶される特徴量は、各特徴領域Ajを分割して得られる部分領域akの領域値x1 kである。 FIG. 16 is a block diagram for explaining another configuration example of the similarity calculation unit 41. In FIG. 16, the same functional parts as those shown in FIG. 15 are given the same reference numerals as those in FIG. The configuration of FIG. 16 is suitable when face image collation data (representative collation data and individual collation data) are registered in the collation data storage unit 25 in the form of feature amounts. In this case, the collation data storage unit 25 stores the feature amounts related to the feature areas A 1 to AT for each registered face image as individual collation data. Similarly, as representative collation data, feature quantities related to the feature areas A 1 to A T for the representative face image are stored. These feature values are stored in the matching data storage unit 25 for each of the feature areas A 1 to AT for each matching data. The stored feature amount is a region value x 1 k of the partial region a k obtained by dividing each feature region A j .

特徴領域設定部45A(特徴領域設定手段)は、照合用辞書記憶部26を参照して、第2顔画像I2内に特徴領域A1〜ATを順次設定する。特徴量演算部47は、照合用辞書記憶部26を参照して、第2顔画像I2中に設定された特徴領域Ajについて、その部分領域akごとの領域値x2 kを特徴量として演算する。
この演算された領域値x2 kは、相関値演算部48に与えられる。この相関値演算部48は、照合データ記憶部25から第1顔画像I1の当該特徴領域Ajに対応した領域値x1 kを読み出す。そして、相関値演算部48は、照合データ記憶部25から読み出された領域値x1 kと特徴量演算部47によって演算された領域値x2 kとに基づいて、相関値Cjを演算する。
The feature region setting unit 45A (feature region setting means) refers to the collation dictionary storage unit 26 and sequentially sets the feature regions A 1 to AT in the second face image I 2 . The feature quantity calculation unit 47 refers to the collation dictionary storage unit 26 and calculates the feature value x 2 k for each partial area a k for the feature area A j set in the second face image I 2 . Calculate as
The calculated region value x 2 k is given to the correlation value calculation unit 48. The correlation value calculation unit 48 reads the region value x 1 k corresponding to the feature region A j of the first face image I 1 from the collation data storage unit 25. The correlation value calculation unit 48 calculates the correlation value C j based on the region value x 1 k read from the collation data storage unit 25 and the region value x 2 k calculated by the feature amount calculation unit 47. To do.

比較部49および重み付け加算部50の働きは、図11の構成の場合と同様である。
この構成例の場合には、第1顔画像I1(登録顔画像または代表顔画像)については、領域値x1 kが予め求められて、照合データとして照合データ記憶部25に登録されている。したがって、類似度の計算のための演算量を少なくすることができる。それに応じて、演算時間を短縮できるから、顔画像の認識に要する時間を短縮できる。
The functions of the comparison unit 49 and the weighting addition unit 50 are the same as those in the configuration of FIG.
In the case of this configuration example, for the first face image I 1 (registered face image or representative face image), the region value x 1 k is obtained in advance and registered as collation data in the collation data storage unit 25. . Therefore, the amount of calculation for calculating the similarity can be reduced. Accordingly, the calculation time can be shortened, so that the time required for recognition of the face image can be shortened.

次に、顔画像検出部30(図3参照)による処理について概説する。
図17は、顔画像検出部30の機能的な構成を説明するための機能ブロック図である。顔画像検出部30は、カメラ1によって撮像された入力画像から顔画像領域を抽出して、サイズおよび傾きが正規化された顔画像データ(被照合顔画像データ)を生成するものである。この顔画像検出部30は、第1段階の処理としての粗検出処理と、第2段階の処理としての精密検出処理とを実行する。粗検出処理は、カメラ1によって撮像された画像の全領域を粗くスキャンして、顔画像が含まれている蓋然性の高い一部の領域を顔画像周辺領域として抽出し、残余の領域を棄却して精密検出処理対象から除外する処理である。すなわち、精密検出処理は、粗検出処理によって抽出された顔画像周辺領域内で、顔画像の領域を抽出して切り出す処理である。
Next, the process by the face image detection unit 30 (see FIG. 3) will be outlined.
FIG. 17 is a functional block diagram for explaining a functional configuration of the face image detection unit 30. The face image detection unit 30 extracts a face image region from an input image captured by the camera 1 and generates face image data (matched face image data) whose size and inclination are normalized. The face image detection unit 30 executes a rough detection process as a first stage process and a fine detection process as a second stage process. In the rough detection process, the entire area of the image captured by the camera 1 is roughly scanned, and a part of the area that is likely to contain a face image is extracted as a peripheral area of the face image, and the remaining area is rejected. This is a process of excluding from the precise detection process target. In other words, the precision detection process is a process of extracting and cutting out a face image area within the face image peripheral area extracted by the rough detection process.

粗検出処理の実行のために、顔画像検出部30には、撮像画像中の部分領域を処理対象領域(粗検出ウィンドウ)として設定する粗検出ウィンドウ設定部31と、この粗検出ウィンドウ設定部31によって設定された粗検出ウィンドウが顔画像を内包する顔画像周辺領域であるかどうかを識別する周辺領域識別部32と、この周辺領域識別部32による判定のための情報を記憶した周辺領域特徴辞書33とが備えられている。周辺領域特徴辞書33は、図1に示すように、ハードディスクドライブ14内の記憶領域に格納されている。   In order to execute the rough detection process, the face image detection unit 30 includes a rough detection window setting unit 31 that sets a partial region in the captured image as a processing target region (rough detection window), and the rough detection window setting unit 31. A peripheral area identification unit 32 for identifying whether the coarse detection window set by the step is a face image peripheral area including a face image, and a peripheral area feature dictionary storing information for determination by the peripheral area identification unit 32 33. The peripheral area feature dictionary 33 is stored in a storage area in the hard disk drive 14 as shown in FIG.

また、精密検出処理の実行のために、顔画像検出部30には、さらに、周辺領域識別部32によって抽出された顔画像周辺領域のなかの部分領域を処理対象領域(精密検出ウィンドウ)として設定する精密検出ウィンドウ設定部34と、この精密検出ウィンドウ設定部34によって設定された精密検出ウィンドウが顔画像領域に該当するかどうかを識別する顔画像識別部35と、この顔画像識別部35による判定のための情報を記憶した顔画像特徴辞書36とが備えられている。顔画像特徴辞書36は、図1に示すように、ハードディスクドライブ14内の記憶領域に格納されている。   In addition, in order to execute the precision detection process, the face image detection unit 30 further sets a partial region of the face image peripheral region extracted by the peripheral region identification unit 32 as a processing target region (precision detection window). The precise detection window setting unit 34 for performing the detection, the face image identifying unit 35 for identifying whether the precise detection window set by the precise detection window setting unit 34 corresponds to the face image region, and the determination by the face image identifying unit 35 And a face image feature dictionary 36 storing information for. The face image feature dictionary 36 is stored in a storage area in the hard disk drive 14 as shown in FIG.

さらに、顔画像検出部30は、顔画像識別部35によって顔画像領域であると判定された精密検出ウィンドウ内の画像を正規化して出力する顔画像出力処理部37を備えている。この顔画像出力処理部37は、当該精密検出ウィンドウ内の画像を、一定のサイズ(たとえば32画素×32画素)に正規化し、かつ、当該精密ウィンドウ内の顔画像の傾きを補正して、被照合顔画像データを生成する。   Further, the face image detection unit 30 includes a face image output processing unit 37 that normalizes and outputs an image in the precision detection window determined to be a face image region by the face image identification unit 35. The face image output processing unit 37 normalizes the image in the precise detection window to a certain size (for example, 32 pixels × 32 pixels), corrects the inclination of the face image in the precise window, and Collation face image data is generated.

撮像画像から抽出して切り出される顔画像は、たとえば、図18の中央列の3つの画像(縦方向にならぶ3つの画像)のように、人の顔の両目尻の内側の所定形状の矩形領域(顔認識処理部40で照合される画像と同形状の領域。たとえば、正方形領域)の画像である。つまり、撮像画像中にさまざまな大きさで含まれる顔画像が、縦横比が一定の矩形領域によって切り出される。図18の中央列中段の顔画像は、両目尻を結ぶ線分が矩形領域の横辺にほぼ平行な場合(0degree)を示し、図18の中央列上段の顔画像は、同列中段の画像に対して5度だけ左回転(−5degrees)されており、図18の中央列下段の顔画像は、同列中段の画像に対して5度だけ右回転(+5degrees)されている。   The face image extracted from the captured image is a rectangular area having a predetermined shape inside the outer corners of the human face, such as three images in the center row of FIG. 18 (three images arranged in the vertical direction). (A region having the same shape as the image to be collated by the face recognition processing unit 40. For example, a square region). That is, face images included in various sizes in the captured image are cut out by a rectangular region having a constant aspect ratio. The face image in the middle row in FIG. 18 shows a case where the line segment connecting both eye corners is substantially parallel to the horizontal side of the rectangular area (0 degree), and the face image in the upper row in the middle row in FIG. In contrast, the face image in the lower row of the center row in FIG. 18 is rotated right (+5 degrees) by 5 degrees with respect to the image in the middle row of the same row.

この場合、顔画像特徴辞書36には、図18の中央列に示されるような矩形の画像を顔画像として識別するための情報が保持されることになる。より具体的には、顔画像の特徴パターンに対応した顔画像検出フィルタに関する情報が顔画像特徴辞書36に保持されている。顔画像検出フィルタは、たとえば、図19に示すように、処理ウィンドウ70内に設定された一対の矩形領域71,72のそれぞれに関して、それらの領域71,72に含まれる各複数画素の平均輝度値を求め、それらの平均輝度値の差を所定のしきい値と比較するものである。   In this case, the face image feature dictionary 36 holds information for identifying a rectangular image as shown in the center column of FIG. 18 as a face image. More specifically, information regarding the face image detection filter corresponding to the feature pattern of the face image is held in the face image feature dictionary 36. For example, as shown in FIG. 19, the face image detection filter has, for each of a pair of rectangular areas 71 and 72 set in the processing window 70, an average luminance value of each of the plurality of pixels included in the areas 71 and 72. And the difference between the average luminance values is compared with a predetermined threshold value.

処理ウィンドウ70内における矩形領域71,72の位置、形状(縦横長)、および平均輝度値に対するしきい値は、学習によって予め定められる。この学習は、多数の画像サンプルを用いて実行される。より具体的には、処理ウィンドウ70と同形状および同サイズの多数の画像サンプルが収集されて、ハードディスクドライブ14(図1参照)の記憶領域内の顔画像サンプル格納部61(図17参照)に格納される。この場合の画像サンプルは、顔画像を含む顔画像サンプル(真サンプル)と、顔画像を含まない非顔画像サンプル(偽サンプル)とを含む。   The positions of the rectangular regions 71 and 72 in the processing window 70, the shape (vertically and horizontally long), and the threshold value for the average luminance value are predetermined by learning. This learning is performed using a large number of image samples. More specifically, a large number of image samples having the same shape and size as the processing window 70 are collected and stored in the face image sample storage unit 61 (see FIG. 17) in the storage area of the hard disk drive 14 (see FIG. 1). Stored. The image samples in this case include a face image sample including a face image (true sample) and a non-face image sample not including a face image (fake sample).

コンピュータ3内の機能処理部である顔画像特徴計算部63は、顔画像サンプル格納部61に格納された画像サンプルに基づいて学習を行い、真偽のサンプルを最もよく分離することができる顔画像検出フィルタを求める。すなわち、処理ウィンドウ70内における矩形領域71,72の位置およびそれら縦横長の組み合わせを様々に設定し、真偽のサンプルを最もよく分離することができる組み合わせが選択される。この場合、「真偽のサンプルを最もよく分離することができる」とは、真サンプルを偽サンプルとする誤識別および偽サンプルを真サンプルとする誤識別が最少となることを意味する。こうして選択された矩形領域71,72の組み合わせに対して、さらに、誤識別率が最小となるしきい値が設定されることにより、顔画像検出フィルタが得られる。この顔画像検出フィルタに関する情報が、顔画像特徴辞書36に予め格納される。   The face image feature calculation unit 63, which is a function processing unit in the computer 3, performs learning based on the image samples stored in the face image sample storage unit 61 and can best separate the true / false samples. Find the detection filter. That is, various combinations of the positions of the rectangular areas 71 and 72 in the processing window 70 and the vertical and horizontal directions are set, and the combination that can best separate the true / false samples is selected. In this case, “being able to best isolate a true / false sample” means that misidentification with a true sample as a false sample and misidentification with a false sample as a true sample are minimized. For the combination of the rectangular regions 71 and 72 selected in this way, a face image detection filter is obtained by setting a threshold value that minimizes the misidentification rate. Information regarding the face image detection filter is stored in the face image feature dictionary 36 in advance.

一方、周辺領域特徴辞書33には、図18の中央列の顔画像のほかに、図18の左列および右列の各3個の顔画像を顔画像周辺領域として識別するための情報が保持されることになる。図18左列の3つの画像は、顔画像の抽出枠を、図18中央列の3つの画像の位置からそれぞれ左方向に所定画素分(図18の例では1画素分。−1pixel)だけシフトさせて得られる画像である。また、図18右列の3つの画像は、顔画像の抽出枠を、図18中央列の3つの画像の位置からそれぞれ右方向に所定画素分(図18の例では1画素分。+1pixel)だけシフトして得られる画像である。   On the other hand, the peripheral area feature dictionary 33 holds information for identifying each of the three face images in the left and right columns in FIG. 18 as the face image peripheral area in addition to the face image in the central line in FIG. Will be. In the three images in the left column of FIG. 18, the face image extraction frame is shifted by a predetermined number of pixels (one pixel in the example of FIG. 18; -1 pixel) to the left from the positions of the three images in the central column of FIG. It is an image obtained by making it. In the three images in the right column of FIG. 18, the face image extraction frame is set to a predetermined number of pixels in the right direction from the position of the three images in the center column of FIG. It is an image obtained by shifting.

周辺領域特徴辞書33には、顔画像検出フィルタの場合と同様な周辺画像検出フィルタに関する情報が保持されている。この周辺画像検出フィルタは、顔画像検出フィルタの場合と同様な学習によって定められる。ただし、この学習には、顔画像周辺領域サンプル(真サンプル)として、図18中央列のような顔画像のほかにその左右列に示されるような顔画像も用いられる。このような真サンプルと、顔画像を含まない偽サンプルとが、ハードディスクドライブ14内の記憶領域である周辺領域画像サンプル格納部62に、予め、多数格納される。   The peripheral area feature dictionary 33 holds information related to the peripheral image detection filter similar to the face image detection filter. This peripheral image detection filter is determined by learning similar to the case of the face image detection filter. However, in this learning, in addition to the face image as shown in the center row of FIG. 18, face images as shown in the left and right rows are used as the face image peripheral region sample (true sample). A large number of such true samples and false samples that do not include a face image are stored in advance in the peripheral area image sample storage unit 62 that is a storage area in the hard disk drive 14.

この周辺領域画像サンプル格納部62に格納された真偽のサンプルを最もよく分離することができる周辺領域検出フィルタが、コンピュータ3内の機能処理部である周辺領域特徴計算部64によって、顔画像検出フィルタの場合と同様な学習によって求められる。この周辺領域検出フィルタの情報が、周辺領域特徴辞書33に予め格納されることになる。
顔画像サンプル格納部61、周辺領域画像サンプル格納部62、顔画像特徴計算部63および周辺領域特徴計算部64は、事前の学習のための構成である。すなわち、これらの機能処理部は、周辺領域特徴辞書33および顔画像特徴辞書36とともに、オフライン実行系51を形成している。
A peripheral region detection filter capable of best separating the genuine samples stored in the peripheral region image sample storage unit 62 is detected by the peripheral region feature calculation unit 64 which is a function processing unit in the computer 3. It is obtained by learning similar to the case of the filter. Information about the surrounding area detection filter is stored in advance in the surrounding area feature dictionary 33.
The face image sample storage unit 61, the peripheral region image sample storage unit 62, the face image feature calculation unit 63, and the peripheral region feature calculation unit 64 are configured for prior learning. That is, these function processing units together with the peripheral area feature dictionary 33 and the face image feature dictionary 36 form an offline execution system 51.

一方、撮像画像中の顔画像の抽出処理は、粗検出ウィンドウ設定部31、周辺領域識別部32、精密検出ウィンドウ設定部34、顔画像識別部35および顔画像出力処理部37によって実行される。すなわち、これらの機能処理部は、周辺領域特徴辞書33および顔画像特徴辞書36とともに、オンライン実行系52を形成している。
粗検出ウィンドウ設定部31は、処理ウィンドウ70と相似形の様々な大きさの粗検出ウィンドウによって撮像画像の全域を走査するように、それらの粗検出ウィンドウを撮像画像中に順次設定する。より具体的には、粗検出ウィンドウ設定部31は、図20に示すように、撮像画像80内の左下角のスタート位置81から開始して、右上角のストップ位置82に至るまで、撮像画像80の全範囲を走査するように粗検出ウィンドウ77を設定していく。つまり、粗検出ウィンドウ設定部31は、最初の粗検出ウィンドウ77をスタート位置81に設定し、以後、右方向に所定の複数画素(たとえば、3画素)ずつ移動させながら順に粗検出ウィンドウ77を設定していく。この粗検出ウィンドウ77が撮像画像80の右端に達すると、粗検出ウィンドウ設定部31は、粗検出ウィンドウの設定位置を左端に戻し、1画素だけ上方に移動して、新たな粗検出ウィンドウ77を設定する。以後、同様の操作が、粗検出ウィンドウ77がストップ位置82に達するまで繰り返される。
On the other hand, the process of extracting the face image from the captured image is executed by the rough detection window setting unit 31, the peripheral region identification unit 32, the fine detection window setting unit 34, the face image identification unit 35, and the face image output processing unit 37. That is, these function processing units together with the peripheral area feature dictionary 33 and the face image feature dictionary 36 form an online execution system 52.
The coarse detection window setting unit 31 sequentially sets the coarse detection windows in the captured image so as to scan the entire area of the captured image with various sizes of coarse detection windows similar in shape to the processing window 70. More specifically, as shown in FIG. 20, the coarse detection window setting unit 31 starts from a start position 81 at the lower left corner in the captured image 80 and reaches a stop position 82 at the upper right corner. The coarse detection window 77 is set so as to scan the entire range. That is, the rough detection window setting unit 31 sets the first rough detection window 77 at the start position 81, and thereafter sets the rough detection window 77 in order while moving the predetermined plurality of pixels (for example, three pixels) to the right. I will do it. When the coarse detection window 77 reaches the right end of the captured image 80, the coarse detection window setting unit 31 returns the set position of the coarse detection window to the left end, moves upward by one pixel, and opens a new coarse detection window 77. Set. Thereafter, the same operation is repeated until the rough detection window 77 reaches the stop position 82.

粗検出ウィンドウ設定部31は、周辺領域検出フィルタによる処理が可能な最小の大きさのウィンドウを初期粗検出ウィンドウ77として前述の操作を実行し、以後、順次、粗検出ウィンドウ77の大きさを所定ステップずつ(たとえば、1画素ずつ)大きくしながら、同様の操作を繰り返す。最終的には、撮像画像80と同じ大きさの粗検出ウィンドウ77が設定される。   The coarse detection window setting unit 31 performs the above-described operation using the window having the minimum size that can be processed by the peripheral region detection filter as the initial coarse detection window 77, and thereafter sequentially sets the size of the coarse detection window 77 to a predetermined size. The same operation is repeated while increasing the size step by step (for example, by one pixel). Finally, a coarse detection window 77 having the same size as the captured image 80 is set.

こうして順次設定される粗検出ウィンドウ77内の部分画像に対して、周辺領域識別部32は、前述の周辺領域検出フィルタによる処理を実行し、各粗検出ウィンドウ77が顔画像周辺領域に該当するか否かを判定する。粗検出ウィンドウ77内の画像に対して周辺領域検出フィルタを適用する際には、当該画像は、周辺領域検出フィルタのウィイドウサイズと一致するように拡大または縮小される。顔画像周辺領域である判定された粗検出ウィンドウ77については、その位置情報および大きさの情報が生成されて、RAM12(図1参照)に格納される。   With respect to the partial images in the coarse detection window 77 sequentially set in this way, the peripheral area identifying unit 32 performs processing by the above-described peripheral area detection filter, and whether each coarse detection window 77 corresponds to the peripheral area of the face image. Determine whether or not. When the surrounding area detection filter is applied to the image in the rough detection window 77, the image is enlarged or reduced so as to match the window size of the surrounding area detection filter. With respect to the determined coarse detection window 77 that is the peripheral area of the face image, position information and size information are generated and stored in the RAM 12 (see FIG. 1).

周辺領域検出フィルタは、前述のとおり、ウィンドウの中央に顔画像が収まっているサンプルだけでなく、左右に1画素ずつずらした顔画像サンプルをも用いて学習を行って求められている。そのため、粗検出ウィンドウ77を3画素以下のシフト幅で撮像画像80内でずらして順次設定していけば、顔画像が含まれる領域を精度よく抽出することができる。むろん、最大のシフト幅である3画素ずつずらして順次粗検出ウィンドウ77を設定すれば、最短時間で顔画像周辺領域の判定を完了できる。   As described above, the peripheral region detection filter is obtained by learning using not only the sample in which the face image is in the center of the window but also the face image sample shifted by one pixel to the left and right. For this reason, if the rough detection window 77 is shifted and sequentially set in the captured image 80 with a shift width of 3 pixels or less, the region including the face image can be accurately extracted. Of course, if the coarse detection window 77 is sequentially set by shifting by 3 pixels, which is the maximum shift width, the determination of the peripheral area of the face image can be completed in the shortest time.

一般に、図18の中央列の顔画像とともに、これらを左右にu画素(ただし、uは自然数)だけそれぞれずらした顔画像を用いた学習によって周辺領域検出フィルタが求められている場合には、2u+1画素以下のシフト幅で粗検出ウィンドウ77をシフトしていくことができる。
精密検出ウィンドウ設定部34は、周辺領域識別部32によって顔画像周辺領域と判定された領域の近傍で精密検出ウィンドウを設定する。たとえば、精密検出ウィンドウ設定部34は、顔画像周辺領域およびその左右に1画素ずつシフトした範囲で、粗検出ウィンドウ77と同サイズの精密検出ウィンドウを設定する。この設定された精密検出ウィンドウに対して、顔画像識別部35による処理、すなわち、顔検出フィルタによる処理が実行される。精密検出ウィンドウ内の画像に対して顔検出フィルタを適用する際には、当該画像は、顔画像検出フィルタのウィンドウサイズと一致するように拡大または縮小される。
In general, in the case where the peripheral area detection filter is obtained by learning using the face image in the center row of FIG. 18 and the face image shifted by u pixels (where u is a natural number) to the left and right, 2u + 1 The coarse detection window 77 can be shifted by a shift width equal to or smaller than the pixels.
The precision detection window setting unit 34 sets a precision detection window in the vicinity of the area determined as the face image peripheral area by the peripheral area identification unit 32. For example, the fine detection window setting unit 34 sets a fine detection window having the same size as the rough detection window 77 within a face image peripheral region and a range shifted by one pixel to the left and right. A process by the face image identification unit 35, that is, a process by a face detection filter is executed on the set precision detection window. When a face detection filter is applied to an image in the precision detection window, the image is enlarged or reduced to match the window size of the face image detection filter.

顔識別処理部35によって顔画像領域であると判定された精密検出ウィンドウについては、その位置およびサイズを表す情報が顔画像識別部35によって出力される。これを受けて、顔画像出力処理部は、当該精密検出ウィンドウ内の画像に対して、サイズおよび傾きの正規化を行って、被照合顔画像データを生成する。この場合、「傾きの正規化」とは、たとえば、図18の上段または下段のような傾きのある画像を、図18中段のように実質的に傾きのない画像に回転することをいう。   For the precision detection window determined to be a face image area by the face identification processing unit 35, information representing the position and size is output by the face image identification unit 35. In response to this, the face image output processing unit normalizes the size and inclination of the image in the precision detection window, and generates the face image data to be verified. In this case, “inclination normalization” refers to, for example, rotating an image having an inclination as shown in the upper or lower part of FIG. 18 to an image having substantially no inclination as shown in the middle part of FIG.

以上、この発明の一実施形態について説明したが、この発明は他の形態で実施することもできる。たとえば、前述の実施形態では、複数人の顔画像の照合データが照合データ記憶部25に登録される例について説明したが、ただ一人の顔画像の照合データが照合データ記憶部25に登録されてもよい。この場合、たとえば、処理対象の画像データと代表照合データとの類似度を所定のしきい値と比較し、その類似度が当該しきい値を超えない場合には、個別照合データとの照合を行わずに認識処理を終了すればよい。これにより、照合対象の顔画像が登録人物の顔画像と明らかに異なる場合には、複数の個別照合データに関する照合処理を省くことができるので、当該照合対象の顔画像の者が未登録者であるとの判定をすみやかに下すことができる。   As mentioned above, although one Embodiment of this invention was described, this invention can also be implemented with another form. For example, in the above-described embodiment, the example in which the collation data of a plurality of face images is registered in the collation data storage unit 25 has been described. However, the collation data of only one face image is registered in the collation data storage unit 25. Also good. In this case, for example, the similarity between the image data to be processed and the representative collation data is compared with a predetermined threshold value, and if the similarity does not exceed the threshold value, collation with the individual collation data is performed. What is necessary is just to complete | finish recognition processing, without performing. As a result, when the face image to be collated is clearly different from the face image of the registered person, it is possible to omit the collation processing for a plurality of individual collation data, so that the person of the face image to be collated is an unregistered person. You can make a quick decision that there is.

また、前記の実施形態では、立ち入り制限区域への入場制限のためのこの発明が適用される例について説明したが、たとえば、家庭用ロボットや接客ロボットのように対人対応の可能なロボットにこの発明の画像認識装置を組み込んで用いることもできる。これにより、ロボットは、登録されている人物の顔を短時間で正確に認識できるから、迅速かつ的確な対人対応が可能になる。たとえば、このようなロボットは、認識した人物に応じた適切な対応を優れた応答性で実行できる。   In the above-described embodiment, the example in which the present invention for restricting entrance to the restricted access area is applied has been described. For example, the present invention is applied to a robot capable of dealing with people such as a home robot and a customer service robot. It is also possible to incorporate and use the image recognition apparatus. As a result, the robot can accurately recognize the face of the registered person in a short time, so that it is possible to deal with the person quickly and accurately. For example, such a robot can execute an appropriate response according to the recognized person with excellent responsiveness.

顔画像の認識は、他にも、膨大な画像データ(静止画または動画)から特定人物の顔画像を抽出したりする処理に用いることもできる。具体的には、犯罪捜査において、ビデオカメラで撮像された映像から容疑者の顔画像を抽出したりする処理に顔画像認識処理を適用できる。
さらに、前記の実施形態では、認識対象物が顔画像である場合について説明したが、既述のとおり、この発明は、顔画像以外の認識対象物の認識にも適用可能である。
The recognition of a face image can also be used for a process of extracting a face image of a specific person from a huge amount of image data (still image or moving image). Specifically, face image recognition processing can be applied to processing of extracting a suspect's face image from video captured by a video camera in a criminal investigation.
Furthermore, although the case where the recognition target object is a face image has been described in the above embodiment, as described above, the present invention can also be applied to recognition of a recognition target object other than a face image.

その他、特許請求の範囲に記載された事項の範囲で種々の設計変更を施すことが可能である。   In addition, various design changes can be made within the scope of the matters described in the claims.

この発明の一実施形態に係る個人認証システムの構成を示す図解的なブロック図である。1 is an illustrative block diagram showing a configuration of a personal authentication system according to an embodiment of the present invention. 画像認識装置を構成するコンピュータに接続されたディスプレイの表示例を示す図である。It is a figure which shows the example of a display of the display connected to the computer which comprises an image recognition apparatus. 前記コンピュータプログラムの実行状態におけるコンピュータの機能的な構成を説明するためのブロック図である。It is a block diagram for demonstrating the functional structure of the computer in the execution state of the said computer program. 照合データ記憶部における照合データの登録状態を説明するための図解図である。It is an illustration figure for demonstrating the registration state of the collation data in a collation data storage part. 照合データ記憶部における照合データの登録状態をより直感的に表した図である。It is the figure which expressed the registration state of the collation data in a collation data storage part more intuitively. 顔認識処理部による処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process by a face recognition process part. 照合対象の個別照合データを抽出するための処理内容の一具体例を示すフローチャートである。It is a flowchart which shows a specific example of the processing content for extracting the individual collation data of collation object. 照合対象の個別照合データを抽出するための処理の他の具体例を示すフローチャートである。It is a flowchart which shows the other specific example of the process for extracting the individual collation data of collation object. 顔認識処理部による処理の他の例を説明するためのフローチャートである。It is a flowchart for demonstrating the other example of the process by a face recognition process part. 一対の顔画像の類似度を求める演算を説明するための図である。It is a figure for demonstrating the calculation which calculates | requires the similarity of a pair of face image. 顔画像の類似度を求めるために用いられる特徴領域を説明するための図である。It is a figure for demonstrating the characteristic area used in order to obtain | require the similarity of a face image. 学習によって類似度演算式を定めるための処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process for defining a similarity calculating formula by learning. 一対の顔画像に共通の特徴領域を設定し、当該特徴領域内における一対の顔画像の相関値を求めたときの重み付けヒストグラムの一例を示す図である。It is a figure which shows an example of the weighting histogram when a common feature area is set to a pair of face images, and the correlation value of a pair of face images in the feature area is obtained. 照合用辞書記憶部の保持内容を説明するための図である。It is a figure for demonstrating the content held by the dictionary storage part for collation. 類似度演算部の構成例を説明するためのブロック図である。It is a block diagram for demonstrating the structural example of a similarity calculating part. 類似度演算部の他の構成例を説明するためのブロック図である。It is a block diagram for demonstrating the other structural example of a similarity calculating part. 顔画像検出部の機能的な構成を説明するための機能ブロック図である。It is a functional block diagram for demonstrating the functional structure of a face image detection part. 撮像画像から抽出される顔画像の例と、顔画像の周辺領域として検出される画像の例を示す図である。It is a figure which shows the example of the face image extracted from a captured image, and the example of the image detected as a peripheral region of a face image. 顔画像検出処理のためのフィルタの例を示す図である。It is a figure which shows the example of the filter for a face image detection process. 粗検出ウィンドウによる撮像画像の走査を説明するための図である。It is a figure for demonstrating the scanning of the captured image by a rough detection window. フィルタ処理を用いた類似度演算処理と相関値を用いた類似度演算処理との対比説明のための図である。It is a figure for the comparison description of the similarity calculation process using a filter process, and the similarity calculation process using a correlation value.

符号の説明Explanation of symbols

1 カメラ
2 ケーブル
3 コンピュータ
4 表示器
5 ディスプレイ
6 入力操作部
7 ゲート開閉器
8 CD−ROM
10 CPU
11 ROM
12 RAM
12a 画像メモリ
12b 代表類似度記憶領域
12c 個別類似度記憶領域
13 バス
14 ハードディスクドライブ
15 CD−ROMドライブ
16 ディスプレイコントローラ
17 入力部コントローラ
18 画像インタフェース部
19 表示制御インタフェース部
20 ゲート開閉制御インタフェース部
25 照合データ記憶部
26 照合用辞書記憶部
30 顔画像検出部
31 粗検出ウィンドウ設定部
32 周辺領域識別部
33 周辺領域特徴辞書
34 精密検出ウィンドウ設定部
35 顔画像識別部
36 顔画像特徴辞書
37 顔画像出力処理部
40 顔認識処理部
41 類似度演算部
42 照合データ選択部
43 判断部
45 特徴領域設定部
45A 特徴領域設定部
46 第1特徴量演算部
47 第2特徴量演算部
48 相関値演算部
49 比較部
50 重み付け加算部
51 オフライン実行系
52 オンライン実行系
55 水平分割線
56 垂直分割線
61 顔画像サンプル格納部
62 周辺領域画像サンプル格納部
63 顔画像特徴計算部
64 周辺領域特徴計算部
70 処理ウィンドウ
71 矩形領域
72 矩形領域
77 粗検出ウィンドウ
80 撮像画像
j 特徴領域
k 部分領域
1 k 領域値
2 k 領域値
j 相関値
1 顔画像
2 顔画像
1 Camera 2 Cable 3 Computer 4 Display 5 Display 6 Input Operation Unit 7 Gate Switch 8 CD-ROM
10 CPU
11 ROM
12 RAM
12a Image memory 12b Representative similarity storage area 12c Individual similarity storage area 13 Bus 14 Hard disk drive 15 CD-ROM drive 16 Display controller 17 Input controller 18 Image interface unit 19 Display control interface unit 20 Gate open / close control interface unit 25 Reference data Storage unit 26 Collation dictionary storage unit 30 Face image detection unit 31 Coarse detection window setting unit 32 Peripheral region identification unit 33 Peripheral region feature dictionary 34 Precision detection window setting unit 35 Face image identification unit 36 Face image feature dictionary 37 Face image output processing Unit 40 face recognition processing unit 41 similarity calculation unit 42 collation data selection unit 43 determination unit 45 feature region setting unit 45A feature region setting unit 46 first feature amount calculation unit 47 second feature amount calculation unit 48 correlation value calculation unit 49 comparison Part DESCRIPTION OF SYMBOLS 50 Weighting addition part 51 Offline execution system 52 Online execution system 55 Horizontal parting line 56 Vertical parting line 61 Face image sample storage part 62 Peripheral area image sample storage part 63 Face image feature calculation part 64 Peripheral area feature calculation part 70 Processing window 71 Rectangular Area 72 rectangular area 77 coarse detection window 80 captured image A j feature area a k partial area x 1 k area value x 2 k area value C j correlation value I 1 face image I 2 face image

Claims (17)

第1画像I1と第2画像I2との類似度を求めるための装置であって、
前記第1画像I1および第2画像I2中に共通に設定可能なT個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)のそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj内における対応するpj個の部分領域akの領域値x2 kに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段と、
この相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段とを含むことを特徴とする画像類似度演算装置。
An apparatus for determining the similarity between the first image I 1 and the second image I 2 ,
For each of T (T is a natural number greater than or equal to 2) feature regions A j (j is a natural number of 1 ≦ j ≦ T) that can be commonly set in the first image I 1 and the second image I 2 , p j number in the first image I wherein areas a j in 1 (p j is a natural number of 2 or more) partial area a k of (k is 1 ≦ k ≦ p natural number j) domain values x 1 k and said Based on the region values x 2 k of the corresponding p j partial regions a k in the feature region A j in the second image I 2 , the feature regions of the first image I 1 and the second image I 2 Correlation value in A j
Correlation value calculation means for calculating
Based on the correlation value C j relating to the T characteristic region A j obtained by the correlation value calculation means, correlation-based similarity calculating means for calculating a similarity of the first image I 1 and the second image I 2 An image similarity calculation device comprising:
第1画像I1と第2画像I2との類似度を求めるための装置であって、
T個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)を、前記第1画像I1および第2画像I2中に共通に設定する特徴領域設定手段と、
この特徴領域設定手段によって設定されたT個の特徴領域Ajのそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj内における対応するpj個の部分領域akの領域値x2 kに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段と、
この相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段とを含むことを特徴とする画像類似度演算装置。
An apparatus for determining the similarity between the first image I 1 and the second image I 2 ,
Feature region setting means for commonly setting T (T is a natural number of 2 or more) feature regions A j (j is a natural number of 1 ≦ j ≦ T) in the first image I 1 and the second image I 2 When,
For each of the T feature regions A j set by the feature region setting means, p j (p j is a natural number of 2 or more) partial regions a in the feature region A j in the first image I 1. k (k is 1 ≦ k ≦ p natural number j) area value of the corresponding p j number of partial areas a k in the region value x 1 k and the second the features in the image I 2 in the area a j of x 2 Based on k , the correlation value in the feature area A j of the first image I 1 and the second image I 2
Correlation value calculation means for calculating
Based on the correlation value C j relating to the T characteristic region A j obtained by the correlation value calculation means, correlation-based similarity calculating means for calculating a similarity of the first image I 1 and the second image I 2 An image similarity calculation device comprising:
第1画像I1と第2画像I2との類似度を求めるための装置であって、
前記第1画像I1および第2画像I2中に共通に設定可能なT個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)のそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kを、前記第1画像I1の特徴量を表す照合データとして記憶した照合データ記憶手段と、
前記T個の特徴領域Ajを、前記第2画像I2中に設定する特徴領域設定手段と、
この特徴領域設定手段によって設定されたT個の特徴領域Ajのそれぞれに関して、前記第2画像I2中の当該特徴領域Aj内におけるpj個の部分領域akの領域値x2 kを前記第2画像I2の特徴量として演算する特徴量演算手段と、
前記T個の特徴領域Ajのそれぞれに関して、前記照合データ記憶手段に記憶された第1画像I1の領域値x1 kと、前記特徴量演算手段によって演算された第2画像I2の領域値x2 kとに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段と、
この相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段とを含むことを特徴とする画像類似度演算装置。
An apparatus for determining the similarity between the first image I 1 and the second image I 2 ,
For each of T (T is a natural number of 2 or more) feature regions A j (j is a natural number of 1 ≦ j ≦ T) that can be commonly set in the first image I 1 and the second image I 2 , the p j number (p j is a natural number of 2 or more) domain values x 1 k partial region a k of (k is a natural number of 1 ≦ k ≦ p j) in the first image I wherein the area a j of 1, Collation data storage means stored as collation data representing the feature quantity of the first image I 1 ;
Feature region setting means for setting the T feature regions A j in the second image I 2 ;
For each set the T characteristic region A j This feature region setting means, the area value x 2 k of p j-number of partial areas a k within the feature region A j of the second in the image I 2 A feature amount calculating means for calculating the feature amount of the second image I 2 ;
For each of the T feature regions A j , the region value x 1 k of the first image I 1 stored in the collation data storage unit and the region of the second image I 2 calculated by the feature amount calculation unit Based on the value x 2 k , the correlation value in the feature area A j of the first image I 1 and the second image I 2
Correlation value calculation means for calculating
Based on the correlation value C j relating to the T characteristic region A j obtained by the correlation value calculation means, correlation-based similarity calculating means for calculating a similarity of the first image I 1 and the second image I 2 An image similarity calculation device comprising:
前記相関ベース類似度演算手段は、
前記相関値演算手段によって求められた相関値Cjを所定のしきい値θjと比較し、前記相関値Cjが前記しきい値θjを超えていれば、前記第1画像I1および第2画像I2が類似していることを表す第1弱識別値hj(I1,I2)=H1を出力し、前記相関値Cjが前記しきい値θj以下であれば、前記第1および第2画像I1,I2が非類似であることを表す第2弱識別値hj(I1,I2)=H2(ただし、H1>H2)を出力する比較手段と、前記T個の特徴領域Ajについての前記比較手段の出力値hj(I1,I2)を、重み付け係数wjを乗じて線形結合することにより、前記第1画像I1および第2画像I2の類似度
を演算する重み付け加算手段とを含むことを特徴とする請求項1ないし3のいずれかに記載の画像類似度演算装置。
The correlation-based similarity calculation means includes
The correlation value C j obtained by the correlation value calculating means is compared with a predetermined threshold value θ j, and if the correlation value C j exceeds the threshold value θ j , the first image I 1 and A first weak discrimination value h j (I 1 , I 2 ) = H 1 representing that the second image I 2 is similar is output, and if the correlation value C j is less than or equal to the threshold θ j A second weak discrimination value h j (I 1 , I 2 ) = H 2 (where H 1 > H 2 ) indicating that the first and second images I 1 and I 2 are dissimilar is output. The first image I 1 is obtained by linearly combining the comparison means and the output value h j (I 1 , I 2 ) of the comparison means for the T feature areas A j by a weighting coefficient w j. And the similarity of the second image I 2
The image similarity calculation apparatus according to claim 1, further comprising weighted addition means for calculating
前記部分領域akは、前記第1画像I1および第2画像I2を所定の一方向のみに関して特徴領域Ajを分割して得られる領域であることを特徴とする請求項1ないし4のいずれかに記載の画像類似度演算装置。 5. The partial area a k is an area obtained by dividing the first image I 1 and the second image I 2 by dividing the feature area A j only in a predetermined direction. The image similarity calculation apparatus according to any one of the above. 請求項1ないし5のいずれかに記載の画像類似度演算装置と、
この画像類似度演算装置によって演算された類似度が所定の認識しきい値を超えていれば、前記第1画像I1と第2画像I2とが類似していると判断し、前記画像類似度演算装置によって演算された類似度が前記認識しきい値以下であれば、前記第1画像I1と第2画像I2とが非類似であると判断する判断手段とを含むことを特徴とする画像認識装置。
An image similarity calculation device according to any one of claims 1 to 5,
If the similarity calculated by the image similarity calculation device exceeds a predetermined recognition threshold, it is determined that the first image I 1 and the second image I 2 are similar, and the image similarity And determining means for determining that the first image I 1 and the second image I 2 are dissimilar if the degree of similarity calculated by the degree calculating device is equal to or less than the recognition threshold value. An image recognition device.
第1画像I1と第2画像I2との類似度を求めるための方法であって、
T個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)を、前記第1画像I1中に設定する第1特徴領域設定ステップと、
前記T個の特徴領域Ajを前記第2画像I2中に設定する第2特徴領域設定ステップと、
前記第1画像I1に設定されたT個の特徴領域Ajのそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kを演算する第1領域値演算ステップと、
前記第2画像I2に設定されたT個の特徴領域Ajのそれぞれに関して、前記第2画像I2中の特徴領域Aj内におけるpj個の部分領域akの領域値x2 kを演算する第2領域値演算ステップと、
前記T個の特徴領域Ajのそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個の部分領域akの領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj内における対応するpj個の部分領域akの領域値x2 kに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算ステップと、
求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算ステップとを含むことを特徴とする画像類似度演算方法。
A method for determining the similarity between a first image I 1 and a second image I 2 , comprising:
A first feature region setting step of setting T (T is a natural number of 2 or more) feature regions A j (j is a natural number of 1 ≦ j ≦ T) in the first image I 1 ;
A second feature region setting step of setting the T feature regions A j in the second image I 2 ;
Wherein for each of the first image I 1 on the set T number of feature areas A j, partial regions of the p j number in the first image I wherein areas A j in 1 (p j is a natural number of 2 or more) a first region value calculating step of calculating a region value x 1 k of a k (k is a natural number of 1 ≦ k ≦ p j );
For each of the second image I 2 on the set T number of feature areas A j, the region value x 2 k of p j-number of partial areas a k in the characteristic region A j of the second in the image I 2 A second region value calculation step for calculating;
For each of the T feature regions A j , the region value x 1 k of p j partial regions a k in the feature region A j in the first image I 1 and the corresponding value in the second image I 2. based on the area value x 2 k of p j-number of partial areas a k corresponding in the characteristic region a j, the correlation value of the first image I 1 and the second image I 2 of the feature region a j
A correlation value calculating step for calculating
Characterized in that it comprises, based on the obtained T pieces of feature areas A j related to the correlation value C j, the correlation-based similarity computing step of computing a similarity of the first image I 1 and the second image I 2 An image similarity calculation method.
前記相関ベース類似度演算ステップは、
特徴領域Ajに関して前記相関値演算ステップによって求められた相関値Cjを所定のしきい値θjと比較し、前記相関値Cjが前記しきい値θjを超えていれば、前記第1画像I1および第2画像I2が類似していることを表す第1弱識別値hj(I1,I2)=H1を当該特徴領域Ajに関する識別値とし、前記相関値Cjが前記しきい値θj以下であれば、前記第1および第2画像I1,I2が非類似であることを表す第2弱識別値hj(I1,I2)=H2を当該特徴領域Ajに関する識別値とする比較ステップと、
前記T個の特徴領域Ajについての前記識別値hj(I1,I2)を、重み付け係数wjを乗じて線形結合することにより、前記第1画像I1および第2画像I2の類似度
を演算する重み付け加算ステップとを含むことを特徴とする請求項7記載の画像類似度演算方法。
The correlation-based similarity calculation step includes:
The correlation value C j obtained by said correlation value calculation step with respect to the feature region A j is compared with a predetermined threshold value theta j, if the correlation value C j exceeds the said threshold theta j, the first The first weak discrimination value h j (I 1 , I 2 ) = H 1 representing that the first image I 1 and the second image I 2 are similar is used as the discrimination value for the feature region A j , and the correlation value C If j is equal to or less than the threshold value θ j , a second weak discrimination value h j (I 1 , I 2 ) = H 2 indicating that the first and second images I 1 and I 2 are dissimilar. A comparison step in which D is an identification value for the feature region A j ,
By multiplying the identification values h j (I 1 , I 2 ) for the T feature regions A j by a weighting coefficient w j , the first image I 1 and the second image I 2 Degree of similarity
The image similarity calculation method according to claim 7, further comprising a weighted addition step for calculating.
前記部分領域akは、前記第1画像I1および第2画像I2を所定の一方向のみに関して特徴領域Ajを分割して得られる領域であることを特徴とする請求項7または8記載の画像類似度演算方法。 The partial region a k is according to claim 7, characterized in that the first image I 1 and the second image I 2 is an area obtained by dividing the characteristic region A j with respect to only one predetermined direction Image similarity calculation method. 請求項7ないし9のいずれかに記載の画像類似度演算方法による類似度演算ステップと、
この類似度演算ステップによって演算された類似度が所定の認識しきい値を超えていれば、前記第1画像I1と第2画像I2とが類似していると判断し、前記画像類似度演算装置によって演算された類似度が前記認識しきい値以下であれば、前記第1画像I1と第2画像I2とが非類似であると判断する判断ステップとを含むことを特徴とする画像認識方法。
A similarity calculation step by the image similarity calculation method according to claim 7,
If the similarity calculated in the similarity calculation step exceeds a predetermined recognition threshold, it is determined that the first image I 1 and the second image I 2 are similar, and the image similarity is A determination step of determining that the first image I 1 and the second image I 2 are dissimilar if the degree of similarity calculated by the calculation device is equal to or less than the recognition threshold value. Image recognition method.
第1画像I1と第2画像I2とを照合するための装置としてコンピュータを動作させるためのコンピュータプログラムであって、
前記コンピュータプログラムは、前記コンピュータを、
前記第1画像I1および第2画像I2中に共通に設定可能なT個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)のそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj内における対応するpj個の部分領域akの領域値x2 kに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段、ならびに
この相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段
として機能させるものであることを特徴とするコンピュータプログラム。
A computer program for operating a computer as a device for comparing a first image I 1 and a second image I 2 ,
The computer program stores the computer,
For each of T (T is a natural number greater than or equal to 2) feature regions A j (j is a natural number of 1 ≦ j ≦ T) that can be commonly set in the first image I 1 and the second image I 2 , p j number in the first image I wherein areas a j in 1 (p j is a natural number of 2 or more) partial area a k of (k is 1 ≦ k ≦ p natural number j) domain values x 1 k and said Based on the region values x 2 k of the corresponding p j partial regions a k in the feature region A j in the second image I 2 , the feature regions of the first image I 1 and the second image I 2 Correlation value in A j
And a similarity value between the first image I 1 and the second image I 2 based on the correlation value C j regarding the T feature regions A j obtained by the correlation value calculation means. A computer program that functions as a correlation-based similarity calculation means for calculating.
第1画像I1と第2画像I2とを照合するための装置としてコンピュータを動作させるためのコンピュータプログラムであって、
前記コンピュータプログラムは、前記コンピュータを、
T個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)を、前記第1画像I1および第2画像I2中に共通に設定する特徴領域設定手段、
この特徴領域設定手段によって設定されたT個の特徴領域Ajのそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj内における対応するpj個の部分領域akの領域値x2 kに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段、ならびに
この相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段
として機能させるものであることを特徴とするコンピュータプログラム。
A computer program for operating a computer as a device for comparing a first image I 1 and a second image I 2 ,
The computer program stores the computer,
Feature region setting means for commonly setting T (T is a natural number of 2 or more) feature regions A j (j is a natural number of 1 ≦ j ≦ T) in the first image I 1 and the second image I 2 ,
For each of the T feature regions A j set by the feature region setting means, p j (p j is a natural number of 2 or more) partial regions a in the feature region A j in the first image I 1. k (k is 1 ≦ k ≦ p natural number j) area value of the corresponding p j number of partial areas a k in the region value x 1 k and the second the features in the image I 2 in the area a j of x 2 Based on k , the correlation value in the feature area A j of the first image I 1 and the second image I 2
And a similarity value between the first image I 1 and the second image I 2 based on the correlation value C j regarding the T feature regions A j obtained by the correlation value calculation means. A computer program that functions as a correlation-based similarity calculation means for calculating.
第1画像I1と第2画像I2とを照合するための装置としてコンピュータを動作させるためのコンピュータプログラムであって、
前記コンピュータは、前記第1画像I1および第2画像I2中に共通に設定可能なT個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)のそれぞれに関して、前記第1画像I1中の特徴領域Aj内におけるpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)の領域値x1 kを、前記第1画像I1の特徴量を表す照合データとして記憶した照合データ記憶手段を含み、
前記コンピュータプログラムは、前記コンピュータを、
前記T個の特徴領域Ajを、前記第2画像I2中に設定する特徴領域設定手段、
この特徴領域設定手段によって設定されたT個の特徴領域Ajのそれぞれに関して、前記第2画像I2中の当該特徴領域Aj内におけるpj個の部分領域akの領域値x2 kを前記第2画像I2の特徴量として演算する特徴量演算手段、
前記T個の特徴領域Ajのそれぞれに関して、前記照合データ記憶手段に記憶された第1画像I1の領域値x1 kと、前記特徴量演算手段によって演算された第2画像I2の領域値x2 kとに基づいて、前記第1画像I1および第2画像I2の当該特徴領域Aj内の相関値
を演算する相関値演算手段、ならびに
この相関値演算手段によって求められたT個の特徴領域Ajに関する前記相関値Cjに基づいて、前記第1画像I1および第2画像I2の類似度を演算する相関ベース類似度演算手段
として機能させるものであることを特徴とするコンピュータプログラム。
A computer program for operating a computer as a device for comparing a first image I 1 and a second image I 2 ,
The computer has T characteristic regions A j (j is a natural number of 1 ≦ j ≦ T) that can be set in common in the first image I 1 and the second image I 2 (T is a natural number of 2 or more). for each, the region value x of the partial area a k of p j number (p j is a natural number of 2 or more) in the first image I wherein areas a j in 1 (k is a natural number of 1 ≦ k ≦ p j) Including collation data storage means for storing 1 k as collation data representing the feature amount of the first image I 1 ,
The computer program stores the computer,
Feature region setting means for setting the T feature regions A j in the second image I 2 ;
For each set the T characteristic region A j This feature region setting means, the area value x 2 k of p j-number of partial areas a k within the feature region A j of the second in the image I 2 Feature amount calculating means for calculating the feature amount of the second image I 2 ;
For each of the T feature regions A j , the region value x 1 k of the first image I 1 stored in the collation data storage unit and the region of the second image I 2 calculated by the feature amount calculation unit Based on the value x 2 k , the correlation value in the feature area A j of the first image I 1 and the second image I 2
And a similarity value between the first image I 1 and the second image I 2 based on the correlation value C j regarding the T feature regions A j obtained by the correlation value calculation means. A computer program that functions as a correlation-based similarity calculation means for calculating.
前記相関ベース類似度演算手段は、
前記相関値演算手段によって求められた相関値Cjを所定のしきい値θjと比較し、前記相関値Cjが前記しきい値θjを超えていれば、前記第1画像I1および第2画像I2が類似していることを表す第1弱識別値hj(I1,I2)=H1を出力し、前記相関値Cjが前記しきい値θj以下であれば、前記第1および第2画像I1,I2が非類似であることを表す第2弱識別値hj(I1,I2)=H2(ただし、H1>H2)を出力する比較手段と、
前記T個の特徴領域Ajについての前記比較手段の出力値hj(I1,I2)を、重み付け係数wjを乗じて線形結合することにより、前記第1画像I1および第2画像I2の類似度
を演算する重み付け加算手段とを含むことを特徴とする請求項11ないし13のいずれかに記載のコンピュータプログラム。
The correlation-based similarity calculation means includes
The correlation value C j obtained by the correlation value calculating means is compared with a predetermined threshold value θ j, and if the correlation value C j exceeds the threshold value θ j , the first image I 1 and A first weak discrimination value h j (I 1 , I 2 ) = H 1 representing that the second image I 2 is similar is output, and if the correlation value C j is less than or equal to the threshold θ j A second weak discrimination value h j (I 1 , I 2 ) = H 2 (where H 1 > H 2 ) indicating that the first and second images I 1 and I 2 are dissimilar is output. A comparison means;
The first image I 1 and the second image are linearly combined by multiplying the output value h j (I 1 , I 2 ) of the comparison means for the T feature regions A j by a weighting coefficient w j. Similarity of I 2
The computer program according to claim 11, further comprising weighted addition means for calculating
前記部分領域akは、前記第1画像I1および第2画像I2を所定の一方向のみに関して特徴領域Ajを分割して得られる領域であることを特徴とする請求項11ないし14のいずれかに記載のコンピュータプログラム。 15. The partial area a k is an area obtained by dividing the first image I 1 and the second image I 2 by dividing the feature area A j only in a predetermined direction. A computer program according to any one of the above. 前記コンピュータを、さらに、
前記重み付け加算手段によって演算された類似度が所定の認識しきい値を超えていれば、前記第1画像I1と第2画像I2とが類似していると判断し、前記画像類似度演算装置によって演算された類似度が前記認識しきい値以下であれば、前記第1画像I1と第2画像I2とが非類似であると判断する判断手段
として機能させることを特徴とする請求項11ないし15のいずれかに記載のコンピュータプログラム。
Said computer further
If the similarity calculated by the weighted addition means exceeds a predetermined recognition threshold, it is determined that the first image I 1 and the second image I 2 are similar, and the image similarity calculation When the similarity calculated by the apparatus is equal to or less than the recognition threshold value, the first image I 1 and the second image I 2 are made to function as a determination unit that determines that they are dissimilar. Item 16. The computer program according to any one of Items 11 to 15.
請求項11ないし16のいずれかに記載のコンピュータプログラムが記録されたコンピュータ読取可能な記録媒体。

A computer-readable recording medium on which the computer program according to claim 11 is recorded.

JP2004209052A 2004-07-15 2004-07-15 Similarity calculation device, recognition device, similarity calculation method, recognition method, collation program for recording correlation-based similarity of images, and recording medium recording the same Expired - Fee Related JP4468756B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004209052A JP4468756B2 (en) 2004-07-15 2004-07-15 Similarity calculation device, recognition device, similarity calculation method, recognition method, collation program for recording correlation-based similarity of images, and recording medium recording the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004209052A JP4468756B2 (en) 2004-07-15 2004-07-15 Similarity calculation device, recognition device, similarity calculation method, recognition method, collation program for recording correlation-based similarity of images, and recording medium recording the same

Publications (2)

Publication Number Publication Date
JP2006031388A true JP2006031388A (en) 2006-02-02
JP4468756B2 JP4468756B2 (en) 2010-05-26

Family

ID=35897652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004209052A Expired - Fee Related JP4468756B2 (en) 2004-07-15 2004-07-15 Similarity calculation device, recognition device, similarity calculation method, recognition method, collation program for recording correlation-based similarity of images, and recording medium recording the same

Country Status (1)

Country Link
JP (1) JP4468756B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272435A (en) * 2006-03-30 2007-10-18 Univ Of Electro-Communications Face feature extraction device and face feature extraction method
JP2007299186A (en) * 2006-04-28 2007-11-15 Secom Co Ltd Face image collating apparatus
JP2007299187A (en) * 2006-04-28 2007-11-15 Secom Co Ltd Face image collating apparatus
WO2008013001A1 (en) * 2006-07-28 2008-01-31 Oki Electric Industry Co., Ltd. Personal authentication method and personal authentication device
JP2009087209A (en) * 2007-10-02 2009-04-23 Sony Corp Image processing apparatus, imaging apparatus, and processing methods for them and programs for them
JP2009282579A (en) * 2008-05-19 2009-12-03 Nikon Corp Image processor, image processing method, and program
JP2010152806A (en) * 2008-12-26 2010-07-08 Fujifilm Corp System for identifying particular object image
JP2011013732A (en) * 2009-06-30 2011-01-20 Sony Corp Information processing apparatus, information processing method, and program
JP2011048485A (en) * 2009-08-25 2011-03-10 Kumamoto Univ Device and method for detecting target
CN101558431B (en) * 2006-12-13 2012-03-07 松下电器产业株式会社 Face authentication device
JP2014123166A (en) * 2012-12-20 2014-07-03 Canon Inc Authentication device and imaging device
JP2016103230A (en) * 2014-11-28 2016-06-02 キヤノン株式会社 Image processor, image processing method and program
US10074170B2 (en) 2012-03-19 2018-09-11 Fuji Xerox Co., Ltd. Method of producing tablet comprising specific exhausted air relative humidity

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272435A (en) * 2006-03-30 2007-10-18 Univ Of Electro-Communications Face feature extraction device and face feature extraction method
JP4705512B2 (en) * 2006-04-28 2011-06-22 セコム株式会社 Face image matching device
JP2007299186A (en) * 2006-04-28 2007-11-15 Secom Co Ltd Face image collating apparatus
JP2007299187A (en) * 2006-04-28 2007-11-15 Secom Co Ltd Face image collating apparatus
JP4705511B2 (en) * 2006-04-28 2011-06-22 セコム株式会社 Face image matching device
WO2008013001A1 (en) * 2006-07-28 2008-01-31 Oki Electric Industry Co., Ltd. Personal authentication method and personal authentication device
US8254642B2 (en) 2006-07-28 2012-08-28 Oki Electric Industry Co., Ltd. Personal authentication method and personal authentication device
CN101558431B (en) * 2006-12-13 2012-03-07 松下电器产业株式会社 Face authentication device
US8213690B2 (en) 2007-10-02 2012-07-03 Sony Corporation Image processing apparatus including similarity calculating unit, image pickup apparatus, and processing method for the apparatuses
JP2009087209A (en) * 2007-10-02 2009-04-23 Sony Corp Image processing apparatus, imaging apparatus, and processing methods for them and programs for them
JP2009282579A (en) * 2008-05-19 2009-12-03 Nikon Corp Image processor, image processing method, and program
JP2010152806A (en) * 2008-12-26 2010-07-08 Fujifilm Corp System for identifying particular object image
JP2011013732A (en) * 2009-06-30 2011-01-20 Sony Corp Information processing apparatus, information processing method, and program
JP2011048485A (en) * 2009-08-25 2011-03-10 Kumamoto Univ Device and method for detecting target
US10074170B2 (en) 2012-03-19 2018-09-11 Fuji Xerox Co., Ltd. Method of producing tablet comprising specific exhausted air relative humidity
KR101922984B1 (en) * 2012-03-19 2018-11-28 후지제롯쿠스 가부시끼가이샤 Method for producing tablets, tablet production device, system, tablet verification device, computer-readable recording medium and tablet management system
US11308607B2 (en) 2012-03-19 2022-04-19 FUJIFILM Business Innovation Corn. Tablet having uniquely identifiable shape, tablet verification device and program
JP2014123166A (en) * 2012-12-20 2014-07-03 Canon Inc Authentication device and imaging device
JP2016103230A (en) * 2014-11-28 2016-06-02 キヤノン株式会社 Image processor, image processing method and program

Also Published As

Publication number Publication date
JP4468756B2 (en) 2010-05-26

Similar Documents

Publication Publication Date Title
Abdullah et al. Face recognition for criminal identification: An implementation of principal component analysis for face recognition
AU2016214084B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US7006671B2 (en) Personal identification apparatus and method
JP5010905B2 (en) Face recognition device
JP5008269B2 (en) Information processing apparatus and information processing method
JP2007206833A (en) Biological collation method and device
JP5202148B2 (en) Image processing apparatus, image processing method, and computer program
Connaughton et al. Fusion of face and iris biometrics
KR100944247B1 (en) System and method for face recognition
KR101506105B1 (en) Image verification device, image processing system, computer readable recording medium, and image verification method
TWI390451B (en) Registration device, registration method, authentication device and authentication method
JP2006031387A (en) Image recognition device, image recognition method, image recognition program, and recording medium to which the image recognition program is recorded
JP4351982B2 (en) Personal authentication method, apparatus and program
JP4468756B2 (en) Similarity calculation device, recognition device, similarity calculation method, recognition method, collation program for recording correlation-based similarity of images, and recording medium recording the same
US8914313B2 (en) Confidence based vein image recognition and authentication
KR101087765B1 (en) Suspected criminal detection and identification system based on face recognition
JP2010152706A (en) Biometric authentication device
Tran et al. Using cross-examples in viola-jones algorithm for thermal face detection
JP2004078686A (en) Personal identification device and method, passage control device and method
Yogalakshmi et al. Review on digital image processing techniques for face recognition
JP2005084979A (en) Face authentication system, method and program
WO2021229660A1 (en) Determination device, learning method, and recording medium
WO2021229662A1 (en) Determination device, determination method, and recording medium
Phillips et al. A cancellable and privacy-preserving facial biometric authentication scheme
Rahim et al. Biometric authentication using face recognition algorithms for a class attendance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100218

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100225

R150 Certificate of patent or registration of utility model

Ref document number: 4468756

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees