JP4585254B2 - Authentication system - Google Patents

Authentication system Download PDF

Info

Publication number
JP4585254B2
JP4585254B2 JP2004236476A JP2004236476A JP4585254B2 JP 4585254 B2 JP4585254 B2 JP 4585254B2 JP 2004236476 A JP2004236476 A JP 2004236476A JP 2004236476 A JP2004236476 A JP 2004236476A JP 4585254 B2 JP4585254 B2 JP 4585254B2
Authority
JP
Japan
Prior art keywords
image
value
authentication
face image
absolute value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004236476A
Other languages
Japanese (ja)
Other versions
JP2006053853A (en
Inventor
嘉郎 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2004236476A priority Critical patent/JP4585254B2/en
Publication of JP2006053853A publication Critical patent/JP2006053853A/en
Application granted granted Critical
Publication of JP4585254B2 publication Critical patent/JP4585254B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Description

本発明は認証、具体的には、認証対象の人物の認証時における顔画像と、該人物の所定の年齢時に登録した顔画像とを用いて認証を行う認証方法および装置並びにプログラムに関するものである。   The present invention relates to authentication, specifically, an authentication method, apparatus, and program for performing authentication using a face image at the time of authentication of a person to be authenticated and a face image registered at a predetermined age of the person. .

従来、人物の認証時の顔画像(以下現齢顔画像という)と、この人物の所定の年齢時に登録された顔画像(以下登録顔画像という)とをパターンマッチングなどの照合をして認証を実現することが行われている(例えば非特許文献1参照)。しかし、人間の顔は、加齢に伴ってシワシミ成分の多少、強弱などの肌状態が異なるものであるため、非特許文献1記載のような対象人物の現齢顔画像と、予め登録されたその人物の顔画像とパターンマッチングすることによって認証を行うシステムにおいては、認証時は顔画像の登録時から年数が経った場合には、認証の精度が欠如してしまうという問題がある。そのため、時期を見計らって顔画像の登録更新を行うことが考えられるが、登録人数が多くなると登録更新作業は膨大な負荷になると共に、システムが犯罪者を見付け出すことを目的とするものである場合においては登録更新作業が不可能な場合も多いため、非現実である。   Conventionally, a face image at the time of person authentication (hereinafter referred to as an “age face image”) and a face image registered at a predetermined age of the person (hereinafter referred to as a “registered face image”) are collated for pattern matching or the like. Realization is performed (for example, refer nonpatent literature 1). However, since the human face has different skin conditions such as strength and weakness of the wrinkle component with aging, it is registered in advance with the current face image of the target person as described in Non-Patent Document 1. In a system that performs authentication by pattern matching with a person's face image, there is a problem that the accuracy of the authentication is lost when the number of years has passed since the registration of the face image. Therefore, it is conceivable to update the registration of facial images at an appropriate time, but the registration update work becomes a huge burden when the number of registered people increases, and the system aims to find criminals. In some cases, registration update work is often impossible, which is unrealistic.

そこで、特許文献1には、認証時の顔画像の入力空間を異なる空間へ射影し、認証に不必要なパターン変化を打ち消すことによって経時による変化や、顔画像を撮像時の照明条件の変化などによる影響を軽減し、認証精度を図るシステムが提案されている。   Therefore, in Patent Document 1, a face image input space at the time of authentication is projected onto a different space, and a change over time is canceled by canceling a pattern change unnecessary for authentication, or a change in illumination conditions at the time of capturing a face image. A system has been proposed that reduces the effects of authentication and improves authentication accuracy.

そのうち、シワ成分などの経時変化を打ち消す方法としては、例えば認証時の顔画像入力空間を周波数空間に射影し、高周波数帯域においてシワ成分を抑制する処理を適用することが考えられ、例えば非特許文献2記載の方法を用いることができる。   Among them, as a method for canceling the wrinkle component and the like over time, for example, it is conceivable to apply a process of projecting the face image input space at the time of authentication to the frequency space and suppressing the wrinkle component in a high frequency band. The method described in Document 2 can be used.

特許文献2記載の方法は、シワや、シミなどの成分(以下概してシワ成分という)の多くが、画像の高周波数成分に小振幅の信号として存在することを利用して、画像中の小振幅の高周波ノイズ成分を分離し抑制するために考案されたε−フィルタ(ε−分離非線形デジタルフィルタ)をシワ、シミなどの除去に適用したものである。ε−フィルタは、画像信号中の小振幅のレベル変化のみを平坦化する特性を有しているため、ε―フィルタを用いて処理した画像は、急峻なレベル変化を有するエッジが保存され、全体のキレが殆ど損なわれない。   The method described in Patent Document 2 utilizes the fact that many components such as wrinkles and spots (hereinafter generally referred to as wrinkle components) exist as small-amplitude signals in the high-frequency components of the image, thereby reducing the small amplitude in the image. The ε-filter (ε-separated non-linear digital filter) devised to separate and suppress the high-frequency noise component is applied to the removal of wrinkles and spots. Since the ε-filter has the property of flattening only small amplitude level changes in the image signal, the image processed using the ε-filter preserves edges with steep level changes, and The sharpness of the is almost not impaired.

ε−フィルタは、基本的に、振幅のレベルの変化量に対して非線形関数を適用して得た値を元の画像信号から減算するように作用するものである。この非線形関数は、信号の振幅が所定の閾値より大きいとき、出力を0とする関数である。この非線形関数の出力は、画像中のシワシミ成分に相当すると考えられ、すなわち、ε−フィルタを適用した場合、画像中の、振幅が前述閾値より大きい部位では、非線形関数の出力が0であり、処理後の画像においては、その部位の元の信号が保持される一方、振幅が前述閾値以下の部位では、処理後の画像においては、その部位の信号値が元の信号値から非線形関数の出力(その絶対値が0より大きい)を引いた値になる。こうすることによって、いわゆるノイズではないが、小振幅の明暗変化を呈するシワや、シミなどの部位において、明暗変化が平滑され、シワ、シミなどを目立たなくさせることができると共に、振幅の大きいエッジ部分を保持することができる。   The ε-filter basically serves to subtract a value obtained by applying a nonlinear function to the amount of change in amplitude level from the original image signal. This nonlinear function is a function that sets the output to 0 when the amplitude of the signal is larger than a predetermined threshold. The output of this nonlinear function is considered to correspond to the wrinkle component in the image. That is, when the ε-filter is applied, the output of the nonlinear function is 0 at a portion in the image where the amplitude is larger than the above-mentioned threshold value. In the processed image, the original signal of the part is retained. On the other hand, in the part where the amplitude is equal to or smaller than the threshold value, in the processed image, the signal value of the part is output from the original signal value as a nonlinear function. (The absolute value is greater than 0). By doing this, although it is not so-called noise, in the wrinkles and spots such as wrinkles that show small amplitude light and dark changes, the light and dark changes are smoothed, and wrinkles and spots can be made inconspicuous, and edges with large amplitude Can hold the part.

非特許文献2記載のシワ成分を抑制する処理を特許文献1の認証システムに適用し、認証時の顔画像に対してシワ成分の抑制を行って得た画像と、登録顔画像とを照合して認証を行うようにすることによって経時に起因するシワ成分の増加の影響を軽減することができ、精度の良い認証を行うことができる。
特開2000−30065号公報 「顔画像を用いた顔認識システム」,信学技報PRMU97−50,1997年6月,山口ら著 荒川ほか、「ベクトルε−フィルタによるカラー顔画像処理−皺成分の除去」1998年3月電子情報通信学会総合大会予稿集、D−11−43、PP143−
The processing for suppressing the wrinkle component described in Non-Patent Document 2 is applied to the authentication system of Patent Document 1, and the image obtained by suppressing the wrinkle component on the face image at the time of authentication is collated with the registered face image. By performing authentication, it is possible to reduce the influence of an increase in wrinkle components due to the passage of time, and it is possible to perform accurate authentication.
JP 2000-30065 A "Face recognition system using facial images", IEICE Technical Report PRMU 97-50, June 1997, by Yamaguchi et al. Arakawa et al., "Color face image processing with vector ε-filter-Removal of flaw components" March 1998 Proceedings of the IEICE General Conference, D-11-43, PP143-

しかしながら、所定の年齢、例えば25歳以降に登録した登録顔画像の場合には、登録顔画像にもシワ成分乃至ノイズ成分などが存在する。一方、認証時の現齢顔画像に対してシワ成分の抑制など不要なパターンを打ち消す処理を行って登録顔画像と照合を行うような特許文献1記載の方法では、現齢顔画像のシワ成分の態様を、丁度登録時のシワの態様になるように抑制することが難しいため、抑制の強度が強過ぎたり弱過ぎたりすると認証の精度を保つことができないという問題がある。   However, in the case of a registered face image registered after a predetermined age, for example, 25 years old, the registered face image also includes wrinkle components or noise components. On the other hand, in the method described in Patent Document 1 in which processing for canceling an unnecessary pattern such as suppression of wrinkle components is performed on the current face image at the time of authentication and collation with the registered face image is performed, the wrinkle component of the current face image Since it is difficult to suppress the above-mentioned mode so as to be a wrinkle mode at the time of registration, there is a problem that the accuracy of authentication cannot be maintained if the suppression level is too strong or too weak.

また、シワ成分は、高周波数帯域に多く存在するものの、高い周波数帯域から低い周波数帯域までの各々の周波数帯域に亘って存在するものである。上述したε−フィルタを利用したシワ抑制の処理方法は、1つの周波数帯域のみにおいてシワ、シミなどの成分を抽出して原画像から抽出された成分を減算するようにしているため、シワ、シミなどの成分の抽出漏れが生じてしまうという問題がある。そのため、1つの周波数帯域において抽出されたシワ成分を用いてシワ抑制処理を行っても、そのまま残留してしまうシワ成分があり、このようなシワ抑制処理方法を特許文献1記載の認証システムに適用しても、認証の精度を上げるのに限度がある。また、1つの周波数帯域でシワなどの成分を抽出する前述の方法は、シワ、シミなどを抑制する効果を高めるためには、この1つの周波数帯域でフィルタリングを強める、すなわち前述したシワ、シミなどを抽出するための閾値を大きくするしかないため、アーチファクトが発生し易い。シワ抑制処理の効果を高めるためにシワ抑制処理を強くした結果、処理後の画素にアーチファクトが発生すると、認証の精度を返って下げてしまうという問題がある。   Moreover, although many wrinkle components exist in the high frequency band, they exist over each frequency band from the high frequency band to the low frequency band. The wrinkle suppression processing method using the ε-filter described above extracts components such as wrinkles and stains in only one frequency band and subtracts the components extracted from the original image. There is a problem that extraction leakage of components such as the above will occur. Therefore, even if the wrinkle suppression process is performed using the wrinkle component extracted in one frequency band, there is a wrinkle component that remains as it is, and such a wrinkle suppression process method is applied to the authentication system described in Patent Document 1. Even so, there is a limit to increasing the accuracy of authentication. In addition, the above-described method of extracting components such as wrinkles in one frequency band enhances filtering in this one frequency band in order to enhance the effect of suppressing wrinkles and spots, that is, wrinkles and spots described above. Artifacts are likely to occur because there is no choice but to increase the threshold for extracting. As a result of strengthening the wrinkle suppression process in order to enhance the effect of the wrinkle suppression process, if an artifact occurs in the processed pixel, there is a problem that the accuracy of authentication is returned and lowered.

本発明は、上記事情に鑑みてなされたものであり、認証対象の人物の認証時の顔画像と、この人物の登録顔画像とを用いて認証を行う際に、認証時が登録時から時間が経っても、認証の精度の低下を防ぐことができる認証方法および装置並びにそのためのプログラムを提供することを目的とするものである。   The present invention has been made in view of the above circumstances, and when performing authentication using a face image at the time of authentication of a person to be authenticated and a registered face image of this person, the time of authentication is the time from the time of registration. An object of the present invention is to provide an authentication method and apparatus and a program therefor that can prevent a decrease in the accuracy of authentication even after passing.

本発明の認証方法は、認証対象の人物の認証時における顔画像である現齢顔画像と、前記人物の所定の年齢時に登録された登録顔画像とを用いて認証を行う認証方法において、
前記現齢顔画像と前記登録顔画像とに対して夫々シワ成分抑制処理を施して夫々に対応する認証用画像を作成し、
2つの前記認証用画像を照合することによって前記認証を行うことを特徴とするものである。
The authentication method of the present invention is an authentication method for performing authentication using an actual face image that is a face image at the time of authentication of a person to be authenticated, and a registered face image registered at a predetermined age of the person.
Each of the current age face image and the registered face image is subjected to a wrinkle component suppression process to create a corresponding authentication image,
The authentication is performed by collating the two authentication images.

また、前記登録顔画像に対する前記シワ成分抑制処理の抑制強度よりも強い抑制強度で前記現齢顔画像に対して前記シワ成分抑制処理を施すことが好ましい。   In addition, it is preferable that the wrinkle component suppression process is performed on the current age face image with a suppression strength stronger than the suppression strength of the wrinkle component suppression processing on the registered face image.

本発明の認証方法において、前記シワ成分抑制処理は、前記現齢顔画像または前記登録顔画像となる対象画像に基づいて、該対象画像の複数の周波数帯域ごとの成分を表す複数の帯域制限画像を作成し、
出力値の絶対値を入力値の絶対値以下にする処理であって、かつ絶対値が所定の閾値以下である入力値に対しては、該入力値の絶対値が大きいほど出力値の絶対値が大きくなる一方、絶対値が前記所定の閾値より大きい入力値に対しては、出力値の絶対値が前記所定の閾値に対応する出力値の絶対値以下となる非線形変換処理を各前記帯域制限画像の夫々の画素値に対して施して複数の変換画像の画素値を得、
所定の調整係数を前記複数の変換画像の画素値に乗算して調整成分画像の画素値を得、
該調整成分画像の画素値を、前記対象画像の画素値から減算する処理であることが好ましい。
In the authentication method of the present invention, the wrinkle component suppression processing includes a plurality of band-limited images representing components for each of a plurality of frequency bands of the target image based on the target image to be the current age face image or the registered face image. Create
For an input value in which the absolute value of the output value is less than or equal to the absolute value of the input value and the absolute value is less than or equal to a predetermined threshold value, the absolute value of the output value increases as the absolute value of the input value increases. On the other hand, for an input value whose absolute value is larger than the predetermined threshold value, nonlinear conversion processing in which the absolute value of the output value is equal to or smaller than the absolute value of the output value corresponding to the predetermined threshold value is performed for each band limitation. Apply to each pixel value of the image to get the pixel values of multiple converted images,
Multiplying a pixel value of the plurality of converted images by a predetermined adjustment coefficient to obtain a pixel value of the adjustment component image;
It is preferable that the pixel value of the adjustment component image be subtracted from the pixel value of the target image.

この場合、前記調整係数としては、前記変換画像の各画素に対して同じ値を用いてもよいが、前記変換画像を作成する際に用いられた前記対象画像(現齢顔画像または登録顔画像)の画素値に応じて決められたものを用いることが好ましい。   In this case, as the adjustment coefficient, the same value may be used for each pixel of the converted image, but the target image (current face image or registered face image) used when creating the converted image is used. It is preferable to use a pixel determined according to the pixel value.

本発明の認証装置は、認証対象の人物の認証時における顔画像である現齢顔画像と、前記人物の所定の年齢時に登録された登録顔画像とを用いて認証を行う認証装置であって、
前記現齢顔画像と前記登録顔画像とに対して夫々シワ成分抑制処理を施して夫々に対応する認証用画像を作成するシワ成分抑制手段と、
該シワ成分抑制手段により得られた2つの前記認証用画像を照合することによって前記認証を行う照合手段とを備えてなることを特徴とするものである。
An authentication apparatus according to the present invention is an authentication apparatus that performs authentication using an actual face image, which is a face image at the time of authentication of a person to be authenticated, and a registered face image registered at a predetermined age of the person. ,
A wrinkle component suppression unit that performs a wrinkle component suppression process on the current face image and the registered face image, respectively, and creates corresponding authentication images,
And a verification unit that performs the authentication by comparing the two authentication images obtained by the wrinkle component suppression unit.

前記シワ成分抑制手段は、前記登録顔画像に対する前記シワ成分抑制処理の抑制強度よりも強い抑制強度で前記現齢顔画像に対して前記シワ成分抑制処理を施すものであることが好ましい。   It is preferable that the wrinkle component suppression unit performs the wrinkle component suppression process on the current face image with a suppression strength stronger than the suppression strength of the wrinkle component suppression process on the registered face image.

また、前記シワ成分抑制手段は、前記現齢顔画像または前記登録顔画像となる対象画像に基づいて、該対象画像の複数の周波数帯域ごとの成分を表す複数の帯域制限画像を作成し、
出力値の絶対値を入力値の絶対値以下にする処理であって、かつ絶対値が所定の閾値以下である入力値に対しては、該入力値の絶対値が大きいほど出力値の絶対値が大きくなる一方、絶対値が前記所定の閾値より大きい入力値に対しては、出力値の絶対値が前記所定の閾値に対応する出力値の絶対値以下となる非線形変換処理を各前記帯域制限画像の夫々の画素値に対して施して複数の変換画像の画素値を得、
所定の調整係数を前記複数の変換画像の画素値に乗算して調整成分画像の画素値を得、
該調整成分画像の画素値を、前記対象画像の画素値から減算する処理を行うものであることがさらに好ましい。
Further, the wrinkle component suppression means creates a plurality of band limited images representing components for a plurality of frequency bands of the target image based on the target image to be the current face image or the registered face image,
For an input value in which the absolute value of the output value is less than or equal to the absolute value of the input value and the absolute value is less than or equal to a predetermined threshold value, the absolute value of the output value increases as the absolute value of the input value increases. On the other hand, for an input value whose absolute value is larger than the predetermined threshold value, nonlinear conversion processing in which the absolute value of the output value is equal to or smaller than the absolute value of the output value corresponding to the predetermined threshold value is performed for each band limitation. Apply to each pixel value of the image to get the pixel values of multiple converted images,
Multiplying a pixel value of the plurality of converted images by a predetermined adjustment coefficient to obtain a pixel value of the adjustment component image;
It is further preferable to perform a process of subtracting the pixel value of the adjustment component image from the pixel value of the target image.

前記調整係数は、前記対象画像の画素値に応じて決められたものであることがより好ましい。   More preferably, the adjustment coefficient is determined according to a pixel value of the target image.

また、本発明の認証方法を、本発明の認証方法の処理をコンピュータに実行させるためのプログラムとして提供してもよい。   Moreover, you may provide the authentication method of this invention as a program for making a computer perform the process of the authentication method of this invention.

本発明の認証方法および装置によれば、認証対象の人物の認証時の現齢顔画像と、該人物の登録顔画像との両方に対して夫々シワ成分抑制処理を行い、シワ成分が抑制された現齢顔画像とシワ成分が抑制された登録顔画像とを認証用画像とし、2つの認証用画像を照合することによって認証を行っているので、認証用画像は、シワ成分が抑制乃至除去されるので、シワ成分による認証精度への影響を防ぐことができ、認証精度を保つことができる。   According to the authentication method and apparatus of the present invention, the wrinkle component suppression process is performed on both the current face image at the time of authentication of the person to be authenticated and the registered face image of the person, and the wrinkle component is suppressed. Since the authentication is performed by using the authentication face image as the authentication face image and the registered face image in which the wrinkle component is suppressed, the wrinkle component is suppressed or removed from the authentication image. Therefore, the influence of the wrinkle component on the authentication accuracy can be prevented, and the authentication accuracy can be maintained.

また、顔画像におけるシワの出方は、照明条件によっても異なるので、本発明の認証方法および装置によれば、シワ成分を抑制乃至除去するように働くため、現齢顔画像と登録顔画像の撮像時の照明条件の違いによる影響も軽減することができる。   In addition, the appearance of wrinkles in the face image varies depending on the illumination conditions. Therefore, according to the authentication method and apparatus of the present invention, it works to suppress or remove the wrinkle component. It is also possible to reduce the influence due to the difference in illumination conditions during imaging.

また、認証時の年齢は、登録時の年齢より上になるため、現齢顔画像におけるシワ成分が、登録顔画像におけるシワ成分より多いため、登録顔画像に対するシワ成分抑制処理の抑制強度よりも強い抑制強度で現齢顔画像に対してシワ成分抑制処理を施すようにすると、より認証の精度を上げることができる。   In addition, since the age at the time of authentication is higher than the age at the time of registration, the wrinkle component in the current-age face image is larger than the wrinkle component in the registered face image, and thus the suppression strength of the wrinkle component suppression process for the registered face image If the wrinkle component suppression process is performed on the current-age face image with a strong suppression strength, the accuracy of authentication can be further increased.

また、シワ成分抑制処理としては、まず、対象画像(現齢顔画像または登録顔画像)に基づいて作成されたこの現齢顔画像の複数の異なる周波数帯域ごとの成分を表す複数の帯域制限画像に対して非線形変換処理を施して複数の変換画像を得る。この非線形変換処理は、出力値の絶対値を入力値の絶対値以下にする処理であって、かつ絶対値が所定の閾値以下の入力値に対しては、入力値の絶対値が大きいほど出力値の絶対値が大きくなる一方、絶対値が所定の閾値より大きい入力値に対しては、出力値の絶対値がこの所定の閾値に対応する出力値の絶対値以下となる処理である。この非線形変換処理により得られた変換画像が、当該変換画像が対応する周波数帯域におけるシワ、シミ乃至ノイズなどの振幅の小さい成分を表すものである。本発明は、この複数の変換画像の画素値に所定の調整係数を乗算して得た夫々の調整成分画像の画素値を、元の対象画像の画素値から減算することによってシワ成分を抑制した認証用画像の画素値を得るようにしているので、対象画像の複数の周波数帯域におけるシワ、シミ乃至ノイズなどの成分を効果的に抑制することができ、ひいてはより認証の精度を保つことができる。   In addition, as the wrinkle component suppression processing, first, a plurality of band-limited images representing components for each of a plurality of different frequency bands of the present-age face image created based on the target image (current-age face image or registered face image) Is subjected to nonlinear conversion processing to obtain a plurality of converted images. This non-linear conversion process is a process of making the absolute value of the output value less than or equal to the absolute value of the input value, and for an input value whose absolute value is less than or equal to a predetermined threshold value, the larger the absolute value of the input value, While the absolute value of the value is increased, for an input value whose absolute value is greater than a predetermined threshold, the absolute value of the output value is equal to or less than the absolute value of the output value corresponding to the predetermined threshold. The converted image obtained by this nonlinear conversion processing represents a component having a small amplitude such as wrinkles, spots or noises in the frequency band corresponding to the converted image. The present invention suppresses the wrinkle component by subtracting the pixel value of each adjustment component image obtained by multiplying the pixel values of the plurality of converted images by a predetermined adjustment coefficient from the pixel value of the original target image. Since the pixel value of the authentication image is obtained, it is possible to effectively suppress components such as wrinkles, spots, and noises in a plurality of frequency bands of the target image, thereby further maintaining the accuracy of authentication. .

また、1つの周波数帯域におけるシワ、シミなどの成分を抽出する従来の技術では、シワ成分を効果的に抽出するために、この1つの周波数帯域における非線形処理を強める(すなわち、シワ、シミなどの成分を抽出するための閾値を大きくする)必要があり、シワ成分を抑制した処理済み画像(本発明においては、認証用画像)にはアーチファクトが発生し、画質低下乃至認証精度の低下を招くという問題があった。それに対して、本発明においては、複数の周波数帯域からシワ、シミ乃至ノイズなどの成分を抽出して抑制するようにし、個々の周波数帯域における非線形処理をそれほど強めなくても良いシワ成分抑制効果を得ることができるので、アーチファクトの発生を防ぎ、画質の良い認証用画像を得ることができる。   Further, in the conventional technique for extracting components such as wrinkles and spots in one frequency band, in order to extract the wrinkle components effectively, non-linear processing in this one frequency band is strengthened (that is, wrinkles, spots, etc.). The threshold for extracting the component needs to be increased), and artifacts are generated in the processed image (in the present invention, the authentication image) in which the wrinkle component is suppressed, leading to deterioration in image quality or authentication accuracy. There was a problem. On the other hand, in the present invention, components such as wrinkles, spots or noises are extracted and suppressed from a plurality of frequency bands, and a wrinkle component suppressing effect that does not require so much enhancement of nonlinear processing in each frequency band is achieved. Therefore, the generation of artifacts can be prevented, and an authentication image with high image quality can be obtained.

以下、図面を参照して、本発明の実施形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の認証方法および装置並びにそのためのプログラムの実施形態となる認証装置の構成を示すブロック図である。なお、本実施形態の認証装置は、補助記憶装置に読み込まれた認証処理プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、この認証処理プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。   FIG. 1 is a block diagram illustrating a configuration of an authentication apparatus and an authentication apparatus according to an embodiment of the present invention and a program therefor. Note that the authentication device of the present embodiment is realized by executing an authentication processing program read into the auxiliary storage device on a computer (for example, a personal computer). The authentication processing program is stored in an information storage medium such as a CD-ROM or distributed via a network such as the Internet and installed in a computer.

また、画像データは画像を表すものであるため、以下、特に画像と画像データの区別をせずに説明を行う。   Further, since the image data represents an image, the following description will be given without particularly distinguishing the image from the image data.

図1に示すように、本実施形態の認証装置は、撮像部1と、認証部100と、第1のデータベース120と、第2のデータベース140とを有してなり、撮像部1は、認証対象の人物を撮像して顔画像D0を得るものであり、第1のデータベース120は、各々の人物の登録顔画像Dgを、登録時の年齢と対応付けて記憶してなるものであり、第2のデータベース140は、認証部100に供する各種パラメータを記憶してなるものであり、認証部100は、顔画像D0、および第1のデータベース120に記憶された登録顔画像Dg、および第2のデータベース140に記憶されたパラメータを用いて認証を行うものである。   As illustrated in FIG. 1, the authentication apparatus according to the present embodiment includes an imaging unit 1, an authentication unit 100, a first database 120, and a second database 140. The face image D0 is obtained by capturing an image of the target person, and the first database 120 stores the registered face image Dg of each person in association with the age at the time of registration. The database 140 of FIG. 2 stores various parameters provided to the authentication unit 100. The authentication unit 100 stores the face image D0, the registered face image Dg stored in the first database 120, and the second image. Authentication is performed using parameters stored in the database 140.

図2は、図1に示す認証装置における認証部100の構成を示すブロック図であり、図示のように、認証部100は、入力部2と、画像生成部60と、照合部70とを有してなり、入力部2は、認証対象の人物に該人物を特定することが可能な情報(例えば該人物に与えられたパスワードP)を入力させるためのものであり、画像生成部60は、撮像部1により得られた顔画像D0に対してシワシミ乃至ノイズ成分(以下概してシワ成分という)を抑制する処理を行って第1の認証用画像D1を生成すると共に、第1のデータベース120に記憶された登録顔画像Dgに対してシワ成分を抑制する処理を行って第2の認証用画像D2を生成するものであり、照合部70は、画像生成部60により生成された第1の認証用画像D1と第2の認証用画像D2とを照合するものである。   FIG. 2 is a block diagram showing a configuration of the authentication unit 100 in the authentication apparatus shown in FIG. 1. As shown in the figure, the authentication unit 100 includes an input unit 2, an image generation unit 60, and a verification unit 70. Thus, the input unit 2 is for causing the person to be authenticated to input information that can identify the person (for example, the password P given to the person). The face image D0 obtained by the imaging unit 1 is subjected to processing for suppressing wrinkles or noise components (hereinafter generally referred to as wrinkle components) to generate a first authentication image D1, and is stored in the first database 120. The registered face image Dg is processed to suppress the wrinkle component to generate the second authentication image D2. The verification unit 70 generates the first authentication image generated by the image generation unit 60. Image D1 and second authentication In which collates the image D2.

図3は、図2に示す認証部100における画像生成部60の構成を示すブロック図であり、図示のように、画像生成部60は、対象特定手段3と、YCC変換手段5と、ボケ画像作成手段10と、帯域制限画像作成手段20と、シワを抽出するシワ成分抽出手段30と、認証用画像作成手段40と、合成手段50とを備えてなるものである。   3 is a block diagram illustrating a configuration of the image generation unit 60 in the authentication unit 100 illustrated in FIG. 2. As illustrated, the image generation unit 60 includes the target specifying unit 3, the YCC conversion unit 5, and the blurred image. The image forming apparatus includes a creating unit 10, a band limited image creating unit 20, a wrinkle component extracting unit 30 for extracting wrinkles, an authentication image creating unit 40, and a combining unit 50.

ボケ画像作成手段10は、原画像S0の互いに周波数応答特性が異なる複数のボケ画像S1、S2、・・・Sn(n:2以上の整数)を作成するものであり、帯域制限画像作成手段20は、原画像S0およびボケ画像S1、S2、・・・Snを用いて複数の帯域制限画像T1、T2、・・・Tnを作成するものであり、シワ成分抽出手段30は、帯域制限画像T1、T2、・・・Tnに対して非線形変換処理を夫々施して各帯域制限画像が対応する周波数帯域におけるシワ成分Q1、Q2、・・・Qnを抽出するものであり、認証用画像作成手段40は、原画像S0およびシワ成分Q1、Q2、・・・Qnを用いて原画像S0におけるシワ成分を抑制して原画像S0の認証用画像を作成するものである。これらの手段が輝度空間において処理を行うものであるため、YCC変換手段5は、撮像部1により得られた顔画像D0(R0,G0,B0)に対してYCC変換を行って顔画像D0の輝度Y0(これらの輝度成分Y0により顔画像D0に対応する前述した原画像S0が構成される)、色差Cb0、Cr0を得ると共に、第1のデータベース120に記憶された登録顔画像Dg(Rg,Gg,Bg)に対してYCC変換を行って登録顔画像Dgの輝度Y0(これらの輝度成分Y0により登録顔画像Dgに対応する前述した原画像S0が構成される)、色差Cbg、Crgを得るものであり、合成手段50は、認証用画像作成手段40により得られた、顔画像D0に対応する第1の認証用画像S´1の画素値Y1、およびYCC変換手段5により得られた色差Cb0、Cr0とから構成される画像を合成して第1の認証用画像D1(Y1,Cb0,Cr0)を得ると共に、認証用画像作成手段40により得られた、登録顔画像Dgに対応する第2の認証用画像S´2の画素値Y1、およびYCC変換手段5により得られた色差Cbg、Crgとから構成される画像を合成して第2の認証用画像D2(Y1,Cbg,Crg)を得るものである。ここで、画像生成部60の各構成の詳細について説明する。   The blurred image creating means 10 creates a plurality of blurred images S1, S2,... Sn (n: integer greater than or equal to 2) of the original image S0 having different frequency response characteristics. Is to create a plurality of band limited images T1, T2,... Tn using the original image S0 and the blurred images S1, S2,. , T2,... Tn are each subjected to nonlinear transformation processing to extract wrinkle components Q1, Q2,... Qn in the frequency band corresponding to each band-limited image. Is used to suppress the wrinkle component in the original image S0 using the original image S0 and the wrinkle components Q1, Q2,. Since these means perform processing in the luminance space, the YCC conversion means 5 performs YCC conversion on the face image D0 (R0, G0, B0) obtained by the imaging unit 1 to generate the face image D0. The luminance Y0 (the luminance component Y0 constitutes the above-described original image S0 corresponding to the face image D0), the color differences Cb0, Cr0, and the registered face image Dg (Rg, Rg, stored in the first database 120). Gg, Bg) is subjected to YCC conversion to obtain luminance Y0 of the registered face image Dg (the above-described original image S0 corresponding to the registered face image Dg is constituted by these luminance components Y0), and color differences Cbg, Crg. The synthesizing unit 50 uses the pixel value Y1 of the first authentication image S′1 corresponding to the face image D0 obtained by the authentication image creating unit 40 and the YCC conversion unit 5. A first authentication image D1 (Y1, Cb0, Cr0) is obtained by synthesizing an image composed of the obtained color differences Cb0 and Cr0, and a registered face image Dg obtained by the authentication image creation means 40 is obtained. Are combined with the pixel value Y1 of the second authentication image S′2 corresponding to the color difference Cbg and Crg obtained by the YCC conversion means 5, and the second authentication image D2 (Y1, Y2) is synthesized. Cbg, Crg). Here, the detail of each structure of the image generation part 60 is demonstrated.

YCC変換手段5は、下記の式(1)に従って、顔画像D0および登録顔画像Dgの夫々のR、G、B値を輝度値Y、色差値Cb、Crに変換する。   The YCC conversion means 5 converts the R, G, and B values of the face image D0 and the registered face image Dg into a luminance value Y and color difference values Cb and Cr according to the following equation (1).


Y=0.2990×R+0.5870×G+0.1140×B
Cb=−0.1687×R−0.3313×G+0.5000×B+128 (1)
Cr=0.5000×R−0.4187×G−0.0813×B+128

ボケ画像作成手段10は、YCC変換手段5により得られた輝度値Y0を用いて、複数のボケ画像を作成する。図4は、ボケ画像作成手段10の構成を示すブロック図である。図示のように、ボケ画像作成手段10は、フィルタリング処理を行ってフィルタリング画像B1、B2、・・・Bnを得るフィルタリング手段12と、各フィルタリング画像に対して補間処理を行う補間手段14と、フィルタリング手段12および補間手段14を制御する制御手段16とを有してなるものである。フィルタリング手段12は、ローパスフィルタを用いてフィルタリング処理を行うものであり、このローパスフィルタとしては、例えば図5に示すような5×1のグリッド状の1次元ガウス分布に略対応したフィルタFを用いることができる。このフィルタFは下記の式(2)において、σ=1としたものである。

Figure 0004585254

Y = 0.2990 × R + 0.5870 × G + 0.1140 × B
Cb = −0.1687 × R−0.3313 × G + 0.5000 × B + 128 (1)
Cr = 0.5000 × R−0.4187 × G−0.0813 × B + 128

The blur image creation unit 10 creates a plurality of blur images using the luminance value Y0 obtained by the YCC conversion unit 5. FIG. 4 is a block diagram illustrating a configuration of the blurred image creation unit 10. As shown in the figure, the blurred image creation means 10 includes a filtering means 12 that performs filtering processing to obtain filtered images B1, B2,... Bn, an interpolation means 14 that performs interpolation processing on each filtering image, and filtering. The control means 16 which controls the means 12 and the interpolation means 14 is provided. The filtering means 12 performs a filtering process using a low-pass filter. As this low-pass filter, for example, a filter F substantially corresponding to a 5 × 1 grid-like one-dimensional Gaussian distribution as shown in FIG. 5 is used. be able to. This filter F has σ = 1 in the following equation (2).

Figure 0004585254

フィルタリング手段12は、このようなフィルタFを用いて処理対象となる画像に対して画素のx方向およびy方向に対してフィルタリング処理を施すことにより処理対象の画像の全体のフィルタリング処理を行う。   The filtering unit 12 performs a filtering process on the entire image to be processed by performing a filtering process on the image to be processed in the x direction and the y direction of the pixel using such a filter F.

図6は、ボケ画像作成手段10の制御手段16が、フィルタリング手段12と補間手段14に行わせる処理の詳細を示している。図示のように、フィルタリング手段12は、まず、原画像S0(Y0)に対して、図5に示すフィルタFを用いて1画素おきにフィルタリング処理を行う。このフィルタリング処理によってフィルタリング画像B1(Y1)が得られる。フィルタリング画像B1のサイズは、原画像S0のサイズの1/4(x方向、y方向に夫々1/2)となっている。次いで、フィルタリング手段12は、フィルタリング画像B1(Y1)に対しても1画素おきにフィルタFによるフィルタリング処理を施し、フィルタリング画像B2(Y2)を得る。フィルタリング手段12は、このようなフィルタFによるフィルタリング処理を繰り返し、n個のフィルタリング画像Bk(k=1〜n)を得る。フィルタリング画像Bkのサイズは、原画像S0のサイズの1/22Kとなっている。図7は、例としてn=3としたときに、フィルタリング手段12により得られた各フィルタリング画像Bkの周波数特性を示している。図示のように、フィルタリング画像Bkのレスポンスはkが大きいほど高周波成分が除去されたものとなっている。 FIG. 6 shows details of processing that the control unit 16 of the blurred image creation unit 10 causes the filtering unit 12 and the interpolation unit 14 to perform. As shown in the figure, the filtering unit 12 first performs a filtering process on the original image S0 (Y0) every other pixel using the filter F shown in FIG. A filtering image B1 (Y1) is obtained by this filtering process. The size of the filtering image B1 is 1/4 of the size of the original image S0 (1/2 in the x direction and y direction, respectively). Next, the filtering unit 12 performs the filtering process by the filter F every other pixel on the filtering image B1 (Y1) to obtain the filtering image B2 (Y2). The filtering means 12 repeats the filtering process by such a filter F, and obtains n filtered images Bk (k = 1 to n). The size of the filtering image Bk has become a 1/2 2K of the size of the original image S0. FIG. 7 shows the frequency characteristics of each filtered image Bk obtained by the filtering means 12 when n = 3 as an example. As shown in the figure, the response of the filtered image Bk is such that the higher the k, the higher the frequency component is removed.

なお、本実施形態の認証装置において、フィルタリング手段12は、図5に示すフィルタFにより画像のx方向およびy方向に対してフィルタリング処理を施すようにしているが、図8に示すような5×5の2次元フィルタにより原画像S0およびフィルタリング画像Bkに対して一度にフィルタリング処理を施すようにしてもよい。   In the authentication apparatus according to the present embodiment, the filtering unit 12 performs the filtering process on the x direction and the y direction of the image by the filter F shown in FIG. 5, but the 5 × as shown in FIG. The filtering process may be performed on the original image S0 and the filtering image Bk at once by the two-dimensional filter 5.

補間手段14は、フィルタリング手段12により得られた各フィルタリング画像Bkに対して補間処理を行って、夫々のフィルタリング画像Bkのサイズを原画像S0と同じようにする。補間処理の方法は、Bスプラインによる方法など種々挙げられるが、本第1の実施形態においては、フィルタリング手段12は、ローパスフィルタとしてガウス信号に基づくフィルタFを用いているため、補間手段14は、補間処理の補間演算を行うための補間係数としてもガウス信号を用いるものであり、この補間係数は、下記の式(3)において、σ=2K−1と近似したものである。

Figure 0004585254
The interpolation unit 14 performs an interpolation process on each filtering image Bk obtained by the filtering unit 12 so that the size of each filtering image Bk is the same as that of the original image S0. There are various interpolation processing methods such as a B-spline method. In the first embodiment, the filtering unit 12 uses a filter F based on a Gaussian signal as a low-pass filter. A Gaussian signal is also used as an interpolation coefficient for performing an interpolation operation of the interpolation process, and this interpolation coefficient is approximated to σ = 2 K−1 in the following equation (3).

Figure 0004585254


フィルタリング画像B1を補間する際に、k=1であるため、σ=1となる。上記式(3)においてσ=1としたときの補間を行うためのフィルタは、図9に示すような5×1の1次元フィルタF1となる。補間手段14は、まず、フィルタリング画像B1に対して1画素おきに値が0の画素を1ずつ補間することによりフィルタリング画像B1を原画像S0と同じサイズに拡大し、次いで拡大された画像に対して図9に示すフィルタF1によりフィルタリング処理を施してボケ画像S1を得る。このボケ画像S1は、原画像S0と同じ画素数、すなわち原画像S0と同じサイズを有する。

When interpolating the filtering image B1, since k = 1, σ = 1. The filter for performing interpolation when σ = 1 in the above equation (3) is a 5 × 1 one-dimensional filter F1 as shown in FIG. The interpolating means 14 first enlarges the filtered image B1 to the same size as the original image S0 by interpolating pixels with a value of 0 every other pixel to the filtered image B1, and then enlarges the filtered image B1 to the same size as the original image S0. Then, a filtering process is performed by the filter F1 shown in FIG. 9 to obtain a blurred image S1. The blurred image S1 has the same number of pixels as the original image S0, that is, the same size as the original image S0.

ここで、図9に示すフィルタF1は5×1のフィルタであるが、フィルタF1を適用する前にフィルタリング画像B1に対して1画素おきに値が0である画素を補間しているので、補間手段14による補間処理は、実質的には2×1のフィルタ(0.5,0.5)および3×1のフィルタ(0.1,0.8,0.1)の2種類のフィルタによるフィルタ処理と等価である。   Here, the filter F1 shown in FIG. 9 is a 5 × 1 filter. However, before applying the filter F1, pixels having a value of 0 are interpolated with respect to the filtered image B1 every other pixel. The interpolation processing by the means 14 is substantially performed by two types of filters: a 2 × 1 filter (0.5, 0.5) and a 3 × 1 filter (0.1, 0.8, 0.1). Equivalent to filtering.

補間手段14は、フィルタリング画像B2に対して補間を行う際に、k=2であるため、σ=2である。上記の式(3)において、σ=2に対応するフィルタは、図10に示す11×1の1次元フィルタF2となる。補間手段14は、まず、フィルタリング画像B2に対して1画素おきに値が0である画素を3つずつ補間することによりフィルタリング画像B2を原画像S0と同じサイズに拡大し、次いで拡大された画像に対して図10に示すフィルタF2によりフィルタリング処理を施してボケ画像S2を得る。ボケ画像S2は、原画像S0と同じ画素数、すなわち原画像S0と同じサイズを有する。   When the interpolation means 14 performs interpolation on the filtered image B2, k = 2, so σ = 2. In the above equation (3), the filter corresponding to σ = 2 is an 11 × 1 one-dimensional filter F2 shown in FIG. The interpolation unit 14 first expands the filtering image B2 to the same size as the original image S0 by interpolating three pixels each having a value of 0 every other pixel with respect to the filtering image B2, and then expanding the image Is subjected to a filtering process by a filter F2 shown in FIG. 10 to obtain a blurred image S2. The blurred image S2 has the same number of pixels as the original image S0, that is, the same size as the original image S0.

同じように、図10に示すフィルタF2は11×1のフィルタであるが、フィルタF2を適用する前にフィルタリング画像B2に対して1画素おきに値が0である画素を3つずつ補間しているので、補間手段14による補間処理は、実質的には2×1のフィルタ(0.5,0.5)および3×1のフィルタ(0.3,0.65,0.05)、(0.3,0.74,0.13)、(0.05,0.65,0.3)の4種類のフィルタによるフィルタ処理と等価である。   Similarly, the filter F2 shown in FIG. 10 is an 11 × 1 filter, but before applying the filter F2, three pixels each having a value of 0 are interpolated with respect to the filtered image B2 by three. Therefore, the interpolation processing by the interpolation means 14 is substantially performed by a 2 × 1 filter (0.5, 0.5) and a 3 × 1 filter (0.3, 0.65, 0.05), ( This is equivalent to filter processing using four types of filters (0.3, 0.74, 0.13) and (0.05, 0.65, 0.3).

補間手段14は、このように各フィルタリング画像Bkに対して夫々、1画素おきに値が0である画素を(2−1)個ずつ補間することにより、フィルタリング画像Bkを原画像S0と同じサイズに拡大し、そして値が0である画素が補間されたフィルタリング画像Bkに対して、上記の式(3)に基づいて作成された長さが(3×2−1)であるフィルタによるフィルタリング処理を施してボケ画像Skを得る。 In this way, the interpolation means 14 interpolates (2 K −1) pixels each having a value of 0 every other pixel with respect to each filtering image Bk, so that the filtering image Bk is the same as the original image S0. For a filtered image Bk that is enlarged to size and interpolated with pixels having a value of 0, the length created based on the above equation (3) is (3 × 2 K −1). A blurred image Sk is obtained by performing a filtering process.

図11は、例としてn=3としたときに、ボケ画像作成手段10により得られた各ボケ画像Skの周波数特性を示している。図示のように、ボケ画像Skは、kが大きいほど、原画像S0の高周波成分が除去されたものとなっている。   FIG. 11 shows the frequency characteristics of each blurred image Sk obtained by the blurred image creation means 10 when n = 3 as an example. As shown in the figure, the blurred image Sk is such that the higher the k, the higher frequency components of the original image S0 are removed.

帯域制限画像作成手段20は、ボケ画像作成手段10により得られた各ボケ画像S1,S2,・・・Snを用いて、下記の式(4)に従って原画像S0の複数の周波数帯域毎の成分を表す帯域制限画像T1,T2,・・・Tnを作成する。   The band-limited image creating means 20 uses the blurred images S1, S2,... Sn obtained by the blurred image creating means 10 and components for each of a plurality of frequency bands of the original image S0 according to the following equation (4). .., Tn are generated.


Tm=S(m−1)−Sm (4)
但し,m:1以上n以下の整数

図12は、例としてn=3としたときに、帯域制限画像作成手段20により得られた各帯域制限画像Tmの周波数特性を示している。図示のように、帯域制限画像Tmは、mが大きいほど、原画像S0の低周波数領域における成分を表すものとなっている。

Tm = S (m−1) −Sm (4)
Where m is an integer between 1 and n

FIG. 12 shows the frequency characteristics of each band limited image Tm obtained by the band limited image creating means 20 when n = 3 as an example. As illustrated, the band limited image Tm represents a component in the low frequency region of the original image S0 as m increases.

シワ成分抽出手段30は、帯域制限画像作成手段20により得られた各帯域制限画像Tm(m=1〜n)に対して非線形変換を行って夫々の帯域制限画像Tmが対応する周波数帯域におけるシワ、シミ、ノイズなどの成分(以下総してシワ成分という)Q1,Q2,・・・,Qnを抽出するものである。この非線形変換は、出力値を入力値以下にする処理であって、かつ所定の閾値以下の入力値に対しては、該入力値が大きいほど出力値が大きくなる一方、前記所定の閾値より大きい入力値に対しては、出力値が前記所定の閾値に対応する出力値以下となる処理であって、本実施形態の認証装置においては、図13に示すような関数fにより行われるものである。なお、図中破線は、出力値=入力値、すなわち傾きが1となる関数を示すものである。図示のように、シワ成分抽出手段30に用いられる非線形変換の関数fは、入力値の絶対値が第1の閾値Th1より小さいときは傾きが1であり、入力値の絶対値が第1の閾値以上かつ第2の閾値Th2以下であるときは傾きが1より小さくなり、入力値の絶対値が第2の閾値Th2より大きいときは、出力値がその絶対値が入力値の絶対値より小さい一定の値Mとなる関数である。なお、この関数fは、各帯域制限画像に対して同じものであってもよいが、各帯域制限画像に対して異なるものであってもよい。   The wrinkle component extraction unit 30 performs non-linear transformation on each band limited image Tm (m = 1 to n) obtained by the band limited image creating unit 20 to generate wrinkles in the frequency band corresponding to each band limited image Tm. , Spots, noise, and the like (hereinafter collectively referred to as wrinkle components) Q1, Q2,..., Qn. This non-linear transformation is a process of making the output value equal to or less than the input value, and for an input value less than or equal to a predetermined threshold value, the larger the input value, the larger the output value, but greater than the predetermined threshold value. For an input value, the output value is equal to or less than the output value corresponding to the predetermined threshold value, and is performed by a function f as shown in FIG. . In the figure, the broken line indicates a function in which the output value = the input value, that is, the slope is 1. As shown in the figure, the non-linear transformation function f used for the wrinkle component extraction means 30 has a slope of 1 when the absolute value of the input value is smaller than the first threshold Th1, and the absolute value of the input value is the first value. When the value is greater than or equal to the threshold value and less than or equal to the second threshold value Th2, the slope is smaller than 1. When the absolute value of the input value is greater than the second threshold value Th2, the output value is smaller than the absolute value of the input value. This is a function having a constant value M. The function f may be the same for each band limited image, but may be different for each band limited image.

シワ成分抽出手段30は、各帯域制限画像の輝度値を入力値とし、図13に示す非線形変換の関数fを用いて各帯域制限画像に対して非線形変換を行って、出力値の輝度値により構成された、各帯域制限画像が対応する周波数帯域におけるシワ成分Qm(m=1〜n)を抽出して認証用画像作成手段40に出力する。   The wrinkle component extraction unit 30 uses the luminance value of each band limited image as an input value, performs nonlinear conversion on each band limited image using the nonlinear conversion function f shown in FIG. The configured wrinkle component Qm (m = 1 to n) in the frequency band corresponding to each band limited image is extracted and output to the authentication image creating means 40.

このように、認証用画像作成手段40には、顔画像D0から抽出されたシワ成分Qmと登録顔画像Dgから抽出されたシワ成分Qmが夫々入力される。   Thus, the wrinkle component Qm extracted from the face image D0 and the wrinkle component Qm extracted from the registered face image Dg are input to the authentication image creating means 40, respectively.

一方、対象特定手段3は、認証部100の入力部2を介して入力されたパスワードPに基づいて第1のデータベース120(第1のデータベース120の詳細については後述する)から、該パスワードPに対応して記憶された登録顔画像Dgおよび該登録顔画像Dgが対応する人物の登録時の年齢、登録日、該人物の性別を読み出すと共に、登録顔画像Dgを認証部100の照合部70に出力する一方、該登録顔画像Dgが対応する人物の登録時の年齢(登録年齢という)、該人物の性別、登録日を示す情報を認証用画像作成手段40に出力する。   On the other hand, the object specifying means 3 changes the password P from the first database 120 (details of the first database 120 will be described later) based on the password P input via the input unit 2 of the authentication unit 100. The registered face image Dg stored correspondingly, the age at the time of registration of the person corresponding to the registered face image Dg, the date of registration, and the gender of the person are read out, and the registered face image Dg is read to the verification unit 70 of the authentication unit 100. On the other hand, information indicating the age at which the person corresponding to the registered face image Dg is registered (referred to as registered age), the gender of the person, and the registration date is output to the authentication image creating means 40.

図15は、第1のデータベース120におけるデータの内容を示している、図示のように、第1のデータベース120において、人物の氏名、パスワードP、性別、登録顔画像Dg、登録時の年齢、登録日は対応付けて記憶されている。対象特定手段3は、入力部2を介して入力された認証対象の人物のパスワードPに基づいて、登録顔画像Dgおよび他のデータを読み出すようになっている。   FIG. 15 shows the contents of data in the first database 120. As shown in the figure, in the first database 120, the person's name, password P, gender, registered face image Dg, age at registration, registration The days are stored in association with each other. The target specifying unit 3 reads the registered face image Dg and other data based on the password P of the person to be authenticated input via the input unit 2.

認証用画像作成手段40は、顔画像D0の輝度成分となる原画像S0と、シワ成分抽出手段30により得られたこの原画像S0におけるシワ成分Q1,Q2,・・・,Qnと、第2のデータベース140に記憶された各種パラメータとを用いて第1の認証用画像S’1(Y1)を作成すると共に、登録顔画像Dgの輝度成分となる原画像S0と、シワ成分抽出手段30により得られたこの原画像S0におけるシワ成分Q1,Q2,・・・,Qnと、第2のデータベース140に記憶された各種パラメータとを用いて第2の認証用画像S’2(Y1)を作成するものであり、図14は、その構成を示している。図示のように、認証用画像作成手段40は、現年齢算出部42と、第1のパラメータ設定部43と、第2のパラメータ設定部44と、第1の作成実行部45と、第2の作成実行部46とを有してなるものである。現年齢算出部42は、対象特定手段3から出力されてきた登録年齢と、認証時の日付とに基づいて認証対象の人物の現在の年齢(以下現年齢という)を算出して第1のパラメータ設定部43に出力するものである。なお、本実施形態の認証装置において、認証用画像作成手段40は、顔画像D0から、認証対象の人物の年齢を現年齢から顔にシワが殆ど無い例えば20歳までに減齢させた場合の減齢画像、すなわちシワ成分を抑制した画像を作成すると共に、登録顔画像Dgから、認証対象の人物の年齢を登録年齢から同じく20歳までに減齢させた場合の減齢画像、すなわちシワ成分を抑制した画像を作成するものである。   The authentication image creation means 40 includes an original image S0 that is a luminance component of the face image D0, wrinkle components Q1, Q2,..., Qn in the original image S0 obtained by the wrinkle component extraction means 30, and second images. The first authentication image S′1 (Y1) is created using the various parameters stored in the database 140, and the original image S0 serving as the luminance component of the registered face image Dg and the wrinkle component extraction means 30 are used. A second authentication image S′2 (Y1) is created using the obtained wrinkle components Q1, Q2,..., Qn in the original image S0 and various parameters stored in the second database 140. FIG. 14 shows the configuration. As shown in the figure, the authentication image creation means 40 includes a current age calculation unit 42, a first parameter setting unit 43, a second parameter setting unit 44, a first creation execution unit 45, and a second And a creation execution unit 46. The current age calculation unit 42 calculates the current age of the person to be authenticated (hereinafter referred to as the current age) based on the registered age output from the target specifying unit 3 and the date at the time of authentication, and the first parameter This is output to the setting unit 43. In the authentication apparatus according to the present embodiment, the authentication image creating unit 40 reduces the age of the person to be authenticated from the face image D0 to, for example, 20 years old with almost no wrinkles on the face from the current age. An aged image, that is, an image in which the wrinkle component is suppressed, and an aged image in which the age of the person to be authenticated is aged from the registered age to 20 years from the registered face image Dg, that is, the wrinkle component An image in which the image is suppressed is created.

ここで、まず、顔画像D0に対応する第1の認証用画像S’1を作成する処理、すなわち第1のパラメータ設定部43および第1の作成実行部45による処理について説明する。   Here, first, the process of creating the first authentication image S′1 corresponding to the face image D0, that is, the process by the first parameter setting unit 43 and the first creation execution unit 45 will be described.

第1のパラメータ設定部43は、現年齢算出部42により算出された現年齢と、第2のデータベース140に記憶された各種パラメータとを用いて、現年齢の顔画像D0に対応する第1の認証用画像S’1(Y1)を作成するためのパラメータW1を設定するものである。ここで、図16に示す第2のデータベース140を参照しながら、第1のパラメータ設定部43による処理について説明する。   The first parameter setting unit 43 uses the current age calculated by the current age calculation unit 42 and the various parameters stored in the second database 140 to provide a first image corresponding to the face image D0 of the current age. A parameter W1 for creating the authentication image S′1 (Y1) is set. Here, the processing by the first parameter setting unit 43 will be described with reference to the second database 140 shown in FIG.

図16に示すように、第2のデータベース140は、さらに3種類のデータベースA、データベースB、データベースCから構成されている。   As shown in FIG. 16, the second database 140 is further composed of three types of database A, database B, and database C.

データベースAは、現年齢と20歳との差、すなわち現年齢から20歳までの減齢年数N1と、この減齢年数N1に応じた係数αとを対応付けて記憶してなるものであり、係数αは、減齢年数N1が長いほど大きくなるものであり、図示の例では、5年以下、5年より長く10年以下、10年より長く15年以下、15より長く20年以下、・・・の減齢年数N1に対して、夫々0.1、0.2、0.5、0.6、・・・となっている。第1のパラメータ設定部43は、まず、現年齢算出部42により算出された現年齢と、減齢の目標となる20歳までの減齢年数N1を算出し、算出された減齢年数N1に対応する係数αをデータベースAから読み出す。   The database A stores the difference between the current age and 20 years old, that is, the age of decrease N1 from the current age to 20 years and the coefficient α corresponding to the age of decrease N1 in association with each other. The coefficient α increases as the age of aging N1 increases. In the illustrated example, the coefficient α is 5 years or less, 5 years to 10 years or less, 10 years to 15 years, 15 to 20 years, .., 0.1, 0.2, 0.5, 0.6,... First, the first parameter setting unit 43 first calculates the current age calculated by the current age calculation unit 42 and the age reduction N1 up to the age of 20 that is the target of age reduction, and calculates the calculated age reduction N1. The corresponding coefficient α is read from the database A.

データベースBは、減齢する期間の年齢層(減齢年齢層)の各段階(以下減齢段階という)N2と、この減齢段階N2に応じた調整率γ0とを対応付けて記憶してなるものである。人物のシワの変化態様は、加齢の期間または減齢の期間の年齢層によって異なるものである。本実施形態における第2のデータベース140のデータベースBは、このようなことを考慮し、減齢の期間を複数の減齢段階N2に分け、各減齢段階N2毎に調整率γ0を作成したものである。図示の例では、データベースBには、45歳から40歳、40歳から35歳、35歳から30歳、30歳から25歳の減齢段階、25歳から20歳の各減齢段階N2と、調整率γ0が夫々対応して記憶されている。第1のパラメータ設定部43は、まず、登録年齢および例としての20歳という目標の年齢に基づいて、該当する加齢年齢層の各段階N2の調整率γ0(1)、γ(2)、・・・を読み出す。具体的には、例えば、現年齢が25歳である場合、図16に示されるデータベースBの例では、減齢期間の年齢層が25歳〜20歳の減齢段階N2のみに該当するため、該当する減齢段階N2に対応した調整率γ0(1)として「1」のみが読み出される。一方、現年齢が44歳である場合には、減齢期間の年齢層が45歳〜40歳、40歳〜35歳、35歳〜30、35歳〜30歳、30歳〜25歳、25歳〜20歳の5つの減齢段階N2に該当するため、該当する夫々の減齢段階N2に対応した調整率γ0(1)、調整率γ0(2)、調整率γ0(3)、調整率γ0(4)、調整率γ0(5)として「1.1」、「1.2」、「1.15」、「1.15」、「1」の5つが読み出される。   The database B stores each stage (hereinafter referred to as the aging stage) N2 of the age group (aged age group) of the aging period in association with the adjustment rate γ0 corresponding to the aging stage N2. Is. A person's wrinkle change mode differs depending on the age group of the aging period or the aging period. In consideration of this, the database B of the second database 140 in the present embodiment divides the period of aging into a plurality of aging stages N2, and creates an adjustment rate γ0 for each aging stage N2. It is. In the example shown in the figure, the database B includes 45 to 40 years old, 40 to 35 years old, 35 to 30 years old, 30 to 25 years old age stages, 25 to 20 years old age stages N2 and The adjustment rate γ0 is stored correspondingly. First, the first parameter setting unit 43 first sets the adjustment rates γ0 (1), γ (2), γ (2), each stage N2 of the corresponding age group based on the registered age and the target age of 20 years as an example. Read out. Specifically, for example, when the current age is 25 years old, in the example of the database B shown in FIG. 16, the age group of the aging period corresponds only to the aging stage N2 of 25 to 20 years old. Only “1” is read as the adjustment rate γ0 (1) corresponding to the corresponding aging stage N2. On the other hand, when the current age is 44 years old, the age group of the aging period is 45 to 40 years old, 40 to 35 years old, 35 to 30 years, 35 to 30 years old, 30 to 25 years old, 25 Since it corresponds to five aging stages N2 between the ages of 20 and 20, the adjustment rate γ0 (1), the adjustment rate γ0 (2), the adjustment rate γ0 (3), and the adjustment rate corresponding to each corresponding aging stage N2. Five values of “1.1”, “1.2”, “1.15”, “1.15”, and “1” are read out as γ0 (4) and adjustment rate γ0 (5).

第1のパラメータ設定部43は、下記の式(5)に従って、読み出した各々の調整率γ0を用いて最終的な調整率γを算出する。   The first parameter setting unit 43 calculates a final adjustment rate γ using each read adjustment rate γ0 according to the following equation (5).


γ=γ0(1)×γ0(2)×・・・γ0(k) (5)
γ0:調整率
γ:最終的な調整率
k:読み出した調整率γ0の個数

データベースCは、減齢段階N3と、該減齢段階N3に応じて、顔の部位毎の調整率δ0とを対応付けて記憶してなるものである。人間の顔は、目尻や、額、顎などの部位によって加齢に伴うシワ成分の増加程度が異なり、例えば、30歳〜40歳の期間において額部位におけるシワ成分が大きく増加する傾向があり、40歳以降は顎、目尻部位におけるシワ成分が大きく増加する傾向がある。データベースCは、このような傾向を反映させるべく、部位および減齢段階N3に応じて、係数αを調整するための調整率δ0を顔の部位毎に提供するものである。第1のパラメータ設定部43は、現年齢と、20歳という目標年齢との間となる減齢期間の年齢層が、データベースCに示す減齢段階N3に該当するか否かを確認し、該当するのがあれば、該当する全ての減齢段階N3に対応する調整率δ0を夫々読み出して、それらを乗算することによって最終的な調整率δを得る一方、該当するのがなければ調整率δを1として取得する処理を各部位に対して決定する。例えば、現年齢が30歳である場合、減齢年齢層が図16に示すデータベースCの減齢段階N3のいずれの減齢段階N3にも該当しないため、各部位の調整率δが1とされる。一方、現年齢が45歳である場合には、減齢期間の年齢層が、〜40歳、40歳〜30歳の2つの減齢段階N3に該当するため、額部位に対しては夫々の減齢段階N3に対応する調整率δ0:「1」、「1.2」が読み出され、額部位の最終的な調整率δとして1×1.2の「1.2」が取得される。また、顎部位に対しては夫々の減齢段階N3に対応する調整率δ0:「1.2」、「1」が読み出され、顎部位の最終的な調整率δとして1.2×1の「1.2」が取得される。さらに、目尻部位に対しても夫々の減齢段階N3に対応する調整率δ0:「1.2」、「1」読み出され、目尻部位の最終的な調整率δとして1.2×1の「1.2」が取得される。他の各部位に対しては、最終的な調整率δとして「1」が設定される。

γ = γ0 (1) × γ0 (2) ×... γ0 (k) (5)
γ0: Adjustment rate γ: Final adjustment rate k: Number of read adjustment rates γ0

The database C stores the aging stage N3 and the adjustment rate δ0 for each facial part in association with the aging stage N3. The human face has different wrinkle component increases with age depending on the area of the corner of the eye, forehead, jaw, etc., for example, the wrinkle component in the forehead region tends to increase greatly during the period of 30 to 40 years old, After 40 years of age, wrinkle components in the chin and the corners of the eyes tend to increase greatly. In order to reflect such a tendency, the database C provides an adjustment rate δ0 for adjusting the coefficient α for each face part in accordance with the part and the aging stage N3. The first parameter setting unit 43 confirms whether the age group of the aging period between the current age and the target age of 20 years corresponds to the aging stage N3 shown in the database C. If there is, the adjustment rate δ0 corresponding to all the corresponding aging stages N3 is read out and multiplied to obtain the final adjustment rate δ. Is determined for each part. For example, when the current age is 30 years old, the aging age group does not correspond to any aging stage N3 of the aging stage N3 of the database C shown in FIG. The On the other hand, when the current age is 45 years old, the age group of the aging period corresponds to two aging stages N3 of ~ 40 years old and 40 years old to 30 years old. Adjustment rates δ0 corresponding to the aging stage N3: “1” and “1.2” are read out, and “1.2” of 1 × 1.2 is acquired as the final adjustment rate δ of the forehead part. . For the jaw part, adjustment rates δ0: “1.2” and “1” corresponding to the respective aging stages N3 are read, and the final adjustment rate δ of the jaw part is 1.2 × 1. “1.2” is acquired. Furthermore, adjustment rates δ0 corresponding to the respective aging stages N3 are also read out for the eye corner region: “1.2” and “1”, and the final adjustment rate δ of the eye corner region is 1.2 × 1. “1.2” is acquired. For each other part, “1” is set as the final adjustment rate δ.

なお、図16に示す第2のデータベース140は女性の場合の例であり、本実施形態において、第2のデータベース140は、男性、女性の性別別のデータベースA、データベースB、データベースCを有しており、第1のパラメータ設定部43は、認証対象の人物の性別に応じて該当するデータベースから夫々のパラメータを読み出すものである。   Note that the second database 140 shown in FIG. 16 is an example of a woman, and in this embodiment, the second database 140 includes a database A, a database B, and a database C for male and female genders. The first parameter setting unit 43 reads each parameter from the corresponding database according to the gender of the person to be authenticated.

第1のパラメータ設定部43は、このようにして、第2のデータベース140のデータベースAから読み出した係数α、データベースBから読み出した調整率γ0を乗算して得た調整率γ、データベースCから読み出して得た調整率δ0を乗算して得た部位毎の調整率δを取得すると共に、調整率γと調整率δを係数αに乗算してパラメータW1を得て第1の作成実行部45に出力する。   In this way, the first parameter setting unit 43 reads from the database C the adjustment rate γ obtained by multiplying the coefficient α read from the database A of the second database 140 and the adjustment rate γ0 read from the database B. The adjustment rate δ for each part obtained by multiplying the adjustment rate δ0 obtained in this way is acquired, and the parameter W1 is obtained by multiplying the adjustment rate γ and the adjustment rate δ by the coefficient α to obtain the first creation execution unit 45. Output.

第1の作成実行部45は、シワ成分抽出手段30により、顔画像D0の輝度成分から抽出された各シワ成分Qmに対して調整係数ρ1を乗算し、調整係数ρ1をシワ成分Qmに乗算して得た成分(調整成分)を原画像S0(顔画像D0の輝度成分)から減算して減齢画像(すなわちシワ成分が抑制された画像)S´1を得る。下記の式(6)、(7)は、認証用画像作成手段40の第1のパラメータ設定部43と第1の作成実行部45により行われる処理を示している。

Figure 0004585254
The first creation execution unit 45 multiplies each wrinkle component Qm extracted from the luminance component of the face image D0 by the adjustment coefficient ρ1 by the wrinkle component extraction unit 30, and multiplies the wrinkle component Qm by the adjustment coefficient ρ1. The component (adjustment component) obtained in this way is subtracted from the original image S0 (the luminance component of the face image D0) to obtain an aged image (that is, an image in which the wrinkle component is suppressed) S′1. The following formulas (6) and (7) indicate processing performed by the first parameter setting unit 43 and the first creation executing unit 45 of the authentication image creating unit 40.

Figure 0004585254


ρ1=β(S0)×W1 (7)
W1=α×γ×δ
但し、ρ1:調整係数
β:画素値依存係数
W1:第1のパラメータ設定部43により得られたパラメータ
α:データベースAから読み出した係数
γ:データベースBから読み出した調整率γ0を乗算して得た調整率
δ:データベースCから読み出した調整率δ0を乗算して得た調整率

前述したように、係数α、調整率γは原画像S0全体に対して同じであり、調整率δは原画像S0により表される顔の部位毎に設定されたものであるため、パラメータW1も顔の部位毎に異なるものとなっている。

ρ1 = β (S0) × W1 (7)
W1 = α × γ × δ
Where ρ1: adjustment factor
β: Pixel value dependent coefficient
W1: Parameters obtained by the first parameter setting unit 43
α: Coefficient read from database A
γ: Adjustment rate obtained by multiplying the adjustment rate γ0 read from the database B
δ: Adjustment rate obtained by multiplying the adjustment rate δ0 read from the database C

As described above, the coefficient α and the adjustment rate γ are the same for the entire original image S0, and the adjustment rate δ is set for each part of the face represented by the original image S0. It is different for each part of the face.

また、画素値依存係数βは、β(S0)となっており、原画像S0(ここでは顔画像D0の輝度成分)の画素の輝度値Y0に応じて決められたものである。具体的には、輝度値Y0が大きい画素ほど、この画素の画素値Y1を求める際に用いられる係数βの値が大きくなるものである。シワ成分抽出手段30により抽出されたシワ成分Qmには、髪の毛などの成分が含まれている場合があり、減齢画像を作成する際には、髪の毛の成分を真のシワ成分などと同じ程度に抑制(すなわち減算)することを避けることが望ましい。本実施形態においては、一般的にシワなどが生じる肌部分が明るく(すなわち輝度値が大きく)、髪の毛の部分が暗い(すなわち輝度値が小さい)ことに着目し、輝度値が大きい画素ほど値が大きくなる(逆に輝度値が小さい画素ほど値が小さくなる)係数βを用い、髪の毛の部分の減算の程度を弱く、肌部分の減算の程度を大きくすることによって、真のシワ、シミ乃至ノイズなどの成分を減算することによって抑制することができると共に、髪の毛を表す成分の抑制を弱めることを実現する。   The pixel value dependent coefficient β is β (S0), and is determined according to the luminance value Y0 of the pixel of the original image S0 (here, the luminance component of the face image D0). Specifically, the larger the luminance value Y0 is, the larger the value of the coefficient β used when obtaining the pixel value Y1 of this pixel. The wrinkle component Qm extracted by the wrinkle component extraction means 30 may contain components such as hair, and when creating an aged image, the hair component is about the same as the true wrinkle component. It is desirable to avoid suppression (ie subtraction). In the present embodiment, focusing on the fact that the skin portion where wrinkles or the like are generally generated is bright (that is, the luminance value is large) and the hair portion is dark (that is, the luminance value is small), the pixel having the larger luminance value has a value. True wrinkles, spots or noise can be obtained by increasing the degree of subtraction of the skin part by using the coefficient β that increases (conversely, the value becomes smaller as the pixel has a lower luminance value), weakens the degree of subtraction of the hair part, and increases the degree of subtraction of the skin part. It can be suppressed by subtracting the components such as, and the suppression of the component representing the hair is weakened.

次に、認証用画像作成手段40において、登録顔画像Dgに対応する第2の認証用画像S’2を作成する処理、すなわち第2のパラメータ設定部44および第2の作成実行部46による処理について説明する。   Next, in the authentication image creating means 40, a process for creating the second authentication image S′2 corresponding to the registered face image Dg, that is, a process by the second parameter setting unit 44 and the second creation executing unit 46. Will be described.

第2のパラメータ設定部44は、対象特定手段3から出力されてきた登録年齢と、第2のデータベース140に記憶された各種パラメータとを用いて、登録顔画像Dgに対応する第2の認証用画像S’2(Y1)を作成するためのパラメータW2を設定するものである。具体的には、第1のパラメータ設定部43と同じように、登録年齢から20歳という目標の年齢まで減齢させるべく、図16に示す第2のデータベース140から、登録年齢から20歳までの減齢年数N1、年齢する期間の年齢層が該当する減齢段階N2、該当する減齢段階N3に基づいて、係数α、調整率γ、調整率δを得、調整率γと調整率δとを係数αに乗算してパラメータW2を得て第2の作成実行部46に出力する。   The second parameter setting unit 44 uses the registered age output from the target specifying unit 3 and various parameters stored in the second database 140 for the second authentication corresponding to the registered face image Dg. The parameter W2 for creating the image S′2 (Y1) is set. Specifically, in the same manner as the first parameter setting unit 43, from the second database 140 shown in FIG. 16, from the registered age to 20 years old, the age is decreased from the registered age to the target age of 20 years. Based on the aging age N1, the aging stage N2 corresponding to the age group of the age period, and the corresponding aging stage N3, the coefficient α, the adjustment rate γ, the adjustment rate δ are obtained, and the adjustment rate γ and the adjustment rate δ are obtained. Is multiplied by the coefficient α to obtain the parameter W2 and output it to the second creation execution unit 46.

第2の作成実行部46は、シワ成分抽出手段30により、登録顔画像Dgの輝度成分から抽出された各シワ成分Qmに対して調整係数ρ2を乗算し、調整係数ρ2をシワ成分Qmに乗算して得た成分(調整成分)を原画像S0(登録顔画像Dgの輝度成分)から減算して減齢画像(すなわちシワ成分が抑制された画像)S´2を得る。下記の式(8)、(9)は、認証用画像作成手段40の第2のパラメータ設定部44と第2の作成実行部46により行われる処理を示している。

Figure 0004585254
The second creation execution unit 46 multiplies the wrinkle component Qm extracted from the luminance component of the registered face image Dg by the wrinkle component extraction unit 30 by the adjustment coefficient ρ2, and multiplies the wrinkle component Qm by the adjustment coefficient ρ2. The component (adjustment component) obtained in this manner is subtracted from the original image S0 (the luminance component of the registered face image Dg) to obtain an aged image (that is, an image in which the wrinkle component is suppressed) S′2. Equations (8) and (9) below show processing performed by the second parameter setting unit 44 and the second creation executing unit 46 of the authentication image creating unit 40.

Figure 0004585254


ρ2=β(S0)×W2 (9)
W2=α×γ×δ
但し、ρ2:調整係数
β:画素値依存係数
W2:第2のパラメータ設定部44により得られたパラメータ
α:データベースAから読み出した係数
γ:データベースBから読み出した調整率γ0を乗算して得た調整率
δ:データベースCから読み出した調整率δ0を乗算して得た調整率

合成手段50は、認証用画像作成手段40により顔画像D0の輝度成分から得られた第1の認証用画像S’1の画素値Y1と、YCC変換手段5により得られた顔画像D0の色差値Cb0、Cr0とを合成して顔画像D0に対応する第1の認証用画像D1を得る共に、認証用画像作成手段40により登録顔画像Dgの輝度成分から得られた第2の認証用画像S’2の画素値Y1と、YCC変換手段5により得られた登録顔画像Dgの色差値Cbg、Crgとを合成して登録顔画像Dgに対応する第2の認証用画像D2を得、この2つの認証用画像を照合部70に出力する。

ρ2 = β (S0) × W2 (9)
W2 = α × γ × δ
Where ρ2: adjustment factor
β: Pixel value dependent coefficient
W2: parameter obtained by the second parameter setting unit 44
α: Coefficient read from database A
γ: Adjustment rate obtained by multiplying the adjustment rate γ0 read from the database B
δ: Adjustment rate obtained by multiplying the adjustment rate δ0 read from the database C

The synthesizing unit 50 determines the color difference between the pixel value Y1 of the first authentication image S′1 obtained from the luminance component of the face image D0 by the authentication image creating unit 40 and the face image D0 obtained by the YCC conversion unit 5. The first authentication image D1 corresponding to the face image D0 is obtained by combining the values Cb0 and Cr0, and the second authentication image obtained from the luminance component of the registered face image Dg by the authentication image creating means 40. The second authentication image D2 corresponding to the registered face image Dg is obtained by combining the pixel value Y1 of S′2 and the color difference values Cbg and Crg of the registered face image Dg obtained by the YCC conversion means 5, Two authentication images are output to the collation unit 70.

認証部100の照合部70は、画像生成部60から(具体的には画像生成部60の合成手段50から)出力されてきた第1の認証用画像D1と第2の認証用画像D2とに対してパターンマッチング処理を行って照合し、照合結果を出力することをもって処理を終了する。   The collation unit 70 of the authentication unit 100 applies the first authentication image D1 and the second authentication image D2 output from the image generation unit 60 (specifically, from the combining unit 50 of the image generation unit 60). On the other hand, pattern matching processing is performed and collation is performed, and the processing ends when the collation result is output.

図17は、図1に示す実施形態の認証装置において行われる処理を示すフローチャートである。図示のように、本実施形態の認証装置は、撮像部1により得られた認証対象の人物の顔画像D0が取得する(S10)と、認証部100は、第1のデータベース120からこの認証対象の人物に該当する登録顔画像Dg、該登録顔画像Dgが対応する人物の登録時の年齢、登録日、該人物の性別を読み出す(S12)。そして、認証部100は、顔画像D0に対してシワ成分を抑制して第1の認証用画像D1を得ると共に、登録顔画像Dgに対してシワ成分を抑制して第2の認証用画像D2を得る(S14)。認証部100は、この2つの認証用画像に対して照合を行うことによって認証を行う(S36)。   FIG. 17 is a flowchart showing processing performed in the authentication apparatus of the embodiment shown in FIG. As illustrated, when the face image D0 of the person to be authenticated obtained by the imaging unit 1 is acquired by the authentication device of the present embodiment (S10), the authentication unit 100 reads the authentication target from the first database 120. The registered face image Dg corresponding to the person, the age at the time of registration of the person corresponding to the registered face image Dg, the registration date, and the gender of the person are read (S12). And the authentication part 100 suppresses a wrinkle component with respect to the face image D0, obtains the 1st image for authentication D1, and suppresses a wrinkle component with respect to the registration face image Dg, and 2nd image for authentication D2. Is obtained (S14). The authentication unit 100 performs authentication by collating the two authentication images (S36).

以上、本発明の望ましい実施形態について説明したが、本発明の認証方法および装置並びにそのためのプログラムは、上述した実施形態に限られることがなく、本発明の主旨を逸脱しない限り、様々な増減、変化を加えることができる。  The preferred embodiment of the present invention has been described above. However, the authentication method and apparatus of the present invention and the program therefor are not limited to the above-described embodiment, and various increases and decreases may be made without departing from the gist of the present invention. Changes can be made.

例えば、前述した実施形態の認証装置において、シワ成分の抑制を行う際に、減齢の期間の長さ、その期間の年齢層、顔における部位などに応じて抑制の強度を決めており、より適切な認証画像を取得し、認証の精度をより高めるようにしているが、特に減齢の期間など考慮せず、単純に登録顔画像と認証時の顔画像の両方に対してシワ成分を抑制してから照合を行うようにしてもよい。   For example, in the authentication device of the embodiment described above, when suppressing the wrinkle component, the intensity of the suppression is determined according to the length of the aging period, the age group of the period, the part of the face, etc. Although it is trying to obtain a proper authentication image and improve the accuracy of authentication, it does not take into account the age of aging in particular, and it simply suppresses wrinkle components for both the registered face image and the face image at the time of authentication. Then, collation may be performed.

また、シワ成分の抽出方法、シワ成分を抑制する処理の方法も、本実施形態の認証装置に用いられた方法に限らず、シワ成分を抽出するができ、シワ成分を抑制することができるいかなる方法を用いてもよい。   Further, the method for extracting the wrinkle component and the method for suppressing the wrinkle component are not limited to the method used in the authentication apparatus of the present embodiment, and any wrinkle component can be extracted and the wrinkle component can be suppressed. A method may be used.

また、帯域制限画像の作成方法も、前述した実施形態における帯域制限画像作成手段20の手法に限られるものではない。   Also, the method of creating the band limited image is not limited to the method of the band limited image creating unit 20 in the above-described embodiment.

また、前述した実施形態の認証装置において、シワ成分が主に輝度成分に存在することに着目し、シワ成分を抑制する処理を、認証時の顔画像と登録顔画像の輝度成分にのみ対して行っているが、輝度成分に加え、色差成分に対しても行うようにしてもよい。色差成分に対して行うシワ成分抑制処理が、色差成分におけるノイズ成分も抑制乃至除去することができるので、より認証の精度を高めることができる。   Further, in the authentication device of the above-described embodiment, paying attention to the fact that the wrinkle component is mainly present in the luminance component, the processing for suppressing the wrinkle component is performed only for the luminance component of the face image and the registered face image at the time of authentication. However, in addition to the luminance component, it may be performed for the color difference component. Since the wrinkle component suppression process performed on the color difference component can also suppress or remove the noise component in the color difference component, the accuracy of authentication can be further improved.

本発明の実施形態となる認証装置の構成を示すブロック図The block diagram which shows the structure of the authentication apparatus used as embodiment of this invention 図1に示す実施形態の認証装置における認証部100の構成を示すブロック図The block diagram which shows the structure of the authentication part 100 in the authentication apparatus of embodiment shown in FIG. 図2に示す認証部100における画像生成部60の構成を示すブロック図The block diagram which shows the structure of the image generation part 60 in the authentication part 100 shown in FIG. 図3に示す画像生成部60におけるボケ画像作成手段10の構成を示すブロック図FIG. 3 is a block diagram showing the configuration of the blurred image creation means 10 in the image generation unit 60 shown in FIG. 図4に示すボケ画像作成手段10におけるフィルタリング手段12が用いる1次元フィルタFの例を示す図The figure which shows the example of the one-dimensional filter F which the filtering means 12 in the blur image creation means 10 shown in FIG. 4 uses 図4に示すボケ画像作成手段10において行われる処理を示す図The figure which shows the process performed in the blur image creation means 10 shown in FIG. 図4に示すボケ画像作成手段10におけるフィルタリング手段12により作成されたフィルタリング画像Bkの周波数特性を示す図The figure which shows the frequency characteristic of the filtering image Bk produced by the filtering means 12 in the blur image creation means 10 shown in FIG. 図4に示すボケ画像作成手段10におけるフィルタリング手段12が用いる2次元フィルタの例を示す図The figure which shows the example of the two-dimensional filter used by the filtering means 12 in the blur image creation means 10 shown in FIG. 図4に示すボケ画像作成手段10における補間手段14がフィルタリング画像B1の補間に用いるフィルタF1の例を示す図The figure which shows the example of the filter F1 which the interpolation means 14 in the blur image creation means 10 shown in FIG. 4 uses for interpolation of filtering image B1 図4に示すボケ画像作成手段10における補間手段14がフィルタリング画像B2の補間に用いるフィルタF2の例を示す図The figure which shows the example of the filter F2 which the interpolation means 14 in the blur image creation means 10 shown in FIG. 4 uses for interpolation of filtering image B2 図4に示すボケ画像作成手段10により作成されたボケ画像Skの周波数特性を示す図The figure which shows the frequency characteristic of the blur image Sk created by the blur image creation means 10 shown in FIG. 図3に示す画像生成部60における帯域制限画像作成手段20により作成された帯域制限画像Tkの周波数特性を示す図The figure which shows the frequency characteristic of the band limited image Tk produced by the band limited image preparation means 20 in the image generation part 60 shown in FIG. 図3に示す画像生成部60におけるシワ成分抽出手段30が用いる非線形関数fの例を示す図The figure which shows the example of the nonlinear function f which the wrinkle component extraction means 30 in the image generation part 60 shown in FIG. 3 uses 図3に示す画像生成部60における認証用画像作成手段40の構成を示すブロック図FIG. 3 is a block diagram showing the configuration of the authentication image creation means 40 in the image generation unit 60 shown in FIG. 第1のデータベース120の内容を示す図The figure which shows the content of the 1st database 120 第2のデータベース140の内容を示す図The figure which shows the content of the 2nd database 140 図1に示す認証装置における処理を示すフローチャートThe flowchart which shows the process in the authentication apparatus shown in FIG.

符号の説明Explanation of symbols

Dg 登録顔画像
D1,D2 認証用画像
Y 輝度値
Cb,Cr 色差値
α 係数
γ0 調整率
γ 最終的な調整率
δ0 部位毎の調整率
δ 最終的な部位毎の調整率
β 画素値依存係数
ρ1,ρ2 調整係数
Dg registered face image D1, D2 authentication image Y luminance value Cb, Cr color difference value α coefficient γ0 adjustment rate γ final adjustment rate δ0 adjustment rate for each region δ final adjustment rate for each region β pixel value dependent coefficient ρ1 , Ρ2 Adjustment factor

Claims (9)

認証対象の人物の認証時における顔画像である現齢顔画像と、前記人物の所定の年齢時に登録された登録顔画像とを用いて認証を行う認証方法において、
前記現齢顔画像と前記登録顔画像とに対して夫々シワ成分抑制処理を施して夫々に対応する認証用画像を作成し、
2つの前記認証用画像を照合することによって前記認証を行うものであり、
前記シワ成分抑制処理が、
前記現齢顔画像または前記登録顔画像となる対象画像に基づいて、該対象画像の複数の周波数帯域ごとの成分を表す複数の帯域制限画像を作成し、
出力値の絶対値を入力値の絶対値以下にする処理であって、かつ絶対値が所定の閾値以下である入力値に対しては、該入力値の絶対値が大きいほど出力値の絶対値が大きくなる一方、絶対値が前記所定の閾値より大きい入力値に対しては、出力値の絶対値が前記所定の閾値に対応する出力値の絶対値以下となる非線形変換処理を各前記帯域制限画像の夫々の画素値に対して施して複数の変換画像の画素値をシワ成分として得、
所定の調整係数を前記複数の変換画像の画素値に乗算して調整成分画像の画素値を得、
該調整成分画像の画素値を、前記対象画像の画素値から減算してシワ成分を抑制する処理であることを特徴とする認証方法。
In an authentication method for performing authentication using an actual age face image that is a face image at the time of authentication of a person to be authenticated and a registered face image registered at a predetermined age of the person,
Each of the current age face image and the registered face image is subjected to a wrinkle component suppression process to create a corresponding authentication image,
The authentication is performed by comparing the two authentication images .
The wrinkle component suppression treatment is
Based on the target image to be the current face image or the registered face image, create a plurality of band limited images representing components for each of a plurality of frequency bands of the target image,
For an input value in which the absolute value of the output value is less than or equal to the absolute value of the input value and the absolute value is less than or equal to a predetermined threshold value, the absolute value of the output value increases as the absolute value of the input value increases. On the other hand, for an input value whose absolute value is larger than the predetermined threshold value, nonlinear conversion processing in which the absolute value of the output value is equal to or smaller than the absolute value of the output value corresponding to the predetermined threshold value is performed for each band limitation. Apply to each pixel value of the image to obtain the pixel values of multiple converted images as wrinkle components,
Multiplying a pixel value of the plurality of converted images by a predetermined adjustment coefficient to obtain a pixel value of the adjustment component image;
An authentication method, which is a process of suppressing a wrinkle component by subtracting a pixel value of the adjustment component image from a pixel value of the target image .
前記登録顔画像に対する前記シワ成分抑制処理の抑制強度よりも強い抑制強度で前記現齢顔画像に対して前記シワ成分抑制処理を施すことを特徴とする請求項1記載の認証方法。   The authentication method according to claim 1, wherein the wrinkle component suppression process is performed on the current face image with a suppression strength stronger than the suppression strength of the wrinkle component suppression process on the registered face image. 前記調整係数が、前記対象画像の画素値に応じて決められたものであることを特徴とする請求項1または2記載の認証方法。 The adjustment factor, authentication method according to claim 1 or 2, wherein said at one determined according to the pixel values of the target image. 認証対象の人物の認証時における顔画像である現齢顔画像と、前記人物の所定の年齢時に登録された登録顔画像とを用いて認証を行う認証装置であって、
前記現齢顔画像と前記登録顔画像とに対して夫々シワ成分抑制処理を施して夫々に対応する認証用画像を作成するシワ成分抑制手段と、
該シワ成分抑制手段により得られた2つの前記認証用画像を照合することによって前記認証を行う照合手段とを備えてなり、
前記シワ成分抑制手段が、
前記現齢顔画像または前記登録顔画像となる対象画像に基づいて、該対象画像の複数の周波数帯域ごとの成分を表す複数の帯域制限画像を作成し、
出力値の絶対値を入力値の絶対値以下にする処理であって、かつ絶対値が所定の閾値以下である入力値に対しては、該入力値の絶対値が大きいほど出力値の絶対値が大きくなる一方、絶対値が前記所定の閾値より大きい入力値に対しては、出力値の絶対値が前記所定の閾値に対応する出力値の絶対値以下となる非線形変換処理を各前記帯域制限画像の夫々の画素値に対して施して複数の変換画像の画素値をシワ成分として得、
所定の調整係数を前記複数の変換画像の画素値に乗算して調整成分画像の画素値を得、
該調整成分画像の画素値を、前記対象画像の画素値から減算してシワ成分を抑制する処理を行うものであることを特徴とする認証装置。
An authentication device that performs authentication using an actual-age face image that is a face image at the time of authentication of a person to be authenticated, and a registered face image registered at a predetermined age of the person,
A wrinkle component suppression unit that performs a wrinkle component suppression process on the current face image and the registered face image, respectively, and creates corresponding authentication images,
Collating means for performing the authentication by collating the two images for authentication obtained by the wrinkle component suppressing means ,
The wrinkle component suppressing means is
Based on the target image to be the current face image or the registered face image, create a plurality of band limited images representing components for each of a plurality of frequency bands of the target image,
For an input value in which the absolute value of the output value is less than or equal to the absolute value of the input value and the absolute value is less than or equal to a predetermined threshold value, the absolute value of the output value increases as the absolute value of the input value increases. On the other hand, for an input value whose absolute value is larger than the predetermined threshold value, nonlinear conversion processing in which the absolute value of the output value is equal to or smaller than the absolute value of the output value corresponding to the predetermined threshold value is performed for each band limitation. Apply to each pixel value of the image to obtain the pixel values of multiple converted images as wrinkle components,
Multiplying a pixel value of the plurality of converted images by a predetermined adjustment coefficient to obtain a pixel value of the adjustment component image;
An authentication apparatus , wherein the pixel value of the adjustment component image is subtracted from the pixel value of the target image to suppress a wrinkle component .
前記シワ成分抑制手段が、前記登録顔画像に対する前記シワ成分抑制処理の抑制強度よりも強い抑制強度で前記現齢顔画像に対して前記シワ成分抑制処理を施すものであることを特徴とする請求項記載の認証装置。 The wrinkle component suppression means performs the wrinkle component suppression process on the current face image with a suppression strength stronger than the suppression strength of the wrinkle component suppression processing on the registered face image. Item 5. The authentication device according to Item 4 . 前記調整係数が、前記対象画像の画素値に応じて決められたものであることを特徴とする請求項4または5記載の認証装置。 The authentication apparatus according to claim 4 or 5 , wherein the adjustment coefficient is determined according to a pixel value of the target image. 認証対象の人物の認証時における顔画像である現齢顔画像と、前記人物の所定の年齢時に登録された登録顔画像とを用いて認証を行う認証処理をコンピュータに実行させるプログラムであって、
前記認証処理が、前記現齢顔画像と前記登録顔画像とに対して夫々シワ成分抑制処理を施して夫々に対応する認証用画像を作成する処理と、
2つの前記認証用画像を照合する処理とからなり、
前記シワ成分抑制処理が、
前記現齢顔画像または前記登録顔画像となる対象画像に基づいて、該対象画像の複数の周波数帯域ごとの成分を表す複数の帯域制限画像を作成し、
出力値の絶対値を入力値の絶対値以下にする処理であって、かつ絶対値が所定の閾値以下である入力値に対しては、該入力値の絶対値が大きいほど出力値の絶対値が大きくなる一方、絶対値が前記所定の閾値より大きい入力値に対しては、出力値の絶対値が前記所定の閾値に対応する出力値の絶対値以下となる非線形変換処理を各前記帯域制限画像の夫々の画素値に対して施して複数の変換画像の画素値をシワ成分として得、
所定の調整係数を前記複数の変換画像の画素値に乗算して調整成分画像の画素値を得、
該調整成分画像の画素値を、前記対象画像の画素値から減算してシワ成分を抑制する処理であることを特徴とするプログラム。
A program for causing a computer to execute an authentication process for performing authentication using an actual face image that is a face image at the time of authentication of a person to be authenticated and a registered face image registered at a predetermined age of the person,
The authentication process performs a wrinkle component suppression process on the actual face image and the registered face image, respectively, and creates a corresponding authentication image.
Do and a process for matching two of said authentication image Ri,
The wrinkle component suppression treatment is
Based on the target image to be the current face image or the registered face image, create a plurality of band limited images representing components for each of a plurality of frequency bands of the target image,
For an input value in which the absolute value of the output value is less than or equal to the absolute value of the input value and the absolute value is less than or equal to a predetermined threshold value, the absolute value of the output value increases as the absolute value of the input value increases. On the other hand, for an input value whose absolute value is larger than the predetermined threshold value, nonlinear conversion processing in which the absolute value of the output value is equal to or smaller than the absolute value of the output value corresponding to the predetermined threshold value is performed for each band limitation. Apply to each pixel value of the image to obtain the pixel values of multiple converted images as wrinkle components,
Multiplying a pixel value of the plurality of converted images by a predetermined adjustment coefficient to obtain a pixel value of the adjustment component image;
The pixel values of the adjustment component image, the program characterized by suppressing process der Rukoto wrinkles component is subtracted from the pixel values of the target image.
前記現齢顔画像に対する前記シワ成分抑制処理の抑制強度が、前記登録顔画像に対する前記シワ成分抑制処理の抑制強度よりも強いことを特徴とする請求項記載のプログラム。 The program according to claim 7 , wherein the suppression strength of the wrinkle component suppression process for the current face image is stronger than the suppression strength of the wrinkle component suppression process for the registered face image. 前記調整係数が、前記対象画像の画素値に応じて決められたものであることを特徴とする請求項7または8記載のプログラム。 9. The program according to claim 7 , wherein the adjustment coefficient is determined according to a pixel value of the target image.
JP2004236476A 2004-08-16 2004-08-16 Authentication system Expired - Fee Related JP4585254B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004236476A JP4585254B2 (en) 2004-08-16 2004-08-16 Authentication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004236476A JP4585254B2 (en) 2004-08-16 2004-08-16 Authentication system

Publications (2)

Publication Number Publication Date
JP2006053853A JP2006053853A (en) 2006-02-23
JP4585254B2 true JP4585254B2 (en) 2010-11-24

Family

ID=36031282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004236476A Expired - Fee Related JP4585254B2 (en) 2004-08-16 2004-08-16 Authentication system

Country Status (1)

Country Link
JP (1) JP4585254B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100456326C (en) * 2006-09-22 2009-01-28 浙江大学 Image processing method for face ageing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331167A (en) * 1999-05-25 2000-11-30 Medeikku Engineering:Kk Method and device for collating facial image
JP2001118064A (en) * 1999-10-20 2001-04-27 Nippon Hoso Kyokai <Nhk> Image processor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3816151B2 (en) * 1995-09-29 2006-08-30 富士写真フイルム株式会社 Image processing method and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331167A (en) * 1999-05-25 2000-11-30 Medeikku Engineering:Kk Method and device for collating facial image
JP2001118064A (en) * 1999-10-20 2001-04-27 Nippon Hoso Kyokai <Nhk> Image processor

Also Published As

Publication number Publication date
JP2006053853A (en) 2006-02-23

Similar Documents

Publication Publication Date Title
JP4455897B2 (en) Image processing method, apparatus, and program
JP2006085678A (en) Image generation method, image generation apparatus, and image generation program
EP1612730B1 (en) Image processing device
KR101552894B1 (en) Method and apparatus for enhancing color
JP4858610B2 (en) Image processing method
JP2008234342A (en) Image processor and image processing method
US20090091643A1 (en) Image-Acquisition Apparatus
JP4097587B2 (en) Image processing apparatus and image processing method
WO2022088976A1 (en) Image processing method and device
JP2007018379A (en) Image processing method and image processing device
CN114331896A (en) Image enhancement method and system based on image decomposition and spectral transformation
JP5810384B2 (en) Face image processing system, face image processing method, and face image processing program
JP2010198382A (en) Simulation apparatus, simulation method and computer program
JP5614550B2 (en) Image processing method, image processing apparatus, and program
JP4585253B2 (en) Authentication system
JP4585254B2 (en) Authentication system
JP4274426B2 (en) Image processing method, apparatus, and program
JP4768869B1 (en) Face image processing system, face image processing method, and face image processing program
JP7437921B2 (en) Image processing device, image processing method, and program
JP2006053859A (en) Image processor, method and program
EP1775936A1 (en) Image processing device emphasizing on texture, image processing program, electronic camera, and image processing method
JP7365206B2 (en) Image processing device, image processing method, and program
JP5381354B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2007219911A (en) Method, system, and program for image processing
WO2005059833A1 (en) Brightness correction apparatus and brightness correction method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100903

R150 Certificate of patent or registration of utility model

Ref document number: 4585254

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees