JP2006085678A - Image generation method, image generation apparatus, and image generation program - Google Patents

Image generation method, image generation apparatus, and image generation program Download PDF

Info

Publication number
JP2006085678A
JP2006085678A JP2005209855A JP2005209855A JP2006085678A JP 2006085678 A JP2006085678 A JP 2006085678A JP 2005209855 A JP2005209855 A JP 2005209855A JP 2005209855 A JP2005209855 A JP 2005209855A JP 2006085678 A JP2006085678 A JP 2006085678A
Authority
JP
Japan
Prior art keywords
image
age
component
adjustment
aging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005209855A
Other languages
Japanese (ja)
Inventor
Tatsuya Aoyama
達也 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2005209855A priority Critical patent/JP2006085678A/en
Priority to US11/203,239 priority patent/US20060034542A1/en
Publication of JP2006085678A publication Critical patent/JP2006085678A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a reverse-aging image representing a skin part of a person in reverse aging by using an image of the skin part of the person at a predetermined age. <P>SOLUTION: A wrinkle component extraction means 30 of an image generation unit 60 extracts wrinkle components Qm (m=1 to n) in a plurality of frequency bands of a face image D0 of the person obtained at the time of authentication of the person. A reverse-aging image generation means 40 obtains the reverse-aging image by subtracting from the face image D0 an adjustment component obtained by multiplication of a sum of the wrinkle components by an adjustment coefficient ρ determined by pixel values of the face image D0, a reverse-aging period from the current age at the time of the authentication to the age at the time of registration to a database, an age group in the reverse-aging period, and face parts. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は人物の顔などの肌部分画像を用いて、この肌部分画像の人物の加齢後の肌部分画像および減齢時の肌部分画像を作成する画像作成方法および装置並びにそのためのプログラムに関するものである。   The present invention relates to an image creating method and apparatus for creating a skin part image after aging and a skin part image at the time of aging of a person using a skin part image such as a human face, and a program therefor. Is.

人物の顔や、首、手などの肌部分において、人物の年齢の増加に応じて増加(量の増加および/または強度の増加。以下概して増加という)するものとしては、シワ、シミなど(以下シワシミ成分という)を挙げることができる。従来、シワシミ成分と年齢の関係を利用した処理が様々提案されている。特許文献1には、顔における目周囲、額、口周囲、鼻唇溝、頬などの顔パーツ毎に、シワ有りパーツ画像とシワ無しパーツ画像を作成し、例えばシワ有り目周囲画像と、シワ無し額画像、シワ無し口周囲画像、シワ有り鼻唇溝画像、シワ有り頬画像の組合せのように、顔の各パーツに夫々シワ有りパーツ画像とシワ無しパーツ画像を適用して得た顔画像を用いて、パーツ毎においてシワ有りか否かで見た目の印象(目視年齢や魅力)に与える影響をシミュレートするシステムが提案されている。   In the human face, the skin, such as the neck, hands, etc., the wrinkles, stains, etc. (hereinafter referred to as “increased amount and / or increased intensity. A wrinkle component). Conventionally, various processes using the relationship between wrinkle components and age have been proposed. In Patent Document 1, a wrinkled part image and a wrinkle-free part image are created for each face part such as the eye circumference, forehead, mouth circumference, nose lip groove, and cheek in the face. A face image obtained by applying a wrinkle-free part image and a wrinkle-free part image to each part of the face, such as a combination of a no-frame image, a wrinkle-free mouth area image, a wrinkled nose lip image, and a wrinkled cheek image A system has been proposed for simulating the effect on the visual impression (visual age and attractiveness) depending on whether or not there are wrinkles in each part.

また、特許文献2には、年齢に応じた特徴量(例えばシワシミ、にきび、肌あれの程度)を有する顔パーツを予め用意し、これらの顔パーツを組み合わせることによって年齢に応じた顔画像を作成するシステムも提案されている。   Also, in Patent Document 2, facial parts having feature quantities (for example, wrinkles, acne, rough skin) corresponding to age are prepared in advance, and face images corresponding to age are created by combining these facial parts. A system has also been proposed.

片方、画像の認識技術の進歩に伴って、人物の顔を認識し、予め登録された顔画像と比較することによって認証を行うシステムも提案されている(例えば非特許文献1参照)。これらの認証システムは、対象人物の顔画像とデータベースに保存された顔画像とパターンマッチングを行うことによって認証を実現する。   On the other hand, with the progress of image recognition technology, a system has also been proposed that performs authentication by recognizing a person's face and comparing it with a pre-registered face image (for example, see Non-Patent Document 1). These authentication systems implement authentication by performing pattern matching between the face image of the target person and the face image stored in the database.

また、人物の顔を含む写真画像からシワやシミなどを抑制、除去する美肌処理が従来行われている。例えば、ノイズ除去に通常用いられるローパスフィルタ(LPF)を適用することによってシワシミ成分を除去する処理が行われている。しかし、LPFは、画像からシワ、シミおよびノイズ成分を抑制することができる一方、画像信号中のエッジ部分を劣化させてしまい、画像全体をぼかしてしまうという欠点がある。   In addition, a skin beautification process that suppresses and removes wrinkles and spots from a photographic image including a human face has been conventionally performed. For example, a wrinkle component is removed by applying a low pass filter (LPF) that is normally used for noise removal. However, LPF can suppress wrinkles, stains, and noise components from an image, but has a drawback of degrading an edge portion in an image signal and blurring the entire image.

また、シワや、シミなどの成分の多くが、画像の高周波数成分に小振幅の信号として存在することを利用して、画像中の小振幅の高周波ノイズ成分を分離し抑制するために考案されたε−フィルタ(ε−分離非線形デジタルフィルタ)をシワ、シミなどの除去に適用することも行われている(非特許文献2)。ε−フィルタは、画像信号中の小振幅のレベル変化のみを平坦化する特性を有しているため、ε―フィルタを用いて処理した画像は、急峻なレベル変化を有するエッジが保存され、全体のキレが殆ど損なわれない。   Also, it was devised to separate and suppress small-amplitude high-frequency noise components in the image by utilizing the fact that many components such as wrinkles and spots exist as small-amplitude signals in the high-frequency components of the image. In addition, an ε-filter (ε-separated non-linear digital filter) is also applied to remove wrinkles and spots (Non-Patent Document 2). Since the ε-filter has the property of flattening only small amplitude level changes in the image signal, the image processed using the ε-filter preserves edges with steep level changes, and The sharpness of the is almost not impaired.

ε−フィルタは、基本的に、振幅のレベルの変化量に対して非線形関数を適用して得た値を元の画像信号から減算するように作用するものである。この非線形関数は、信号の振幅が所定の閾値より大きいとき、出力を0とする関数である。この非線形関数の出力は、画像中のシワシミ成分に相当すると考えられ、すなわち、ε−フィルタを適用した場合、画像中の、振幅が前述閾値より大きい部位では、非線形関数の出力が0であり、処理後の画像においては、その部位の元の信号が保持される一方、振幅が前述閾値以下の部位では、処理後の画像においては、その部位の信号値が元の信号値から非線形関数の出力(その絶対値が0より大きい)を引いた値になる。こうすることによって、いわゆるノイズではないが、小振幅の明暗変化を呈するシワや、シミなどの部位において、明暗変化が平滑され、シワ、シミなどを目立たなくさせることができると共に、振幅の大きいエッジ部分を保持することができる。
特開2002−304619号公報 特開平6−333005号公報 「顔画像を用いた顔認識システム」,信学技報PRMU97−50,1997年6月,山口ら著 荒川ほか、「ベクトルε−フィルタによるカラー顔画像処理−皺成分の除去」1998年3月電子情報通信学会総合大会予稿集、D−11−43、PP143−
The ε-filter basically serves to subtract a value obtained by applying a nonlinear function to the amount of change in amplitude level from the original image signal. This nonlinear function is a function that sets the output to 0 when the amplitude of the signal is larger than a predetermined threshold. The output of this nonlinear function is considered to correspond to the wrinkle component in the image. That is, when the ε-filter is applied, the output of the nonlinear function is 0 at a portion in the image where the amplitude is larger than the above-mentioned threshold value. In the processed image, the original signal of the part is retained. On the other hand, in the part where the amplitude is equal to or smaller than the threshold value, in the processed image, the signal value of the part is output from the original signal value as a nonlinear function. (The absolute value is greater than 0). By doing this, although it is not so-called noise, in the wrinkles and spots such as wrinkles that show small amplitude light and dark changes, the light and dark changes are smoothed, and wrinkles and spots can be made inconspicuous, and edges with large amplitude Can hold the part.
JP 2002-304619 A JP-A-6-333005 "Face recognition system using facial images", IEICE Technical Report PRMU 97-50, June 1997, by Yamaguchi et al. Arakawa et al., "Color face image processing with vector ε-filter-Removal of flaw components" March 1998 Proceedings of the IEICE General Conference, D-11-43, PP143-

しかしながら、人間の顔は、加齢に伴ってシワシミ成分の多少、強弱などの肌状態が異なるものであるため、非特許文献1記載のような対象人物の現在の顔画像と、予め登録されたその人物の顔画像とパターンマッチングすることによって認証を行うシステムにおいては、認証時は顔画像の登録時から年数が経った場合には、認証の精度が欠如してしまうという問題がある。そのため、時期を見計らって顔画像の登録更新を行うことが考えられるが、登録人数が多くなると登録更新作業は膨大な負荷になると共に、システムが犯罪者を見付け出すことを目的とするものである場合においては登録更新作業が不可能な場合も多いため、非現実である。   However, since the human face is different in skin condition such as the strength and weakness of the wrinkle component with aging, it is registered in advance with the current face image of the target person as described in Non-Patent Document 1. In a system that performs authentication by pattern matching with a person's face image, there is a problem that the accuracy of the authentication is lost when the number of years has passed since the registration of the face image. Therefore, it is conceivable to update the registration of facial images at an appropriate time, but the registration update work becomes a huge burden when the number of registered people increases, and the system aims to find criminals. In some cases, registration update work is often impossible, which is unrealistic.

そこで、顔画像の登録更新の代わりに、例えば、特許文献2に記載の方法のように、年齢に応じた顔パーツ画像を組み合わせることによって認証時における対象人物の年齢に応じた顔画像を作成して認証に用いることが考えられる。この場合、認証時における対象人物の年齢に応じた顔パーツ画像は、上述した理由と同じように、登録によって取得することが非現実であるため、例えば年齢層が異なる多数の人物(サンプル人物という)の顔パーツ画像を予め用意し、認証時においては対象人物の顔パーツと輪郭が相似し、かつ年齢が近い顔パーツ画像を選出して対象人物の顔画像を作成することが考えられる。しかし、輪郭が相似するとは言え、対象人物本人の顔パーツの画像ではない以上は、作成した顔画像を用いた認証は、高い精度が得られず、また、同じ30歳でも、シワシミの多少、強弱が異なるので、サンプル人物の顔パーツ画像で作成した対象人物の顔画像は、対象人物の実際の顔と大きく掛離れた場合さえあり、認証の精度を一層欠けさせてしまうという問題がある。そこで、登録した対象人物の顔画像から、加齢後の本人の顔画像を作成することが期待される。   Therefore, instead of updating the registration of the face image, for example, a face image corresponding to the age of the target person at the time of authentication is created by combining face part images corresponding to the age as in the method described in Patent Document 2. Can be used for authentication. In this case, since the face part image corresponding to the age of the target person at the time of authentication is unrealistic to be acquired by registration, for the same reason as described above, for example, a large number of persons with different age groups (referred to as sample persons) ) Face parts images are prepared in advance, and at the time of authentication, it is conceivable to create face images of the target person by selecting face part images that are similar in contour to the target person's face parts and close in age. However, although the outline is similar, the authentication using the created face image is not highly accurate as long as it is not an image of the target person's face part. Since the strength is different, there is a problem that the face image of the target person created from the face part image of the sample person may be far away from the actual face of the target person, further degrading the accuracy of authentication. Therefore, it is expected that a face image of the person after aging is created from the registered target person's face image.

また、認証システムに限らず、例えば特許文献1記載のようなシミレートシステムにおいても、本人の年齢に応じた顔パーツ画像がシミュレートできることが期待される。シワシミ成分の多少、強弱は年齢によって異なるものであり、シワ有りシワ無し顔パーツのみを組み合わせる特許文献1に記載のシミュレートシステムは、顔パーツの対応する部位にシワがあるか否かの影響を確認することができるが、年齢に応じたシミュレートができない。シワ有り、シワ無し顔パーツのみならず、例えば、現在の年齢から加齢した年数に応じたシワ状態の顔パーツを作り、それらの顔パーツを組み合わせて加齢に伴う顔の印象の変化をシミュレートすることが考えられ、このようなシミュレートシステムを実現するためには、年齢に応じた顔パーツ画像の作成が必要である。   In addition, not only in the authentication system but also in a simulation system such as that described in Patent Document 1, it is expected that a facial part image corresponding to the age of the person can be simulated. The amount and strength of the wrinkle component varies depending on the age, and the simulation system described in Patent Document 1 that combines only wrinkle-free and wrinkle-free face parts has an effect on whether or not the corresponding parts of the face parts have wrinkles. Although it can be confirmed, it cannot be simulated according to age. Not only wrinkled and wrinkle-free face parts, but also, for example, create wrinkled face parts according to the age of the current age, and combine these face parts to simulate changes in facial impressions with age. In order to realize such a simulation system, it is necessary to create a face part image corresponding to the age.

本発明は、上記事情に鑑みてなされたものであり、人物の所定の年齢時の顔や、顔の一部などの画像を用いて、この所定の年齢と異なる時期の画像を作成することができる画像作成方法および装置並びにそのためのプログラムを提供することを目的とするものである。   The present invention has been made in view of the above circumstances, and it is possible to create an image at a time different from the predetermined age by using an image of a face of a person at a predetermined age or a part of the face. An object of the present invention is to provide a method and apparatus for creating an image and a program therefor.

本発明の画像処理方法は、所定の年齢の人物の肌部分の画像を現齢画像として用いて、該人物の加齢後の前記肌部分の画像となる加齢画像および/または該人物の減齢時の前記肌部分の画像となる減齢画像を作成する画像作成方法において、
年齢の増加に応じて増加する、肌状態を示し得る成分を年齢成分として前記現齢画像から抽出し、
所定の調整強度で該年齢成分を調整して調整成分を得、
前記加齢画像の作成においては該調整成分を前記現齢画像に加算し、前記減齢画像の作成においては該調整成分を前記現齢画像から減算することを特徴とするものである。
The image processing method of the present invention uses an image of a skin part of a person of a predetermined age as an actual-age image, and an aging image that becomes an image of the skin part after aging of the person and / or a reduction of the person In an image creation method for creating an aged image that becomes an image of the skin part at the time of age,
Extracting from the current age image as an age component a component capable of showing a skin condition that increases with an increase in age,
Adjusting the age component with a predetermined adjustment strength to obtain an adjustment component,
In the creation of the aging image, the adjustment component is added to the current age image, and in the creation of the age-reduced image, the adjustment component is subtracted from the current age image.

ここで、「加齢後」とは、前記所定の年齢時から時間が経った後のことを意味し、「減齢時」とは、前記「加齢後」とは逆に、前記所定の年齢時から遡った、前記所定の年齢時より前のことを意味する。   Here, “after aging” means after a lapse of time from the predetermined age, and “when aging” is contrary to the “after aging”, It means that it is earlier than the predetermined age, going back from the age.

また、「年齢の増加に応じて増加する」こととは、量の増加および/または強度の増加、すなわち増強を意味する。   Also, “increasing with increasing age” means increasing quantity and / or increasing intensity, ie enhancement.

また、前記年齢成分としては、例えばシワ成分および/またはシミ成分(以下概してシワ成分という)を挙げることができる。   Examples of the age component include a wrinkle component and / or a stain component (hereinafter generally referred to as a wrinkle component).

前記年齢成分として前記シワ成分を抽出する方法としては、例えば、前記現齢画像に基づいて、該現齢画像の複数の周波数帯域ごとの成分を表す複数の帯域制限画像を作成し、
出力値の絶対値を入力値の絶対値以下にする処理であって、かつ絶対値が所定の閾値以下である入力値に対しては、該入力値の絶対値が大きいほど出力値の絶対値が大きくなる一方、絶対値が前記所定の閾値より大きい入力値に対しては、出力値の絶対値が前記所定の閾値に対応する出力値の絶対値以下となる非線形変換処理を各前記帯域制限画像の夫々の画素値に対して施して複数の変換画像の画素値を得、
該複数の変換画像の相対応する画素の画素値を加算して得た加算画素値を前記年齢成分を表す年齢成分画像の画素値として取得するようにすることが好ましい。
As a method of extracting the wrinkle component as the age component, for example, based on the current age image, create a plurality of band limited images representing components for each of a plurality of frequency bands of the current age image,
For an input value in which the absolute value of the output value is less than or equal to the absolute value of the input value and the absolute value is less than or equal to a predetermined threshold value, the absolute value of the output value increases as the absolute value of the input value increases. On the other hand, for an input value whose absolute value is larger than the predetermined threshold value, nonlinear conversion processing in which the absolute value of the output value is equal to or smaller than the absolute value of the output value corresponding to the predetermined threshold value is performed for each band limitation. Apply to each pixel value of the image to get the pixel values of multiple converted images,
It is preferable to obtain an added pixel value obtained by adding pixel values of corresponding pixels of the plurality of converted images as a pixel value of an age component image representing the age component.

また、このように得られた前記年齢成分画像の画素値に、前記調整強度を示す調整係数を乗算して前記調整成分を表す画像の画像値を得るようにすることができる。   Further, the pixel value of the age component image thus obtained can be multiplied by an adjustment coefficient indicating the adjustment intensity to obtain an image value of the image representing the adjustment component.

この調整係数は、各画素に対して同じものを用いてもよいが、前記現齢画像の画素値に応じて決められたものであることが好ましい。   The same adjustment coefficient may be used for each pixel, but it is preferable that the adjustment coefficient is determined according to the pixel value of the current age image.

本発明の画像作成方法は、前記調整強度として、前記加齢または前記減齢の程度が大きいほど前記調整成分を大きくするものを用いるようにすれば、現齢画像から、加齢の程度または減齢の程度に応じた画像を作成することができる。ここで、加齢または減齢の程度は、加齢または減齢の期間の長さ、例えば年数とすることができる。   In the image creating method according to the present invention, if the adjustment strength is such that the adjustment component is increased as the degree of aging or aging increases, the degree of aging or reduction from the current age image is used. An image according to the age can be created. Here, the degree of aging or aging can be the length of the aging or aging period, for example, the number of years.

また、人物の肌部分におけるシワ成分などの年齢成分の変化程度は、加齢または減齢の程度、すなわち期間の長さにのみならず、加齢の期間または前記減齢の期間の年齢層によっても異なる。例えば、同じ5年間の加齢年数の場合において、20歳から25歳に加齢した場合のシワ成分の増加量を1とすると、25歳から30歳に加齢した場合、30歳から35歳に加齢した場合、35歳から40歳に加齢した場合、40歳〜45際に加齢した場合において、シワ成分の増加量は夫々1.15、1.15、1.2、1.1となるように、加齢する期間の年齢層に応じては、シワ成分の増加程度が異なるものである。減齢の場合においても同じく、25歳から20歳に減齢した場合のシワ成分の減少量を1とすると、45歳から40歳に減齢した場合、40歳から35歳に減齢した場合、35歳から30歳に減齢した場合、30歳から25歳に減齢した場合において、シワ成分の減少量は、夫々1.1、1.2.1.15、1.15となるように、減齢する期間の年齢層に応じては、シワ成分の減少量が異なるものである。本発明の画像作成方法は、このようなことを考慮し、前記調整強度としては、前記加齢または減齢の期間の長さにのみならず、前記加齢の期間または減齢の期間の年齢層にも応じて決められたものを用いることが好ましく、こうすることによってより適切な加齢画像または減齢画像を得ることができる。   In addition, the degree of change of age components such as wrinkle components in the skin portion of a person depends not only on the degree of aging or aging, that is, the length of the period, but also on the age period or the age group of the aging period. Is also different. For example, in the case of aging for the same five years, if the amount of increase in wrinkle component when aging from 20 to 25 is 1, then when aging from 25 to 30 years, from 30 to 35 years In the case of aging in the age of 35 to 40 years of age, or in the case of aging between the ages of 40 and 45, the amount of increase in the wrinkle component is 1.15, 1.15, 1.2, 1. 1, the degree of increase in the wrinkle component varies depending on the age group of the aging period. Similarly, in the case of aging, if the amount of wrinkle reduction when aging from 25 to 20 is 1, the aging from 45 to 40, the age from 40 to 35 When the age is decreased from 35 to 30 years old, and when the age is decreased from 30 to 25 years old, the amount of reduction of the wrinkle component is 1.1, 1.2.1.15 and 1.15, respectively. In addition, the amount of wrinkle reduction is different depending on the age group of the aging period. The image creating method of the present invention takes such matters into consideration, and the adjustment strength includes not only the length of the aging or aging period but also the age of the aging period or the aging period. It is preferable to use one determined according to the layer, and by doing so, a more appropriate aging image or aging image can be obtained.

さらに、人物の肌部分におけるシワ成分などの年齢成分の変化程度は、その肌部分が人物の身体における部位によって異なる。例えば、同じ加齢期間(期間の長さ、期間の年齢層)であっても、顔全体に比べ、手の部分のシワ成分の増加程度が小さい一方、手の部分に比べ、首部分のシワ成分の増加程度が小さいなどの傾向がある。また、顔において、同じ加齢期間であっても顔パーツ、例えば目尻や、額、顎などの部位によって加齢に伴うシワ成分の増加程度が異なるものである。減齢の場合においても勿論同じである。本発明の画像作成方法が、前記調整強度として、前記肌部分が前記人物の身体における部位に応じて決められたものを用いることが好ましい。   Furthermore, the degree of change in age components such as wrinkle components in a person's skin varies depending on the part of the person's body. For example, even in the same aging period (length of period, age group of period), the degree of increase in the wrinkle component of the hand part is small compared to the whole face, while the wrinkle of the neck part is smaller than that of the hand part. There is a tendency that the degree of increase in the component is small. In addition, in the face, even if the aging period is the same, the degree of increase in wrinkle components with aging differs depending on the facial parts such as the corners of the eyes, the forehead, and the jaw. Of course, the same applies to the case of aging. In the image creation method of the present invention, it is preferable that the skin strength is determined according to a part of the person's body as the adjustment strength.

本発明の画像作成装置は、所定の年齢の人物の肌部分の画像を現齢画像として用いて、該人物の加齢後の前記肌部分の画像となる加齢画像および/または該人物の減齢時の前記肌部分の画像となる減齢画像を作成する画像作成装置において、
年齢の増加に応じて増加する、肌状態を示し得る成分を年齢成分として前記現齢画像から抽出する年齢成分抽出手段と、
所定の調整強度で該年齢成分を調整して調整成分を得る調整成分取得手段と、
該調整成分を前記現齢画像に加算して前記加齢画像を取得し、該調整成分を前記現齢画像から減算して前記減齢画像を取得する画像生成手段とを有してなることを特徴とするものである。
The image creating apparatus according to the present invention uses an image of a skin part of a person of a predetermined age as an actual-age image, and an aging image that becomes an image of the skin part after aging of the person and / or a reduction of the person In an image creation device for creating an aged image that becomes an image of the skin part at the time of aging,
Age component extraction means for extracting from the current age image as an age component a component capable of showing a skin condition that increases with an increase in age;
Adjustment component acquisition means for adjusting the age component at a predetermined adjustment intensity to obtain an adjustment component;
Image adjustment means for acquiring the aging image by adding the adjustment component to the current age image, and subtracting the adjustment component from the current age image to acquire the aging image. It is a feature.

前記年齢成分は、シワ成分および/またはシミ成分(概してシワ成分という)とすることができ、このシワ成分を抽出する前記年齢成分抽出手段は、前記現齢画像に基づいて、該現齢画像の複数の周波数帯域ごとの成分を表す複数の帯域制限画像を作成し、
出力値の絶対値を入力値の絶対値以下にする処理であって、かつ絶対値が所定の閾値以下である入力値に対しては、該入力値の絶対値が大きいほど出力値の絶対値が大きくなる一方、絶対値が前記所定の閾値より大きい入力値に対しては、出力値の絶対値が前記所定の閾値に対応する出力値の絶対値以下となる非線形変換処理を各前記帯域制限画像の夫々の画素値に対して施して複数の変換画像の画素値を得、
該複数の変換画像の相対応する画素の画素値を加算して得た加算画素値を前記年齢成分を表す年齢成分画像の画素値として取得するものであることが好ましい。
The age component can be a wrinkle component and / or a wrinkle component (generally referred to as a wrinkle component), and the age component extraction means for extracting the wrinkle component is based on the current age image, Create multiple band-limited images that represent components for multiple frequency bands,
For an input value in which the absolute value of the output value is less than or equal to the absolute value of the input value and the absolute value is less than or equal to a predetermined threshold value, the absolute value of the output value increases as the absolute value of the input value increases. On the other hand, for an input value whose absolute value is larger than the predetermined threshold value, nonlinear conversion processing in which the absolute value of the output value is equal to or smaller than the absolute value of the output value corresponding to the predetermined threshold value is performed for each band limitation. Apply to each pixel value of the image to get the pixel values of multiple converted images,
It is preferable that an added pixel value obtained by adding pixel values of corresponding pixels of the plurality of converted images is acquired as a pixel value of an age component image representing the age component.

この場合、前記調整成分取得手段は、前記調整強度を示す調整係数を前記年齢成分画像の画素値に乗算して前記調整成分を表す画像の画像値を得るようにすればよい。   In this case, the adjustment component acquisition unit may multiply the pixel value of the age component image by an adjustment coefficient indicating the adjustment intensity to obtain an image value of the image representing the adjustment component.

また、前記調整係数は、前記現齢画像の画素の画素値に応じて前記画素毎に決められたものであることが好ましい。   Moreover, it is preferable that the said adjustment coefficient is determined for every said pixel according to the pixel value of the pixel of the said age image.

前記調整強度は、前記加齢または前記減齢の程度が大きいほど前記調整成分を大きくするものであることが好ましい。   It is preferable that the adjustment strength increases the adjustment component as the degree of aging or aging increases.

さらに、前記調整強度は、前記加齢の期間または前記減齢の期間の年齢層に応じて決められたものであることがより好ましい。   Furthermore, the adjustment strength is more preferably determined according to the age group of the aging period or the aging period.

前記調整強度は、前記肌部分が前記人物の身体における部位、年齢成分の度合い、現齢画像における化粧の有無もしくは加齢画像もしくは減齢画像の作成時における化粧の有無、人物の肌の色に応じて決められたものであることが一層好ましい。     The adjustment strength is determined by the skin part being the part of the person's body, the age component, the presence / absence of makeup in the current image, the presence / absence of makeup when creating an aging image or aged image, and the color of the person's skin. More preferably, it is determined accordingly.

本発明のプログラムは、本発明の画像処理方法をコンピュータに実行させるものである。   The program of the present invention causes a computer to execute the image processing method of the present invention.

本発明の画像作成方法および装置並びにそのためのプログラムは、人物の肌部分の現齢画像から、シワ成分などの年齢成分を抽出し、この年齢成分を所定の調整係数で調整して得た調整成分を、現齢画像に加算または減算することによって加齢画像または減齢画像を得るようにする。加齢画像または減齢画像は、本人の現齢画像から作成されるので、年齢成分の出方の個人差に影響されることない。   An image creation method and apparatus according to the present invention and a program therefor are an adjustment component obtained by extracting an age component such as a wrinkle component from an actual age image of a person's skin and adjusting the age component with a predetermined adjustment coefficient. Are added to or subtracted from the current age image to obtain an aging image or an aging image. Since the aging image or the aging image is created from the current age image of the person, it is not affected by individual differences in the appearance of the age component.

また、年齢成分を調整する調整の程度を、加齢または減齢の期間の長さ、加齢の期間または減齢の期間の年齢層、部位などに応じて決められたものを用いることによって、年齢相応な加齢画像または減齢画像を適切に得ることができる。   In addition, by using the degree of adjustment for adjusting the age component, the length of the aging or aging period, the age group of the aging period or the aging period, the one determined according to the site, etc., An age-appropriate aging image or aged image can be appropriately obtained.

以下、図面を参照して、本発明の実施形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施形態となる認証装置の構成を示すブロック図である。なお、本実施形態の認証装置は、補助記憶装置に読み込まれた認証処理プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、この認証処理プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。   FIG. 1 is a block diagram showing a configuration of an authentication apparatus according to an embodiment of the present invention. Note that the authentication device of the present embodiment is realized by executing an authentication processing program read into the auxiliary storage device on a computer (for example, a personal computer). The authentication processing program is stored in an information storage medium such as a CD-ROM or distributed via a network such as the Internet and installed in a computer.

また、画像データは画像を表すものであるため、以下、特に画像と画像データの区別をせずに説明を行う。   Further, since the image data represents an image, the following description will be given without particularly distinguishing the image from the image data.

図1に示すように、本実施形態の認証装置は、撮像部1と、認証部100と、第1のデータベース120と、第2のデータベース140とを有してなり、撮像部1は、認証対象の人物を撮像して顔画像D0を得るものであり、第1のデータベース120は、各々の人物の登録顔画像Dgを、登録時の年齢と対応付けて記憶してなるものであり、第2のデータベース140は、認証部100に供する各種パラメータを記憶してなるものであり、認証部100は、顔画像D0、および第1のデータベース120に記憶された登録顔画像Dg、および第2のデータベース140に記憶されたパラメータを用いて認証を行うものである。   As illustrated in FIG. 1, the authentication apparatus according to the present embodiment includes an imaging unit 1, an authentication unit 100, a first database 120, and a second database 140. The face image D0 is obtained by capturing an image of the target person, and the first database 120 stores the registered face image Dg of each person in association with the age at the time of registration. The database 140 of FIG. 2 stores various parameters provided to the authentication unit 100. The authentication unit 100 stores the face image D0, the registered face image Dg stored in the first database 120, and the second image. Authentication is performed using parameters stored in the database 140.

図2は、図1に示す実施形態の認証装置における認証部100の構成を示すブロック図であり、図示のように、認証部100は、入力部2と、画像生成部60と、照合部70とを有してなり、入力部2は、認証対象の人物に該人物を特定することが可能な情報(例えば該人物に与えられたパスワードP)を入力させるためのものであり、画像生成部60は、撮像部1により取得された人物の顔画像D0を用いて、該人物の年齢を認証時の年齢から、該人物の登録顔画像Dgの登録時の年齢に減齢させたときの顔画像(以下減齢画像という)D1を生成するものであり、照合部70は、第1のデータベース120に記憶された登録顔画像Dgと、画像生成部60により生成された減齢画像D1とを用いて照合を行うものである。   2 is a block diagram illustrating a configuration of the authentication unit 100 in the authentication apparatus according to the embodiment illustrated in FIG. 1. As illustrated, the authentication unit 100 includes the input unit 2, the image generation unit 60, and the verification unit 70. The input unit 2 is for causing the person to be authenticated to input information that can identify the person (for example, the password P given to the person). 60 is a face when the age of the person is reduced from the age at the time of authentication to the age at the time of registration of the registered face image Dg of the person using the face image D0 of the person acquired by the imaging unit 1 An image (hereinafter referred to as an aged image) D1 is generated, and the collation unit 70 uses the registered face image Dg stored in the first database 120 and the aged image D1 generated by the image generation unit 60. Is used for verification.

図3は、図2に示す認証部100における画像生成部60の構成を示すブロック図であり、図示のように、画像生成部60は、対象特定手段3と、YCC変換手段5と、ボケ画像作成手段10と、帯域制限画像作成手段20と、シワシミ成分(以下概してシワ成分という)を抽出するシワ成分抽出手段30と、減齢画像作成手段40と、合成手段50とを備えてなるものである。   3 is a block diagram illustrating a configuration of the image generation unit 60 in the authentication unit 100 illustrated in FIG. 2. As illustrated, the image generation unit 60 includes the target specifying unit 3, the YCC conversion unit 5, and the blurred image. A creation means 10, a band-limited image creation means 20, a wrinkle component extraction means 30 for extracting a wrinkle component (hereinafter generally referred to as a wrinkle component), an aged image creation means 40, and a synthesis means 50 are provided. is there.

ボケ画像作成手段10は、原画像S0の互いに周波数応答特性が異なる複数のボケ画像S1、S2、・・・Sn(n:2以上の整数)を作成するものであり、帯域制限画像作成手段20は、原画像S0およびボケ画像S1、S2、・・・Snを用いて複数の帯域制限画像T1、T2、・・・Tnを作成するものであり、シワ成分抽出手段30は、帯域制限画像T1、T2、・・・Tnに対して非線形変換処理を夫々施して各帯域制限画像が対応する周波数帯域におけるシワ成分Q1、Q2、・・・Qnを抽出するものであり、減齢画像作成手段40は、原画像S0およびシワ成分Q1、Q2、・・・Qnを用いて原画像S0の減齢画像S’1を作成するものである。これらの手段が輝度空間において処理を行うものであるため、YCC変換手段5は、撮像部1により得られた顔画像D0(R0,G0,B0)に対してYCC変換を行って顔画像D0の輝度Y0(これらの輝度成分Y0により前述した原画像S0が構成される)、色差Cb0、Cr0を得るものであり、合成手段50は、減齢画像作成手段40により得られた減齢画像S´1の画素値Y1、およびYCC変換手段5により得られた色差Cb0、Cr0とから構成される画像を合成して減齢画像D1(Y1,Cb0,Cr0)を得るものである。ここで、画像生成部60の各構成の詳細について説明する。   The blurred image creating means 10 creates a plurality of blurred images S1, S2,... Sn (n: integer greater than or equal to 2) of the original image S0 having different frequency response characteristics. Is to create a plurality of band limited images T1, T2,... Tn using the original image S0 and the blurred images S1, S2,. , T2,... Tn are each subjected to non-linear transformation processing to extract wrinkle components Q1, Q2,... Qn in the frequency band corresponding to each band-limited image. Is used to create an aged image S′1 of the original image S0 using the original image S0 and the wrinkle components Q1, Q2,. Since these means perform processing in the luminance space, the YCC conversion means 5 performs YCC conversion on the face image D0 (R0, G0, B0) obtained by the imaging unit 1 to generate the face image D0. The luminance Y0 (the original image S0 described above is constituted by these luminance components Y0) and the color differences Cb0 and Cr0 are obtained, and the synthesizing means 50 is the aging image S ′ obtained by the aging image creating means 40. An aged image D1 (Y1, Cb0, Cr0) is obtained by synthesizing an image composed of the pixel value Y1 of 1 and the color differences Cb0 and Cr0 obtained by the YCC conversion means 5. Here, the detail of each structure of the image generation part 60 is demonstrated.

YCC変換手段5は、下記の式(1)に従って、顔画像D0のR、G、B値を輝度値Y、色差値Cb、Crに変換する。   The YCC conversion means 5 converts the R, G, and B values of the face image D0 into the luminance value Y and the color difference values Cb and Cr according to the following equation (1).


Y=0.2990×R+0.5870×G+0.1140×B
Cb=−0.1687×R−0.3313×G+0.5000×B+128 (1)
Cr=0.5000×R−0.4187×G−0.0813×B+128

ボケ画像作成手段10は、YCC変換手段5により得られた輝度値Y0を用いて、複数のボケ画像を作成する。図4は、ボケ画像作成手段10の構成を示すブロック図である。図示のように、ボケ画像作成手段10は、フィルタリング処理を行った後に間引き処理を行ったフィルタリング画像B1、B2、・・・Bnを得るフィルタリング手段12と、各フィルタリング画像に対して補間処理を行う補間手段14と、フィルタリング手段12および補間手段14を制御する制御手段16とを有してなるものである。フィルタリング手段12は、ローパスフィルタを用いてフィルタリング処理を行うものであり、このローパスフィルタとしては、例えば図5に示すような5×1のグリッド状の1次元ガウス分布に略対応したフィルタFを用いることができる。このフィルタFは下記の式(2)において、σ=1としたものである。

Figure 2006085678

Y = 0.2990 × R + 0.5870 × G + 0.1140 × B
Cb = −0.1687 × R−0.3313 × G + 0.5000 × B + 128 (1)
Cr = 0.5000 × R−0.4187 × G−0.0813 × B + 128

The blur image creation unit 10 creates a plurality of blur images using the luminance value Y0 obtained by the YCC conversion unit 5. FIG. 4 is a block diagram illustrating a configuration of the blurred image creation unit 10. As shown in the figure, the blurred image creation means 10 performs filtering processing 12 that obtains filtered images B1, B2,... Bn obtained by performing thinning processing after performing filtering processing, and performs interpolation processing on each filtering image. The interpolation means 14 and the control means 16 for controlling the filtering means 12 and the interpolation means 14 are provided. The filtering means 12 performs a filtering process using a low-pass filter. As this low-pass filter, for example, a filter F substantially corresponding to a 5 × 1 grid-like one-dimensional Gaussian distribution as shown in FIG. 5 is used. be able to. This filter F has σ = 1 in the following equation (2).

Figure 2006085678

フィルタリング手段12は、このようなフィルタFを用いて処理対象となる画像に対して画素のx方向およびy方向に対してフィルタリング処理と1/2間引き処理を施すことにより処理対象の画像の全体のフィルタリング処理を行う。   The filtering unit 12 performs the filtering process and the half-thinning process on the image in the x direction and the y direction with respect to the image to be processed using such a filter F, so that the entire image to be processed is processed. Perform filtering processing.

図6は、ボケ画像作成手段10の制御手段16が、フィルタリング手段12と補間手段14に行わせる処理の詳細を示している。図示のように、フィルタリング手段12は、まず、原画像S0(Y0)に対して、図5に示すフィルタFを用いて1画素おきにフィルタリング処理を行い、その後フィルタリング処理されていない画素を間引く。この処理によってフィルタリング画像B1(Y1)が得られる。フィルタリング画像B1のサイズは、原画像S0のサイズの1/4(x方向、y方向に夫々1/2)となっている。次いで、フィルタリング手段12は、フィルタリング画像B1(Y1)に対しても1画素おきにフィルタFによるフィルタリング処理と、間引き処理を施し、フィルタリング画像B2(Y2)を得る。フィルタリング手段12は、このようなフィルタFによるフィルタリング処理と1/2間引き処理を繰り返し、n個のフィルタリング画像Bk(k=1〜n)を得る。フィルタリング画像Bkのサイズは、原画像S0のサイズの1/22Kとなっている。図7は、例としてn=3としたときに、フィルタリング手段12により得られた各フィルタリング画像Bkの周波数特性を示している。図示のように、フィルタリング画像Bkのレスポンスはkが大きいほど高周波成分が除去されたものとなっている。 FIG. 6 shows details of processing that the control unit 16 of the blurred image creation unit 10 causes the filtering unit 12 and the interpolation unit 14 to perform. As shown in the figure, the filtering means 12 first performs a filtering process on the original image S0 (Y0) every other pixel using the filter F shown in FIG. 5, and then thins out pixels that have not been subjected to the filtering process. By this processing, a filtered image B1 (Y1) is obtained. The size of the filtering image B1 is 1/4 of the size of the original image S0 (1/2 in the x direction and y direction, respectively). Next, the filtering unit 12 also performs filtering processing by the filter F and thinning processing every other pixel on the filtering image B1 (Y1) to obtain a filtering image B2 (Y2). The filtering unit 12 repeats the filtering process by the filter F and the 1/2 thinning process to obtain n filtered images Bk (k = 1 to n). The size of the filtering image Bk has become a 1/2 2K of the size of the original image S0. FIG. 7 shows the frequency characteristics of each filtered image Bk obtained by the filtering means 12 when n = 3 as an example. As shown in the figure, the response of the filtered image Bk is such that the higher the k, the higher the frequency component is removed.

なお、本実施形態において、フィルタリング手段12は、図5に示すフィルタFにより画像のx方向およびy方向に対してフィルタリング処理を施すようにしているが、図8に示すような5×5の2次元フィルタにより原画像S0およびフィルタリング画像Bkに対して一度にフィルタリング処理を施すようにしてもよい。   In the present embodiment, the filtering unit 12 performs the filtering process on the x direction and the y direction of the image by the filter F shown in FIG. 5, but the 5 × 5 2 as shown in FIG. 8. A filtering process may be performed on the original image S0 and the filtering image Bk at once by a dimension filter.

補間手段14は、フィルタリング手段12により得られた各フィルタリング画像Bkに対して補間処理を行って、夫々のフィルタリング画像Bkのサイズを原画像S0と同じようにする。補間処理の方法は、Bスプラインによる方法など種々挙げられるが、本実施形態においては、フィルタリング手段12は、ローパスフィルタとしてガウス信号に基づくフィルタFを用いているため、補間手段14は、補間処理の補間演算を行うための補間係数としてもガウス信号を用いるものであり、この補間係数は、下記の式(3)において、σ=2K−1と近似したものである。

Figure 2006085678
The interpolation unit 14 performs an interpolation process on each filtering image Bk obtained by the filtering unit 12 so that the size of each filtering image Bk is the same as that of the original image S0. There are various interpolation processing methods such as a B-spline method. In this embodiment, the filtering unit 12 uses a filter F based on a Gaussian signal as a low-pass filter. A Gaussian signal is also used as an interpolation coefficient for performing the interpolation calculation, and this interpolation coefficient is approximated to σ = 2 K−1 in the following equation (3).

Figure 2006085678


フィルタリング画像B1を補間する際に、k=1であるため、σ=1となる。上記式(3)においてσ=1としたときの補間を行うためのフィルタは、図9に示すような5×1の1次元フィルタF1となる。補間手段14は、まず、フィルタリング画像B1に対して1画素おきに値が0の画素を1ずつ挿入することによりフィルタリング画像B1を原画像S0と同じサイズに拡大し、次いで拡大された画像に対して図9に示すフィルタF1によりフィルタリング処理を施してボケ画像S1を得る。このボケ画像S1は、原画像S0と同じ画素数、すなわち原画像S0と同じサイズを有する。

When interpolating the filtering image B1, since k = 1, σ = 1. The filter for performing interpolation when σ = 1 in the above equation (3) is a 5 × 1 one-dimensional filter F1 as shown in FIG. The interpolation means 14 first expands the filtering image B1 to the same size as the original image S0 by inserting one pixel at a time every other pixel into the filtering image B1 to the same size as the original image S0. Then, a filtering process is performed by the filter F1 shown in FIG. 9 to obtain a blurred image S1. The blurred image S1 has the same number of pixels as the original image S0, that is, the same size as the original image S0.

ここで、図9に示すフィルタF1は5×1のフィルタであるが、フィルタF1を適用する前にフィルタリング画像B1に対して1画素おきに値が0である画素を挿入しているので、補間手段14による補間処理は、実質的には2×1のフィルタ(0.5,0.5)および3×1のフィルタ(0.1,0.8,0.1)の2種類のフィルタによるフィルタ処理と等価である。   Here, the filter F1 shown in FIG. 9 is a 5 × 1 filter. However, before applying the filter F1, pixels having a value of 0 are inserted into the filtered image B1 every other pixel. The interpolation processing by the means 14 is substantially performed by two types of filters: a 2 × 1 filter (0.5, 0.5) and a 3 × 1 filter (0.1, 0.8, 0.1). Equivalent to filtering.

補間手段14は、フィルタリング画像B2に対して補間を行う際に、k=2であるため、σ=2である。上記の式(3)において、σ=2に対応するフィルタは、図10に示す11×1の1次元フィルタF2となる。補間手段14は、まず、フィルタリング画像B2に対して1画素おきに値が0である画素を3つずつ挿入することによりフィルタリング画像B2を原画像S0と同じサイズに拡大し、次いで拡大された画像に対して図10に示すフィルタF2によりフィルタリング処理を施してボケ画像S2を得る。ボケ画像S2は、原画像S0と同じ画素数、すなわち原画像S0と同じサイズを有する。   When the interpolation means 14 performs interpolation on the filtered image B2, k = 2, so σ = 2. In the above equation (3), the filter corresponding to σ = 2 is an 11 × 1 one-dimensional filter F2 shown in FIG. The interpolation unit 14 first expands the filtering image B2 to the same size as the original image S0 by inserting three pixels each having a value of 0 every other pixel into the filtering image B2, and then expands the filtered image B2. Is subjected to a filtering process by a filter F2 shown in FIG. 10 to obtain a blurred image S2. The blurred image S2 has the same number of pixels as the original image S0, that is, the same size as the original image S0.

同じように、図10に示すフィルタF2は11×1のフィルタであるが、フィルタF2を適用する前にフィルタリング画像B2に対して1画素おきに値が0である画素を3つずつ挿入しているので、補間手段14による補間処理は、実質的には2×1のフィルタ(0.5,0.5)および3×1のフィルタ(0.3,0.65,0.05)、(0.3,0.74,0.13)、(0.05,0.65,0.3)の4種類のフィルタによるフィルタ処理と等価である。   Similarly, the filter F2 shown in FIG. 10 is an 11 × 1 filter, but before applying the filter F2, three pixels each having a value of 0 are inserted into the filtered image B2 every three pixels. Therefore, the interpolation processing by the interpolation means 14 is substantially performed by a 2 × 1 filter (0.5, 0.5) and a 3 × 1 filter (0.3, 0.65, 0.05), ( This is equivalent to filter processing using four types of filters (0.3, 0.74, 0.13) and (0.05, 0.65, 0.3).

補間手段14は、このように各フィルタリング画像Bkに対して夫々、1画素おきに値が0である画素を(2−1)個ずつ挿入することにより、フィルタリング画像Bkを原画像S0と同じサイズに拡大し、そして値が0である画素が補間されたフィルタリング画像Bkに対して、上記の式(3)に基づいて作成された長さが(3×2−1)であるフィルタによるフィルタリング処理を施してボケ画像Skを得る。 Thus, the interpolation unit 14 inserts (2 K −1) pixels each having a value of 0 every other pixel into each filtering image Bk, thereby making the filtering image Bk the same as the original image S0. For a filtered image Bk that is enlarged to size and interpolated with pixels having a value of 0, the length created based on the above equation (3) is (3 × 2 K −1). A blurred image Sk is obtained by performing a filtering process.

図11は、例としてn=3としたときに、ボケ画像作成手段10により得られた各ボケ画像Skの周波数特性を示している。図示のように、ボケ画像Skは、kが大きいほど、原画像S0の高周波成分が除去されたものとなっている。   FIG. 11 shows the frequency characteristics of each blurred image Sk obtained by the blurred image creation means 10 when n = 3 as an example. As shown in the figure, the blurred image Sk is such that the higher the k, the higher frequency components of the original image S0 are removed.

帯域制限画像作成手段20は、ボケ画像作成手段10により得られた各ボケ画像S1,S2,・・・Snを用いて、下記の式(4)に従って原画像S0の複数の周波数帯域毎の成分を表す帯域制限画像T1,T2,・・・Tnを作成する。   The band-limited image creating means 20 uses the blurred images S1, S2,... Sn obtained by the blurred image creating means 10 and components for each of a plurality of frequency bands of the original image S0 according to the following equation (4). .., Tn are generated.


Tm=S(m−1)−Sm (4)
但し,m:1以上n以下の整数

図12は、例としてn=3としたときに、帯域制限画像作成手段20により得られた各帯域制限画像Tmの周波数特性を示している。図示のように、帯域制限画像Tmは、mが大きいほど、原画像S0の低周波数領域における成分を表すものとなっている。

Tm = S (m−1) −Sm (4)
Where m is an integer between 1 and n

FIG. 12 shows the frequency characteristics of each band limited image Tm obtained by the band limited image creating means 20 when n = 3 as an example. As illustrated, the band limited image Tm represents a component in the low frequency region of the original image S0 as m increases.

シワ成分抽出手段30は、帯域制限画像作成手段20により得られた各帯域制限画像Tm(m=1〜n)に対して非線形変換を行って夫々の帯域制限画像Tmが対応する周波数帯域におけるシワ、シミ、ノイズなどの成分(以下総してシワ成分という)Q1,Q2,・・・,Qnを抽出するものである。この非線形変換は、出力値を入力値以下にする処理であって、かつ所定の閾値以下の入力値に対しては、該入力値が大きいほど出力値が大きくなる一方、前記所定の閾値より大きい入力値に対しては、出力値が前記所定の閾値に対応する出力値以下となる処理であって、本実施形態においては、図13に示すような関数fにより行われるものである。なお、図中破線は、出力値=入力値、すなわち傾きが1となる関数を示すものである。図示のように、本実施形態のシワ成分抽出手段30に用いられる非線形変換の関数fは、入力値の絶対値が第1の閾値Th1より小さいときは傾きが1であり、入力値の絶対値が第1の閾値以上かつ第2の閾値Th2以下であるときは傾きが1より小さくなり、入力値の絶対値が第2の閾値Th2より大きいときは、出力値がその絶対値が入力値の絶対値より小さい一定の値Mとなる関数である。なお、この関数fは、各帯域制限画像に対して同じものであってもよいが、各帯域制限画像に対して異なるものであってもよい。   The wrinkle component extraction unit 30 performs non-linear transformation on each band limited image Tm (m = 1 to n) obtained by the band limited image creating unit 20 to generate wrinkles in the frequency band corresponding to each band limited image Tm. , Spots, noise, and the like (hereinafter collectively referred to as wrinkle components) Q1, Q2,..., Qn. This non-linear transformation is a process of making the output value equal to or less than the input value, and for an input value less than or equal to a predetermined threshold value, the larger the input value, the larger the output value, but greater than the predetermined threshold value. For the input value, the output value is equal to or less than the output value corresponding to the predetermined threshold value. In this embodiment, the process is performed by a function f as shown in FIG. In the figure, the broken line indicates a function in which the output value = the input value, that is, the slope is 1. As shown in the figure, the nonlinear transformation function f used in the wrinkle component extraction unit 30 of the present embodiment has a slope of 1 when the absolute value of the input value is smaller than the first threshold Th1, and the absolute value of the input value. Is greater than or equal to the first threshold and less than or equal to the second threshold Th2, the slope is less than 1, and when the absolute value of the input value is greater than the second threshold Th2, the output value is the absolute value of the input value. This is a function having a constant value M smaller than the absolute value. The function f may be the same for each band limited image, but may be different for each band limited image.

シワ成分抽出手段30は、各帯域制限画像の輝度値を入力値とし、図13に示す非線形変換の関数fを用いて各帯域制限画像に対して非線形変換を行って、出力値の輝度値により構成された、各帯域制限画像が対応する周波数帯域におけるシワ成分Qm(m=1〜n)を抽出して減齢画像作成手段40に出力する。   The wrinkle component extraction unit 30 uses the luminance value of each band limited image as an input value, performs nonlinear conversion on each band limited image using the nonlinear conversion function f shown in FIG. The configured wrinkle component Qm (m = 1 to n) in the frequency band corresponding to each band limited image is extracted and output to the aged image creating means 40.

一方、対象特定手段3は、認証部100の入力部2を介して入力されたパスワードPに基づいて第1のデータベース120(第1のデータベース120の詳細については後述する)から、該パスワードPに対応して記憶された登録顔画像Dgおよび該登録顔画像Dgが対応する人物の登録時の年齢、登録日、該人物の性別を読み出すと共に、登録顔画像Dgを認証部100の照合部70に出力する一方、該登録顔画像Dgが対応する人物の登録時の年齢(登録年齢という)、該人物の性別、登録日を示す情報を減齢画像作成手段40に出力する。   On the other hand, the object specifying means 3 changes the password P from the first database 120 (details of the first database 120 will be described later) based on the password P input via the input unit 2 of the authentication unit 100. The registered face image Dg stored correspondingly, the age at the time of registration of the person corresponding to the registered face image Dg, the date of registration, and the gender of the person are read out, and the registered face image Dg is read to the verification unit 70 of the authentication unit 100. On the other hand, information indicating the age at which the person corresponding to the registered face image Dg is registered (referred to as registered age), the gender of the person, and the registration date is output to the aged image creating means 40.

図15は、第1のデータベース120におけるデータの内容を示している、図示のように、第1のデータベース120において、人物の氏名、パスワード、性別、登録顔画像Dg、登録時の年齢、登録日は対応付けて記憶されている。対象特定手段3は、入力部2を介して入力された認証対象の人物のパスワードPに基づいて、登録顔画像Dgおよびその他のデータを読み出すようになっている。   FIG. 15 shows the contents of data in the first database 120. As shown in the figure, in the first database 120, the person's name, password, gender, registered face image Dg, age at registration, registration date Are stored in association with each other. The target specifying unit 3 reads the registered face image Dg and other data based on the password P of the person to be authenticated input via the input unit 2.

減齢画像作成手段40は、YCC変換手段5により得られた原画像S0と、シワ成分抽出手段30により得られた原画像S0におけるシワ成分Q1,Q2,・・・,Qnと、第2のデータベース140に記憶された各種パラメータとを用いて、原画像S0の減齢画像S’1(Y1)を作成するものであり、図14は、その構成を示している。図示のように、減齢画像作成手段40は、現年齢算出部42と、パラメータ設定部44と、作成実行部46とを有してなるものである。   The aged image creation means 40 includes an original image S0 obtained by the YCC conversion means 5, wrinkle components Q1, Q2,..., Qn in the original image S0 obtained by the wrinkle component extraction means 30, and a second A variety of parameters stored in the database 140 are used to create an aged image S′1 (Y1) of the original image S0, and FIG. 14 shows its configuration. As shown in the figure, the aged image creation means 40 includes a current age calculation unit 42, a parameter setting unit 44, and a creation execution unit 46.

現年齢算出部42は、対象特定手段3から出力されてきた登録年齢と、認証時の日付とに基づいて認証対象の人物の現在の年齢(以下現年齢という)を算出してパラメータ設定部44に出力するものである。   The current age calculation unit 42 calculates the current age (hereinafter referred to as the current age) of the person to be authenticated based on the registered age output from the target specifying unit 3 and the date at the time of authentication, and the parameter setting unit 44. Is output.

パラメータ設定部44は、現年齢算出部42により算出された認証対象の人物の現年齢と、この人物の登録年齢と、第2のデータベース140に記憶された各種パラメータとを用いて、減齢画像S’1(Y1)を作成するためのパラメータWを設定するものであり、ここで、図16に示す第2のデータベース140を参照しながら、パラメータ設定部44による処理について説明する。   The parameter setting unit 44 uses the current age of the person to be authenticated calculated by the current age calculation unit 42, the registered age of the person, and various parameters stored in the second database 140, so that the aging image The parameter W for creating S′1 (Y1) is set. Here, the processing by the parameter setting unit 44 will be described with reference to the second database 140 shown in FIG.

図16に示すように、第2のデータベース140は、さらに3種類のデータベースA、データベースB、データベースCから構成されている。   As shown in FIG. 16, the second database 140 is further composed of three types of database A, database B, and database C.

データベースAは、現年齢と登録年齢との差、すなわち現年齢からの減齢年数N1と、この減齢年数N1に応じた係数αとを対応付けて記憶してなるものであり、係数αは、減齢年数N1が長いほど大きくなるものであり、図示の例では、5年以下、5年より長く10年以下、10年より長く15年以下、15より長く20年以下、・・・の減齢年数N1に対して、夫々0.1、0.2、0.5、0.6、・・・となっている。パラメータ設定部44は、まず、現年齢算出部42により算出された現年齢と、対象特定手段3から出力されてきた登録年齢とに基づいて減齢年数N1を算出し、算出された減齢年数N1に対応する係数αをデータベースAから読み出す。   The database A stores the difference between the current age and the registered age, that is, the age N1 from the current age in association with the coefficient α corresponding to the age N1, and the coefficient α is In the example shown in the figure, the age of aging N1 is longer, and in the example shown in the drawing, 5 years or less, 5 years to 10 years or less, 10 years to 15 years or less, 15 to 20 years or less. It becomes 0.1, 0.2, 0.5, 0.6,. The parameter setting unit 44 first calculates the age of aging N1 based on the current age calculated by the current age calculating unit 42 and the registered age output from the target specifying means 3, and calculates the calculated age of aging. The coefficient α corresponding to N1 is read from the database A.

データベースBは、減齢する期間の年齢層(減齢年齢層)の各段階(以下減齢段階という)N2と、この減齢段階N2に応じた調整率γ0とを対応付けて記憶してなるものである。前述したように、人物のシワの変化(増加または減少。また、この「減少」も増加と同じように、量の減少と強度の減少の両方の意味を含むものである)態様は、加齢の期間または減齢の期間の年齢層によって異なるものである。本実施形態における第2のデータベース140のデータベースBは、このようなことを考慮し、減齢の期間を複数の減齢段階N2に分け、各減齢段階N2毎に調整率γ0を作成したものである。図示の例では、データベースBには、45歳から40歳、40歳から35歳、35歳から30歳、30歳から25歳の減齢段階、25歳から20歳の各減齢段階N2と、調整率γ0が夫々対応して記憶されている。パラメータ設定部44は、まず、登録年齢および現年齢に基づいて、該当する減齢年齢層の各段階N2の調整率γ0(1)、γ(2)、・・・を読み出す。具体的には、例えば、登録年齢が21歳となる人物の認証時の現年齢が25歳である場合、図16に示されるデータベースBの例では、減齢期間の年齢層が25歳〜20歳の減齢段階N2のみに該当するため、該当する減齢段階N2に対応した調整率γ0(1)として「1」のみが読み出される。一方、登録年齢が31歳となる人物の現年齢が44歳である場合には、減齢期間の年齢層が45歳〜40歳、40歳〜35歳、35歳〜30歳の3つの減齢段階N2に該当するため、該当する夫々の減齢段階N2に対応した調整率γ0(1)、調整率γ0(2)、調整率γ0(3)として「1.1」、「1.2」、「1.15」の3つが読み出される。   The database B stores each stage (hereinafter referred to as the aging stage) N2 of the age group (aged age group) of the aging period in association with the adjustment rate γ0 corresponding to the aging stage N2. Is. As described above, the change of the person's wrinkle (increase or decrease. This “decrease” includes the meaning of both decrease in quantity and decrease in intensity as well as increase). Or, it depends on the age group of the aging period. In consideration of this, the database B of the second database 140 in the present embodiment divides the period of aging into a plurality of aging stages N2, and creates an adjustment rate γ0 for each aging stage N2. It is. In the example shown in the figure, the database B includes 45 to 40 years old, 40 to 35 years old, 35 to 30 years old, 30 to 25 years old age stages, 25 to 20 years old age stages N2 and The adjustment rate γ0 is stored correspondingly. First, the parameter setting unit 44 reads out the adjustment rates γ0 (1), γ (2),... At each stage N2 of the corresponding age group based on the registered age and the current age. Specifically, for example, when the current age at the time of authentication of a person whose registered age is 21 years old is 25 years old, in the example of the database B shown in FIG. Since only the age-declining stage N2 is applicable, only “1” is read as the adjustment rate γ0 (1) corresponding to the corresponding aging stage N2. On the other hand, when the current age of a person whose registered age is 31 years old is 44 years old, the age group of the age-reduced period is reduced by three from 45 to 40 years old, 40 to 35 years old, and 35 to 30 years old. Since it corresponds to the age stage N2, the adjustment rate γ0 (1), the adjustment rate γ0 (2), and the adjustment rate γ0 (3) corresponding to each corresponding aging stage N2 are “1.1”, “1.2”. ”And“ 1.15 ”are read out.

パラメータ設定部44は、下記の式(5)に従って、読み出した各々の調整率γ0を用いて最終的な調整率γを算出する。   The parameter setting unit 44 calculates a final adjustment rate γ using each read adjustment rate γ0 according to the following equation (5).


γ=γ0(1)×γ0(2)×・・・γ0(k) (5)
γ0:調整率
γ:最終的な調整率
k:読み出した調整率γ0の個数

データベースCは、減齢段階N3と、該減齢段階N3に応じて、顔の部位毎の調整率δ0とを対応付けて記憶してなるものである。人間の顔は、目尻や、額、顎などの部位によって加齢に伴うシワ成分の増加程度が異なり、例えば、30歳〜40歳の期間において額部位におけるシワ成分が大きく増加する傾向があり、40歳以降は顎、目尻部位におけるシワ成分が大きく増加する傾向がある。データベースCは、このような傾向を反映させるべく、部位および減齢段階N3に応じて、係数αを調整するための調整率δ0を顔の部位毎に提供するものである。パラメータ設定部44は、現年齢と、登録年齢との間となる減齢期間の年齢層が、データベースCに示す減齢段階N3に該当するか否かを確認し、該当するのがあれば、該当する全ての減齢段階N3に対応する調整率δ0を夫々読み出して、それらを乗算することによって最終的な調整率δを得る一方、該当するのがなければ調整率δを1として取得する処理を各部位に対して決定する。例えば、登録年齢が20歳である人物の現年齢が30歳である場合、減齢年齢層が図16に示すデータベースCの減齢段階N3のいずれの減齢段階N3にも該当しないため、各部位の調整率δが1とされる。一方、登録年齢が31歳である人物の現年齢が45歳である場合には、減齢期間の年齢層が、〜40歳、40歳〜30歳の2つの減齢段階N3に該当するため、額部位に対しては夫々の減齢段階N3に対応する調整率δ0:「1」、「1.2」が読み出され、額部位の最終的な調整率δとして1×1.2の「1.2」が取得される。また、顎部位に対しては夫々の減齢段階N3に対応する調整率δ0:「1.2」、「1」が読み出され、顎部位の最終的な調整率δとして1.2×1の「1.2」が取得される。さらに、目尻部位に対しても夫々の減齢段階N3に対応する調整率δ0:「1.2」、「1」読み出され、目尻部位の最終的な調整率δとして1.2×1の「1.2」が取得される。他の各部位に対しては、最終的な調整率δとして「1」が設定される。また例えば登録年齢が31歳である人物の現年齢が39歳である場合には、減齢年齢層が、40歳〜30歳の1つの減齢段階N3に該当するため、額部位に対してはその減齢段階N3に対応する調整率δ0:「1.2」が読み出され額部位の最終的な調整率δとされ、顎部位と目尻部位に対してはその減齢段階N3に対応する調整率δ0:「1」読み出され夫々の最終的な調整率δとされると共に、他の各部位に対しては、最終的な調整率δとして「1」が設定される。

γ = γ0 (1) × γ0 (2) ×... γ0 (k) (5)
γ0: Adjustment rate γ: Final adjustment rate k: Number of read adjustment rates γ0

The database C stores the aging stage N3 and the adjustment rate δ0 for each facial part in association with the aging stage N3. The human face has different wrinkle component increases with age depending on the area of the corner of the eye, forehead, jaw, etc., for example, the wrinkle component in the forehead region tends to increase greatly during the period of 30 to 40 years old, After 40 years of age, wrinkle components in the chin and the corners of the eyes tend to increase greatly. In order to reflect such a tendency, the database C provides an adjustment rate δ0 for adjusting the coefficient α for each face part in accordance with the part and the aging stage N3. The parameter setting unit 44 checks whether the age group of the aging period between the current age and the registered age corresponds to the aging stage N3 shown in the database C, and if there is any, A process of reading out adjustment rates δ0 corresponding to all corresponding aging stages N3 and multiplying them to obtain a final adjustment rate δ, and obtaining the adjustment rate δ as 1 if there is no corresponding case Is determined for each site. For example, if the current age of a person whose registered age is 20 years old is 30 years old, the aging age group does not correspond to any aging stage N3 of the aging stage N3 of the database C shown in FIG. The site adjustment rate δ is set to 1. On the other hand, when the current age of a person whose registered age is 31 years old is 45 years old, the age group of the aging period corresponds to two aging stages N3 of -40 years old and 40-30 years old. For the forehead part, adjustment rates δ0 corresponding to the respective aging stages N3: “1” and “1.2” are read out, and the final adjustment rate δ for the forehead part is 1 × 1.2. “1.2” is acquired. For the jaw part, adjustment rates δ0: “1.2” and “1” corresponding to the respective aging stages N3 are read, and the final adjustment rate δ of the jaw part is 1.2 × 1. “1.2” is acquired. Furthermore, adjustment rates δ0 corresponding to the respective aging stages N3 are also read out for the eye corner region: “1.2” and “1”, and the final adjustment rate δ of the eye corner region is 1.2 × 1. “1.2” is acquired. For each other part, “1” is set as the final adjustment rate δ. For example, when the current age of a person whose registered age is 31 years old is 39 years old, the aging age group corresponds to one aging stage N3 of 40 to 30 years old. Is read out the adjustment rate δ0 corresponding to the aging stage N3: “1.2” to be the final adjustment rate δ of the forehead part, and corresponds to the aging stage N3 for the jaw part and the eye corner part Adjustment rate δ0 to be read: “1” is read out as the final adjustment rate δ, and “1” is set as the final adjustment rate δ for each of the other parts.

なお、図16に示す第2のデータベース140は女性の場合の例であり、本実施形態において、第2のデータベース140は、男性、女性の性別別のデータベースA、データベースB、データベースCを有しており、パラメータ設定部44は、認証対象の人物の性別に応じて該当するデータベースから夫々のパラメータを読み出すものである。   Note that the second database 140 shown in FIG. 16 is an example of a woman, and in this embodiment, the second database 140 includes a database A, a database B, and a database C for male and female genders. The parameter setting unit 44 reads each parameter from the corresponding database according to the gender of the person to be authenticated.

パラメータ設定部44は、このようにして、第2のデータベース140のデータベースAから読み出した係数α、データベースBから読み出した調整率γ0を乗算して得た調整率γ、データベースCから読み出して得た調整率δ0を乗算して得た部位毎の調整率δを設定して、パラメータWとして作成実行部46に出力する。   In this way, the parameter setting unit 44 obtains the adjustment rate γ obtained by multiplying the coefficient α read from the database A of the second database 140 by the adjustment rate γ0 read from the database B, and read from the database C. The adjustment rate δ for each part obtained by multiplying the adjustment rate δ0 is set and output to the creation execution unit 46 as the parameter W.

作成実行部46は、シワ成分抽出手段30により抽出された各シワ成分Qmに対して調整係数ρを乗算し、調整係数ρをシワ成分Qmに乗算して得た成分(調整成分)を原画像S0(Y0)から減算して減齢画像S´1(Y1)を得る。下記の式(6)、(7)は、減齢画像作成手段40により行われる処理を示している。

Figure 2006085678
The creation execution unit 46 multiplies each wrinkle component Qm extracted by the wrinkle component extraction unit 30 by the adjustment coefficient ρ, and multiplies the wrinkle component Qm by the adjustment coefficient ρ (adjustment component). By subtracting from S0 (Y0), an aged image S′1 (Y1) is obtained. The following formulas (6) and (7) show processing performed by the aged image creating means 40.

Figure 2006085678

ρ=β(S0)×α×γ×δ (7)
但し、ρ:調整係数
β:画素値依存係数
α:データベースAから読み出した係数
γ:データベースBから読み出した調整率γ0を乗算して得た調整率
δ:データベースCから読み出した調整率δ0を乗算して得た調整率

前述したように、係数α、調整率γは原画像S0全体に対して同じであり、調整率δは原画像S0により表される顔の部位毎に設定されたものである。
ρ = β (S0) × α × γ × δ (7)
Where ρ: adjustment factor
β: Pixel value dependent coefficient
α: Coefficient read from database A
γ: Adjustment rate obtained by multiplying the adjustment rate γ0 read from the database B
δ: Adjustment rate obtained by multiplying the adjustment rate δ0 read from the database C

As described above, the coefficient α and the adjustment rate γ are the same for the entire original image S0, and the adjustment rate δ is set for each part of the face represented by the original image S0.

また、画素値依存係数βは、β(S0)となっており、原画像S0の画素の輝度値Y0に応じて決められたものである。具体的には、輝度値Y0が大きい画素ほど、この画素の画素値Y1を求める際に用いられる係数βの値が大きくなるものである。シワ成分抽出手段30により抽出されたシワ成分Qmには、髪の毛などの成分が含まれている場合があり、減齢画像を作成する際には、髪の毛の成分を真のシワ成分などと同じ程度に抑制(すなわち減算)することを避けることが望ましい。本実施形態においては、一般的にシワなどが生じる肌部分が明るく(すなわち輝度値が大きく)、髪の毛の部分が暗い(すなわち輝度値が小さい)ことに着目し、輝度値が大きい画素ほど値が大きくなる(逆に輝度値が小さい画素ほど値が小さくなる)係数βを用い、髪の毛の部分の減算の程度を弱く、肌部分の減算の程度を大きくすることによって、真のシワ、シミ乃至ノイズなどの成分を減算することによって抑制することができると共に、髪の毛を表す成分の抑制を弱めることを実現する。   The pixel value dependent coefficient β is β (S0), and is determined according to the luminance value Y0 of the pixel of the original image S0. Specifically, the larger the luminance value Y0 is, the larger the value of the coefficient β used when obtaining the pixel value Y1 of this pixel. The wrinkle component Qm extracted by the wrinkle component extraction means 30 may contain components such as hair, and when creating an aged image, the hair component is about the same as the true wrinkle component. It is desirable to avoid suppression (ie subtraction). In the present embodiment, focusing on the fact that the skin portion where wrinkles or the like are generally generated is bright (that is, the luminance value is large) and the hair portion is dark (that is, the luminance value is small), the pixel having the larger luminance value has a value. True wrinkles, spots or noise can be obtained by increasing the degree of subtraction of the skin part by using the coefficient β that increases (conversely, the value becomes smaller as the pixel has a lower luminance value), weakens the degree of subtraction of the hair part, and increases the degree of subtraction of the skin part. It can be suppressed by subtracting the components such as, and the suppression of the component representing the hair is weakened.

画像生成部60の減齢画像作成手段40は、このように作成した減齢画像S’1を合成手段50に出力し、合成手段50は、減齢画像作成手段40により得られた原画像S0の減齢画像S´1の画素値Y1と、YCC変換手段5により得られた登録顔画像Dgの色差値Cb0、Cr0とを合成して登録顔画像Dgの減齢画像D1(Y1,Cr0,Cb0)を得て照合部70に出力する。   The aged image creating means 40 of the image generating unit 60 outputs the aged image S′1 created in this way to the synthesizing means 50, and the synthesizing means 50 obtains the original image S0 obtained by the aged image creating means 40. The pixel value Y1 of the aging image S′1 and the color difference values Cb0 and Cr0 of the registered face image Dg obtained by the YCC conversion means 5 are combined to generate the aging image D1 (Y1, Cr0, Cb0) is obtained and output to the collation unit 70.

認証部100の照合部70は、画像生成部60から(具体的には画像生成部60の合成手段50から)出力されてきた減齢画像D1と、対象特定手段3から出力されてきた登録顔画像Dgとに対してパターンマッチング処理を行って照合すると共に、照合の結果を出力することをもって処理を終了する。   The verification unit 70 of the authentication unit 100 includes the aged image D1 output from the image generation unit 60 (specifically, from the combining unit 50 of the image generation unit 60) and the registered face output from the target specifying unit 3. A pattern matching process is performed on the image Dg and collation is performed, and the process ends when the collation result is output.

図17は、図1に示す実施形態の認証装置において行われる処理を示すフローチャートである。図示のように、本実施形態の認証装置は、撮像部1により得られた認証対象の人物の顔画像D0が取得する(S10)と、認証部100は、第1のデータベース120からこの認証対象の人物に該当する登録顔画像Dg、該登録顔画像Dgが対応する人物の登録時の年齢、登録日、該人物の性別を読み出す(S12)。そして、認証部100は、撮像部1により得られた顔画像D0からシワ成分Qm(m=1〜n)を抽出すると共に、登録顔画像Dgの登録年齢、認証時の年齢(現年齢)、性別などに基づいて第2のデータベース140から各種パラメータを読み出して係数α、調整率γ、部位毎の調整率δを得る。認証部100は、シワ成分Qmの総和に、係数α、調整率γ、部位毎調整率δ、および画素値依存係数βを乗算して得た調整成分を顔画像D0から減算して減齢画像D1を作成する(S14)。作成された減齢画像D1と、登録顔画像Dgとを用いて、認証部100は、照合処理を行い、照合結果を出力する(S16)ことをもって処理を終了する。   FIG. 17 is a flowchart showing processing performed in the authentication apparatus of the embodiment shown in FIG. As illustrated, when the face image D0 of the person to be authenticated obtained by the imaging unit 1 is acquired by the authentication device of the present embodiment (S10), the authentication unit 100 reads the authentication target from the first database 120. The registered face image Dg corresponding to the person, the age at the time of registration of the person corresponding to the registered face image Dg, the registration date, and the gender of the person are read (S12). Then, the authentication unit 100 extracts the wrinkle component Qm (m = 1 to n) from the face image D0 obtained by the imaging unit 1, and the registered age of the registered face image Dg, the age at the time of authentication (current age), Various parameters are read from the second database 140 based on gender and the like to obtain a coefficient α, an adjustment rate γ, and an adjustment rate δ for each part. The authentication unit 100 subtracts the adjustment component obtained by multiplying the sum total of the wrinkle component Qm by the coefficient α, the adjustment rate γ, the adjustment factor δ for each region, and the pixel value dependent coefficient β from the face image D0, and is an aging image. D1 is created (S14). Using the created aged image D1 and the registered face image Dg, the authentication unit 100 performs a collation process and outputs a collation result (S16), thereby terminating the process.

このように、本実施形態の認証装置によれば、本人の認証時の現齢画像から認証用の減齢画像を作成しているので、減齢画像は、年齢成分の出方の個人差に影響されないため、精度の良い認証を行うことができる。   As described above, according to the authentication device of the present embodiment, since the age-reduced image for authentication is created from the current-age image at the time of the authentication of the person, the age-reduced image has an individual difference in how the age component appears. Since it is not affected, accurate authentication can be performed.

また、年齢成分を調整する調整の程度を減齢の期間の長さ、減齢の期間の年齢層、部位などに応じて決められたものを用いるようにしているので、より適切な加齢画像を取得しており、ひいては認証の精度をより高めることができる。   In addition, since the degree of adjustment for adjusting the age component is determined according to the length of the aging period, the age group of the aging period, the region, etc., a more appropriate aging image As a result, the accuracy of authentication can be further improved.

また、本実施形態の認証装置は、シワ、シミなどの成分は、高周波数帯域に多く存在するものの、高い周波数帯域から低い周波数帯域までの各々の周波数帯域に亘って存在するものであることに着目し、原画像S0(Y0)の複数の異なる周波数帯域ごとの成分を表す複数の帯域制限画像Tm(m=1〜n,n≧2)を作成し、これらの帯域制限画像に対して非線形変換処理を施して複数の変換画像をシワ成分として抽出している。こうすることによってシワ成分の抽出もれを防ぐことができるので、シワ成分の減算によって適切な減齢画像を得ることができる。   In the authentication apparatus according to the present embodiment, components such as wrinkles and spots are present in each frequency band from a high frequency band to a low frequency band, although many components exist in the high frequency band. Paying attention, a plurality of band limited images Tm (m = 1 to n, n ≧ 2) representing components for a plurality of different frequency bands of the original image S0 (Y0) are created, and nonlinear with respect to these band limited images Conversion processing is performed to extract a plurality of converted images as wrinkle components. By doing so, it is possible to prevent the wrinkle component from leaking out, so that an appropriate aging image can be obtained by subtraction of the wrinkle component.

以上、本発明の1つの望ましい実施形態について説明したが、本発明の画像作成方法および装置並びにそのためのプログラムは、上述した実施形態に限られることがなく、本発明の主旨を逸脱しない限り、様々な増減、変化を加えることができる。  Although one preferred embodiment of the present invention has been described above, the image creation method and apparatus of the present invention and the program therefor are not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention. Can increase, decrease, change.

例えば、図1に示す実施形態は、本発明の画像作成方法および装置を人物の認証に用いるものであり、認証するときは、認証時の顔画像から減齢画像を作成して、減齢画像と登録顔画像とを照合することによって認証を行うものであるが、本発明の画像作成方法および装置は、加齢画像を作成して認証に用いる認証システムにも適用することができると共に、加齢画像および/または減齢画像を必要とするいかなるシステムにも適用することができる。   For example, the embodiment shown in FIG. 1 uses the image creation method and apparatus of the present invention for authentication of a person. When authentication is performed, an aged image is created from a face image at the time of authentication. However, the image creation method and apparatus of the present invention can be applied to an authentication system that creates an aging image and uses it for authentication. It can be applied to any system that requires age and / or age images.

例えば、図1に示す実施形態の認証装置のように、認証時の顔画像から減齢画像を作成し、この減齢画像と、登録顔画像とを照合することによって認証を行っているのとは反対に、登録顔画像から、登録年齢から認証時の年齢までの期間(前述した加齢年数に対応した減齢年数)などに基づいて加齢画像を作成し、この加齢画像と、認証時の顔画像とを照合するようにして認証を行うようにしてもよい。   For example, like the authentication device of the embodiment shown in FIG. 1, an aging image is created from a face image at the time of authentication, and authentication is performed by comparing this aging image with a registered face image. On the other hand, an aging image is created from the registered face image based on the period from the registered age to the age at the time of authentication (age age corresponding to the above-mentioned aging age), and this aging image and authentication You may make it authenticate by collating with the face image of the time.

さらに、登録年齢と認証時の現年齢との間の所定の年齢(例えば中間年齢)を基準年齢にし、登録顔画像からは、この基準年齢まで加齢した場合の加齢画像を作成すると共に、認証時に撮像して得た顔画像からは、この基準年齢まで減齢した場合の減齢画像を作成し、照合処理にあたっては、加齢画像と減齢画像とを用いるようにしてもよい。こうすることによって、特に登録年齢と現年齢との差が大きいとき、認証の精度を上げることができる。   Furthermore, a predetermined age (for example, intermediate age) between the registered age and the current age at the time of authentication is set as the reference age, and from the registered face image, an aging image is created when the reference age is reached, An aged image in the case of aging to this reference age may be created from the face image obtained at the time of authentication, and the aging image and the aged image may be used in the matching process. By doing so, the accuracy of authentication can be improved particularly when the difference between the registered age and the current age is large.

なお、加齢画像の作成の具体的な処理は、下記の式(8)に示すように、原画像S0から抽出したシワ成分Qmに調整係数ρを乗算して得た調整成分を、原画像S0に加算する点と、調整係数ρを得るための、第2のデータベース140に対応するデータベースを、加齢用に作成されたものを用いる点とを除けば、減齢画像の作成処理と同様であるので、ここで加齢画像の作成の具体的な処理については省略する。

Figure 2006085678
As shown in the following equation (8), the specific process of creating an aging image is performed by using an adjustment component obtained by multiplying the wrinkle component Qm extracted from the original image S0 by the adjustment coefficient ρ as the original image. Except for the point added to S0 and the database corresponding to the second database 140 for obtaining the adjustment coefficient ρ, except that the database created for aging is used, the same as the process for creating an aged image Therefore, specific processing for creating an aging image is omitted here.

Figure 2006085678


また、シワ成分の抽出方法も、本実施形態の認証装置のシワ成分抽出手段30に用いられる方法に限らず、シワ成分を抽出することができるいかなる方法、例えば非特許文献2記載のような方法を適用してもよい。

In addition, the method for extracting the wrinkle component is not limited to the method used for the wrinkle component extracting unit 30 of the authentication apparatus according to the present embodiment, and any method that can extract the wrinkle component, for example, a method described in Non-Patent Document 2. May be applied.

また、本実施形態の認証装置において、帯域制限画像作成手段20は、原画像S0およびボケ画像Sk(k=1〜n,n≧2)を用いて上記式(4)に従って帯域制限画像を得るようにするものであり、帯域制限画像作成手段20、シワ成分抽出手段30、および減齢画像作成手段40において行われる処理を下記の式(9)により表すことができるが、例えば、下記の式(10)または式(11)または式(12)により、帯域制限画像作成手段、シワ成分抽出手段、および減齢画像作成手段40の処理を行うようにしてもよい。すなわち、式(9)により表される本実施形態の認証装置における処理のように、原画像および各ボケ画像を用いて、互いに隣接する周波数帯域の画像(原画像S0はボケ画像S1と周波数帯域が隣接するものとする)の減算を行って帯域制限画像を得るようにしてもよいが、式(10)に示すように、全てのボケ画像と、原画像との減算により帯域制限画像を得るようにしてもよく、または式(11)に示すように、原画像を用いず互いに隣接する周波数帯域のボケ画像の減算を行って帯域制限画像を得るようにしてもよく、または式(12)に示すように、原画像を用いず、ボケ画像S1と、ボケ画像S1を除いた全てのボケ画像Sm(m=2〜n,n≧3)との減算により帯域制限画像を得るようにしてもよい。   In the authentication apparatus of the present embodiment, the band limited image creating unit 20 obtains a band limited image according to the above formula (4) using the original image S0 and the blurred image Sk (k = 1 to n, n ≧ 2). The processing performed in the band-limited image creation means 20, the wrinkle component extraction means 30, and the aged image creation means 40 can be expressed by the following formula (9). For example, the following formula The band-limited image creation means, the wrinkle component extraction means, and the aged image creation means 40 may be processed according to (10), Expression (11), or Expression (12). That is, as in the processing in the authentication apparatus of the present embodiment represented by Expression (9), using the original image and each blurred image, images in the frequency bands adjacent to each other (the original image S0 is the same as the blurred image S1 and the frequency band The band-limited image may be obtained by performing subtraction of the adjacent image). However, as shown in Expression (10), the band-limited image is obtained by subtracting all the blurred images and the original image. Alternatively, as shown in Expression (11), a band-limited image may be obtained by subtracting blurred images in adjacent frequency bands without using the original image, or Expression (12). As shown in FIG. 5, the band-limited image is obtained by subtracting the blurred image S1 and all the blurred images Sm (m = 2 to n, n ≧ 3) excluding the blurred image S1 without using the original image. Also good.


Figure 2006085678
Figure 2006085678
Figure 2006085678
Figure 2006085678
Figure 2006085678
Figure 2006085678
Figure 2006085678
Figure 2006085678


また、帯域制限画像を作成する方法も、上述した式(4)、式(9)〜(12)により表される方法のように、原画像のボケ画像を作成し、原画像および/またはボケ画像を用いて作成する方法に限らず、原画像の複数の異なる周波数帯域の成分を表す画像を作成することができれば、いかなる方法を用いてもよい。

Also, the method for creating the band limited image is to create a blurred image of the original image, and to create the blurred image of the original image and / or the blurred image as in the methods represented by the above formulas (4) and (9) to (12). The method is not limited to the method of creating using an image, and any method may be used as long as an image representing a plurality of different frequency band components of the original image can be created.

また、本実施形態は、本発明の画像作成方法および装置を認証に適用したものであるため、顔全体が写った顔画像D0から減齢画像を作成しているが、本発明の画像作成方法および装置は、顔全体の加齢画像または減齢画像の作成に限らず、例えば目周囲や、頬や、額のような部位毎の加齢画像と減齢画像(異なる年齢の顔パーツ画像)の作成にも適用することができる、このように作成された顔パーツ画像を特許文献1記載のようなシステムに用いることによって、年齢に応じたシミュレートが可能となる。   Further, in this embodiment, since the image creation method and apparatus of the present invention are applied to authentication, an aged image is created from the face image D0 showing the entire face. The device is not limited to the creation of an aging image or an aging image of the entire face. For example, an aging image and an aging image (face part images of different ages) for each part such as around the eyes, cheeks, and forehead. By using the face part image created in this way, which can be applied to the creation of the above, in a system such as that described in Patent Document 1, simulation according to age can be performed.

また、例えば、登場人物の所定の年齢時の顔画像のみを作成し、ストーリの展開に応じた時間の変化に伴ってこの顔画像から加齢画像または減齢を作成して用いるなど、ゲームの分野にも適用することができる。この場合、登場人物の所定の年齢時の顔画像は、コンピュータグラフィック技術を用いて作成したものに限らず、ゲームプレイヤが提供した自分の顔写真画像などであってもよい。   In addition, for example, only a face image of a character at a predetermined age is created, and an aging image or an aging is created and used from the face image according to a change in time according to the development of a story. It can also be applied to the field. In this case, the face image of a character at a predetermined age is not limited to one created using computer graphic technology, but may be a face photo image provided by a game player.

また、顔または顔の一部の画像に限らず、本発明の画像作成方法および装置は、年齢に応じてシワ成分などの年齢成分が増加または減少する如何なる肌部分、例えば首や、手などの画像の加齢画像または減齢画像の作成にも適用することができる。   Further, the image creation method and apparatus of the present invention is not limited to an image of a face or a part of a face, and any skin portion where an age component such as a wrinkle component increases or decreases according to age, such as a neck or a hand, is used. The present invention can also be applied to creation of an aging image or an aging image.

ところで、上記実施の形態において、調整係数ρは上述した式(7)に従い各調整率α、β、γ、δにより変化するようになっているが、以下に示す各調整率ζ、ηにより変化するものであってもよい。   By the way, in the above embodiment, the adjustment coefficient ρ changes according to the adjustment rates α, β, γ, and δ according to the above-described equation (7), but changes according to the adjustment rates ζ and η described below. You may do.

たとえば、現齢画像のシワ度合いを示す調整率ζに応じて以下の式(13)に示すように、調整係数ρを変化させるようにしてもよい。   For example, the adjustment coefficient ρ may be changed as shown in the following equation (13) according to the adjustment rate ζ indicating the wrinkle degree of the current age image.

ρ=β(S0)×α×γ×δ×ζ (13)
すなわち、同じ年齢であっても人によってはシワやシミの量は異なるものである。たとえば、現在シミ成分・シワ成分の多い人は、減齢ではシミ成分・シワ成分の減少量が大きく、加齢ではシミ成分・シワ成分の増加量は少ない傾向があり、これに合わせて調整率ζを変化させる。逆に、現在シミ成分・シワ成分の少ない人は、減齢ではシミ成分・シワ成分の減少量が少なく、加齢ではシミ成分・シワ成分の増加量は大きい、もしくは現状ベースを維持する傾向があり、これに合わせて調整率ζを変化させる。
ρ = β (S0) × α × γ × δ × ζ (13)
That is, the amount of wrinkles and spots varies depending on the person even at the same age. For example, people who currently have a large amount of stains and wrinkles tend to have a large decrease in stains and wrinkles due to aging, and a small increase in stains and wrinkles due to aging. Change ζ. Conversely, people who currently have few wrinkle / wrinkle components tend to have less decrease in wrinkle / wrinkle components when they age, and there is a tendency for the amount of increase in wrinkle / wrinkle components to increase with age or to maintain the current basis. Yes, the adjustment rate ζ is changed accordingly.

このように、取得した画像のシミ・シワの成分の量に応じて、加齢画像・減齢画像作成におけるシミ成分・シワ成分の調整率ζを変化させ、これを調整係数ρに反映させることにより、より正確な加齢・減齢画像を作成することができる。   In this way, according to the amount of the stain / wrinkle component of the acquired image, the adjustment rate ζ of the stain / wrinkle component in the aging image / aged image creation is changed, and this is reflected in the adjustment coefficient ρ. Thus, a more accurate aging / aging image can be created.

また、化粧の有無を示す調整率ηに応じて以下の式(14)に示すように調整係数ρを変化させるようにしてもよい。   Further, the adjustment coefficient ρ may be changed as shown in the following formula (14) according to the adjustment rate η indicating the presence or absence of makeup.

ρ=β(S0)×α×γ×δ×η (14)
すなわち、化粧の有無により見た目のシワやシミの量はかなり変化する。たとえば現齢画像取得時において化粧がなされていた場合、抽出されるシワ成分・シミ成分は少なくなる傾向がある。よって、調整率ηを大きくし調整係数ρを大きくする。一方、化粧している状態の加齢・減齢画像を作成する際には、実際よりシワ成分・シミ成分が少なくなるように、加齢・減齢時の調整率ηを小さくし調整係数ρを小さくする。このように、取得した画像における化粧の有無、あるいは加齢・減齢画像作成時に化粧の有無も考慮して、シミ成分・シワ成分の調整係数ρを変更することにより、より正確な加齢・減齢画像を作成することができる。
ρ = β (S0) × α × γ × δ × η (14)
That is, the amount of visible wrinkles and spots varies considerably depending on the presence or absence of makeup. For example, when makeup is applied at the time of acquisition of the current age image, the wrinkle component / stain component extracted tends to decrease. Therefore, the adjustment rate η is increased and the adjustment coefficient ρ is increased. On the other hand, when creating an aging / aging image in the state of makeup, the adjustment factor ρ is reduced by decreasing the adjustment rate η at the time of aging / aging so that the wrinkle component / stain component is less than the actual amount. Make it smaller. In this way, by taking into account the presence or absence of makeup in the acquired image, or the presence or absence of makeup when creating an aging / aging image, by changing the adjustment factor ρ of the stain component / wrinkle component, more accurate aging / Aged images can be created.

なお、式(13)、(14)において、各調整率ζ、ηをそれぞれ別々に用いる場合について例示しているが、調整係数ρ=β(S0)×α×γ×δ×ζ×ηというように、各調整率ζ、ηを用いて調整係数ρを算出するようにしても良い。   In the equations (13) and (14), the case where the adjustment rates ζ and η are used separately is exemplified, but the adjustment coefficient ρ = β (S0) × α × γ × δ × ζ × η As described above, the adjustment coefficient ρ may be calculated using the adjustment rates ζ and η.

さらに、上記実施の形態において、第2のデータベース140が一組のデータベースA、B、Cの組み合わせにより構成されている場合について例示しているが、たとえば肌の色に合わせてデータテーブルA、B、Cの組み合わせを複数有するものであってもよい。すなわち、肌の色の違いによりシミ成分・シワ成分の見え方が異なる傾向がある。たとえば肌が黒い場合、年齢変化によるシミ成分・シワ成分の変化はあまり目立たない。一方、肌が白い場合には年齢変化によるシミ成分・シワ成分の変化が目立つ。よって、たとえば肌の色に合わせてデータテーブルA、B、Cの組み合わせを複数用意し、肌の色に応じたシワ成分・シミ成分の増減傾向に基づいた調整係数ρ、もしくは調整率α、γ、δ、ζ、ηを用いることにより、より正確な加齢・減齢画像を作成することができる。   Furthermore, in the said embodiment, although illustrated about the case where the 2nd database 140 is comprised by the combination of one set of database A, B, C, for example, data table A, B according to the color of skin. , C may have a plurality of combinations. That is, the appearance of the stain component and the wrinkle component tends to differ depending on the skin color. For example, when the skin is dark, changes in the stain and wrinkle components due to changes in age are not so noticeable. On the other hand, when the skin is white, changes in the stain component and the wrinkle component due to age change are conspicuous. Therefore, for example, a plurality of combinations of the data tables A, B, and C are prepared according to the skin color, and the adjustment coefficient ρ based on the increase / decrease tendency of the wrinkle component / stain component according to the skin color, or the adjustment rate α, γ , Δ, ζ, and η can be used to create a more accurate aging / aging image.

本発明の実施形態となる認証装置の構成を示すブロック図The block diagram which shows the structure of the authentication apparatus used as embodiment of this invention 図1に示す実施形態の認証装置における認証部100の構成を示すブロック図The block diagram which shows the structure of the authentication part 100 in the authentication apparatus of embodiment shown in FIG. 図2に示す認証部100における画像生成部60の構成を示すブロック図The block diagram which shows the structure of the image generation part 60 in the authentication part 100 shown in FIG. 図3に示す画像生成部60におけるボケ画像作成手段10の構成を示すブロック図FIG. 3 is a block diagram showing the configuration of the blurred image creation means 10 in the image generation unit 60 shown in FIG. 図4に示すボケ画像作成手段10におけるフィルタリング手段12が用いる1次元フィルタFの例を示す図The figure which shows the example of the one-dimensional filter F which the filtering means 12 in the blur image creation means 10 shown in FIG. 4 uses 図4に示すボケ画像作成手段10において行われる処理を示す図The figure which shows the process performed in the blur image creation means 10 shown in FIG. 図4に示すボケ画像作成手段10におけるフィルタリング手段12により作成されたフィルタリング画像Bkの周波数特性を示す図The figure which shows the frequency characteristic of the filtering image Bk produced by the filtering means 12 in the blur image creation means 10 shown in FIG. 図4に示すボケ画像作成手段10におけるフィルタリング手段12が用いる2次元フィルタの例を示す図The figure which shows the example of the two-dimensional filter used by the filtering means 12 in the blur image creation means 10 shown in FIG. 図4に示すボケ画像作成手段10における補間手段14がフィルタリング画像B1の補間に用いるフィルタF1の例を示す図The figure which shows the example of the filter F1 which the interpolation means 14 in the blur image creation means 10 shown in FIG. 4 uses for interpolation of filtering image B1 図4に示すボケ画像作成手段10における補間手段14がフィルタリング画像B2の補間に用いるフィルタF2の例を示す図The figure which shows the example of the filter F2 which the interpolation means 14 in the blur image creation means 10 shown in FIG. 4 uses for interpolation of filtering image B2 図4に示すボケ画像作成手段10により作成されたボケ画像Skの周波数特性を示す図The figure which shows the frequency characteristic of the blur image Sk created by the blur image creation means 10 shown in FIG. 図3に示す画像生成部60における帯域制限画像作成手段20により作成された帯域制限画像Tkの周波数特性を示す図The figure which shows the frequency characteristic of the band limited image Tk produced by the band limited image preparation means 20 in the image generation part 60 shown in FIG. 図3に示す画像生成部60におけるシワ成分抽出手段30が用いる非線形関数fの例を示す図The figure which shows the example of the nonlinear function f which the wrinkle component extraction means 30 in the image generation part 60 shown in FIG. 3 uses 図3に示す画像生成部60における減齢画像作成手段40の構成を示すブロック図The block diagram which shows the structure of the aged image preparation means 40 in the image generation part 60 shown in FIG. 第1のデータベース120の内容を示す図The figure which shows the content of the 1st database 120 第2のデータベース140の内容を示す図The figure which shows the content of the 2nd database 140 図1に示す認証装置における処理を示すフローチャートThe flowchart which shows the process in the authentication apparatus shown in FIG.

符号の説明Explanation of symbols

1 撮像部
2 入力部
3 対象特定手段
5 YCC変換手段
10 ボケ画像作成手段
12 フィルタリング手段
14 補間手段
16 制御手段
20 帯域制限画像作成手段
30 シワ成分抽出手段
40 減齢画像作成手段
42 現年齢算出部
44 パラメータ設定部
46 作成実行部
50 合成手段
60 画像生成部
70 照合部
100 認証部
120 第1のデータベース
140 第2のデータベース
D0 顔画像
D1 減齢画像
Dg 登録顔画像
Y 輝度値
Cb,Cr 色差値
α 係数
γ0 調整率
γ 最終的な調整率
δ0 部位毎の調整率
δ 最終的な部位毎の調整率
β 画素値依存係数
ρ 調整係数
DESCRIPTION OF SYMBOLS 1 Image pick-up part 2 Input part 3 Object identification means 5 YCC conversion means 10 Blurred image creation means 12 Filtering means 14 Interpolation means 16 Control means 20 Band-limited image creation means 30 Wrinkle component extraction means 40 Aging image creation means 42 Current age calculation part 44 Parameter Setting Unit 46 Creation Execution Unit 50 Composition Unit 60 Image Generation Unit 70 Verification Unit 100 Authentication Unit 120 First Database 140 Second Database D0 Face Image D1 Aging Image Dg Registered Face Image Y Luminance Value Cb, Cr Color Difference Value α coefficient γ0 adjustment rate γ final adjustment rate δ0 adjustment rate for each part δ final adjustment rate for each part β pixel value dependent coefficient ρ adjustment coefficient

Claims (33)

所定の年齢の人物の肌部分の画像を現齢画像として用いて、該人物の加齢後の前記肌部分の画像となる加齢画像および/または該人物の減齢時の前記肌部分の画像となる減齢画像を作成する画像作成方法において、
年齢の増加に応じて増加する、肌状態を示し得る成分を年齢成分として前記現齢画像から抽出し、
所定の調整強度で該年齢成分を調整して調整成分を得、
前記加齢画像の作成においては該調整成分を前記現齢画像に加算し、前記減齢画像の作成においては該調整成分を前記現齢画像から減算することを特徴とする画像作成方法。
Using an image of a skin part of a person of a predetermined age as an actual-age image, an aging image that becomes an image of the skin part after aging of the person and / or an image of the skin part at the time of aging of the person In an image creation method for creating an aged image that becomes
Extracting from the current age image as an age component a component capable of showing a skin condition that increases with an increase in age,
Adjusting the age component with a predetermined adjustment strength to obtain an adjustment component,
An image creation method comprising: adding the adjustment component to the current age image in creating the aging image; and subtracting the adjustment component from the current image in creating the aging image.
前記年齢成分が、シワ成分および/またはシミ成分であることを特徴とする請求項1記載の画像作成方法。   The image creation method according to claim 1, wherein the age component is a wrinkle component and / or a stain component. 前記現齢画像に基づいて、該現齢画像の複数の周波数帯域ごとの成分を表す複数の帯域制限画像を作成し、
出力値の絶対値を入力値の絶対値以下にする処理であって、かつ絶対値が所定の閾値以下である入力値に対しては、該入力値の絶対値が大きいほど出力値の絶対値が大きくなる一方、絶対値が前記所定の閾値より大きい入力値に対しては、出力値の絶対値が前記所定の閾値に対応する出力値の絶対値以下となる非線形変換処理を各前記帯域制限画像の夫々の画素値に対して施して複数の変換画像の画素値を得、
該複数の変換画像の相対応する画素の画素値を加算して得た加算画素値を前記年齢成分を表す年齢成分画像の画素値として取得することを特徴とする請求項2記載の画像作成方法。
Based on the age image, create a plurality of band limited images representing components for each of the frequency bands of the age image,
For an input value in which the absolute value of the output value is less than or equal to the absolute value of the input value and the absolute value is less than or equal to a predetermined threshold value, the absolute value of the output value increases as the absolute value of the input value increases. On the other hand, for an input value whose absolute value is larger than the predetermined threshold value, nonlinear conversion processing in which the absolute value of the output value is equal to or smaller than the absolute value of the output value corresponding to the predetermined threshold value is performed for each band limitation. Apply to each pixel value of the image to get the pixel values of multiple converted images,
3. The image creation method according to claim 2, wherein an added pixel value obtained by adding pixel values of corresponding pixels of the plurality of converted images is obtained as a pixel value of an age component image representing the age component. .
前記調整強度を示す調整係数を前記年齢成分画像の画素値に乗算して前記調整成分を表す画像の画像値を得ることを特徴とする請求項3記載の画像作成方法。   4. The image creation method according to claim 3, wherein an image value of an image representing the adjustment component is obtained by multiplying a pixel value of the age component image by an adjustment coefficient indicating the adjustment intensity. 前記調整係数が、前記現齢画像の画素の画素値に応じて前記画素毎に決められたものであることを特徴とする請求項4記載の画像作成方法。   The image creation method according to claim 4, wherein the adjustment coefficient is determined for each pixel in accordance with a pixel value of a pixel of the age image. 前記調整強度が、前記加齢または前記減齢の程度が大きいほど前記調整成分を大きくするものであることを特徴とする請求項1から5のいずれか1項記載の画像作成方法。   The image creation method according to claim 1, wherein the adjustment strength is such that the adjustment component increases as the degree of aging or aging increases. 前記調整強度が、前記加齢の期間または前記減齢の期間の年齢層に応じて決められたものであることを特徴とする請求項6記載の画像作成方法。   The image creation method according to claim 6, wherein the adjustment intensity is determined according to an age group of the aging period or the aging period. 前記調整強度が、前記肌部分が前記人物の身体における部位に応じて決められたものであることを特徴とする請求項1から7のいずれか1項記載の画像作成方法。   8. The image creation method according to claim 1, wherein the adjustment strength is determined in accordance with a portion of the person's body where the skin portion is. 前記調整強度が、前記現齢画像から抽出した前記年齢成分の度合いに応じて決められたものであることを特徴とする請求項1から8のいずれか1項記載の画像作成方法。   9. The image creation method according to claim 1, wherein the adjustment strength is determined in accordance with a degree of the age component extracted from the current age image. 前記調整強度が、前記現齢画像における化粧の有無もしくは前記加齢画像もしくは前記減齢画像の作成時における化粧の有無に応じて決められたものであることを特徴とする請求項1から9のいずれか1項記載の画像作成方法。   10. The adjustment strength according to claim 1, wherein the adjustment strength is determined according to presence / absence of makeup in the current age image or presence / absence of makeup at the time of creation of the aging image or the aged image. The image creation method according to any one of the preceding claims. 前記調整強度が、前記人物の肌の色に応じて決められたものであることを特徴とする請求項1から10のいずれか1項記載の画像作成方法。   The image creation method according to claim 1, wherein the adjustment strength is determined according to a skin color of the person. 所定の年齢の人物の肌部分の画像を現齢画像として用いて、該人物の加齢後の前記肌部分の画像となる加齢画像および/または該人物の減齢時の前記肌部分の画像となる減齢画像を作成する画像作成装置において、
年齢の増加に応じて増加する、肌状態を示し得る成分を年齢成分として前記現齢画像から抽出する年齢成分抽出手段と、
所定の調整強度で該年齢成分を調整して調整成分を得る調整成分取得手段と、
該調整成分を前記現齢画像に加算して前記加齢画像を取得し、該調整成分を前記現齢画像から減算して前記減齢画像を取得する画像生成手段とを有してなることを特徴とする画像作成装置。
Using an image of a skin part of a person of a predetermined age as an actual-age image, an aging image that becomes an image of the skin part after aging of the person and / or an image of the skin part at the time of aging of the person In an image creation device that creates an aged image that becomes
Age component extraction means for extracting from the current age image as an age component a component capable of showing a skin condition that increases with an increase in age;
Adjustment component acquisition means for adjusting the age component at a predetermined adjustment intensity to obtain an adjustment component;
Image adjustment means for acquiring the aging image by adding the adjustment component to the current age image, and subtracting the adjustment component from the current age image to acquire the aging image. A featured image creation device.
前記年齢成分が、シワ成分および/またはシミ成分であることを特徴とする請求項12記載の画像作成装置。   The image creating apparatus according to claim 12, wherein the age component is a wrinkle component and / or a stain component. 前記年齢成分抽出手段が、
前記現齢画像に基づいて、該現齢画像の複数の周波数帯域ごとの成分を表す複数の帯域制限画像を作成し、
出力値の絶対値を入力値の絶対値以下にする処理であって、かつ絶対値が所定の閾値以下である入力値に対しては、該入力値の絶対値が大きいほど出力値の絶対値が大きくなる一方、絶対値が前記所定の閾値より大きい入力値に対しては、出力値の絶対値が前記所定の閾値に対応する出力値の絶対値以下となる非線形変換処理を各前記帯域制限画像の夫々の画素値に対して施して複数の変換画像の画素値を得、
該複数の変換画像の相対応する画素の画素値を加算して得た加算画素値を前記年齢成分を表す年齢成分画像の画素値として取得するものであることを特徴とする請求項13記載の画像作成装置。
The age component extraction means is
Based on the age image, create a plurality of band limited images representing components for each of a plurality of frequency bands of the age image,
For an input value in which the absolute value of the output value is less than or equal to the absolute value of the input value and the absolute value is less than or equal to a predetermined threshold value, the absolute value of the output value increases as the absolute value of the input value increases. On the other hand, for an input value whose absolute value is larger than the predetermined threshold value, nonlinear conversion processing in which the absolute value of the output value is equal to or smaller than the absolute value of the output value corresponding to the predetermined threshold value is performed for each band limitation. Apply to each pixel value of the image to get the pixel values of multiple converted images,
The acquired pixel value obtained by adding pixel values of corresponding pixels of the plurality of converted images is acquired as a pixel value of an age component image representing the age component. Image creation device.
前記調整成分取得手段が、前記調整強度を示す調整係数を前記年齢成分画像の画素値に乗算して前記調整成分を表す画像の画像値を得るものであることを特徴とする請求項14記載の画像作成装置。   15. The adjustment component acquisition unit according to claim 14, wherein the adjustment component acquisition unit obtains an image value of an image representing the adjustment component by multiplying a pixel value of the age component image by an adjustment coefficient indicating the adjustment intensity. Image creation device. 前記調整係数が、前記現齢画像の画素の画素値に応じて前記画素毎に決められたものであることを特徴とする請求項15記載の画像作成装置。   The image creation apparatus according to claim 15, wherein the adjustment coefficient is determined for each pixel in accordance with a pixel value of a pixel of the age image. 前記調整強度が、前記加齢または前記減齢の程度が大きいほど前記調整成分を大きくするものであることを特徴とする請求項12から16のいずれか1項記載の画像作成装置。   17. The image creating apparatus according to claim 12, wherein the adjustment strength is such that the adjustment component increases as the degree of aging or aging increases. 前記調整強度が、前記加齢の期間または前記減齢の期間の年齢層に応じて決められたものであることを特徴とする請求項17記載の画像作成装置。   The image creating apparatus according to claim 17, wherein the adjustment strength is determined according to an age group of the aging period or the aging period. 前記調整強度が、前記肌部分が前記人物の身体における部位に応じて決められたものであることを特徴とする請求項12から18のいずれか1項記載の画像作成装置。   The image creation apparatus according to claim 12, wherein the adjustment strength is determined in accordance with a part of the person's body where the skin portion is. 前記調整強度が、前記現齢画像から抽出した前記年齢成分の度合いに応じて決められたものであることを特徴とする請求項12から19のいずれか1項記載の画像作成装置。   20. The image creating apparatus according to claim 12, wherein the adjustment strength is determined according to a degree of the age component extracted from the current age image. 前記調整強度が、前記現齢画像における化粧の有無もしくは前記加齢画像もしくは前記減齢画像の作成時における化粧の有無に応じて決められたものであることを特徴とする請求項12から20のいずれか1項記載の画像作成装置。   21. The adjustment intensity according to claim 12, wherein the adjustment intensity is determined according to presence / absence of makeup in the current age image or presence / absence of makeup at the time of creation of the aging image or the aged image. The image creation apparatus of any one of Claims. 前記調整強度が、前記人物の肌の色に応じて決められたものであることを特徴とする請求項12から21のいずれか1項記載の画像作成装置。   The image creation apparatus according to any one of claims 12 to 21, wherein the adjustment strength is determined according to a skin color of the person. 所定の年齢の人物の肌部分の画像を現齢画像として用いて、該人物の加齢後の前記肌部分の画像となる加齢画像および/または該人物の減齢時の前記肌部分の画像となる減齢画像を作成する画像作成処理をコンピュータに実行させるプログラムであって、
前記画像作成処理が、年齢の増加に応じて増加する、肌状態を示し得る成分を年齢成分として前記現齢画像から抽出する年齢成分抽出処理と、
所定の調整強度で該年齢成分を調整して調整成分を得る調整成分取得処理と、
該調整成分を前記現齢画像に加算して前記加齢画像を取得し、該調整成分を前記現齢画像から減算して前記減齢画像を取得する画像生成処理とからなることを特徴とするプログラム。
Using an image of a skin part of a person of a predetermined age as an actual-age image, an aging image that becomes an image of the skin part after aging of the person and / or an image of the skin part at the time of aging of the person A program for causing a computer to execute an image creation process for creating an aged image to be
The image creation process is an age component extraction process for extracting from the current age image as an age component a component that can indicate a skin condition that increases with an increase in age;
An adjustment component acquisition process for adjusting the age component with a predetermined adjustment intensity to obtain an adjustment component;
The image processing includes: adding the adjustment component to the current age image to obtain the aging image; and subtracting the adjustment component from the current age image to obtain the aged image. program.
前記年齢成分が、シワ成分および/またはシミ成分であることを特徴とする請求項23記載のプログラム。   The program according to claim 23, wherein the age component is a wrinkle component and / or a stain component. 前記年齢成分抽出処理が、
前記現齢画像に基づいて、該現齢画像の複数の周波数帯域ごとの成分を表す複数の帯域制限画像を作成し、
出力値の絶対値を入力値の絶対値以下にする処理であって、かつ絶対値が所定の閾値以下である入力値に対しては、該入力値の絶対値が大きいほど出力値の絶対値が大きくなる一方、絶対値が前記所定の閾値より大きい入力値に対しては、出力値の絶対値が前記所定の閾値に対応する出力値の絶対値以下となる非線形変換処理を各前記帯域制限画像の夫々の画素値に対して施して複数の変換画像の画素値を得、
該複数の変換画像の相対応する画素の画素値を加算して得た加算画素値を前記年齢成分を表す年齢成分画像の画素値として取得する処理であることを特徴とする請求項24記載のプログラム。
The age component extraction process is
Based on the age image, create a plurality of band limited images representing components for each of a plurality of frequency bands of the age image,
For an input value in which the absolute value of the output value is less than or equal to the absolute value of the input value and the absolute value is less than or equal to a predetermined threshold value, the absolute value of the output value increases as the absolute value of the input value increases. On the other hand, for an input value whose absolute value is larger than the predetermined threshold value, nonlinear conversion processing in which the absolute value of the output value is equal to or smaller than the absolute value of the output value corresponding to the predetermined threshold value is performed for each band limitation. Apply to each pixel value of the image to get the pixel values of multiple converted images,
25. The processing according to claim 24, wherein the added pixel value obtained by adding pixel values of corresponding pixels of the plurality of converted images is acquired as a pixel value of an age component image representing the age component. program.
前記調整成分取得処理が、前記調整強度を示す調整係数を前記年齢成分画像の画素値に乗算して前記調整成分を表す画像の画像値を得る処理であることを特徴とする請求項25記載のプログラム。   The adjustment component acquisition process is a process of obtaining an image value of an image representing the adjustment component by multiplying a pixel value of the age component image by an adjustment coefficient indicating the adjustment intensity. program. 前記調整係数が、前記現齢画像の画素の画素値に応じて前記画素毎に決められたものであることを特徴とする請求項26記載のプログラム。   27. The program according to claim 26, wherein the adjustment coefficient is determined for each of the pixels according to a pixel value of a pixel of the age image. 前記調整強度が、前記加齢または前記減齢の程度が大きいほど前記調整成分を大きくするものであることを特徴とする請求項23から27のいずれか1項記載のプログラム。   The program according to any one of claims 23 to 27, wherein the adjustment strength is such that the adjustment component increases as the degree of aging or aging increases. 前記調整強度が、前記加齢の期間または前記減齢の期間の年齢層に応じて決められたものであることを特徴とする請求項28記載のプログラム。   29. The program according to claim 28, wherein the adjustment strength is determined according to an age group of the aging period or the aging period. 前記調整強度が、前記肌部分が前記人物の身体における部位に応じて決められたものであることを特徴とする請求項23から29のいずれか1項記載のプログラム。   30. The program according to any one of claims 23 to 29, wherein the adjustment strength is determined according to a part of the person's body where the skin portion is. 前記調整強度が、前記現齢画像から抽出した前記年齢成分の度合いに応じて決められたものであることを特徴とする請求項23から30のいずれか1項記載のプログラム。   The program according to any one of claims 23 to 30, wherein the adjustment strength is determined according to a degree of the age component extracted from the current age image. 前記調整強度が、前記現齢画像における化粧の有無もしくは前記加齢画像もしくは前記減齢画像の作成時における化粧の有無に応じて決められたものであることを特徴とする請求項23から31のいずれか1項記載のプログラム。   32. The adjustment strength according to claim 23, wherein the adjustment intensity is determined according to presence / absence of makeup in the current age image or presence / absence of makeup at the time of creation of the aging image or the aged image. The program according to any one of the above. 前記調整強度が、前記人物の肌の色に応じて決められたものであることを特徴とする請求項23から32のいずれか1項記載のプログラム。   The program according to any one of claims 23 to 32, wherein the adjustment intensity is determined according to a skin color of the person.
JP2005209855A 2004-08-16 2005-07-20 Image generation method, image generation apparatus, and image generation program Withdrawn JP2006085678A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005209855A JP2006085678A (en) 2004-08-16 2005-07-20 Image generation method, image generation apparatus, and image generation program
US11/203,239 US20060034542A1 (en) 2004-08-16 2005-08-15 Image generation method, image generation apparatus, and image generation program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004236516 2004-08-16
JP2005209855A JP2006085678A (en) 2004-08-16 2005-07-20 Image generation method, image generation apparatus, and image generation program

Publications (1)

Publication Number Publication Date
JP2006085678A true JP2006085678A (en) 2006-03-30

Family

ID=35800034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005209855A Withdrawn JP2006085678A (en) 2004-08-16 2005-07-20 Image generation method, image generation apparatus, and image generation program

Country Status (2)

Country Link
US (1) US20060034542A1 (en)
JP (1) JP2006085678A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277354A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Face image operation device and face image operation program
JP2010224802A (en) * 2009-03-23 2010-10-07 Hironobu Otoi Virtual face image creation device and virtual face image creation method
WO2013157570A1 (en) * 2012-04-20 2013-10-24 富士フイルム株式会社 Image capturing apparatus, image capturing method, and program
KR101627962B1 (en) * 2015-02-09 2016-06-07 세종대학교산학협력단 Method and apparatus for analyzing fine scale wrinkle of skin image

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8290257B2 (en) * 2007-03-02 2012-10-16 The Procter & Gamble Company Method and apparatus for simulation of facial skin aging and de-aging
US8391639B2 (en) * 2007-07-23 2013-03-05 The Procter & Gamble Company Method and apparatus for realistic simulation of wrinkle aging and de-aging
BR112013013698B1 (en) 2010-12-03 2020-12-29 Ricoh Company, Ltd dust container, powder feeding device and image forming apparatus
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
US9639742B2 (en) 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
US9773156B2 (en) 2014-04-29 2017-09-26 Microsoft Technology Licensing, Llc Grouping and ranking images based on facial recognition data
US10131946B1 (en) * 2014-05-05 2018-11-20 Nse Products, Inc. Method for identifying agents regulating lipofilling activity
US9384335B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content delivery prioritization in managed wireless distribution networks
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US9430667B2 (en) 2014-05-12 2016-08-30 Microsoft Technology Licensing, Llc Managed wireless distribution network
US9384334B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content discovery in managed wireless distribution networks
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
US9367490B2 (en) 2014-06-13 2016-06-14 Microsoft Technology Licensing, Llc Reversible connector for accessory devices
US9460493B2 (en) 2014-06-14 2016-10-04 Microsoft Technology Licensing, Llc Automatic video quality enhancement with temporal smoothing and user override
US9373179B2 (en) 2014-06-23 2016-06-21 Microsoft Technology Licensing, Llc Saliency-preserving distinctive low-footprint photograph aging effect
CN106203304B (en) * 2016-06-30 2020-04-17 维沃移动通信有限公司 Image generation method and mobile terminal thereof
CN110741387B (en) * 2017-06-30 2023-07-25 Oppo广东移动通信有限公司 Face recognition method and device, storage medium and electronic equipment
WO2019064743A1 (en) * 2017-09-28 2019-04-04 パナソニックIpマネジメント株式会社 Authentication device, authentication system, authentication method, and program
CN109030548B (en) * 2018-08-08 2021-06-29 苏州科技大学 Polymer material thermal aging life evaluation method based on activation energy variation
CN110084142B (en) * 2019-04-04 2021-09-28 广州大学 Age privacy protection method and system for face recognition
CN110381374B (en) * 2019-07-26 2022-05-31 上海掌门科技有限公司 Image processing method and device
CN111275610B (en) * 2020-01-08 2023-08-18 杭州小影创新科技股份有限公司 Face aging image processing method and system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4276570A (en) * 1979-05-08 1981-06-30 Nancy Burson Method and apparatus for producing an image of a person's face at a different age
US7324668B2 (en) * 2001-10-01 2008-01-29 L'oreal S.A. Feature extraction in beauty analysis

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277354A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Face image operation device and face image operation program
JP2010224802A (en) * 2009-03-23 2010-10-07 Hironobu Otoi Virtual face image creation device and virtual face image creation method
WO2013157570A1 (en) * 2012-04-20 2013-10-24 富士フイルム株式会社 Image capturing apparatus, image capturing method, and program
JP2013225193A (en) * 2012-04-20 2013-10-31 Fujifilm Corp Imaging device, imaging method and program
US9154691B2 (en) 2012-04-20 2015-10-06 Fujifilm Corporation Image capturing apparatus, image capturing method, and program
KR101627962B1 (en) * 2015-02-09 2016-06-07 세종대학교산학협력단 Method and apparatus for analyzing fine scale wrinkle of skin image

Also Published As

Publication number Publication date
US20060034542A1 (en) 2006-02-16

Similar Documents

Publication Publication Date Title
JP2006085678A (en) Image generation method, image generation apparatus, and image generation program
JP4455897B2 (en) Image processing method, apparatus, and program
CN108229278B (en) Face image processing method and device and electronic equipment
JP2008234342A (en) Image processor and image processing method
JP4461789B2 (en) Image processing device
US9142054B2 (en) System and method for changing hair color in digital images
EP1596573B1 (en) Image correction apparatus
JP6872742B2 (en) Face image processing system, face image processing method and face image processing program
CN111046763B (en) Portrait cartoon method and device
EP1372109A3 (en) Method and system for enhancing portrait images
WO2022088976A1 (en) Image processing method and device
CN113850169A (en) Face attribute migration method based on image segmentation and generation of confrontation network
CN114862729A (en) Image processing method, image processing device, computer equipment and storage medium
JP2010198382A (en) Simulation apparatus, simulation method and computer program
JP2000151985A (en) Picture processing method and recording medium
JP5810384B2 (en) Face image processing system, face image processing method, and face image processing program
KR100974165B1 (en) System and method for synthesis of face expression using nonlinear regression analysis
JP5807555B2 (en) Image processing program, apparatus and method
JP4585253B2 (en) Authentication system
JP4768869B1 (en) Face image processing system, face image processing method, and face image processing program
JP2009050035A (en) Image processing method, image processing system, and image processing program
JP4585254B2 (en) Authentication system
JP2007243987A (en) Image processing method, image processing system, and image processing program
JP2007299113A (en) Hair coloring and makeup simulation system
JP2011128676A (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061211

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081007