JP4682373B2 - Face image synthesis device, face image synthesis method, and face image synthesis program - Google Patents

Face image synthesis device, face image synthesis method, and face image synthesis program Download PDF

Info

Publication number
JP4682373B2
JP4682373B2 JP2005318654A JP2005318654A JP4682373B2 JP 4682373 B2 JP4682373 B2 JP 4682373B2 JP 2005318654 A JP2005318654 A JP 2005318654A JP 2005318654 A JP2005318654 A JP 2005318654A JP 4682373 B2 JP4682373 B2 JP 4682373B2
Authority
JP
Japan
Prior art keywords
age
face
wrinkle
face image
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005318654A
Other languages
Japanese (ja)
Other versions
JP2007128171A (en
Inventor
茂 向田
広志 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005318654A priority Critical patent/JP4682373B2/en
Publication of JP2007128171A publication Critical patent/JP2007128171A/en
Application granted granted Critical
Publication of JP4682373B2 publication Critical patent/JP4682373B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

本発明は、顔画像合成装置、顔画像合成方法および顔画像合成プログラムに関する。   The present invention relates to a face image composition device, a face image composition method, and a face image composition program.

従来から、顔画像におけるしみおよびしわを操作することにより、顔画像の年齢印象を変化させること(加齢処理)が可能な顔画像合成装置およびその方法が提案されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a face image synthesizing apparatus and method that can change the age impression (aging process) of a face image by manipulating blotches and wrinkles in the face image have been proposed (for example, Patent Document 1). reference).

このような顔画像合成装置においては、例えば目、鼻、口等の顔パーツ(顔部品)の形状を操作することにより年齢印象の異なる顔画像が合成される。   In such a face image synthesizing apparatus, for example, face images having different age impressions are synthesized by manipulating the shapes of face parts (face parts) such as eyes, nose, and mouth.

従来、第1の方法としてコンピュータグラフィックス(CG)によるしみおよびしわを顔画像に合成する方法と、第2の方法としてしみおよびしわを有する顔画像からしみおよびしわを抽出し、抽出したしみおよびしわを操作する方法とがある。
特開2005−92349号公報
Conventionally, as a first method, a computer graphics (CG) stain and wrinkle are combined with a face image, and as a second method, a stain and wrinkle are extracted from a face image having spots and wrinkles, and the extracted blot and wrinkle are extracted. There is a way to operate.
Japanese Patent Laid-Open No. 2005-92349

しかしながら、従来のコンピュータグラフィックス(CG)によるしみおよびしわを顔画像に合成した場合、合成後の顔画像には不自然さが残る。   However, when the spots and wrinkles by conventional computer graphics (CG) are combined with the face image, unnaturalness remains in the combined face image.

また、しみおよびしわがほとんどない若年者から、しみおよびしわを抽出することが非常に困難である。その結果、若年者を対象とした加齢処理を行うことができない。   It is also very difficult to extract blots and wrinkles from young people who have few spots and wrinkles. As a result, the aging process for young people cannot be performed.

本発明の目的は、若年者の顔画像を年齢操作することが可能で、かつ年齢操作後の顔画像に不自然さを残さない顔画像合成装置、顔画像合成方法および顔画像合成プログラムを提供することである。   An object of the present invention is to provide a face image composition device, a face image composition method, and a face image composition program capable of performing age manipulation on a face image of a young person and leaving no unnaturalness in the face image after age manipulation. It is to be.

第1の発明に係る顔画像合成装置は、対象者の顔画像から指定された年齢または年齢層の顔画像を合成する顔画像合成装置であって、予め複数人の顔画像を記憶する記憶手段と、記憶手段に記憶された複数人の顔画像から複数人のしみまたはしわを検出する検出手段と、記憶手段に記憶された複数人の顔画像から年齢または年齢層に対応する平均顔形状である年齢形状特徴を生成する生成手段と、検出手段により検出された複数人のしみまたはしわから年齢または年齢層に対応するしみモデルまたはしわモデルを作成する作成手段と、対象者の顔画像からしみまたはしわを有しない顔形状を抽出する抽出手段と、生成手段により生成された年齢形状特徴のうち指定された年齢または年齢層に対応する年齢形状特徴に基づいて抽出手段により抽出された対象者の顔形状を変形させる変形手段と、作成手段により作成された年齢または年齢層に対応するしみモデルまたはしわモデルのうち指定された年齢または年齢層に対応するしみモデルまたはしわモデルを変形手段により変形された対象者の顔形状に合致するよう変形した後、変形後のしみモデルまたはしわモデルを対象者の顔画像に適用することにより指定された年齢または年齢層に対応する顔画像を合成する適用手段とを備え、作成手段は、顔画像の複数に分割された領域ごとに複数人からしみの数または面積を抽出し、抽出された領域ごとのしみの数または面積を領域ごとに昇順または降順に並べた場合に、略中央に位置するしみの数または面積を有する顔画像の領域を選択し、選択された領域のしみを結合したものをしみモデルとして作成し、複数人の顔画像のしわ成分を生成手段により生成された年齢形状特徴に合成し、しわ成分の重なり度合いが最も大きくなるようにしわ成分の位置をずらし、ずらした後のしわ成分の輝度を積算し、積算されたしわ成分の輝度を人数で割り、得られた輝度が基準値を超える領域をしわモデルのしわとして設定するものである。 A face image synthesizer according to a first aspect is a face image synthesizer for synthesizing a face image of a specified age or age group from a face image of a subject, and storing means for storing a plurality of face images in advance. Detecting means for detecting spots or wrinkles of a plurality of persons from the face images of the plurality of persons stored in the storage means, and an average face shape corresponding to the age or age group from the plurality of face images stored in the storage means A generation means for generating a certain age shape feature, a creation means for creating a blot model or a wrinkle model corresponding to the age or age group from the spots or wrinkles of a plurality of persons detected by the detection means , and a blot from the face image of the subject or an extraction means for extracting a no face shape wrinkles, extracted by the extraction means based on the corresponding age shape features on the age or age group that is specified among the generated by the generating means age shape feature And deforming means for deforming the subject's face shape that is, the stain model or wrinkle model corresponding to the age or age group that is specified among the stain model or wrinkle model corresponding to the age or age group that is created by the creation means A face image corresponding to a specified age or age group by applying the deformed blot model or wrinkle model to the face image of the subject after being deformed to match the face shape of the subject deformed by the deforming means. And applying means for synthesizing , and the creating means extracts the number or area of stains from a plurality of persons for each area divided into a plurality of face images, and calculates the number or area of stains for each extracted area for each area. When the images are arranged in ascending or descending order, the face image area having the number or area of the blot located at the approximate center is selected, and the spot pattern obtained by combining the selected area's blots is selected. The wrinkle component of the face image of multiple people is synthesized with the age shape feature generated by the generating means, the wrinkle component position is shifted so that the overlapping degree of the wrinkle component is the largest, and the wrinkle after the shift is The luminance of the component is integrated, the luminance of the integrated wrinkle component is divided by the number of people, and an area where the obtained luminance exceeds the reference value is set as a wrinkle of the wrinkle model .

本発明に係る顔画像合成装置においては、記憶手段により予め複数人の顔画像が記憶され、検出手段によりそれらの顔画像から複数人のしみまたはしわが検出される。また、記憶手段に記憶された複数人の顔画像から年齢または年齢層に対応する平均顔形状である年齢形状特徴が生成手段により生成される。さらに、検出手段により検出された複数人のしみまたはしわから年齢または年齢層に対応するしみモデルまたはしわモデルが作成手段により作成される。 In the face image synthesizer according to the present invention, the face images of a plurality of persons are stored in advance by the storage means, and the spots or wrinkles of the persons are detected from these face images by the detection means. Further , an age shape feature that is an average face shape corresponding to the age or age group is generated from the face images of a plurality of persons stored in the storage means by the generation means. Further, a blot model or a wrinkle model corresponding to the age or age group is created from the blots or wrinkles of a plurality of persons detected by the detection means.

一方、抽出手段により対象者の顔画像からしみまたはしわを有しない顔形状が抽出される。さらに、生成手段により生成された年齢形状特徴のうち指定された年齢または年齢層に対応する年齢形状特徴に基づいて抽出手段により抽出された対象者の顔形状が変形手段により変形される。それにより、対象者の顔形状を指定された年齢または年齢層に対応する顔形状に年齢操作することができる。また、作成手段により作成されたしみモデルまたはしわモデルのうち指定された年齢または年齢層に対応するしみモデルまたはしわモデルが、変形手段により変形された対象者の顔形状に合致するよう変形された後、変形後のしみモデルまたはしわモデルが対象者の顔画像に適用手段により適用される。それにより、指定された年齢または年齢層に対応する対象者の顔画像が合成される。 On the other hand, a face shape having no blotches or wrinkles is extracted from the face image of the subject by the extracting means. Further, the face shape of the subject extracted by the extraction unit based on the age shape feature corresponding to the specified age or age group among the age shape features generated by the generation unit is deformed by the deformation unit. Thereby, the age of the face shape of the subject can be manipulated to a face shape corresponding to the specified age or age group. In addition, the stain model or the wrinkle model corresponding to the specified age or age group among the stain model or the wrinkle model created by the creation means has been deformed to match the face shape of the subject deformed by the deformation means. Thereafter, the deformed blot model or wrinkle model is applied to the face image of the subject by the applying means. Thereby, the face image of the subject corresponding to the designated age or age group is synthesized.

このように、指定された年齢または年齢層に対応するしみモデルまたはしわモデルが対象者の顔画像に適用されることによって、従来のコンピュータグラフィックス(CG)によるしみおよびしわのモデルを顔画像に合成した場合のような合成後の顔画像に残る不自然さの発生を防止することができる。それにより、対象者の顔画像を所望の年齢または年齢層に対応する自然な顔画像に年齢操作することができる。   In this way, the blot model or wrinkle model corresponding to the specified age or age group is applied to the face image of the subject, so that the conventional computer graphics (CG) blot and wrinkle model is converted into the face image. It is possible to prevent the occurrence of unnaturalness remaining in the face image after the synthesis as in the case of the synthesis. Thereby, the age of the face image of the subject can be manipulated to a natural face image corresponding to a desired age or age group.

また、作成手段により作成されたしみモデルまたはしわモデルを用いることにより、しみおよびしわがほとんどない若年者の顔画像に対しても年齢操作を容易に行うことが可能となる。
しみの位置は人ごとに異なるが、しみの数および面積は同じ年齢または年齢層の人に共通している。したがって、顔画像の複数に分割された領域ごとに、その領域ごとで略中央に位置される標準的なしみの数または面積を有する対象者の領域が選択され、選択された領域のしみが結合されたものをしみモデルとして用いることにより、しみモデルの信頼性を向上することができる。また、複数人のしわのうち共通する領域をしわモデルとすることにより、所望の年齢または年齢層に相応の自然な顔画像を得ることができる。
In addition, by using a blot model or a wrinkle model created by the creating means, it is possible to easily perform an age operation on a face image of a young person who has almost no blots and wrinkles.
The location of the stain varies from person to person, but the number and area of the stain is common to people of the same age or age group. Therefore, for each area divided into a plurality of face images, a target area having a standard number or area of spots that is located approximately in the center of each area is selected, and the spots of the selected areas are combined. The reliability of the stain model can be improved by using the processed image as the stain model. Further, by using a common area among wrinkles of a plurality of people as a wrinkle model, a natural face image corresponding to a desired age or age group can be obtained.

検出手段は、記憶手段に記憶された各顔画像において各画素の輝度と周辺領域の輝度との差に基づいて小塊を抽出し、抽出された小塊からしみまたはしわを検出してもよい。   The detection unit may extract a small blob in each face image stored in the storage unit based on a difference between the luminance of each pixel and the luminance of the surrounding area, and detect a blot or a wrinkle from the extracted small blob. .

この場合、記憶手段に記憶された各顔画像において各画素の輝度と周辺領域の輝度との差に基づいて小塊が検出手段により検出され、検出された小塊からしみまたはしわが検出手段により検出される。ここで、小塊とは、顔画像内で周辺領域の輝度に比べてより低いまたは高い輝度を有する画素が連結した領域をいう。   In this case, in each face image stored in the storage unit, a small lump is detected by the detecting unit based on the difference between the luminance of each pixel and the luminance of the surrounding area, and a spot or a wrinkle is detected by the detecting unit. Detected. Here, the blob means an area where pixels having lower or higher luminance than the luminance of the peripheral area in the face image are connected.

しみは皮膚表面の色の異なる部分であるため、各画素の輝度と周辺領域の輝度との差に基づいてしみに相当する小塊を検出することができる。また、しわは皮膚表面の凹凸により構成される陰影であるため、各画素の輝度と周辺領域の輝度との差に基づいてしわに相当する小塊を検出することができる。このように検出された小塊を用いることで、しみおよびしわを容易に検出することが可能となる。   Since the stain is a portion having a different color on the skin surface, a small lump corresponding to the stain can be detected based on the difference between the luminance of each pixel and the luminance of the surrounding area. Further, since the wrinkle is a shadow formed by the unevenness of the skin surface, a small lump corresponding to the wrinkle can be detected based on the difference between the luminance of each pixel and the luminance of the surrounding area. By using the small blob thus detected, it is possible to easily detect spots and wrinkles.

第2の発明に係る顔画像合成方法は、対象者の顔画像から指定された年齢または年齢層の顔画像を合成する顔画像合成方法であって、予め複数人の顔画像を記憶するステップと、記憶された複数人の顔画像から複数人のしみまたはしわを検出するステップと、記憶された複数人の顔画像から年齢または年齢層に対応する平均顔形状である年齢形状特徴を生成するステップと、検出された複数人のしみまたはしわから年齢または年齢層に対応するしみモデルまたはしわモデルを作成するステップと、対象者の顔画像からしみまたはしわを有しない顔形状を抽出するステップと、生成された年齢形状特徴のうち指定された年齢または年齢層に対応する年齢形状特徴に基づいて抽出された対象者の顔形状を変形させるステップと、作成された年齢または年齢層に対応するしみモデルまたはしわモデルのうち指定された年齢または年齢層に対応するしみモデルまたはしわモデルを変形された対象者の顔形状に合致するよう変形した後、変形後のしみモデルまたはしわモデルを対象者の顔画像に適用することにより指定された年齢または年齢層に対応する顔画像を合成するステップと、作成するステップは、顔画像の複数に分割された領域ごとに複数人からしみの数または面積を抽出し、抽出された領域ごとのしみの数または面積を領域ごとに昇順または降順に並べた場合に、略中央に位置するしみの数または面積を有する顔画像の領域を選択し、選択された領域のしみを結合したものをしみモデルとして作成し、複数人の顔画像のしわ成分を生成された年齢形状特徴に合成し、しわ成分の重なり度合いが最も大きくなるようにしわ成分の位置をずらし、ずらした後のしわ成分の輝度を積算し、積算されたしわ成分の輝度を人数で割り、得られた輝度が基準値を超える領域をしわモデルのしわとして設定することを含むものである。 A face image composition method according to a second aspect of the present invention is a face image composition method for compositing a face image of a specified age or age group from a face image of a subject, and storing a plurality of face images in advance. Detecting a blot or wrinkle of a plurality of persons from the stored face images of the plurality of persons, and generating an age shape feature that is an average face shape corresponding to the age or age group from the stored face images of the plurality of persons Creating a blot model or wrinkle model corresponding to the age or age group from the detected blots or wrinkles of a plurality of people, extracting a face shape having no blots or wrinkles from the face image of the subject, a step of deforming the generated subject's face shape extracted based on corresponding age shape features to the given age or age group of age-shaped features, age created or After deformed to match the face shape of the subject has been modified spots model or wrinkle model corresponding to the specified age or age of the stain model or wrinkle model corresponding to the age group, stain model after deformation Alternatively, the step of synthesizing the face image corresponding to the specified age or age group by applying the wrinkle model to the face image of the target person and the step of creating a plurality of people for each area divided into the plurality of face images When the number or area of spots is extracted, and the number or area of blots for each extracted area is arranged in ascending or descending order for each area, the area of the face image that has the number or area of blots located approximately in the center Is created by combining the selected region's blots as a blot model, and the wrinkle components of the face images of multiple people are combined with the generated age shape features, and the wrinkle component overlaps. The position of the wrinkle component is shifted to maximize the degree of wrinkle, the luminance of the wrinkle component after the shift is integrated, the luminance of the integrated wrinkle component is divided by the number of people, and the area where the obtained luminance exceeds the reference value It includes setting as a wrinkle of a wrinkle model .

本発明に係る顔画像合成方法においては、予め複数人の顔画像が記憶され、それらの顔画像から複数人のしみまたはしわが検出される。また、記憶された複数人の顔画像から年齢または年齢層に対応する平均顔形状である年齢形状特徴が生成される。さらに、検出された複数人のしみまたはしわから年齢または年齢層に対応するしみモデルまたはしわモデルが作成される。 In the face image composition method according to the present invention, face images of a plurality of people are stored in advance, and spots or wrinkles of the plurality of people are detected from these face images. Also, an age shape feature that is an average face shape corresponding to the age or age group is generated from the stored face images of a plurality of persons. Further, a blot model or wrinkle model corresponding to the age or age group is created from the detected blots or wrinkles of a plurality of persons.

一方、対象者の顔画像からしみまたはしわを有しない顔形状が抽出される。さらに、生成された年齢形状特徴のうち指定された年齢または年齢層に対応する年齢形状特徴に基づいて抽出された対象者の顔形状が変形される。それにより、対象者の顔形状を指定された年齢または年齢層に対応する顔形状に年齢操作することができる。また、作成されたしみモデルまたはしわモデルのうち指定された年齢または年齢層に対応するしみモデルまたはしわモデルが、変形された対象者の顔形状に合致するよう変形された後、変形後のしみモデルまたはしわモデルが対象者の顔画像に適用される。それにより、指定された年齢または年齢層に対応する対象者の顔画像が合成される。 On the other hand, a face shape having no spots or wrinkles is extracted from the face image of the subject. Further, the face shape of the subject extracted based on the age shape feature corresponding to the specified age or age group among the generated age shape features is transformed. Thereby, the age of the face shape of the subject can be manipulated to a face shape corresponding to the specified age or age group. In addition, after the blot model or wrinkle model corresponding to the specified age or age group of the created blot model or wrinkle model is deformed to match the deformed subject's face shape, the deformed blot model The model or wrinkle model is applied to the face image of the subject. Thereby, the face image of the subject corresponding to the designated age or age group is synthesized.

このように、指定された年齢または年齢層に対応するしみモデルまたはしわモデルが対象者の顔画像に適用されることによって、従来のコンピュータグラフィックス(CG)によるしみおよびしわのモデルを顔画像に合成した場合のような合成後の顔画像に残る不自然さの発生を防止することができる。それにより、対象者の顔画像を所望の年齢または年齢層に対応する自然な顔画像に年齢操作することができる。   In this way, the blot model or wrinkle model corresponding to the specified age or age group is applied to the face image of the subject, so that the conventional computer graphics (CG) blot and wrinkle model is converted into the face image. It is possible to prevent the occurrence of unnaturalness remaining in the face image after the synthesis as in the case of the synthesis. Thereby, the age of the face image of the subject can be manipulated to a natural face image corresponding to a desired age or age group.

また、作成されたしみモデルまたはしわモデルを用いることにより、しみおよびしわがほとんどない若年者の顔画像に対しても年齢操作を容易に行うことが可能となる。
しみの位置は人ごとに異なるが、しみの数および面積は同じ年齢または年齢層の人に共通している。したがって、顔画像の複数に分割された領域ごとに、その領域ごとで略中央に位置される標準的なしみの数または面積を有する対象者の領域が選択され、選択された領域のしみが結合されたものをしみモデルとして用いることにより、しみモデルの信頼性を向上することができる。また、複数人のしわのうち共通する領域をしわモデルとすることにより、所望の年齢または年齢層に相応の自然な顔画像を得ることができる。
In addition, by using the created blot model or wrinkle model, it is possible to easily perform an age operation on a face image of a young person who has few spots and wrinkles.
The location of the stain varies from person to person, but the number and area of the stain is common to people of the same age or age group. Therefore, for each area divided into a plurality of face images, a target area having a standard number or area of spots that is located approximately in the center of each area is selected, and the spots of the selected areas are combined. The reliability of the stain model can be improved by using the processed image as the stain model. Further, by using a common area among wrinkles of a plurality of people as a wrinkle model, a natural face image corresponding to a desired age or age group can be obtained.

第3の発明に係る顔画像合成プログラムは、コンピュータにより実行可能で、対象者の顔画像から指定された年齢または年齢層の顔画像を合成する顔画像合成プログラムであって、予め複数人の顔画像を記憶する処理と、記憶された複数人の顔画像から複数人のしみまたはしわを検出する処理と、記憶された複数人の顔画像から年齢または年齢層に対応する平均顔形状である年齢形状特徴を生成する処理と、検出された複数人のしみまたはしわから年齢または年齢層に対応するしみモデルまたはしわモデルを作成する処理と、対象者の顔画像からしみまたはしわを有しない顔形状を抽出する処理と、生成された年齢形状特徴のうち指定された年齢または年齢層に対応する年齢形状特徴に基づいて抽出された対象者の顔形状を変形させる処理と、作成された年齢または年齢層に対応するしみモデルまたはしわモデルのうち指定された年齢または年齢層に対応するしみモデルまたはしわモデルを変形された対象者の顔形状に合致するよう変形した後、変形後のしみモデルまたはしわモデルを対象者の顔画像に適用することにより指定された年齢または年齢層に対応する顔画像を合成する処理とを、コンピュータに実行させ、作成する処理は、顔画像の複数に分割された領域ごとに複数人からしみの数または面積を抽出し、抽出された領域ごとのしみの数または面積を領域ごとに昇順または降順に並べた場合に、略中央に位置するしみの数または面積を有する顔画像の領域を選択し、選択された領域のしみを結合したものをしみモデルとして作成し、複数人の顔画像のしわ成分を生成された年齢形状特徴に合成し、しわ成分の重なり度合いが最も大きくなるようにしわ成分の位置をずらし、ずらした後のしわ成分の輝度を積算し、積算されたしわ成分の輝度を人数で割り、得られた輝度が基準値を超える領域をしわモデルのしわとして設定することを含むものである。 A face image composition program according to a third aspect of the present invention is a face image composition program that can be executed by a computer and synthesizes a face image of a specified age or age group from a face image of a target person. Process for storing images, process for detecting spots or wrinkles of multiple persons from stored face images of multiple persons, and age that is an average face shape corresponding to age or age group from stored multiple face images Processing to generate shape features, processing to create a blot model or wrinkle model corresponding to the age or age group from the detected blots or wrinkles of multiple people, and facial shape that does not have blots or wrinkles from the face image of the subject a process for extracting, and processing for deforming the subject's face shape extracted based on corresponding age shape features to the given age or age of the generated age shape feature After deformed to match the face shape of the subject has been modified spots model or wrinkle model corresponding to the specified age or age of the stain model or wrinkle model corresponding to the age or age group has been created, modified The process of creating a face image corresponding to the specified age or age group by applying a later spot model or wrinkle model to the face image of the subject is executed by the computer. When the number or area of blots is extracted from multiple people for each divided area, and the number or area of the spots for each extracted area is arranged in ascending or descending order for each area, the blot is located at the approximate center. A face image area having the number or area of the selected face image is selected, and a combination of the selected area's blots is created as a blot model to generate wrinkle components for multiple face images. Synthesize the age shape feature, shift the position of the wrinkle component so that the overlapping degree of the wrinkle component is the largest, add the luminance of the wrinkle component after the shift, divide the luminance of the integrated wrinkle component by the number of people Including setting a region in which the luminance obtained exceeds a reference value as a wrinkle of the wrinkle model .

本発明に係る顔画像合成プログラムにおいては、予め複数人の顔画像が記憶され、それらの顔画像から複数人のしみまたはしわが検出される。また、記憶された複数人の顔画像から年齢または年齢層に対応する平均顔形状である年齢形状特徴が生成される。さらに、検出された複数人のしみまたはしわから年齢または年齢層に対応するしみモデルまたはしわモデルが作成される。 In the face image composition program according to the present invention, face images of a plurality of people are stored in advance, and spots or wrinkles of the plurality of people are detected from these face images. Also, an age shape feature that is an average face shape corresponding to the age or age group is generated from the stored face images of a plurality of persons. Further, a blot model or wrinkle model corresponding to the age or age group is created from the detected blots or wrinkles of a plurality of persons.

一方、対象者の顔画像からしみまたはしわを有しない顔形状が抽出される。さらに、生成された年齢形状特徴のうち指定された年齢または年齢層に対応する年齢形状特徴に基づいて抽出された対象者の顔形状が変形される。それにより、対象者の顔形状を指定された年齢または年齢層に対応する顔形状に年齢操作することができる。また、作成されたしみモデルまたはしわモデルのうち指定された年齢または年齢層に対応するしみモデルまたはしわモデルが、変形された対象者の顔形状に合致するよう変形された後、変形後のしみモデルまたはしわモデルが対象者の顔画像に適用される。それにより、指定された年齢または年齢層に対応する対象者の顔画像が合成される。 On the other hand, a face shape having no spots or wrinkles is extracted from the face image of the subject. Further, the face shape of the subject extracted based on the age shape feature corresponding to the specified age or age group among the generated age shape features is transformed. Thereby, the age of the face shape of the subject can be manipulated to a face shape corresponding to the specified age or age group. In addition, after the blot model or wrinkle model corresponding to the specified age or age group of the created blot model or wrinkle model is deformed to match the deformed subject's face shape, the deformed blot model The model or wrinkle model is applied to the face image of the subject. Thereby, the face image of the subject corresponding to the designated age or age group is synthesized.

このように、指定された年齢または年齢層に対応するしみモデルまたはしわモデルが対象者の顔画像に適用されることによって、従来のコンピュータグラフィックス(CG)によるしみおよびしわのモデルを顔画像に合成した場合のような合成後の顔画像に残る不自然さの発生を防止することができる。それにより、対象者の顔画像を所望の年齢または年齢層に対応する自然な顔画像に年齢操作することができる。   In this way, the blot model or wrinkle model corresponding to the specified age or age group is applied to the face image of the subject, so that the conventional computer graphics (CG) blot and wrinkle model is converted into the face image. It is possible to prevent the occurrence of unnaturalness remaining in the face image after the synthesis as in the case of the synthesis. Thereby, the age of the face image of the subject can be manipulated to a natural face image corresponding to a desired age or age group.

また、作成されたしみモデルまたはしわモデルを用いることにより、しみおよびしわがほとんどない若年者の顔画像に対しても年齢操作を容易に行うことが可能となる。
しみの位置は人ごとに異なるが、しみの数および面積は同じ年齢または年齢層の人に共通している。したがって、顔画像の複数に分割された領域ごとに、その領域ごとで略中央に位置される標準的なしみの数または面積を有する対象者の領域が選択され、選択された領域のしみが結合されたものをしみモデルとして用いることにより、しみモデルの信頼性を向上することができる。また、複数人のしわのうち共通する領域をしわモデルとすることにより、所望の年齢または年齢層に相応の自然な顔画像を得ることができる。
In addition, by using the created blot model or wrinkle model, it is possible to easily perform an age operation on a face image of a young person who has few spots and wrinkles.
The location of the stain varies from person to person, but the number and area of the stain is common to people of the same age or age group. Therefore, for each area divided into a plurality of face images, a target area having a standard number or area of spots that is located approximately in the center of each area is selected, and the spots of the selected areas are combined. The reliability of the stain model can be improved by using the processed image as the stain model. Further, by using a common area among wrinkles of a plurality of people as a wrinkle model, a natural face image corresponding to a desired age or age group can be obtained.

本発明によれば、コンピュータグラフィックス(CG)によるしみおよびしわのモデルを顔画像に合成した場合のような合成後の顔画像に残る不自然さの発生を防止することができる。それにより、対象者の顔画像を所望の年齢または年齢層に対応する自然な顔画像に年齢操作することができる。また、しみおよびしわがほとんどない若年者の顔画像に対しても年齢操作を容易に行うことが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, generation | occurrence | production of the unnaturalness which remains in the face image after a synthesis | combination like the case where the model of a blot and a wrinkle by computer graphics (CG) is synthesized with a face image can be prevented. Thereby, the age of the face image of the subject can be manipulated to a natural face image corresponding to a desired age or age group. In addition, it is possible to easily perform an age operation on a face image of a young person who has few spots and wrinkles.

(1)基本思想
最初に、本発明に係る顔画像合成装置および顔画像合成方法の基本思想について説明する。
(1) Basic idea First, the basic idea of the face image composition device and the face image composition method according to the present invention will be described.

しみおよびしわは、人が生きて行く過程で外界から受ける様々な影響から皮膚が変化し、蓄積されたものである。しみは、皮膚内部の組織が変化し、色素が沈着したものである。一方、しわは、皮膚が曲がることを繰り返し、固定化された皮膚上の溝である。   Blots and wrinkles are accumulated skin that changes due to various effects from the outside world in the process of human life. Stain is a change in tissue within the skin and pigmentation. On the other hand, wrinkles are grooves on the skin that are fixed by repeatedly bending the skin.

このような理由で、しみは皮膚の凹凸でできた陰影ではなく、画像上において皮膚表面の色の異なる部分として存在する。しわは皮膚上の溝であるから、画像上において皮膚表面上の凹凸により構成される陰影である。   For this reason, the blot is not a shadow formed by the unevenness of the skin, but exists as a portion having a different color on the skin surface on the image. Since wrinkles are grooves on the skin, they are shadows formed by irregularities on the skin surface on the image.

(2)顔画像合成装置の構成
次に、図1のブロック図を用いて本実施の形態の顔画像合成方法を実行するための顔画像合成装置の構成を説明する。
(2) Configuration of Face Image Synthesis Device Next, the configuration of the face image synthesis device for executing the face image synthesis method of the present embodiment will be described using the block diagram of FIG.

画像処理装置50は、CPU(中央演算処理装置)501、ROM(リードオンリメモリ)502、RAM(ランダムアクセスメモリ)503、入力装置504、表示装置505、外部記憶装置506、記録媒体駆動装置507および印刷装置508を含む。   The image processing apparatus 50 includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, an input device 504, a display device 505, an external storage device 506, a recording medium driving device 507, and the like. A printing device 508.

入力装置504は、キーボード、マウス、スキャナ、デジタルカメラ等からなり、各種指令、データおよび画像を入力するために用いられる。ROM502にはシステムプログラムが記憶される。記録媒体駆動装置507は、CD(コンパクトディスク)ドライブ、DVD(デジタルバーサタイルディスク)ドライブ、FD(フレキシブルディスク)ドライブ等からなり、CD、DVD、FD等の記録媒体509に対してデータの読み書きを行う。   The input device 504 includes a keyboard, a mouse, a scanner, a digital camera, and the like, and is used for inputting various commands, data, and images. The ROM 502 stores a system program. The recording medium driving device 507 includes a CD (compact disk) drive, a DVD (digital versatile disk) drive, an FD (flexible disk) drive, and the like, and reads / writes data from / to a recording medium 509 such as a CD, DVD, or FD. .

記録媒体509には、顔画像合成プログラムが記録されている。この顔画像合成プログラムは、各種画像処理プログラムを含む。   In the recording medium 509, a face image synthesis program is recorded. This face image synthesis program includes various image processing programs.

外部記憶装置506は、ハードディスク装置等からなり、記録媒体駆動装置507を介して記録媒体509から読み込まれた顔画像合成プログラムおよび各種データを記憶する。CPU501は、外部記憶装置506に記憶された顔画像合成プログラムをRAM503上で実行する。   The external storage device 506 includes a hard disk device or the like, and stores a face image synthesis program and various data read from the recording medium 509 via the recording medium driving device 507. The CPU 501 executes the face image synthesis program stored in the external storage device 506 on the RAM 503.

表示装置505は、液晶表示パネル、CRT(陰極線管)等からなり、各種画像等を表示する。印刷装置508は、各種画像等を印刷する。   The display device 505 includes a liquid crystal display panel, a CRT (cathode ray tube), and the like, and displays various images. The printing device 508 prints various images.

なお、顔画像合成プログラムを記録する記録媒体509として、ROM等の半導体メモリ、ハードディスク等の種々の記録媒体を用いることができる。また、顔画像合成プログラムを通信回線等の通信媒体を介して外部記憶装置506にダウンロードし、RAM503上で実行してもよい。   As the recording medium 509 for recording the face image synthesis program, various recording media such as a semiconductor memory such as a ROM and a hard disk can be used. Further, the face image synthesis program may be downloaded to the external storage device 506 via a communication medium such as a communication line and executed on the RAM 503.

(3)しみ/しわモデル作成処理
以下、図2のフローチャートを参照しながら、図1の顔画像合成装置によるしみ/しわモデル作成処理について説明する。
(3) Blemish / wrinkle model creation process The blot / wrinkle model creation process performed by the face image synthesizing apparatus of FIG. 1 will be described below with reference to the flowchart of FIG.

ここでは、各年齢または各年齢層の複数の対象者の顔画像に基づいて各年齢または各年齢層のしみ/しわモデルを作成する処理について説明する。この場合、デジタルカメラ等により得られた対象者の顔画像(以下、原画像と称する)が画像データとして外部記憶装置506に記憶されているものとする。   Here, a process of creating a blot / wrinkle model for each age or each age group based on the face images of a plurality of subjects in each age or each age group will be described. In this case, it is assumed that the face image (hereinafter referred to as an original image) of the subject obtained by a digital camera or the like is stored in the external storage device 506 as image data.

画像データは、赤色画像データ、緑色画像データおよび青色画像データからなる。後述するしみおよびしわの検出は、緑色画像データを用いて行われる。この場合、赤色画像データは肌の色に近いため、肌の色と異なる緑色画像データを用いることにより、しみおよびしわを正確に検出することができる。   The image data includes red image data, green image data, and blue image data. Spots and wrinkles, which will be described later, are detected using the green image data. In this case, since the red image data is close to the skin color, it is possible to accurately detect the spots and wrinkles by using the green image data different from the skin color.

また、原画像における顔パーツ(目、鼻、口等)の位置を示す位置情報も予め取得され、外部記憶装置506に記憶されているものとする。顔パーツの位置情報は、人の入力操作により取得されてもよく、原画像から自動的に取得されてもよい。   Further, it is assumed that position information indicating the position of face parts (eyes, nose, mouth, etc.) in the original image is acquired in advance and stored in the external storage device 506. The position information of the face part may be acquired by a human input operation or may be automatically acquired from the original image.

最初に、CPU501は、対象者の人数Mおよび年齢Nを取得する(ステップS1)。なお、CPU501は、上記年齢Nの代わりに対象者の年齢層を取得してもよい。例えば取得された年齢層が20歳台の場合には、上記対象者の年齢が20歳〜29歳に限定される。   First, the CPU 501 acquires the number of subjects M and the age N (step S1). Note that the CPU 501 may acquire the age group of the target person instead of the age N. For example, when the acquired age group is in the 20s, the age of the subject is limited to 20 to 29 years.

次に、CPU501は、外部記憶装置506から原画像を取得する(ステップS2)。取得された原画像は、RAM503の第1のバッファ領域に記憶される。   Next, the CPU 501 acquires an original image from the external storage device 506 (step S2). The acquired original image is stored in the first buffer area of the RAM 503.

続いて、CPU501は、取得した原画像から明領域を検出し、2値化された明領域画像を作成する(ステップS3)。ここで、明領域とは、原画像において平均輝度よりも高い輝度を有する領域をいう。明領域画像の作成処理の詳細については後述する。明領域画像は、RAM503の第2のバッファ領域に画像データとして記憶される。   Subsequently, the CPU 501 detects a bright area from the acquired original image, and creates a binarized bright area image (step S3). Here, the bright region refers to a region having a luminance higher than the average luminance in the original image. Details of the bright area image creation processing will be described later. The bright area image is stored as image data in the second buffer area of the RAM 503.

さらに、CPU501は、原画像から暗領域を検出し、2値化された暗領域画像を作成する(ステップS4)。ここで、暗領域とは、原画像において平均輝度よりも低い輝度を有する領域をいう。暗領域画像の作成処理の詳細については後述する。暗領域画像は、RAM503の第3のバッファ領域に画像データとして記憶される。   Further, the CPU 501 detects a dark area from the original image and creates a binarized dark area image (step S4). Here, the dark region refers to a region having luminance lower than average luminance in the original image. Details of the dark region image creation processing will be described later. The dark area image is stored as image data in the third buffer area of the RAM 503.

次いで、CPU501は、明領域画像および暗領域画像の各々において、ブロッブ(小塊)の抽出およびラベリングを行う(ステップS5)。なお、ブロッブとは、明領域画像または暗領域画像において“1”の値を有する画素が連結する小さな塊の領域をいう。ここで、値が“1”の注目画素の周辺(8個の近傍)に値が“1”の画素がある場合に、値が“1”の周辺の画素と注目画素とを連結領域とみなす。そして、複数のブロッブにそれぞれラベルが付される(ラベリング)。ブロッブの抽出およびラベリングの詳細については後述する。ラベリングされた明領域画像および暗領域画像は、RAM503の第4および第5のバッファ領域にそれぞれ画像データとして記憶される。   Next, the CPU 501 performs blob (small blob) extraction and labeling in each of the bright area image and the dark area image (step S5). Note that a blob is a small block area in which pixels having a value of “1” are connected in a bright area image or a dark area image. Here, when there is a pixel having a value of “1” around the target pixel having a value of “1” (eight neighbors), the peripheral pixel having the value of “1” and the target pixel are regarded as a connected region. . A label is attached to each of the plurality of blobs (labeling). Details of blob extraction and labeling will be described later. The labeled bright area image and dark area image are stored as image data in the fourth and fifth buffer areas of the RAM 503, respectively.

次に、しみおよびしわを検出し、しみ成分およびしわ成分を生成する(ステップS6)。この場合、ブロッブの形状および大きさからしみおよびしわをそれ以外の領域(例えば顔パーツ)から区別することができる。例えば、しみは、顔の大きさに比べて小さく、かつ円に近いかまたは多少歪んだ形状を有する。しわは、線状または細長い形状を有するが、顔の大きさと比較して著しく長くなることはない。しみとして検出されたブロッブに基づいてしみ成分が生成され、しわとして検出されたブロッブに基づいてしわ成分が生成される。しみおよびしわの検出ならびにしみ成分およびしわ成分の生成処理の詳細については後述する。しみ成分およびしわ成分は、RAM503の第6および第7のバッファ領域にそれぞれ画像データとして記憶される。   Next, a stain and a wrinkle component are detected, and a stain component and a wrinkle component are generated (step S6). In this case, blots and wrinkles can be distinguished from other regions (for example, face parts) from the shape and size of the blob. For example, the blot has a shape that is small compared to the size of the face and close to a circle or slightly distorted. Wrinkles have a linear or elongated shape but do not become significantly longer compared to the size of the face. A blot component is generated based on the blob detected as a blot, and a wrinkle component is generated based on the blob detected as the wrinkle. Details of the detection of blots and wrinkles and the generation process of blot components and wrinkle components will be described later. The spot component and the wrinkle component are stored as image data in the sixth and seventh buffer areas of the RAM 503, respectively.

続いて、CPU501は対象者の顔形状を抽出する(ステップS7)。そして、CPU501は、対象者の人数Mから1を減算(ステップS8)した後、上記人数Mが0となったか否かを判別する(ステップS9)。人数Mが0となっていない場合、CPU501は、ステップS2の処理に戻り、ステップS2〜S8の処理を繰り返す。   Subsequently, the CPU 501 extracts the face shape of the subject (step S7). Then, the CPU 501 subtracts 1 from the number M of subjects (step S8), and then determines whether the number M has become 0 (step S9). When the number of people M is not 0, the CPU 501 returns to the process of step S2 and repeats the processes of steps S2 to S8.

上記ステップS9の処理において、人数Mが0となった場合、つまり全ての対象者について上記ステップS2〜S8の処理が終了した場合には、CPU501は、これらの対象者の年齢形状特徴(平均顔形状)を作成する(ステップS10)。   In the process of step S9, when the number of persons M becomes 0, that is, when the processes of steps S2 to S8 are completed for all the target persons, the CPU 501 determines the age shape characteristics (average face of these target persons). Shape) is created (step S10).

次に、CPU501は、しわモデル作成処理(ステップS11)およびしみモデル作成処理(ステップS12)を行う。なお、しみモデル作成処理が終了すれば、しみ/しわモデル作成処理が終了することとなる。   Next, the CPU 501 performs a wrinkle model creation process (step S11) and a spot model creation process (step S12). When the blot model creation process ends, the spot / wrinkle model creation process ends.

(4)しわモデル作成処理
図3は、しわモデル作成処理を示すフローチャートである。しわモデル作成処理で用いられるしわ成分は複数の階調を有する多値画像である。
(4) Wrinkle Model Creation Process FIG. 3 is a flowchart showing the wrinkle model creation process. The wrinkle component used in the wrinkle model creation process is a multivalued image having a plurality of gradations.

図3に示すように、最初に、CPU501は、各対象者のしわ成分を、上記ステップS10の処理で作成した年齢形状特徴に合成する(ステップS21)。   As shown in FIG. 3, first, the CPU 501 synthesizes the wrinkle component of each subject with the age shape feature created in the process of step S10 (step S21).

次に、CPU501は、マッチング係数Pの最大値を検出する(ステップS22)。ここで、マッチング係数Pについて説明する。図4は、マッチング係数Pを説明するための説明図である。なお、図4(a),(b)および後述の図4(c)においては、年齢形状特徴は図示されていない。   Next, the CPU 501 detects the maximum value of the matching coefficient P (step S22). Here, the matching coefficient P will be described. FIG. 4 is an explanatory diagram for explaining the matching coefficient P. In FIGS. 4A and 4B and FIG. 4C described later, the age shape feature is not shown.

年齢形状特徴に図4(a)に示す一方の対象者のしわ成分を合成する(上述のステップS21)。この一方の対象者のしわ成分の面積をAとする。   The wrinkle component of one subject shown in FIG. 4A is synthesized with the age shape feature (step S21 described above). Let A be the area of the wrinkle component of this one subject.

同様に、一方の対象者のしわ成分が合成された年齢形状特徴に、図4(b)に示す他方の対象者のしわ成分を合成する(上述のステップS21)。この他方の対象者のしわ成分の面積をBとする。   Similarly, the wrinkle component of the other subject shown in FIG. 4B is synthesized with the age shape feature in which the wrinkle component of one subject is synthesized (step S21 described above). Let B be the area of the wrinkle component of the other subject.

ここで、上記一方および他方の対象者の各しわ成分が年齢形状特徴のほぼ同じ位置にあるものとして、一方の対象者のしわ成分が合成された年齢形状特徴に、他方の対象者のしわ成分を合成すると、図4(c)に示すように、面積Aを有する一方の対象者のしわ成分と面積Bを有する他方の対象者のしわ成分とが重なり合う。この重なり合ってできたしわ成分(以下、重なりしわ成分と呼ぶ:図4(c)において黒色の領域)の面積をCとする。   Here, assuming that the wrinkle components of the one and the other subjects are at substantially the same position of the age shape feature, the wrinkle component of the other subject is combined with the age shape feature obtained by combining the wrinkle components of one subject. As shown in FIG. 4C, the wrinkle component of one subject having area A and the wrinkle component of the other subject having area B overlap. The area of this overlapping wrinkle component (hereinafter referred to as overlapping wrinkle component: black region in FIG. 4C) is C.

このように算出された重なりしわ成分の面積Cを用いて、CPU501はマッチング係数Pを下記式に基づいて算出する。   Using the area C of the overlapping wrinkle component calculated in this way, the CPU 501 calculates the matching coefficient P based on the following equation.

P=C/A+C/B ・・・(1)
次に、CPU501は、一方の対象者のしわ成分または他方の対象者のしわ成分の位置をずらすことにより、重なりの度合いが最も大きくなる位置を検出し、その位置おける上記マッチング係数Pを当該マッチング係数Pの最大値として検出する(上述のステップS22)。なお、しわ成分の位置をずらす処理は、例えば9画素×9画素の領域上で行われる。
P = C / A + C / B (1)
Next, the CPU 501 detects the position where the degree of overlap is greatest by shifting the position of the wrinkle component of one subject or the wrinkle component of the other subject, and uses the matching coefficient P at that position as the matching coefficient P. The maximum value of the coefficient P is detected (step S22 described above). Note that the process of shifting the position of the wrinkle component is performed, for example, on an area of 9 pixels × 9 pixels.

次に、CPU501は、マッチング係数Pの最大値が所定値(例えば、0.5)以上であるか否かを判別する(図3のステップS23)。マッチング係数Pの最大値が所定値以上である場合に、CPU501は、ずらした後のしわ成分の輝度を積算する(ステップS24)。   Next, the CPU 501 determines whether or not the maximum value of the matching coefficient P is a predetermined value (for example, 0.5) or more (step S23 in FIG. 3). When the maximum value of the matching coefficient P is equal to or greater than the predetermined value, the CPU 501 integrates the luminance of the wrinkle component after shifting (step S24).

次に、上記ステップS24の処理後、および上記ステップS23においてマッチング係数Pの最大値が所定値未満である場合に、CPU501は、全てのしわ成分について処理が終了したか否かを判別する(ステップS25)。全てのしわ成分について処理が終了した場合、CPU501は、全ての対象者の処理が終了したか否かを判別する(ステップS26)。   Next, after the processing of step S24 and when the maximum value of the matching coefficient P is less than a predetermined value in step S23, the CPU 501 determines whether or not the processing has been completed for all wrinkle components (step). S25). When the process has been completed for all the wrinkle components, the CPU 501 determines whether or not the processes for all the subjects have been completed (step S26).

上記ステップS26の処理において全ての対象者の処理が終了した場合、CPU501は、積算されたしわ成分の輝度を対象者の人数で割った後(ステップS27)、所定の基準値(例えば、輝度が3)以下のしわ成分の領域を消去する(ステップS28)。これにより、輝度が基準値を超える領域がしわモデルのしわ成分として設定される。   When the processing of all the subjects is completed in the processing of step S26, the CPU 501 divides the integrated luminance of the wrinkle component by the number of subjects (step S27), and then a predetermined reference value (for example, the luminance is 3) The following wrinkle component area is erased (step S28). Thereby, a region where the luminance exceeds the reference value is set as a wrinkle component of the wrinkle model.

一方、上記ステップS25の処理において全てのしわ成分について処理が終了していない場合、CPU501はステップS22の処理に戻り、ステップS22〜S25の処理を繰り返す。   On the other hand, when the process has not been completed for all the wrinkle components in the process of step S25, the CPU 501 returns to the process of step S22 and repeats the processes of steps S22 to S25.

また、上記ステップS26の処理において全ての対象者の処理が終了していない場合、CPU501はステップS22の処理に戻り、ステップS22〜S26の処理を繰り返す。これにより、複数の対象者のしわ成分の輝度がマッチング係数Pを最大とする状態で積算される。   If the processes of all the subjects have not been completed in the process of step S26, the CPU 501 returns to the process of step S22 and repeats the processes of steps S22 to S26. Thereby, the brightness | luminance of a wrinkle component of a some subject is integrated | accumulated in the state which makes the matching coefficient P the maximum.

次に、上記ステップS28の処理の後、CPU501は、上記のように作成されたしわモデルを外部記憶装置506に記憶させる(ステップS29)。なお、しわモデル作成処理では、重なりしわ成分の領域を除く領域のうち基準値を超えない領域も、しわモデルのしわ成分の一部として設定してもよい。   Next, after the process of step S28, the CPU 501 stores the wrinkle model created as described above in the external storage device 506 (step S29). In the wrinkle model creation process, a region that does not exceed the reference value among regions other than the overlapping wrinkle component region may be set as a part of the wrinkle component of the wrinkle model.

(5)しみモデル作成処理
以下、しみモデル作成処理(ステップS12)について図面を参照しながら説明する。
(5) Blot Model Creation Processing Hereinafter, the blot model creation processing (step S12) will be described with reference to the drawings.

図5は、対象者の原画像を簡略化した模式図である。   FIG. 5 is a schematic diagram in which the original image of the subject person is simplified.

図5の対象者の原画像を複数の領域に区画する。例えば、頭の先端部から目の中心までの範囲を領域F1とし、目の中心から口の中心までの範囲を領域F2とし、口の中心からあごの先端部までの範囲を領域F3とする。   The original image of the subject in FIG. 5 is divided into a plurality of regions. For example, a range from the tip of the head to the center of the eye is a region F1, a range from the center of the eye to the center of the mouth is a region F2, and a range from the center of the mouth to the tip of the chin is a region F3.

例えば、対象者A、対象者B、対象者C、対象者Dおよび対象者Eがいる場合において、領域F1における対象者Aのしみの数を12個、対象者Bのしみの数を20個、対象者Cのしみの数を5個、対象者Dのしみの数を10個、対象者Eのしみの数を8個とする。領域F1において対象者A〜Eが有するしみの数を多い順(または少ない順)に並べた場合に、10個のしみを有する対象者Dが中間に位置する。   For example, when there are the subject person A, the subject person B, the subject person C, the subject person D, and the subject person E, the number of spots of the subject person A in the area F1 is 12, and the number of spots of the subject person B is 20 The number of spots on subject C is 5, the number of spots on subject D is 10, and the number of spots on subject E is 8. In the area F1, when the number of blots of the subject persons A to E is arranged in the order of increasing (or decreasing order), the target person D having 10 spots is located in the middle.

このような結果に基づいて、領域F1では対象者Dのしみをしみモデルのしみ成分として設定する。領域F2および領域F3においても同様に、各対象者が有するしみの数を多い順(または少ない順)に並べた場合に、中間に位置する対象者のしみをしみモデルのしみ成分としてそれぞれ設定する。なお、上記の例では、しみの数に基づいてしみモデルを設定したが、これに限定されるものではなく、しみの面積(総面積)に基づいてしみモデルを設定してもよい。   Based on such a result, the stain of the subject D is set as the stain component of the stain model in the region F1. Similarly, in the region F2 and the region F3, when the number of blots of each subject is arranged in order of increasing (or decreasing order), the blot of the subject positioned in the middle is set as a blot component of the blot model, respectively. . In the above example, the stain model is set based on the number of stains. However, the present invention is not limited to this, and the stain model may be set based on the stain area (total area).

しみの位置は人ごとに異なるが、しみの数および面積は同じ年齢または年齢層の人に共通している。したがって、本実施の形態の方法を用いることにより、信頼性が向上されたしみモデルを作成することができる。   The location of the stain varies from person to person, but the number and area of the stain is common to people of the same age or age group. Therefore, by using the method of the present embodiment, a blot model with improved reliability can be created.

上記の例では、説明の簡略化のため対象者の人数を5名(対象者A〜E)としたが、実際には100名以上を対象者とすることが好ましい。また、対象者の数が偶数の場合には、上記中間に位置する対象者として複数人(例えば2人)のしみをしみモデルのしみ成分として設定してもよい。   In the above example, the number of subjects is five (subjects A to E) for simplification of explanation, but in reality, it is preferable to have 100 or more subjects as subjects. Further, when the number of subjects is an even number, blots of a plurality of people (for example, two people) as the subject located in the middle may be set as the stain component of the stain model.

しみ/しわモデル作成処理により作成されたしわモデルおよびしみモデルを、それぞれ図6(a)および図6(b)に示す。   The wrinkle model and the spot model created by the blot / wrinkle model creation process are shown in FIGS. 6 (a) and 6 (b), respectively.

(6)モデル適用処理
次に、しみモデルおよびしわモデルを、ある対象者の原画像に適用するためのモデル適用処理について説明する。
(6) Model application process Next, a model application process for applying the spot model and the wrinkle model to an original image of a certain subject will be described.

図7は、モデル適用処理を示すフローチャートである。   FIG. 7 is a flowchart showing the model application process.

図7に示すように、CPU501は、対象者の原画像を取得する(ステップS31)。本例の場合、CPU501は、図8(a)に示す20歳の女性の原画像を取得するものとする。   As shown in FIG. 7, the CPU 501 acquires the original image of the subject (step S31). In this example, the CPU 501 acquires an original image of a 20-year-old woman shown in FIG.

次に、CPU501は年齢操作後の年齢を取得する(ステップS32)。この場合、作業者が画像処理装置50の入力装置504を操作することにより、年齢操作後の年齢が決定される。例えば、作業者は年齢操作後の年齢として40歳代、50歳代、60歳代および70歳代を選択することができる。   Next, the CPU 501 acquires the age after the age operation (step S32). In this case, when the operator operates the input device 504 of the image processing apparatus 50, the age after the age operation is determined. For example, the worker can select 40s, 50s, 60s and 70s as the age after the age operation.

続いて、CPU501は、対応する年齢形状特徴、しみモデルおよびしわモデルを選択(ステップS33)した後、上記年齢形状特徴に基づいて原画像の顔形状を変形する(ステップS34)。   Subsequently, the CPU 501 selects a corresponding age shape feature, a spot model, and a wrinkle model (step S33), and then deforms the face shape of the original image based on the age shape feature (step S34).

次に、CPU501は、しみモデルおよびしわモデルを変形された顔形状に合致するよう変形する(ステップS35)。   Next, the CPU 501 transforms the blot model and the wrinkle model so as to match the deformed face shape (step S35).

その後、CPU501は、原画像に変形されたしみモデルおよびしわモデルを適用する(ステップS36)。   Thereafter, the CPU 501 applies the blot model and wrinkle model transformed into the original image (step S36).

40歳代のしみモデルおよびしわモデルを原画像に適用した結果を図8(b)に示し、70歳代のしみモデルおよびしわモデルを原画像に適用した結果を図8(c)に示す。   FIG. 8B shows the result of applying the blot model and wrinkle model in the 40s to the original image, and FIG. 8C shows the result of applying the blot model and wrinkle model in the 70s to the original image.

(7)本実施の形態における効果
このように、本実施の形態においては、しみ/しわモデル作成処理によりしみモデルおよびしわモデルを作成し、これらを対象者の原画像に適用することによって、コンピュータグラフィックス(CG)によるしみおよびしわを顔画像に合成した場合のような合成後の顔画像に残る不自然さの発生を防止することができる。それにより、年齢操作後の結果における信頼性を向上することができる。
(7) Effects in the present embodiment As described above, in the present embodiment, a stain model and a wrinkle model are created by the stain / wrinkle model creation process, and these are applied to the original image of the subject, so that the computer It is possible to prevent the occurrence of unnaturalness remaining in the face image after synthesis, such as when a blot and wrinkle by graphics (CG) is synthesized with the face image. Thereby, the reliability in the result after age operation can be improved.

また、しみ/しわモデル作成処理により作成したしみモデルおよびしわモデルを用いることにより、しみおよびしわがほとんどない若年者の原画像に対しても年齢操作を容易に行うことが可能となる。   Further, by using the blot model and the wrinkle model created by the blot / wrinkle model creation process, it is possible to easily perform the age operation even on the original image of a young person who has almost no blots and wrinkles.

(8)明領域画像および暗領域画像の作成
次に、図2のしみ/しわモデル作成処理における明領域画像の作成(ステップS3)および暗領域画像の作成(ステップS4)について説明する。
(8) Creation of Bright Area Image and Dark Area Image Next, creation of a bright area image (step S3) and creation of a dark area image (step S4) in the blot / wrinkle model creation process of FIG. 2 will be described.

図9は、注目画素および周辺画素の一例を示す図である。また、図10および図11は、明領域画像の作成処理を示すフローチャートである。さらに、図12および図13は、暗領域画像の作成処理を示すフローチャートである。   FIG. 9 is a diagram illustrating an example of a target pixel and peripheral pixels. 10 and 11 are flowcharts showing a bright area image creation process. Further, FIG. 12 and FIG. 13 are flowcharts showing a dark region image creation process.

図9に示すように、原画像100の水平方向をX方向とし、垂直方向をY方向とする。図9の例では、原画像100のX方向の画素数は512であり、Y方向の画素数も512である。注目画素300の周囲の10画素×10画素の領域を周辺領域200と呼ぶ。   As shown in FIG. 9, the horizontal direction of the original image 100 is defined as the X direction, and the vertical direction is defined as the Y direction. In the example of FIG. 9, the number of pixels in the X direction of the original image 100 is 512, and the number of pixels in the Y direction is 512. A region of 10 pixels × 10 pixels around the target pixel 300 is referred to as a peripheral region 200.

明領域画像の作成処理および暗領域画像の作成処理では、注目画素300を1画素ずつシフトさせながら、周辺領域200内の輝度の平均値に基づいて注目画素300の値を決定する。   In the bright area image creation process and the dark area image creation process, the value of the target pixel 300 is determined based on the average value of the luminance in the peripheral area 200 while shifting the target pixel 300 pixel by pixel.

図10および図11の明領域画像作成処理においては、まず、CPU501は、注目画素300および周辺領域200を設定する(ステップS41)。   In the bright area image creation processing of FIGS. 10 and 11, first, the CPU 501 sets the target pixel 300 and the peripheral area 200 (step S41).

次に、周辺領域200内の画素の輝度の平均値を算出する(ステップS42)。そして、注目画素300の輝度値と平均値との差を算出する(ステップS43)。   Next, the average value of the luminance of the pixels in the peripheral area 200 is calculated (step S42). Then, the difference between the luminance value and the average value of the target pixel 300 is calculated (step S43).

次いで、注目画素300の輝度値と平均値との差が正の所定値以上か否かを判別する(ステップS44)。   Next, it is determined whether or not the difference between the luminance value and the average value of the pixel of interest 300 is a positive predetermined value or more (step S44).

注目画素300の輝度値と平均値との差が正の所定値以上の場合には、“1”を注目画素300の画素値に設定する(ステップS45)。注目画素300の輝度値と平均値との差が正の所定値より低い場合には、“0”を注目画素300の画素値に設定する(ステップS46)。   If the difference between the luminance value and the average value of the target pixel 300 is a positive predetermined value or more, “1” is set as the pixel value of the target pixel 300 (step S45). If the difference between the luminance value and the average value of the target pixel 300 is lower than the positive predetermined value, “0” is set as the pixel value of the target pixel 300 (step S46).

その後、注目画素300がX方向の最後の画素か否かを判別する(図11のステップS47)。注目画素300がX方向の最後の画素でない場合は、注目画素300および周辺領域200をX方向に1画素分シフトする(ステップS48)。そして、ステップS42に戻り、ステップS42〜S47の処理を繰り返す。   Thereafter, it is determined whether or not the target pixel 300 is the last pixel in the X direction (step S47 in FIG. 11). If the target pixel 300 is not the last pixel in the X direction, the target pixel 300 and the peripheral region 200 are shifted by one pixel in the X direction (step S48). And it returns to step S42 and repeats the process of steps S42-S47.

ステップS47において注目画素300がX方向の最後の画素の場合には、注目画素300がY方向の最後の画素か否かを判別する(ステップS49)。注目画素300がY方向の最後の画素でない場合は、注目画素300をX方向の最初の画素に戻し、注目画素300および周辺領域200をY方向に1画素分シフトする(ステップS50)。そして、ステップS42に戻り、ステップS42〜S49の処理を繰り返す。   If the target pixel 300 is the last pixel in the X direction in step S47, it is determined whether or not the target pixel 300 is the last pixel in the Y direction (step S49). If the target pixel 300 is not the last pixel in the Y direction, the target pixel 300 is returned to the first pixel in the X direction, and the target pixel 300 and the peripheral region 200 are shifted by one pixel in the Y direction (step S50). And it returns to step S42 and repeats the process of steps S42-S49.

ステップS49において注目画素300がY方向の最後の画素の場合には、明領域画像作成処理を終了する。   If the target pixel 300 is the last pixel in the Y direction in step S49, the bright area image creation process ends.

このようにして、原画像100において平均輝度よりも高い輝度を有する明領域を示す明領域画像が作成される。   In this way, a bright area image indicating a bright area having a luminance higher than the average luminance in the original image 100 is created.

次に、図12および図13の暗領域画像作成処理においては、まず、CPU501は、注目画素300および周辺領域200を設定する(ステップS51)。   Next, in the dark region image creation processing of FIGS. 12 and 13, first, the CPU 501 sets the target pixel 300 and the peripheral region 200 (step S51).

次に、周辺領域200内の画素の輝度の平均値を算出する(ステップS52)。そして、注目画素300の輝度値と平均値との差を算出する(ステップS53)。   Next, the average value of the luminance of the pixels in the peripheral area 200 is calculated (step S52). Then, the difference between the luminance value and the average value of the target pixel 300 is calculated (step S53).

次いで、注目画素300の輝度値と平均値との差が負の所定値以下か否かを判別する(ステップS54)。   Next, it is determined whether or not the difference between the luminance value and the average value of the target pixel 300 is equal to or less than a predetermined negative value (step S54).

注目画素300の輝度値と平均値との差が負の所定値以下の場合には、“1”を注目画素300の画素値に設定する(ステップS55)。注目画素300の輝度値と平均値との差が負の所定値よりも高い場合には、“0”を注目画素300の画素値に設定する(ステップS56)。   If the difference between the luminance value and the average value of the target pixel 300 is equal to or less than a predetermined negative value, “1” is set as the pixel value of the target pixel 300 (step S55). If the difference between the luminance value of the target pixel 300 and the average value is higher than the negative predetermined value, “0” is set as the pixel value of the target pixel 300 (step S56).

その後、注目画素300がX方向の最後の画素か否かを判別する(図13のステップS57)。注目画素300がX方向の最後の画素でない場合は、注目画素300および周辺領域200をX方向に1画素分シフトする(ステップS58)。そして、ステップS52に戻り、ステップS52〜S57の処理を繰り返す。   Thereafter, it is determined whether or not the target pixel 300 is the last pixel in the X direction (step S57 in FIG. 13). If the target pixel 300 is not the last pixel in the X direction, the target pixel 300 and the peripheral region 200 are shifted by one pixel in the X direction (step S58). And it returns to step S52 and repeats the process of steps S52-S57.

ステップS57において注目画素300がX方向の最後の画素の場合には、注目画素300がY方向の最後の画素か否かを判別する(ステップS59)。注目画素300がY方向の最後の画素でない場合は、注目画素300をX方向の最初の画素に戻し、注目画素300および周辺領域200をY方向に1画素分シフトする(ステップS60)。そして、ステップS52に戻り、ステップS52〜S59の処理を繰り返す。   If the target pixel 300 is the last pixel in the X direction in step S57, it is determined whether or not the target pixel 300 is the last pixel in the Y direction (step S59). If the target pixel 300 is not the last pixel in the Y direction, the target pixel 300 is returned to the first pixel in the X direction, and the target pixel 300 and the peripheral region 200 are shifted by one pixel in the Y direction (step S60). And it returns to step S52 and repeats the process of steps S52-S59.

ステップS59において注目画素300がY方向の最後の画素の場合には、暗領域画像作成処理を終了する。   If the target pixel 300 is the last pixel in the Y direction in step S59, the dark region image creation process ends.

このようにして、原画像100において平均輝度よりも低い輝度を有する暗領域を示す暗領域画像が作成される。   In this way, a dark area image indicating a dark area having a luminance lower than the average luminance in the original image 100 is created.

図14は、原画像の一例を示す図であり、図15は、明領域画像の一例を示す図である。上記の明領域画像の作成処理により、図14の原画像100から図15の明領域画像600が作成される。なお、図14中の各数字は輝度を示す。   FIG. 14 is a diagram illustrating an example of an original image, and FIG. 15 is a diagram illustrating an example of a bright area image. The bright area image 600 in FIG. 15 is created from the original image 100 in FIG. 14 by the above-described bright area image creation processing. In addition, each number in FIG. 14 shows a brightness | luminance.

(9)ブロッブの抽出およびラベリング
次に、ブロッブの抽出およびラベリングについて説明する。図16および図17は、ブロッブの抽出およびラベリングを説明するための図である。
(9) Blob Extraction and Labeling Next, blob extraction and labeling will be described. 16 and 17 are diagrams for explaining blob extraction and labeling.

ここで、ブロッブの抽出とは、明領域画像または暗領域画像において値が“1”の画素の連結領域をブロッブとして抽出することをいう。また、ラベリングとは、個々のブロッブを識別するために各ブロッブにラベルを付すことをいう。   Here, blob extraction refers to extracting a connected area of pixels having a value of “1” in a bright area image or a dark area image as a blob. Labeling refers to labeling each blob in order to identify each blob.

図15に示した明領域画像600において、注目画素をX方向に1画素分シフトしつつ、注目画素の左側、左斜め上、上側または右斜め上に値が“1”の画素が存在するか否かを調べる。最初に注目画素の値が“1”となったときに、その注目画素にラベル“A”を付す。次に、注目画素の値が“1”であり、左側、左斜め上、上側または右斜め上に値が“1”の画素が存在する場合に、注目画素に値が“1”の画素と同じラベル“A”を付す。注目画素の値が“1”であり、左側、左斜め上、上側または右斜め上に値が“1”の画素が存在しない場合には、注目画素に別のラベル“B”を付す。   In the bright area image 600 shown in FIG. 15, is there a pixel with the value “1” on the left side, diagonally upper left, upper side, or diagonally right of the target pixel while shifting the target pixel by one pixel in the X direction? Check for no. When the value of the target pixel first becomes “1”, the target pixel is labeled “A”. Next, when the value of the pixel of interest is “1” and there is a pixel having a value of “1” on the left side, diagonally upper left, upper side or diagonally upper right, The same label “A” is attached. When the value of the pixel of interest is “1” and there is no pixel with the value “1” on the left side, diagonally upper left, upper side or diagonally upper right, another label “B” is attached to the pixel of interest.

注目画素をX方向の最後の画素までシフトした後、注目画素をX方向の最初の画素に戻しかつY方向に1画素分シフトし、上記の処理を行う。注目画素がX方向およびY方向の最後の画素になるまで上記の処理を繰り返す。   After shifting the target pixel to the last pixel in the X direction, the target pixel is returned to the first pixel in the X direction and shifted by one pixel in the Y direction, and the above processing is performed. The above processing is repeated until the target pixel becomes the last pixel in the X direction and the Y direction.

上記の処理により、図16に示すように、明領域画像600のブロッブ601にラベル“A”および“B”が付され、ブロッブ602にラベル“C”が付されている。   By the above processing, as shown in FIG. 16, the labels “A” and “B” are attached to the blob 601 of the bright region image 600, and the label “C” is attached to the blob 602.

次に、図16の明領域画像600において、注目画素をX方向およびY方向の最初の画素に戻し、注目画素をX方向に1画素分シフトしつつ、注目画素の左側、左斜め上、上側または右斜め上にラベルが付された画素が存在するか否かを調べる。注目画素にラベルが付されており、かつ左側、左斜め上、上側または右斜め上に異なるラベルが付された画素が存在する場合には、注目画素のラベルと同じラベルを持つ画素を全て左側、左斜め上、上側または右斜め上の画素と同じラベルに変更する。   Next, in the bright region image 600 of FIG. 16, the target pixel is returned to the first pixel in the X direction and the Y direction, and the target pixel is shifted by one pixel in the X direction. Alternatively, it is checked whether or not there is a pixel labeled on the upper right side. If the pixel of interest is labeled and there is a pixel with a different label on the left, upper left, upper or upper right, all pixels with the same label as the target pixel are left Change to the same label as the pixel on the upper left or upper left or upper right.

注目画素をX方向の最後の画素までシフトした後、注目画素をX方向の最初の画素に戻しかつY方向に1画素分シフトし、上記の処理を行う。注目画素がX方向およびY方向の最後の画素になるまで上記の処理を繰り返す。   After shifting the target pixel to the last pixel in the X direction, the target pixel is returned to the first pixel in the X direction and shifted by one pixel in the Y direction, and the above processing is performed. The above processing is repeated until the target pixel becomes the last pixel in the X direction and the Y direction.

その結果、図17に示すように、ブロッブ601内のラベル“B”がラベル“A”に変更される。   As a result, as shown in FIG. 17, the label “B” in the blob 601 is changed to the label “A”.

このようにして、値が“1”の画素の連結領域をブロッブとして抽出することができるとともに、ラベルにより個々のブロッブを識別することができる。   In this way, connected regions of pixels having a value of “1” can be extracted as blobs, and individual blobs can be identified by labels.

図17の明領域画像600では、ラベル“A”によりブロッブ601が識別され、ラベル“C”によりブロッブ602が識別される。   In the bright region image 600 of FIG. 17, the blob 601 is identified by the label “A”, and the blob 602 is identified by the label “C”.

暗領域画像についても、同様にしてブロッブの抽出およびラベリングが行われる。   Blob extraction and labeling are performed in the same manner for the dark region image.

(10)しみ成分およびしわ成分の生成
次に、ラベリングされたブロッブからしみおよびしわを検出する処理ならびにしみ成分およびしわ成分を生成する処理について説明する。
(10) Generation of Blemish Component and Wrinkle Component Next, processing for detecting a blot and wrinkle from the labeled blob and processing for generating a blot component and a wrinkle component will be described.

(a)しみの検出
一般的な顔の知識より、しみは顔に対して大きな領域を占めるものではなく、十分に小さい。しかし、著しく小さいブロッブは観察者が知覚できないであろうことから、しみとはしない。また、しみの形状は、円に近いか、または円から多少歪んだ形状である。
(A) Blot detection From general face knowledge, a blot does not occupy a large area with respect to the face and is sufficiently small. However, the extremely small blob is not a stain because the observer will not be able to perceive it. Further, the shape of the blot is a shape close to a circle or slightly distorted from the circle.

ここで、しみとして検出されなかったブロッブはすべて除去する(画素値を0とする)。   Here, all the blobs not detected as blots are removed (the pixel value is set to 0).

(b)しわの検出
一般的な顔の知識より、しわは顔の大きさと比較して著しく長いものではない。また、しわの形状は、直線状または曲線状である。一方、顔パーツの輪郭線も同様な形状を示している場合がある。しかし、人が顔を観察する場合にもこれらの局所的な画像のみからはしわと顔パーツの輪郭線とを識別することが難しいことがしばしばある。人は、このような場合に、顔という知識を利用していると考えられる。そこで、ブロッブに、顔パーツの一部が含まれていれば、そのブロッブは顔パーツの輪郭線とみなす。
(B) Wrinkle detection From general facial knowledge, wrinkles are not significantly longer than face size. The wrinkle shape is linear or curved. On the other hand, the outline of the face part may have a similar shape. However, even when a person observes the face, it is often difficult to distinguish wrinkles and the contours of the facial parts from only these local images. In such a case, it is considered that a person uses the knowledge of a face. Therefore, if a blob contains a part of a face part, the blob is regarded as a contour line of the face part.

ここで、しわとして検出されなかったブロッブはすべて除去する(画素値を0とする)。   Here, all the blobs not detected as wrinkles are removed (the pixel value is set to 0).

図18は原画像の基準長さを説明するための図である。図19はしみおよびしわの検出処理を示すフローチャートである。図20はブロッブの例を示す図である。   FIG. 18 is a diagram for explaining the reference length of the original image. FIG. 19 is a flowchart showing a spot and wrinkle detection process. FIG. 20 is a diagram showing an example of a blob.

しみおよびしわの検出処理では、図18に示すように、原画像の両眼の中心間の水平方向の距離L1と、両眼の間の中点と口との間の垂直方向の距離L2に係数を乗算した値とを比較し、それらのうち長い方の距離を基準長さとし、抽出されたブロッブの寸法を規格化する。   In the spot and wrinkle detection processing, as shown in FIG. 18, the horizontal distance L1 between the centers of both eyes of the original image and the vertical distance L2 between the midpoint between the eyes and the mouth are set. The value multiplied by the coefficient is compared, the longer distance among them is set as the reference length, and the size of the extracted blob is normalized.

ここでは、図20(a)〜(h)のブロッブB1〜B8からしみおよびしわを検出するものとする。図20において、各ブロッブB1〜B8が内接する長方形の領域を処理領域700と呼ぶ。   Here, it is assumed that spots and wrinkles are detected from the blobs B1 to B8 in FIGS. In FIG. 20, a rectangular area inscribed by each blob B1 to B8 is referred to as a processing area 700.

各ブロッブB1〜B8の横の長さwは、ブロッブB1〜B8のX方向の最大座標と最小座標との差であり、処理領域700の横の長さに相当する。また、各ブロッブB1〜B8の縦の長さhは、ブロッブB1〜B8のY方向の最大座標と最小座標との差であり、処理領域700の縦の長さに相当する。   The horizontal length w of each blob B1 to B8 is the difference between the maximum coordinate and the minimum coordinate in the X direction of the blob B1 to B8, and corresponds to the horizontal length of the processing region 700. The vertical length h of each blob B1 to B8 is the difference between the maximum coordinate and the minimum coordinate in the Y direction of the blob B1 to B8, and corresponds to the vertical length of the processing region 700.

まず、CPU501は、ブロッブの画素数が所定値P1以上であるか否かを判別する(ステップS71)。ブロッブの画素数が所定値P1よりも少ない場合には、そのブロッブを排除する(ステップS79)。それにより、小さすぎるブロッブが排除される。   First, the CPU 501 determines whether or not the number of pixels in the blob is equal to or greater than a predetermined value P1 (step S71). If the number of pixels in the blob is smaller than the predetermined value P1, the blob is excluded (step S79). Thereby, blobs that are too small are eliminated.

ブロッブの画素数が所定値P1以上の場合には、CPU501は、ブロッブの縦横比と密度との関係値faが所定値K以上であるか否かを判別する(ステップS72)。所定値Kは0よりも大きく1よりも小さい値に設定される。   If the number of pixels in the blob is equal to or greater than the predetermined value P1, the CPU 501 determines whether or not the relationship value fa between the aspect ratio of the blob and the density is equal to or greater than the predetermined value K (step S72). The predetermined value K is set to a value larger than 0 and smaller than 1.

ここで、関係値faは次式により求められる。   Here, the relation value fa is obtained by the following equation.

fa=α[1−|(4/π){tan-1(w/h)−(π/4)}|]+(1−α)(βs/wh) …(2)
上式(2)において、wはブロッブの横の長さ、hはブロッブの縦の長さ、sはブロックの画素数、αおよびβはそれぞれ所定の係数である。
fa = α [1- | (4 / π) {tan −1 (w / h) − (π / 4)} |] + (1-α) (βs / wh) (2)
In the above equation (2), w is the horizontal length of the blob, h is the vertical length of the blob, s is the number of pixels in the block, and α and β are predetermined coefficients.

上式(2)の第1項の[1−|(4/π)・{tan−1(w/h)−(π/4)}|]において、tan−1(w/h)の値はX方向に対して処理領域700の対角線がなす角度を表す。ブロッブの縦横比w/hが1の場合には、対角線の角度が45度となり、第1項の上記の値は1となる。ブロッブの縦横比w/hが0または∞に近い場合には、対角線の角度が90度または0度に近くなり、第1項の上記の値は約0となる。 In [1- | (4 / π) · {tan −1 (w / h) − (π / 4)} |] in the first term of the above formula (2), the value of tan −1 (w / h) Represents an angle formed by a diagonal line of the processing region 700 with respect to the X direction. When the aspect ratio w / h of the blob is 1, the diagonal angle is 45 degrees, and the above value of the first term is 1. When the blob aspect ratio w / h is close to 0 or ∞, the diagonal angle is close to 90 degrees or 0 degrees, and the above-mentioned value of the first term is about 0.

例えば、図20(a),(b),(c)のブロッブB1,B2,B3では、第1項の上記の値は1となり、図20(d)のブロッブB4では、第1項の上記の値は0となる。   For example, in the blobs B1, B2, and B3 in FIGS. 20A, 20B, and 20C, the value of the first term is 1, and in the blob B4 in FIG. The value of is 0.

また、上式(2)の第2項において、s/whの値は、処理領域700内のブロッブの密度を表す。   In the second term of the above equation (2), the value of s / wh represents the density of the blob in the processing area 700.

例えば、図20(a),(d)のブロッブB1,B4では、第2項の上記の値は1に近くなり、図20(b),(g),(h)のブロッブB2,B7,B8では、第2項の上記の値は0に近くなる。   For example, in the blobs B1 and B4 in FIGS. 20A and 20D, the above-mentioned value of the second term is close to 1, and the blobs B2, B7, and B in FIG. 20B, FIG. In B8, the value of the second term is close to zero.

係数αは、縦横比および密度の重みを調整するために用いられ、0<α<1となるように設定される。したがって、形状が正方形または円形に近くかつ密度が高い場合には、関係値faは1に近くなる。   The coefficient α is used to adjust the aspect ratio and the density weight, and is set so that 0 <α <1. Therefore, when the shape is close to a square or a circle and the density is high, the relation value fa is close to 1.

例えば、図20(a)のブロッブB1では、関係値faが1に近くなる。   For example, in the blob B1 in FIG. 20A, the relation value fa is close to 1.

ブロッブの縦横比と密度との関係値faが所定値K以上の場合には、CPU501は、ブロッブの画素数が所定値P2以下であるか否かを判別する(ステップS77)。所定値P2は所定値P1よりも大きい値に設定される。   If the relationship value fa between the aspect ratio of the blob and the density is equal to or greater than the predetermined value K, the CPU 501 determines whether or not the number of pixels in the blob is equal to or less than the predetermined value P2 (step S77). The predetermined value P2 is set to a value larger than the predetermined value P1.

ブロッブの画素数が所定値P2以下でない場合、すなわち所定値P2よりも大きい場合には、CPU501はそのブロッブを排除する。それにより、大きすぎるブロッブが排除される。   When the number of pixels of the blob is not less than the predetermined value P2, that is, when it is larger than the predetermined value P2, the CPU 501 excludes the blob. This eliminates blobs that are too large.

ステップS77においてブロッブの画素数が所定値P2以下の場合には、CPU501は、そのブロッブをしみと判定する(ステップS78)。この場合、図20(a)のブロッブB1がしみと判定される。   If the number of pixels in the blob is equal to or smaller than the predetermined value P2 in step S77, the CPU 501 determines that the blob is a blot (step S78). In this case, the blob B1 in FIG.

それにより、画素数が所定値P1以上所定値P2以下であり、かつ縦横比と密度との関係値faが所定値K以上のブロッブがしみと判定される。例えば、図20(a)のブロッブB1は、画素数が所定値P1以上所定値P2以下の場合にしみと判定され、画素数が所定値P1よりも小さいかまたは所定値P2よりも大きい場合に排除される。   As a result, it is determined that a blob having a pixel number not less than the predetermined value P1 and not more than the predetermined value P2 and having a relationship value fa between the aspect ratio and the density not less than the predetermined value K is a blot. For example, blob B1 in FIG. 20A is determined to be a stain when the number of pixels is not less than a predetermined value P1 and not more than a predetermined value P2, and when the number of pixels is smaller than the predetermined value P1 or larger than the predetermined value P2. Eliminated.

ステップS72において縦横比と密度との関係値faが所定値Kよりも小さい場合には、CPU501は、ブロッブの大きさと密度との関係値fbが所定値L以上であるか否かを判別する(ステップS73)。所定値Lは0よりも大きく1よりも小さい値に設定される。   If the relation value fa between the aspect ratio and the density is smaller than the predetermined value K in step S72, the CPU 501 determines whether or not the relation value fb between the size and density of the blob is equal to or larger than the predetermined value L ( Step S73). The predetermined value L is set to a value larger than 0 and smaller than 1.

ここで、関係値fbは次式により求められる。   Here, the relation value fb is obtained by the following equation.

fb=max(w,h)/s …(3)
上式(3)において、max(w,h)はブロッブの横の長さwおよび縦の長さhのうち長い方の値を示す。また、sはブロッブの画素数である。
fb = max (w, h) / s (3)
In the above formula (3), max (w, h) indicates the longer value of the horizontal length w and the vertical length h of the blob. S is the number of pixels in the blob.

細い線では、関係値fbは1に近くなり、太い線では、関係値fbは0に近くなる。   In a thin line, the relation value fb is close to 1, and in a thick line, the relation value fb is close to 0.

ブロッブの大きさと密度との関係値fbが所定値L以上でない場合、すなわち
所定値Lよりも小さい場合には、CPU501はそのブロッブを排除する(ステップS76)。
If the relation value fb between the size and density of the blob is not equal to or greater than the predetermined value L, that is, smaller than the predetermined value L, the CPU 501 excludes the blob (step S76).

例えば、図20(c)のブロッブB3では、関係値fbが0に近くなる。したがって、ブロッブB3は排除される。   For example, in the blob B3 in FIG. 20C, the relation value fb is close to zero. Therefore, blob B3 is eliminated.

ステップS73においてブロッブの大きさと密度との関係値fbが所定値L以上の場合には、CPU501はブロッブのばらつきの度合いfcが所定値M以上であるか否かを判別する(ステップS74)。所定値Mは0よりも大きく1よりも小さい値に設定される。例えば、所定値Mは0.12である。   If the relation value fb between the size and density of the blob is greater than or equal to the predetermined value L in step S73, the CPU 501 determines whether or not the degree of blob variation fc is greater than or equal to the predetermined value M (step S74). The predetermined value M is set to a value larger than 0 and smaller than 1. For example, the predetermined value M is 0.12.

この場合、ブロッブのばらつきの度合いfcは、ブロッブ内の画素のうちブロッブの重心からの距離が標準偏差σの2倍よりも長い画素の割合で定義される。ばらつきの度合いfcは次式により求められる。   In this case, the degree of variation fc of the blob is defined as the ratio of pixels in the blob that have a distance from the center of gravity of the blob that is longer than twice the standard deviation σ. The degree of variation fc is obtained by the following equation.

fc=u/s …(4)
上式(4)において、sはブロッブの画素数である。また、uは、ブロッブの重心W0を中心とする円C外の画素の数である。
fc = u / s (4)
In the above equation (4), s is the number of pixels in the blob. U is the number of pixels outside the circle C centered on the blob's center of gravity W0.

ブロッブのばらつきの度合いfcが所定値Mよりも小さい場合には、CPU501はそのブロッブを排除する。   If the blob variation degree fc is smaller than the predetermined value M, the CPU 501 excludes the blob.

例えば、図20(e),(f),(h)のブロッブB5,B6,B8では、ばらつきの度合いfcの値が小さくなる。したがって、ブロッブB5,B6,B8は排除される。   For example, in the blobs B5, B6, and B8 in FIGS. 20E, 20F, and 20H, the value of the variation degree fc is small. Therefore, blobs B5, B6, B8 are eliminated.

ステップS74においてブロッブのばらつきの度合いfcが所定値M以上の場合には、CPU501は、ブロッブをしわと判定する(ステップS75)。   If the degree of blob variation fc is greater than or equal to the predetermined value M in step S74, the CPU 501 determines that the blob is wrinkled (step S75).

それにより、画素数が所定値P1以上であり、縦横比と密度との関係値faが所定値Kよりも小さく、大きさと密度との関係値fbが所定値L以上であり、かつばらつきの度合いfcが所定値M以上であるブロッブがしわと判定される。   Thereby, the number of pixels is equal to or greater than the predetermined value P1, the relationship value fa between the aspect ratio and the density is smaller than the predetermined value K, the relationship value fb between the size and the density is equal to or greater than the predetermined value L, and the degree of variation A blob in which fc is equal to or greater than a predetermined value M is determined as a wrinkle.

例えば、図20(b),(d),(g)のブロッブB2,B4,B7では、ばらつきの度合いfcが大きくなる。したがって、ブロッブB2,B4,B7はしわと判定される。   For example, in the blobs B2, B4, and B7 in FIGS. 20B, 20D, and 20G, the degree of variation fc increases. Therefore, the blobs B2, B4, B7 are determined to be wrinkles.

上記のようにしてしみまたはしわとして検出されたブロッブについて、原画像に基づいてしみ成分またはしわ成分を生成する。   For the blob detected as a stain or wrinkle as described above, a stain component or a wrinkle component is generated based on the original image.

まず、しみとして検出されたブロッブと、しわとして検出されたブロッブとを振り分ける。   First, a blob detected as a stain and a blob detected as a wrinkle are sorted.

しみ成分の生成では、しみとして検出されたブロッブ外の画素の値を“0”とする。ブロッブ内の各画素について、その画素を中心に含む10画素×10画素の周辺領域内の画素の輝度の中央値を算出し、原画像の輝度値と中央値との差の絶対値を算出し、差の絶対値をしみ成分の画素の値とする。しみ成分の生成では、暗領域画像に対応するしみ成分が生成される。   In the generation of a stain component, the value of a pixel outside the blob detected as a stain is set to “0”. For each pixel in the blob, calculate the median luminance of the pixels in the peripheral area of 10 pixels × 10 pixels including the pixel as the center, and calculate the absolute value of the difference between the luminance value of the original image and the median value. The absolute value of the difference is the pixel value of the blot component. In the generation of the stain component, a stain component corresponding to the dark region image is generated.

同様に、しわ成分の生成では、しわとして検出されたブロッブ外の画素の値を“0”とする。ブロッブ内の各画素について、その画素を中心に含む10画素×10画素の周辺領域内の画素の輝度の中央値を算出し、原画像の輝度値と中央値との差の絶対値を算出し、差の絶対値をしわ成分の画素の値とする。しわ成分の生成では、暗領域画像に対応するしわ成分および明領域画像に対応するしわ成分が生成される。   Similarly, in the generation of the wrinkle component, the value of the pixel outside the blob detected as the wrinkle is set to “0”. For each pixel in the blob, calculate the median luminance of the pixels in the peripheral area of 10 pixels × 10 pixels including the pixel as the center, and calculate the absolute value of the difference between the luminance value of the original image and the median value. The absolute value of the difference is the value of the pixel of the wrinkle component. In the generation of the wrinkle component, a wrinkle component corresponding to the dark region image and a wrinkle component corresponding to the bright region image are generated.

図21はしみ成分またはしわ成分の一例を示す図である。ブロッブ601A,602A外の画素の値は“0”とされる。ブロッブ601A,602A内の各画素の値は、原画像において、その画素を中心に含む10画素×10画素の周辺領域内の画素の輝度の中央値を算出し、原画像の輝度値と中央値との差の絶対値を算出することにより得られる。   FIG. 21 is a diagram illustrating an example of a stain component or a wrinkle component. The value of the pixel outside the blob 601A, 602A is set to “0”. The value of each pixel in the blob 601A, 602A is calculated by calculating the median luminance value of the pixels in the peripheral area of 10 pixels × 10 pixels including the pixel in the original image. It is obtained by calculating the absolute value of the difference.

(11)顔画像の形状の操作
次に、対象者の原画像の顔画像に対して年齢が異なる顔画像を合成する方法について説明する。この方法を用いて顔画像の形状を操作することにより、「ある顔画像の人物が若く見られるならばこんな感じ」、「老けて見られるならばこんな感じ」という印象を得ることができる。なお、上記方法を実施するための画像処理装置の構成は図1の画像処理装置50の構成と同じである。
(11) Manipulation of face image shape Next, a method of synthesizing face images of different ages with the face image of the original image of the subject will be described. By manipulating the shape of the face image using this method, it is possible to obtain an impression of “feeling like this if a person of a certain face image is seen young” and “feeling like this if a person is seen old”. The configuration of the image processing apparatus for performing the above method is the same as that of the image processing apparatus 50 in FIG.

以下では、画像が個人の顔画像であり、複数の形態的特徴が目、口等の顔パーツ(顔部品)の形状特徴を構成するL個の特徴点(x,y)の2次元座標であり、属性が年齢である場合を説明する。ここで、Lは、2以上の整数であり、xは顔画像におけるx座標、yは顔画像におけるy座標である。   In the following, the image is an individual face image, and a plurality of morphological features are two-dimensional coordinates of L feature points (x, y) constituting the shape features of face parts (face parts) such as eyes and mouths. There will be described a case where the attribute is age. Here, L is an integer of 2 or more, x is an x coordinate in the face image, and y is a y coordinate in the face image.

本実施の形態では、まず、個人の顔画像を表す特徴ベクトル(形状特徴ベクトル)として、L個の特徴点(x,y)の2次元座標だけでなく、画像には直接関係はないが、年齢特徴に強く影響を与える既知の属性値(年齢属性値)に重みを加えたものを変量aとして加え、以下に示すように、主成分分析(PCA)による次元圧縮を行う。   In the present embodiment, first, as a feature vector (shape feature vector) representing an individual face image, not only the two-dimensional coordinates of L feature points (x, y) but also the image is not directly related. A weighted value of a known attribute value (age attribute value) that strongly influences the age characteristics is added as a variable a, and dimension compression by principal component analysis (PCA) is performed as shown below.

具体的には以下の手順で行う。個人の顔画像の形状特徴ベクトルは、次式のように、2L+1次元のベクトルF(i=1,2,・・・,M)として表す。Mは主成分分析に用いる個人の顔画像の数である。 Specifically, the following procedure is performed. The shape feature vector of an individual face image is represented as a 2L + 1 dimensional vector F i (i = 1, 2,..., M) as in the following equation. M is the number of individual face images used for principal component analysis.

=[x,y,x,y,x,y,…,x,y,a] …(5)
上式(5)において、Tは転置を示す。すべての顔画像の形状特徴ベクトルの平均値が形状特徴ベクトル空間の中心に配置されるように各要素(変量)から平均FAVを引く。
F i = [x 1 , y 1 , x 2 , y 2 , x 3 , y 3 ,..., X L , y L , a] T (5)
In the above formula (5), T represents transposition. The average FAV is subtracted from each element (variable) so that the average value of the shape feature vectors of all the face images is arranged at the center of the shape feature vector space.

ΔF=F−FAV …(6)
次に、上式(6)を用いて新たに顔特徴空間Gを次式(7)により定義する。
ΔF i = F i −F AV (6)
Next, a new facial feature space G is defined by the following equation (7) using the above equation (6).

G=[ΔF,ΔF…,ΔF] …(7)
そして、次式(8)により顔特徴空間Gの共分散行列Sを求める。
G = [ΔF 1 , ΔF 2 ..., ΔF M ] (7)
Then, the covariance matrix S of the face feature space G is obtained by the following equation (8).

S=GG …(8)
上式(8)より求められた共分散行列Sに対して次式(9)により特異値分解を行うことにより、各固有ベクトルを顔特徴空間Gの主成分として求めることができる。
S = GG T (8)
By performing singular value decomposition on the covariance matrix S obtained from the above equation (8) by the following equation (9), each eigenvector can be obtained as the main component of the face feature space G.

S=UDU …(9)
Uはユニタリ行列であり、各列が固有ベクトルとなる。すなわち、ユニタリ行列Uの第1列には第1番目〜第M番目の顔画像における第1主成分の主成分得点が順に並び、第2列には第1番目〜第M番目の顔画像における第2主成分の主成分得点が順に並び、第3列には第1番目〜第M番目の顔画像における第3主成分の主成分得点が順に並ぶ。同様に、ユニタリ行列Uの第M列には第1番目〜第M番目の顔画像における第(2L+1)主成分の主成分得点が並ぶ。Dは対角行列であり、対角成分が各主成分の固有値である。すなわち、対角行列Dの対角成分は、第1主成分〜第(2L+1)主成分の固有値λ〜λ2L+1である。
S = UDU T (9)
U is a unitary matrix, and each column is an eigenvector. That is, the principal component scores of the first principal component in the first to Mth face images are arranged in order in the first column of the unitary matrix U, and the first to Mth face images in the second column. The principal component scores of the second principal component are arranged in order, and the third component principal component scores in the first to Mth face images are arranged in order in the third column. Similarly, the principal component score of the (2L + 1) principal component in the first to Mth face images is arranged in the Mth column of the unitary matrix U. D is a diagonal matrix, and the diagonal component is the eigenvalue of each principal component. That is, the diagonal elements of the diagonal matrix D are the eigenvalues lambda 1 to [lambda] 2L + 1 of the first principal component, second (2L + 1) the main component.

ここで得られた第1主成分は、後述するように、属性値として加えた成分(年齢)の影響を強く受けており、第1主成分の主成分得点の値は、年齢属性値を強く反映したものになる。   The first principal component obtained here is strongly influenced by the component (age) added as the attribute value, as will be described later, and the value of the principal component score of the first principal component strongly increases the age attribute value. It will be reflected.

ここで、第1主成分の標準偏差をσとし、その3倍を形状特徴の変化範囲とする。主成分の固有値は主成分の分散であることから、第1主成分の標準偏差σは、第1主成分の固有値λより次式(10)のようになる。 Here, the standard deviation of the first principal component is σ 1, and 3 times the variation range of the shape feature. Since the eigenvalue of the principal component is the variance of the principal component, the standard deviation σ 1 of the first principal component is expressed by the following equation (10) from the eigenvalue λ 1 of the first principal component.

σ =λ …(10)
第1主成分の標準偏差σの3倍の範囲、すなわち−(3/2)σから+(3/2)σの範囲を顔形状(形状特徴)の変化範囲とする。この変化範囲にすべての顔画像のうち90%以上が属する。+(3/2)σを第1主成分の主成分得点とし、他の主成分の主成分得点を0とする主成分特徴ベクトルをPmax とする。また、−(3/2)σを第1主成分の主成分得点とし、他の主成分の主成分得点を0とする主成分特徴ベクトルをPmin とする。主成分特徴ベクトルPmax はM個の顔画像より求められる平均顔画像において最年長(または最年少)の顔画像に対応し、主成分特徴ベクトルPmin はM個の顔画像により求められる平均顔画像において最年少(または最年長)の顔画像に対応する。
σ 1 2 = λ 1 (10)
A range that is three times the standard deviation σ 1 of the first principal component, that is, a range from − (3/2) σ 1 to + (3/2) σ 1 is defined as a change range of the face shape (shape feature). More than 90% of all face images belong to this change range. A principal component feature vector having + (3/2) σ 1 as the principal component score of the first principal component and 0 as the principal component score of the other principal component is defined as P max . Also, let P ( min) be a principal component feature vector in which-(3/2) σ 1 is the principal component score of the first principal component and the principal component score of the other principal component is 0. The principal component feature vector P max corresponds to the oldest (or the youngest) face image in the average face image obtained from the M face images, and the principal component feature vector P min is the average obtained from the M face images. Corresponds to the youngest (or oldest) face image in the face image.

max=[+(3/2)σ,0,0,…,0] …(11)
min=[−(3/2)σ,0,0,…,0] …(12)
上式(11),(12)の主成分特徴ベクトルPmax ,Pmin より顔形状ベクトルFmax ,Fmin を再構成する。顔形状ベクトルFmax は最年長(または最年少)の平均顔画像を表し、顔形状ベクトルFmin は最年少(または最年長)の平均顔画像を表す。そして、次式のように、顔形状ベクトルFmax と顔形状ベクトルFmin との差を年齢特徴を表す特徴ベクトル(年齢特徴ベクトル)Fとして抽出する。
P max = [+ (3/2) σ 1 , 0, 0,..., 0] T (11)
P min = [− (3/2) σ 1 , 0, 0,..., 0] T (12)
The face shape vectors F max and F min are reconstructed from the principal component feature vectors P max and P min of the above equations (11) and (12). The face shape vector Fmax represents the oldest (or youngest) average face image, and the face shape vector Fmin represents the youngest (or oldest) average face image. Then, the difference between the face shape vector F max and the face shape vector F min is extracted as a feature vector (age feature vector) F representing an age feature as in the following equation.

F=Fmax−Fmin …(13)
ただし、年齢特徴ベクトルFには属性値は必要ないため、年齢特徴ベクトルFは年齢属性値を削除した2L次元のベクトルとする。
F = F max −F min (13)
However, since an attribute value is not required for the age feature vector F, the age feature vector F is a 2L-dimensional vector from which the age attribute value is deleted.

F=[x,y,x,y,…,x2L,y2L …(14)
上式(14)の年齢特徴ベクトルFは、最年長の平均顔画像と最年少の平均顔画像との間での各特徴点の移動量を表している。例えば、変量xは1番目の特徴点のx座標の移動量を表し、変量yは1番目の特徴点のy座標の移動量を表す。
F = [x 1 , y 1 , x 2 , y 2 ,..., X 2L , y 2L ] T (14)
The age feature vector F in the above equation (14) represents the amount of movement of each feature point between the oldest average face image and the youngest average face image. For example, the variable x 1 represents the amount of movement of the first feature point in the x coordinate, and the variable y 1 represents the amount of movement of the first feature point in the y coordinate.

上式(14)の年齢特徴ベクトルFを用いて次のようにして特定の個人のオリジナル顔画像からその個人の異なる年齢の顔画像を合成することができる。   Using the age feature vector F of the above equation (14), a face image of a different age of the individual can be synthesized from the original face image of the specific individual as follows.

まず、特定の個人のオリジナル顔画像の形状特徴ベクトルFを次式のように構成する。 First, configuring the shape feature vector F I a particular individual of the original face image as follows.

=[x,y,x,y,…,x2L,y2L …(15)
上式(15)の変量x,y,x,y,…,x2L,y2Lはオリジナル顔画像のL個の特徴点のx座標およびy座標である。
F I = [x 1 , y 1 , x 2 , y 2 ,..., X 2L , y 2L ] T (15)
The variables x 1 , y 1 , x 2 , y 2 ,..., X 2L , y 2L in the above equation (15) are the x and y coordinates of L feature points of the original face image.

次に、上式(14)の年齢特徴ベクトルFの各変量x,y,x,y,…,x2L,y2Lに合成割合bを乗算し、次式の修正ベクトルF’を算出する。 Next, each variable x 1 , y 1 , x 2 , y 2 ,..., X 2L , y 2L of the age feature vector F of the above equation (14) is multiplied by the composition ratio b, and a modified vector F ′ of the following equation: Is calculated.

F’=[bx,by,bx,by,…,bx2L,by2L …(16)
上式(15)のオリジナル顔画像の形状特徴ベクトルFに上式(16)の修正ベクトルF’を次式のように加算または減算し、年齢特徴をマッピングした形状特徴ベクトルFを作成する。
F ′ = [bx 1 , by 1 , bx 2 , by 2 ,..., Bx 2L , by 2L ] T (16)
The correction vector F ′ of the above equation (16) is added to or subtracted from the shape feature vector F I of the original face image of the above equation (15) as in the following equation to create a shape feature vector F S in which the age feature is mapped. .

=F±F’ …(17)
上式(17)の形状特徴ベクトルFから顔画像を再構成することによりオリジナル顔画像に対して年齢が異なる顔画像を合成することができる。この場合、上式(16)における合成割合bの値を任意に設定することにより、任意の年齢の顔画像を合成することが可能となる。
F S = F I ± F ′ (17)
It can be synthesized age different face images on the original facial image by reconstructing a face image from the shape feature vector F S in the above equation (17). In this case, it is possible to synthesize a face image of any age by arbitrarily setting the value of the composition ratio b in the above equation (16).

図22および図23は図1の画像処理装置において実行される画像処理プログラムの処理を示すフローチャートである。ここでは、ある年齢の個人のオリジナル顔画像からその個人の他の年齢の顔画像を合成する方法の例を示す。   22 and 23 are flowcharts showing the processing of the image processing program executed in the image processing apparatus of FIG. Here, an example of a method for synthesizing a face image of another age of the individual from the original face image of the individual of a certain age is shown.

まず、CPU501は、入力装置504により入力された複数の個人の顔画像を画像データとして外部記憶装置506に記憶する(ステップS91)。この場合、予めデータベースに記憶された複数の個人の顔画像の画像データを用いてもよい。   First, the CPU 501 stores a plurality of individual face images input by the input device 504 as image data in the external storage device 506 (step S91). In this case, image data of a plurality of individual face images stored in advance in the database may be used.

次に、CPU501は、外部記憶装置506に記憶された画像データに基づいて各顔画像の複数の特徴点の座標値を抽出する(ステップS92)。本実施の形態では、各特徴点のx座標およびy座標を抽出する。   Next, the CPU 501 extracts coordinate values of a plurality of feature points of each face image based on the image data stored in the external storage device 506 (step S92). In this embodiment, the x coordinate and y coordinate of each feature point are extracted.

次に、CPU501は、各顔画像の年齢属性値を取得する(ステップS93)。年齢属性値は、各顔画像ごとに入力装置504により入力してもよく、あるいは各顔画像ごとに予めデータベースに記憶された年齢属性値を用いてもよい。本実施の形態では、後述する年齢知覚実験により得られた見かけの年齢を年齢属性値として用いる。   Next, the CPU 501 acquires the age attribute value of each face image (step S93). The age attribute value may be input by the input device 504 for each face image, or an age attribute value stored in the database in advance for each face image may be used. In the present embodiment, an apparent age obtained by an age perception experiment described later is used as an age attribute value.

さらに、CPU501は、各顔画像ごとに抽出された複数の特徴点の座標値および年齢属性値を用いて各顔画像の形状特徴ベクトルF(式(5)参照)を構成する(ステップS94)。 Further, the CPU 501 constructs the shape feature vector F i (see formula (5)) of each face image using the coordinate values and age attribute values of the plurality of feature points extracted for each face image (step S94). .

次いで、CPU501は、複数の顔画像の形状特徴ベクトルFから式(6)〜(10)に従って主成分分析により第1主成分の固有値σを算出する(ステップS95)。また、CPU501は、第1主成分の固有値σを用いて式(11)の第1主成分の主成分特徴ベクトルPmax ,Pmin を構成する(図23のステップS96)。 Next, the CPU 501 calculates the eigenvalue σ 1 of the first principal component from the shape feature vectors F i of the plurality of face images by principal component analysis according to equations (6) to (10) (step S95). Further, the CPU 501 constructs the principal component feature vectors P max and P min of the first principal component of Expression (11) using the eigenvalue σ 1 of the first principal component (step S96 in FIG. 23).

次に、CPU501は、第1主成分の固有値σを用いて式(11)の第1主成分の顔形状ベクトルFmax ,Fmin を再構成し(ステップS97)、式(12)の年齢特徴を表す年齢特徴ベクトルFを抽出する(ステップS98)。 Next, the CPU 501 uses the eigenvalue σ 1 of the first principal component to reconstruct the face shape vectors F max and F min of the first principal component of Expression (11) (Step S97), and the age of Expression (12) An age feature vector F representing the feature is extracted (step S98).

次いで、CPU501は、年齢特徴ベクトルFを用いて特定の個人のオリジナル顔画像から所望の年齢の顔画像を合成する(ステップS99)。   Next, the CPU 501 synthesizes a face image of a desired age from an original face image of a specific individual using the age feature vector F (step S99).

このようにして、画像処理プログラムを画像処理装置において実行することにより複数の個人の顔画像を用いて年齢特徴に密接に関連する顔形状の特徴を年齢特徴ベクトルFとして抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から所望の年齢の顔画像を合成することができる。   In this way, by executing the image processing program in the image processing apparatus, it is possible to extract facial shape features closely related to age features as age feature vectors F using a plurality of individual face images, A facial image of a desired age can be synthesized from an original facial image of a specific individual using the extracted facial shape features.

上記のように、本実施の形態の画像処理装置、画像処理方法および画像処理プログラムにより未知の顔画像を合成することができるので、それらを犯罪捜査等に利用することができる。   As described above, since unknown face images can be synthesized by the image processing apparatus, the image processing method, and the image processing program of the present embodiment, they can be used for criminal investigations and the like.

なお、上記実施の形態では、画像の形態的特徴として顔形状の特徴を表す複数の特徴点の座標値を用いているが、画像の形態的特徴として肌の色合い、しみ、しわ等のテクスチャ(肌合い)を用いることもできる。また、年齢の知覚は、顔内部の形状だけではなく、髪型等を考慮してもよい。   In the above embodiment, coordinate values of a plurality of feature points representing facial shape features are used as the morphological features of the image. However, textures such as skin tone, blotches, wrinkles, etc. (Texture) can also be used. Further, the perception of age may consider not only the shape inside the face but also the hairstyle and the like.

さらに、上記実施の形態では、属性として見かけの年齢を用いているが、属性として見かけの年齢の代わりに実年齢を用いてもよい。また、属性として表情、人種、性別、体形等の他の属性を用いてもよい。   Furthermore, in the above embodiment, the apparent age is used as the attribute, but the actual age may be used as the attribute instead of the apparent age. Moreover, you may use other attributes, such as a facial expression, a race, sex, and a body shape, as an attribute.

属性が実年齢の場合、上記実施の形態の画像処理方法を適用することにより、複数の個人の顔画像を用いて実年齢の特徴に密接に関連する顔形状の特徴を抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から実年齢の異なる顔画像を合成することができる。   When the attribute is real age, by applying the image processing method of the above embodiment, it is possible to extract facial shape features closely related to real age features using a plurality of individual face images, Furthermore, face images having different real ages can be synthesized from the original face image of a specific individual using the extracted facial shape features.

属性が表情の場合、喜怒哀楽等の表情をそれぞれ異なる値で表し、上記実施の形態の画像処理方法を適用することにより、複数の個人の顔画像を用いて表情の特徴に密接に関連する顔形状の特徴を抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から表情の異なる顔画像を合成することができる。   When the attribute is a facial expression, expressions such as emotions are expressed with different values, and by applying the image processing method of the above-described embodiment, it is closely related to facial expression features using a plurality of individual facial images. The feature of the face shape can be extracted, and a face image with a different expression can be synthesized from the original face image of a specific individual using the extracted feature of the face shape.

属性が人種の場合、異なる複数の人種をそれぞれ異なる値で表し、上記実施の形態の画像処理方法を適用することにより、複数の個人の顔画像を用いて人種の特徴に密接に関連する顔形状の特徴を抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から人種の異なる顔画像を合成することができる。   When the attribute is race, different races are represented by different values, and by applying the image processing method of the above embodiment, it is closely related to race characteristics using face images of multiple individuals The feature of the face shape to be extracted can be extracted, and the face image of a different race can be synthesized from the original face image of a specific individual using the extracted feature of the face shape.

属性が性別の場合、男女の性別を異なる値で表し、上記実施の形態の画像処理方法を適用することにより、複数の個人の顔画像を用いて性別の特徴に密接に関連する顔形状の特徴を抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から性別の異なる顔画像を合成することができる。   When the attribute is gender, the gender of the man and woman is represented by different values, and by applying the image processing method of the above embodiment, the facial shape features closely related to the gender features using a plurality of individual face images Furthermore, it is possible to synthesize a face image with different gender from an original face image of a specific individual using the extracted feature of the face shape.

属性が体形の場合、異なる体形を異なる値で表し、上記実施の形態の画像処理方法を適用することにより、複数の個人の顔画像を用いて体形の特徴に密接に関連する顔形状の特徴を抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から体形の異なる顔画像を合成することができる。   When the attribute is a body shape, different body shapes are represented by different values, and by applying the image processing method of the above embodiment, facial shape features closely related to the body shape features using a plurality of individual face images Furthermore, it is possible to synthesize a face image having a different body shape from an original face image of a specific individual using the extracted facial shape characteristics.

また、上記実施の形態では、画像が個人の顔画像である場合を説明したが、これに限定されない。例えば、画像が動物の画像であってもよい。   Moreover, although the case where the image is a personal face image has been described in the above embodiment, the present invention is not limited to this. For example, the image may be an animal image.

(12)請求項の各構成要素と実施の形態の各部との対応関係
本実施の形態においては、外部記憶装置506が記憶手段に相当し、CPU501が検出手段、作成手段、抽出手段、適用手段、生成手段、変形手段およびコンピュータに相当する。
(12) Correspondence relationship between each constituent element of claims and each part of the embodiment In the present embodiment, the external storage device 506 corresponds to the storage means, and the CPU 501 is the detection means, creation means, extraction means, and application means. , Generating means, deforming means, and computer.

1.予備実験
個人の顔の経年変化に関わる形状特徴について考える場合、主成分分析の変量に与える属性値として、実年齢を利用すればよい。しかし、顔の経年変化では、形状とともに、しみやしわ、肌のきめ等も変化することは経験的にも明らかである。本実施例では、経年変化により変化する顔の形状特徴ではなく、みかけの年齢、つまり若く見える顔や、老けて見える顔の形状の特徴について検討した。そして、見かけの年齢の属性値として、実年齢を与えたのでは不十分であるため、見かけの年齢の属性値を求めるために年齢知覚実験(年齢評定実験)を行った。
1. Preliminary experiment When considering the shape features related to the aging of an individual's face, the real age may be used as an attribute value given to the principal component analysis variable. However, it is also empirically clear that, with the aging of the face, spots, wrinkles, skin texture and the like change with the shape. In the present embodiment, the characteristics of the apparent age, that is, the face that looks young and the shape of the face that looks old, were examined, not the facial shape characteristics that change with time. Since it is not sufficient to give the actual age as the attribute value of the apparent age, an age perception experiment (age evaluation experiment) was performed in order to obtain the attribute value of the apparent age.

1−1.手続
年齢知覚実験における実験刺激には、本願出願人が収集して作成した表情顔画像データベースから、日本人男女各142名の無表情、正面向き、実年齢が10代後半から30代後半の顔画像を用いた。また、顔画像は512×512ピクセルのカラー画像であり、顔が枠内に十分入る大きさであった。被験者は大学生(18才〜22才)の男性25名および女性22名であった。
1-1. Procedure For experimental stimulation in age perception experiments, from the facial expression image database collected and created by the applicant of the present application, there are 142 facial expressions, front-facing faces, and real ages in the late teens to late 30s. Images were used. The face image was a color image of 512 × 512 pixels, and the face was large enough to fit in the frame. The test subjects were 25 male students and 22 female students (18 to 22 years old).

実験は、次の手順で行われた。被験者は、モニタに表示される顔画像の年齢を推定し、表1に示す年齢評定カテゴリの中で最も適するカテゴリを選択するよう求められた。   The experiment was performed according to the following procedure. The subject was asked to estimate the age of the face image displayed on the monitor and select the most suitable category from the age rating categories shown in Table 1.

Figure 0004682373
Figure 0004682373

表1に示すように、年齢を8つのカテゴリに分類し、それらのカテゴリに年齢の若い順に0〜7の評定値を与えた。   As shown in Table 1, ages were classified into 8 categories, and rating values of 0 to 7 were given to these categories in ascending order of age.

1−2.結果
顔画像ごとに評定値の平均および標準偏差を求めた。図24は顔画像ごとの評定置の平均を降順に並び替えてプロットした図である。図24の横軸は、142名の顔画像を示し、縦軸は、各顔画像の評定値の平均を示す。三角印および丸印はそれぞれ男性および女性の顔画像の評定値の平均を表す。
1-2. Results The average and standard deviation of the rating values were determined for each face image. FIG. 24 is a diagram in which the averages of the rating positions for each face image are plotted in the descending order. The horizontal axis of FIG. 24 shows the face images of 142 persons, and the vertical axis shows the average of the rating values of each face image. Triangle marks and circle marks represent the average rating values of male and female face images, respectively.

個々の顔画像より得られた標準偏差から顔画像の性別ごとに平均を求めた。標準偏差の平均は、男性の顔画像では0.85、女性の顔画像では0.89であった。つまり、男女の顔とも±5才程度の誤差で年齢が推定されたことになる。   The average was obtained for each gender of the face image from the standard deviation obtained from each face image. The average standard deviation was 0.85 for male face images and 0.89 for female face images. That is, the age is estimated with an error of about ± 5 years for both male and female faces.

なお、男女で顔画像は異なり、顔画像間に関連もないため、顔画像間の比較には意味がない。   In addition, since face images differ between men and women and there is no relation between face images, comparison between face images is meaningless.

2.年齢特徴抽出実験
次に、上記の年齢知覚実験により得られた見かけの年齢属性値を用いて顔年齢特徴抽出実験を行った。顔情報に見かけの年齢属性値を付加する場合(以下、属性値付加条件と呼ぶ)と、顔情報に見かけの年齢属性値を付加しない場合(以下、属性値なし条件と呼ぶ)とで、抽出される形状特徴の比較を行った。
2. Age Feature Extraction Experiment Next, a face age feature extraction experiment was performed using the apparent age attribute value obtained by the age perception experiment. Extracted when an apparent age attribute value is added to face information (hereinafter referred to as attribute value addition condition) and when an apparent age attribute value is not added to face information (hereinafter referred to as no attribute value condition) Comparison of the shape characteristics to be performed was performed.

2−1.手続き
顔画像の形状特徴には、本願出願人が開発した顔画像合成システム(FUTON)(蒲池みゆき,向田茂,吉川左紀子,加藤隆,尾田正臣,赤松茂,“顔・表情認知に関する心理実験のための顔画像合成システム−FUTON System−,”信学技法,HIP97−39,pp.73−80,Jan.1998および向田茂,蒲池みゆき,赤松茂,“顔画像合成システム(FUTON system)におけるマニュアルサンプリングの評価,”信学技法,HIP99−49,pp.13−18,Nov.1999参照)のデフォルト特徴点83点の座標値を用いた。
2-1. Procedure The facial image shape features include the facial image synthesis system (FUTON) developed by the applicant (Miyuki Tsujiike, Shigeru Mukai, Saiko Yoshikawa, Takashi Kato, Masaomi Oda, Shigeru Akamatsu, “ Facial Image Synthesis System for FUTON System-, "Science Technique, HIP97-39, pp.73-80, Jan.1998 and Shigeru Mukaida, Miyuki Tsujiike, Shigeru Akamatsu," Manual in Facial Image Synthesis System (FUTON system) Sampling evaluation, the coordinate values of 83 default feature points of "Science Technique, HIP99-49, pp. 13-18, Nov. 1999" were used.

図25は顔特徴ベクトルの変量として用いた特徴点を示す図である。図25において、83点の特徴点を黒丸で示し、各特徴点を識別するために符号を付している。   FIG. 25 is a diagram showing feature points used as variables of face feature vectors. In FIG. 25, 83 feature points are indicated by black circles, and symbols are assigned to identify each feature point.

顔画像としては、予備実験で用いた男女の各142枚の顔画像を用いた。ただし、顔幅(特徴点Fr3,Fl3間の長さ)が230ピクセルになるように、また両目の瞳を結ぶ直線が水平になるように正規化した。   As face images, 142 face images of both men and women used in the preliminary experiment were used. However, normalization was performed so that the face width (the length between the feature points Fr3 and Fl3) was 230 pixels, and the straight line connecting the eyes of both eyes was horizontal.

男女の顔画像ごとに、属性値なし条件および属性値付加条件のそれぞれにおいて主成分分析による次元圧縮を行った。
・属性値なし条件
従来手法の属性値なし条件では、顔情報(形状特徴ベクトルの変量)として、83点の特徴点の座標値のみを用いた。1枚の顔画像を166次元の形状特徴ベクトルFとして表した。
For each male and female face image, dimension compression by principal component analysis was performed for each of the no attribute value condition and the attribute value addition condition.
-No attribute value condition In the no attribute value condition of the conventional method, only the coordinate values of 83 feature points were used as face information (variables of shape feature vectors). It represents the 1 face images as 166-dimensional shape feature vector F N.

=(x,y,x,y,x,y,…,x83,y83
・属性値付加条件
属性値付加条件では、顔情報として(形状特徴ベクトルの変量)、83点の特徴点の座標値に加え,予備実験で得られた各顔画像の評定値の平均値を100倍した値を、見かけの年齢属性値aとして用いた。そして、1枚の顔画像を167次元の形状特徴ベクトルFとして表した。
F N = (x 1 , y 1 , x 2 , y 2 , x 3 , y 3 ,..., X 83 , y 83 ) T
Attribute value addition condition In the attribute value addition condition, as face information (variable of shape feature vector), in addition to the coordinate values of the 83 feature points, the average value of the evaluation values of each face image obtained in the preliminary experiment is 100. The doubled value was used as the apparent age attribute value a. One face image is represented as a 167-dimensional shape feature vector F A.

=(x,y,x,y,x,y,…,x83,y83,a)
得られた主成分ごとの固有値から、その主成分の変化量を決定し、主成分ごとに形状特徴ベクトルを再構成後、視覚的にその差を比較した。
F A = (x 1 , y 1 , x 2 , y 2 , x 3 , y 3 ,..., X 83 , y 83 , a) T
The amount of change of the principal component was determined from the obtained eigenvalues for each principal component, and after reconstructing the shape feature vector for each principal component, the difference was visually compared.

2−3.結果
男女それぞれの顔画像について、属性値なし条件および属性値付加条件から得られた各主成分における主成分得点を分析した。もし、主成分が年齢変化に強く関与しているのであれば、顔画像を年齢順に並べたとき、主成分上の各顔画像の主成分得点は昇順あるいは降順に並んでいるはずである。そこで、男女の顔画像での各条件で得られた主成分のうち第1主成分から第3主成分までの主成分得点をプロットした。
2-3. Results The principal component scores of each principal component obtained from the no attribute value condition and the attribute value addition condition were analyzed for both male and female face images. If the principal component is strongly involved in the age change, when the face images are arranged in order of age, the principal component scores of the face images on the principal component should be arranged in ascending or descending order. Therefore, the principal component scores from the first principal component to the third principal component among the principal components obtained under each condition in the male and female face images were plotted.

図26(a)は男性の顔画像において属性値なし条件で得られた上位主成分の主成分得点を示す図、図26(b)は女性の顔画像において属性値なし条件で得られた上位主成分の主成分得点を示す図である。また、図27(a)は男性の顔画像において属性値付加条件で得られた上位主成分の主成分得点を示す図、図27(b)は女性の顔画像において属性値付加条件で得られた上位主成分の主成分得点を示す図である。図26および図27の横軸は見かけの年齢(評定値)の高い順に並べた顔画像を示し、縦軸は主成分得点(PC score)を示す。四角印は第1主成分の主成分得点を示し、丸印は第2主成分の主成分得点を示し、三角印は第3主成分の主成分得点を示す。   FIG. 26A is a diagram showing the principal component scores of the upper principal components obtained in the male face image without the attribute value condition, and FIG. 26B is the upper face obtained in the female face image without the attribute value condition. It is a figure which shows the main component score of a main component. FIG. 27A is a diagram showing the principal component scores of the upper principal components obtained under the attribute value addition condition in the male face image, and FIG. 27B is obtained under the attribute value addition condition in the female face image. It is a figure which shows the principal component score of the higher-order principal component. The horizontal axis of FIG. 26 and FIG. 27 shows the face images arranged in order of the apparent age (rating value), and the vertical axis shows the principal component score (PC score). A square mark indicates the principal component score of the first principal component, a circle mark indicates the principal component score of the second principal component, and a triangle mark indicates the principal component score of the third principal component.

図26(a),(b)に示すように、属性値なし条件では、男性の顔画像および女性の顔画像とも、年齢順に並べられた顔画像の主成分得点がほぼ昇順あるいは降順に並ぶ主成分を見つけることができなかった。   As shown in FIGS. 26 (a) and 26 (b), in the no attribute value condition, the principal component scores of face images arranged in order of age are arranged in ascending or descending order for both male face images and female face images. I couldn't find any ingredients.

一方、図27(a),(b)に示すように、属性値付加条件では、男性の顔画像および女性の顔画像とも、第1主成分の主成分得点がほぼ順に並んだ形で示された。   On the other hand, as shown in FIGS. 27A and 27B, in the attribute value addition condition, the male principal image and the female facial image are shown in a form in which the principal component scores of the first principal component are arranged almost in sequence. It was.

これらの結果から、属性値付加条件で得られた第1主成分が顔画像の見かけの年齢に影響を与える特徴と密接に関係していることがわかった。   From these results, it was found that the first principal component obtained under the attribute value addition condition is closely related to the feature that affects the apparent age of the face image.

次に、各主成分がどのような形状変化に関わっているのかを視覚的に確認するために、確認する主成分の固有値から得られた変化範囲を用いて、それぞれ顔パーツの特徴点の座標を再構成した。以下に示すように、属性値付加条件での主成分の顔形状への影響を調べた。   Next, in order to visually confirm what shape change each principal component is involved in, the coordinates of the feature points of the facial parts are used, using the change range obtained from the eigenvalues of the principal component to be confirmed. Was reconfigured. As shown below, the influence of the principal component on the face shape under the attribute value addition condition was examined.

図28、図29、図30および図31は男性の顔画像において属性値付加条件で得られた第1主成分、第2主成分、第3主成分および第4主成分をそれぞれ用いて再構成した顔形状を示す図である。また、図32、図33、図34および図35は女性の顔画像において属性値付加条件で得られた第1主成分、第2主成分、第3主成分および第4主成分をそれぞれ用いて再構成した顔形状を示す図である。図28〜図35において、(a)および(b)は見かけの年齢が両極端の顔形状を示している。   28, 29, 30 and 31 are reconstructed using the first principal component, the second principal component, the third principal component and the fourth principal component obtained in the attribute value addition condition in the male face image, respectively. It is a figure which shows the performed face shape. 32, 33, 34, and 35 show the first principal component, the second principal component, the third principal component, and the fourth principal component obtained in the attribute value addition condition in the female face image, respectively. It is a figure which shows the reconfigure | reconstructed face shape. In FIGS. 28 to 35, (a) and (b) show face shapes whose apparent ages are both extremes.

再構成した顔画像から各主成分の2枚の顔形状を比較した。各主成分が形状的な特徴の変化とどのように関係しているかを、主観的な印象として挙げると次のようになる。男性の顔画像について属性値付加条件で得られた第1主成分では、眉の内側が上下に変化、外側は内側とは逆向きに上下に変化する。鼻と口は上下に変化し、口の幅は若干狭まったり、広がったり、そしてあごがやや大きくなったり、小さくなったりする。第2主成分では、額が拡大縮小し、眉の外側が水平方向へ変化し(眉の大きさが変わる)、両目の間隔もやや広くなったり、狭くなったりし、そして、鼻、口およびあごが大きく上下に変化する。第3主成分では、眉の内側が上下に変化し、外側は若干水平方向に変化する。鼻と口は大きく上下に変化し、あごは四角くややえらの張ったような形や、少し小さく、とがった形に変化する。第4主成分では、額の大きさが急激に変化し、眉の内側が大きく上下に変化する。そして、鼻および口の左側が若干水平方向に変化し、あごの左側がごくわずか変化する。   Two face shapes of each principal component were compared from the reconstructed face images. The subjective impression of how each principal component is related to changes in shape characteristics is as follows. In the first principal component obtained with the attribute value addition condition for the male face image, the inside of the eyebrows changes up and down, and the outside changes up and down in the direction opposite to the inside. The nose and mouth change up and down, the width of the mouth narrows and widens slightly, and the chin becomes slightly larger and smaller. In the second main component, the forehead scales, the outside of the eyebrows changes horizontally (the size of the eyebrows changes), the distance between the eyes is slightly wider or narrower, and the nose, mouth and The chin changes greatly up and down. In the third main component, the inside of the eyebrows changes vertically, and the outside changes slightly in the horizontal direction. The nose and mouth change greatly up and down, and the chin changes into a square, slightly stretched shape, or a slightly smaller, pointed shape. In the fourth main component, the size of the forehead changes abruptly, and the inside of the eyebrows changes greatly up and down. The left side of the nose and mouth changes slightly in the horizontal direction, and the left side of the chin changes very slightly.

一方、属性値なし条件では、第1主成分は属性値付加条件の第2主成分とほぼ同じ変化を示し、第2主成分は属性値付加条件の第3主成分とほぼ同じ変化を示した。以降の主成分についても同様であった。   On the other hand, in the no attribute value condition, the first principal component showed almost the same change as the second principal component of the attribute value addition condition, and the second principal component showed almost the same change as the third principal component of the attribute value addition condition. . The same applies to the subsequent main components.

女性の顔画像について属性値付加条件で得られた第1主成分では、口が上下に変化し、幅が広くなったり狭くなったりする。そして、あごがやや大きくなったり、小さくなったりする。第2主成分では、男性の顔画像について属性値付加条件で得られた第2主成分とほぼ同様であった。第3主成分では、額が拡大縮小し、眉の内側は若干上下に変化し、そして鼻と口は若干左側で水平方向に変化し、あごはややえらの張ったような形や、少し小さく、とがった形になる。第4主成分では、顔輪郭、鼻、口が若干右側で変化する。そして、顔輪郭については横幅が変化する。   In the first principal component obtained with the attribute value addition condition for the female face image, the mouth changes up and down, and the width becomes wider and narrower. And the chin gets a little bigger or smaller. The second principal component was substantially the same as the second principal component obtained under the attribute value addition condition for the male face image. In the third principal component, the forehead scales up, the inside of the eyebrows slightly changes up and down, and the nose and mouth change slightly on the left side in the horizontal direction, and the chin is slightly stretched or slightly smaller It becomes a pointed shape. In the fourth main component, the face outline, nose, and mouth slightly change on the right side. And the width of the face outline changes.

一方、属性値なし条件では、男性の顔画像と同様に、第1主成分は属性値付加条件の第2主成分とほぼ同じ変化を示し、第2主成分は属性値付加条件の第3主成分とほぼ同じ変化を示した。以降の主成分についても同様であった。   On the other hand, in the no attribute value condition, like the male face image, the first principal component shows almost the same change as the second principal component of the attribute value addition condition, and the second principal component is the third main component of the attribute value addition condition. It showed almost the same change as the component. The same applies to the subsequent main components.

2−3.考察
各主成分における主成分得点の分布から見ると、属性値なし条件と、属性値付加条件の第2主成分以降では、顔画像を見かけの年齢順に並べたときに、主成分得点が全く昇順あるいは降順になっていなかったことから、これらの主成分は見かけの年齢に影響を与える特徴と密接に関係しているとは言えない。一方、属性値付加条件の第1主成分では、見かけの年齢順に顔画像を並べたとき、男女の顔画像とも、主成分得点はほぼ順に並んでいたこと、さらには年齢知覚実験(年齢評定実験)で得られたデータ(評定値)の分布と第1主成分のデータ(主成分得点)の分布はよく似た分布を示していることから、属性値付加条件で得られた第1主成分は、見かけの年齢に影響を与える形状特徴と密接に関係していると言える。
2-3. Considering from the distribution of the principal component scores of each principal component, the principal component scores are in ascending order when the face images are arranged in the order of apparent age under the condition where there is no attribute value and the second principal component of the attribute value addition condition. Or because they were not in descending order, these principal components are not closely related to features that affect the apparent age. On the other hand, in the first principal component of the attribute value addition condition, when face images are arranged in the order of apparent age, the principal component scores are arranged almost in order for both male and female face images, and further, an age perception experiment (age evaluation experiment) ) And the distribution of the first principal component data (principal component score) are very similar to each other, and therefore the first principal component obtained under the attribute value addition condition Is closely related to the shape features that affect the apparent age.

各主成分の主成分得点の値を変え、顔パーツの特徴点座標に再構成させた特徴点の座標の変化についても、属性値付加条件の第1主成分は、解剖学的な知見による青年期の加齢変化とほぼ合っているように見える。   Regarding the change of the feature point coordinates that are changed to the feature point coordinates of the face parts by changing the value of the principal component score of each principal component, the first principal component of the attribute value addition condition is the youth based on anatomical knowledge It seems to be almost consistent with the aging of the season.

本発明に係る画像処理方法では、顔の形状情報である特徴点の座標値だけでなく、直接顔画像の構成には関係のない見かけの年齢という属性値を加えて主成分分析を行うことにより、第1主成分の主成分得点が定量的にも年齢変化との関係を示していること、第1主成分から再構成した顔形状において定性的にも妥当な変形を観察できたことから、見かけの年齢に密接に関係する形状特徴を得られることを示している。   In the image processing method according to the present invention, the principal component analysis is performed by adding not only the coordinate value of the feature point that is the face shape information but also the attribute value of apparent age that is not directly related to the structure of the face image. Because the principal component score of the first principal component quantitatively shows the relationship with the age change, and the qualitatively reasonable deformation was observed in the face shape reconstructed from the first principal component, It shows that shape features closely related to apparent age can be obtained.

3−1.個人の顔画像へのマッピング
年齢特徴抽出実験により得られた見かけの年齢特徴を個人の顔画像へマッピングした。
3-1. Mapping to individual face images Apparent age features obtained by age feature extraction experiments were mapped to individual face images.

図36は対象者の顔画像に年齢形状特徴をマッピングすることにより年齢の異なる顔画像を合成した結果を示す図である。   FIG. 36 is a diagram showing a result of synthesizing face images of different ages by mapping the age shape feature onto the face image of the subject.

図36(a)は20歳の対象者の原画像を示し、図36(b)は年齢が40歳に見えるように合成した顔画像を示し、図36(c)は年齢が70歳に見えるように合成した顔画像を示す。合成割合は、いずれも年齢特徴抽出実験の属性値付加条件の第1主成分の変化量の±50%とした。   36 (a) shows an original image of a 20-year-old subject, FIG. 36 (b) shows a face image synthesized so that the age looks 40 years, and FIG. 36 (c) shows an age 70 years. A synthesized face image is shown. The composition ratio was set to ± 50% of the change amount of the first principal component in the attribute value addition condition of the age feature extraction experiment.

合成の手順は次の通りである。対象者の顔画像から、FUTONで用いる83点の特徴点を取得し、オリジナル顔画像の形状特徴ベクトルFを特徴点の座標値を用いて、166次元のベクトルFとする。
=(x,y,x,x,…,x166,y166 …(15)
オリジナル顔画像の形状特徴ベクトルFと、見かけの年齢特徴ベクトルFの各要素に合成割合0.5を乗じた修正ベクトルF’を加算あるいは減算し、年齢特徴をマッピングした顔形状ベクトルFを作成した。
The synthesis procedure is as follows. From the target's face image, we obtain the feature points of the 83 points used in FUTON, using the coordinate values of the feature points of shape feature vector F I of the original face images, and 166-dimensional vector F I.
F I = (x 1 , y 1 , x 2 , x 3 ,..., X 166 , y 166 ) T (15)
The shape feature vector F I of the original face image and the correction vector F ′ obtained by multiplying each element of the apparent age feature vector F by the composite ratio 0.5 are added or subtracted, and the face shape vector F S mapping the age feature is obtained. Created.

F’=(0.5x,0.5y,0.5x,0.5y…,0.5x83,0.5y83 …(16)
=F±F’ …(17)
そして、顔形状がFからFへと変化する形状モーフィング(顔合成技術)をFUTONで行った。
F ′ = (0.5x 1 , 0.5y 1 , 0.5x 2 , 0.5y 2 ... 0.5x 83 , 0.5y 83 ) T (16)
F S = F I ± F ′ (17)
The face shape is performed by FUTON shape morphing (facial synthesis techniques) that changes from F I to F S.

以上のように、上記実施例では、顔画像の形状特徴ベクトルに画像とは直接関係のない見かけの年齢という属性値を変量として加え、主成分分析を行うことにより、見かけの年齢変化に密接に関与する形状特徴を抽出することが可能であることが示された。   As described above, in the above-described embodiment, the attribute value of apparent age that is not directly related to the image is added as a variable to the shape feature vector of the face image, and the principal component analysis is performed to closely match the apparent age change. It was shown that it is possible to extract the shape features involved.

本発明は、原画像から異なる年齢印象を有する顔画像を合成するために利用することができ、犯罪捜査、尋ね人の捜索およびスキンケアのシュミレーション等の種々の目的に利用するこができる。   The present invention can be used for synthesizing face images having different age impressions from original images, and can be used for various purposes such as criminal investigations, search for interrogators, and skin care simulations.

本実施の形態の顔画像合成方法を実行するための顔画像合成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the face image composition apparatus for performing the face image composition method of this Embodiment. 顔画像合成装置によるしみ/しわモデル作成処理を示すフローチャートである。It is a flowchart which shows the blot / wrinkle model creation process by a face image synthesizing | combining apparatus. しわモデル作成処理を示すフローチャートである。It is a flowchart which shows a wrinkle model creation process. マッチング係数Pを説明するための説明図である。It is explanatory drawing for demonstrating the matching coefficient P. FIG. 対象者の原画像を簡略化した模式図である。It is the schematic diagram which simplified the original image of the subject. しみ/しわモデル作成処理により作成されたしわモデルおよびしみモデルを示す図である。It is a figure which shows the wrinkle model created by the blot / wrinkle model creation process and the blot model. モデル適用処理を示すフローチャートである。It is a flowchart which shows a model application process. (a)は20歳の女性の原画像の写真であり、(b)は40歳代のしみモデルおよびしわモデルを原画像に適用した結果の写真であり、(c)は70歳代のしみモデルおよびしわモデルを原画像に適用した結果の写真である。(A) is a photograph of an original image of a 20-year-old woman, (b) is a photograph of a result of applying a blot model and a wrinkle model in the 40s to the original image, and (c) is a blot of the 70s. It is a photograph as a result of applying a model and a wrinkle model to an original image. 注目画素および周辺画素の一例を示す図である。It is a figure which shows an example of an attention pixel and a surrounding pixel. 明領域画像の作成処理を示すフローチャートである。It is a flowchart which shows the preparation process of a bright area image. 明領域画像の作成処理を示すフローチャートである。It is a flowchart which shows the preparation process of a bright area image. 暗領域画像の作成処理を示すフローチャートである。It is a flowchart which shows the preparation process of a dark area image. 暗領域画像の作成処理を示すフローチャートである。It is a flowchart which shows the preparation process of a dark area image. 原画像の一例を示す図である。It is a figure which shows an example of an original image. 明領域画像の一例を示す図である。It is a figure which shows an example of a bright area image. ブロッブの抽出およびラベリングを説明するための図である。It is a figure for demonstrating the extraction and labeling of a blob. ブロッブの抽出およびラベリングを説明するための図である。It is a figure for demonstrating the extraction and labeling of a blob. 原画像の基準長さを説明するための図である。It is a figure for demonstrating the reference length of an original image. しみおよびしわの検出処理を示すフローチャートである。It is a flowchart which shows a stain and a wrinkle detection process. ブロッブの例を示す図である。It is a figure which shows the example of a blob. しみ成分またはしわ成分の一例を示す図である。It is a figure which shows an example of a stain component or a wrinkle component. 図1の画像処理装置において実行される画像処理プログラムの処理を示すフローチャートである。It is a flowchart which shows the process of the image processing program performed in the image processing apparatus of FIG. 図1の画像処理装置において実行される画像処理プログラムの処理を示すフローチャートである。It is a flowchart which shows the process of the image processing program performed in the image processing apparatus of FIG. 顔画像ごとの評定置の平均を降順に並び替えてプロットした図である。It is the figure which rearranged and plotted the average of the rating position for every face image in descending order. 顔特徴ベクトルの変量として用いた特徴点を示す図である。It is a figure which shows the feature point used as a variable of a face feature vector. (a)は男性の顔画像において属性値なし条件で得られた上位主成分の主成分得点を示す図であり、(b)は女性の顔画像において属性値なし条件で得られた上位主成分の主成分得点を示す図である。(A) is a figure which shows the principal component score of the high-order principal component obtained on the condition without attribute value in the male face image, (b) is the high-order principal component obtained on the condition without attribute value in the female face image It is a figure which shows the main component score of. (a)は男性の顔画像において属性値付加条件で得られた上位主成分の主成分得点を示す図であり、(b)は女性の顔画像において属性値付加条件で得られた上位主成分の主成分得点を示す図である。(A) is a figure which shows the principal component score of the high-order principal component obtained by the attribute value addition condition in the male face image, (b) is the high-order principal component obtained by the attribute value addition condition in the female face image It is a figure which shows the main component score of. 男性の顔画像において属性値付加条件で得られた第1主成分を用いて再構成した顔形状を示す図である。It is a figure which shows the face shape reconfigure | reconstructed using the 1st main component obtained on the attribute value addition conditions in the male face image. 男性の顔画像において属性値付加条件で得られた第2主成分を用いて再構成した顔形状を示す図である。It is a figure which shows the face shape reconfigure | reconstructed using the 2nd main component obtained on the attribute value addition conditions in the male face image. 男性の顔画像において属性値付加条件で得られた第3主成分を用いて再構成した顔形状を示す図である。It is a figure which shows the face shape reconfigure | reconstructed using the 3rd main component obtained on the attribute value addition conditions in the male face image. 男性の顔画像において属性値付加条件で得られた第4主成分を用いて再構成した顔形状を示す図である。It is a figure which shows the face shape reconfigure | reconstructed using the 4th main component obtained on the attribute value addition conditions in the male face image. 女性の顔画像において属性値付加条件で得られた第1主成分を用いて再構成した顔形状を示す図である。It is a figure which shows the face shape reconfigure | reconstructed using the 1st main component obtained on the attribute value addition conditions in the female face image. 女性の顔画像において属性値付加条件で得られた第2主成分を用いて再構成した顔形状を示す図である。It is a figure which shows the face shape reconfigure | reconstructed using the 2nd main component obtained on the attribute value addition conditions in the female face image. 女性の顔画像において属性値付加条件で得られた第3主成分を用いて再構成した顔形状を示す図である。It is a figure which shows the face shape reconfigure | reconstructed using the 3rd main component obtained on the attribute value addition conditions in the female face image. 女性の顔画像において属性値付加条件で得られた第4主成分を用いて再構成した顔形状を示す図である。It is a figure which shows the face shape reconfigure | reconstructed using the 4th main component obtained on the attribute value addition conditions in the female face image. 対象者の顔画像に年齢形状特徴をマッピングすることにより年齢の異なる顔画像を合成した結果を示す図である。It is a figure which shows the result of having synthesize | combined the face image from which age differs by mapping an age shape feature to a subject's face image.

符号の説明Explanation of symbols

50 画像処理装置
100 原画像
200 周辺領域
300 注目画素
501 CPU
502 ROM
503 RAM
504 入力装置
505 表示装置
506 外部記憶装置
507 記録媒体駆動装置
508 印刷装置
509 記録媒体
601,602,601A,602A,B1,B2,B3,B4,B5,B6,B7 ブロッブ
700 処理領域
50 Image Processing Device 100 Original Image 200 Peripheral Area 300 Pixel of Interest 501 CPU
502 ROM
503 RAM
504 Input device 505 Display device 506 External storage device 507 Recording medium drive device 508 Printing device 509 Recording medium 601 602 601A 602A B1 B2 B3 B4 B5 B6 B7 Blob 700 Processing area

Claims (4)

対象者の顔画像から指定された年齢または年齢層の顔画像を合成する顔画像合成装置であって、
予め複数人の顔画像を記憶する記憶手段と、
前記記憶手段に記憶された複数人の顔画像から複数人のしみまたはしわを検出する検出手段と、
前記記憶手段に記憶された複数人の顔画像から年齢または年齢層に対応する平均顔形状である年齢形状特徴を生成する生成手段と、
前記検出手段により検出された複数人のしみまたはしわから年齢または年齢層に対応するしみモデルまたはしわモデルを作成する作成手段と、
対象者の顔画像からしみまたはしわを有しない顔形状を抽出する抽出手段と、
前記生成手段により生成された年齢形状特徴のうち指定された年齢または年齢層に対応する年齢形状特徴に基づいて前記抽出手段により抽出された対象者の顔形状を変形させる変形手段と、
前記作成手段により作成された年齢または年齢層に対応するしみモデルまたはしわモデルのうち指定された年齢または年齢層に対応するしみモデルまたはしわモデルを前記変形手段により変形された対象者の顔形状に合致するよう変形した後、変形後のしみモデルまたはしわモデルを前記対象者の顔画像に適用することにより指定された年齢または年齢層に対応する顔画像を合成する適用手段とを備え
前記作成手段は、顔画像の複数に分割された領域ごとに複数人からしみの数または面積を抽出し、抽出された前記領域ごとのしみの数または面積を前記領域ごとに昇順または降順に並べた場合に、略中央に位置する前記しみの数または面積を有する顔画像の領域を選択し、選択された領域のしみを結合したものをしみモデルとして作成し、複数人の顔画像のしわ成分を前記生成手段により生成された年齢形状特徴に合成し、しわ成分の重なり度合いが最も大きくなるようにしわ成分の位置をずらし、ずらした後のしわ成分の輝度を積算し、積算されたしわ成分の輝度を人数で割り、得られた輝度が基準値を超える領域をしわモデルのしわとして設定することを特徴とする顔画像合成装置。
A face image synthesis device for synthesizing a face image of a specified age or age group from a face image of a subject,
Storage means for storing face images of a plurality of people in advance;
Detecting means for detecting spots or wrinkles of a plurality of persons from the face images of the plurality of persons stored in the storage means;
Generating means for generating an age shape feature that is an average face shape corresponding to an age or an age group from a plurality of face images stored in the storage means;
Creating means for creating a blot model or wrinkle model corresponding to an age or age group from a plurality of spots or wrinkles detected by the detection means;
Extraction means for extracting a face shape having no blotches or wrinkles from the face image of the subject;
Deformation means for deforming the face shape of the subject extracted by the extraction means based on an age shape feature corresponding to a specified age or age group among the age shape characteristics generated by the generation means;
Of the spot model or wrinkle model corresponding to the age or age group created by the creating means, the spot model or wrinkle model corresponding to the specified age or age group is converted into the face shape of the subject deformed by the deforming means. And applying means for synthesizing a face image corresponding to a specified age or age group by applying the deformed blot model or wrinkle model to the face image of the subject after deformation to match .
The creating means extracts the number or area of stains from a plurality of persons for each of the face image divided into a plurality of areas, and arranges the number or area of the extracted spots for each area in ascending or descending order for each of the areas. The face image area having the number or area of the blots located at the approximate center is selected, and a combination of the blots of the selected areas is created as a blot model to create a wrinkle component of the face images of multiple persons. Is combined with the age shape feature generated by the generating means, the position of the wrinkle component is shifted so that the overlapping degree of the wrinkle component is maximized, the luminance of the wrinkle component after the shift is integrated, and the integrated wrinkle component A face image synthesizing apparatus is characterized in that an area where the obtained luminance exceeds a reference value is set as a wrinkle of the wrinkle model .
前記検出手段は、前記記憶手段に記憶された各顔画像において各画素の輝度と周辺領域の輝度との差に基づいて小塊を抽出し、抽出された前記小塊からしみまたはしわを検出することを特徴とする請求項記載の顔画像合成装置。 The detection means extracts a small blob based on the difference between the luminance of each pixel and the luminance of the surrounding area in each face image stored in the storage means, and detects a spot or a wrinkle from the extracted blob. The face image synthesizing device according to claim 1 . 対象者の顔画像から指定された年齢または年齢層の顔画像を合成する顔画像合成方法であって、
予め複数人の顔画像を記憶するステップと、
前記記憶された複数人の顔画像から複数人のしみまたはしわを検出するステップと、
前記記憶された複数人の顔画像から年齢または年齢層に対応する平均顔形状である年齢形状特徴を生成するステップと、
前記検出された複数人のしみまたはしわから年齢または年齢層に対応するしみモデルまたはしわモデルを作成するステップと、
対象者の顔画像からしみまたはしわを有しない顔形状を抽出するステップと、
前記生成された年齢形状特徴のうち指定された年齢または年齢層に対応する年齢形状特徴に基づいて前記抽出された対象者の顔形状を変形させるステップと、
前記作成された年齢または年齢層に対応するしみモデルまたはしわモデルのうち指定された年齢または年齢層に対応するしみモデルまたはしわモデルを前記変形された対象者の顔形状に合致するよう変形した後、変形後のしみモデルまたはしわモデルを前記対象者の顔画像に適用することにより指定された年齢または年齢層に対応する顔画像を合成するステップと、
前記作成するステップは、顔画像の複数に分割された領域ごとに複数人からしみの数または面積を抽出し、抽出された前記領域ごとのしみの数または面積を前記領域ごとに昇順または降順に並べた場合に、略中央に位置する前記しみの数または面積を有する顔画像の領域を選択し、選択された領域のしみを結合したものをしみモデルとして作成し、複数人の顔画像のしわ成分を前記生成された年齢形状特徴に合成し、しわ成分の重なり度合いが最も大きくなるようにしわ成分の位置をずらし、ずらした後のしわ成分の輝度を積算し、積算されたしわ成分の輝度を人数で割り、得られた輝度が基準値を超える領域をしわモデルのしわとして設定することを含むことを特徴とする顔画像合成方法。
A face image synthesis method for synthesizing a face image of a specified age or age group from a face image of a subject,
Storing a plurality of face images in advance;
Detecting blots or wrinkles of a plurality of persons from the stored face images of the plurality of persons;
Generating an age shape feature that is an average face shape corresponding to an age or age group from the stored face images of the plurality of persons;
Creating a blot model or wrinkle model corresponding to an age or age group from the detected multiple spots or wrinkles;
Extracting a face shape having no spots or wrinkles from the face image of the subject;
Transforming the extracted facial shape of the subject based on an age shape feature corresponding to a specified age or age group among the generated age shape features;
After deforming the blot model or wrinkle model corresponding to the specified age or age group among the created blot model or wrinkle model corresponding to the age or age group so as to match the face shape of the deformed subject Synthesizing a face image corresponding to a specified age or age group by applying a deformed blot model or wrinkle model to the face image of the subject;
The step of creating extracts the number or area of stains from a plurality of persons for each of the face image divided into a plurality of areas, and calculates the number or area of the extracted spots for each area in ascending or descending order for each of the areas When arranged, a face image area having the number or area of the blots located approximately in the center is selected, and a combination of the blots of the selected areas is created as a blot model, and wrinkles of the face images of multiple people are created. Synthesize the component with the generated age shape feature, shift the position of the wrinkle component so that the overlapping degree of the wrinkle component is the largest, add the luminance of the wrinkle component after the shift, and integrate the luminance of the wrinkle component Dividing the area by the number of persons and setting a region where the obtained luminance exceeds a reference value as a wrinkle of the wrinkle model .
コンピュータにより実行可能で、対象者の顔画像から指定された年齢または年齢層の顔画像を合成する顔画像合成プログラムであって、
予め複数人の顔画像を記憶する処理と、
前記記憶された複数人の顔画像から複数人のしみまたはしわを検出する処理と、
前記記憶された複数人の顔画像から年齢または年齢層に対応する平均顔形状である年齢形状特徴を生成する処理と、
前記検出された複数人のしみまたはしわから年齢または年齢層に対応するしみモデルまたはしわモデルを作成する処理と、
対象者の顔画像からしみまたはしわを有しない顔形状を抽出する処理と、
前記生成された年齢形状特徴のうち指定された年齢または年齢層に対応する年齢形状特徴に基づいて前記抽出された対象者の顔形状を変形させる処理と、
前記作成された年齢または年齢層に対応するしみモデルまたはしわモデルのうち指定された年齢または年齢層に対応するしみモデルまたはしわモデルを前記変形された対象者の顔形状に合致するよう変形した後、変形後のしみモデルまたはしわモデルを前記対象者の顔画像に適用することにより指定された年齢または年齢層に対応する顔画像を合成する処理とを、前記コンピュータに実行させ、
前記作成する処理は、顔画像の複数に分割された領域ごとに複数人からしみの数または面積を抽出し、抽出された前記領域ごとのしみの数または面積を前記領域ごとに昇順または降順に並べた場合に、略中央に位置する前記しみの数または面積を有する顔画像の領域を選択し、選択された領域のしみを結合したものをしみモデルとして作成し、複数人の顔画像のしわ成分を前記生成された年齢形状特徴に合成し、しわ成分の重なり度合いが最も大きくなるようにしわ成分の位置をずらし、ずらした後のしわ成分の輝度を積算し、積算されたしわ成分の輝度を人数で割り、得られた輝度が基準値を超える領域をしわモデルのしわとして設定することを含むことを特徴とする顔画像合成プログラム。
A face image synthesis program that can be executed by a computer and synthesizes a face image of a specified age or age group from a face image of a subject,
A process for storing face images of a plurality of people in advance;
A process of detecting spots or wrinkles of a plurality of persons from the stored face images of the plurality of persons;
Processing to generate an age shape feature that is an average face shape corresponding to an age or age group from the stored face images of a plurality of persons;
A process of creating a blot model or wrinkle model corresponding to an age or age group from the detected spots or wrinkles of a plurality of persons;
A process of extracting a face shape having no spots or wrinkles from the face image of the subject person;
A process of deforming the extracted face shape of the subject based on an age shape feature corresponding to a specified age or age group among the generated age shape features;
After deforming the blot model or wrinkle model corresponding to the specified age or age group among the created blot model or wrinkle model corresponding to the age or age group so as to match the face shape of the deformed subject , Causing the computer to execute a process of synthesizing a face image corresponding to the specified age or age group by applying the deformed blot model or wrinkle model to the face image of the subject ,
The process of creating is to extract the number or area of stains from a plurality of people for each area divided into a plurality of face images, the number or area of the extracted spots for each area in ascending or descending order for each area When arranged, a face image area having the number or area of the blots located approximately in the center is selected, and a combination of the blots of the selected areas is created as a blot model, and wrinkles of the face images of multiple people are created. Synthesize the component with the generated age shape feature, shift the position of the wrinkle component so that the overlapping degree of the wrinkle component is the largest, add the luminance of the wrinkle component after the shift, and integrate the luminance of the wrinkle component A face image composition program comprising: dividing an area by the number of persons and setting a region where the obtained luminance exceeds a reference value as a wrinkle of a wrinkle model .
JP2005318654A 2005-11-01 2005-11-01 Face image synthesis device, face image synthesis method, and face image synthesis program Expired - Fee Related JP4682373B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005318654A JP4682373B2 (en) 2005-11-01 2005-11-01 Face image synthesis device, face image synthesis method, and face image synthesis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005318654A JP4682373B2 (en) 2005-11-01 2005-11-01 Face image synthesis device, face image synthesis method, and face image synthesis program

Publications (2)

Publication Number Publication Date
JP2007128171A JP2007128171A (en) 2007-05-24
JP4682373B2 true JP4682373B2 (en) 2011-05-11

Family

ID=38150798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005318654A Expired - Fee Related JP4682373B2 (en) 2005-11-01 2005-11-01 Face image synthesis device, face image synthesis method, and face image synthesis program

Country Status (1)

Country Link
JP (1) JP4682373B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810719B2 (en) 2016-06-30 2020-10-20 Meiji University Face image processing system, face image processing method, and face image processing program
US11354844B2 (en) 2018-10-26 2022-06-07 Soul Machines Limited Digital character blending and generation system and method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4877074B2 (en) * 2007-05-29 2012-02-15 セイコーエプソン株式会社 Image processing apparatus, image processing method, and computer program
JP2009139335A (en) * 2007-12-10 2009-06-25 Shiseido Co Ltd Cultured skin wrinkle model, its manufacturing method, and antiwrinkle medicine evaluation method
JP4893968B2 (en) * 2008-06-05 2012-03-07 花王株式会社 How to compose face images
JP2010230470A (en) * 2009-03-27 2010-10-14 Mitsubishi Space Software Kk Apparatus, program and method for arrangement of radiant intensity distribution, and system and method for landmark of radiometer geometry
CN103649987B (en) 2011-07-07 2018-05-25 花王株式会社 Face impression analysis method, beauty information providing method and face image generation method
KR101725808B1 (en) * 2015-08-27 2017-04-26 연세대학교 산학협력단 Method and Apparatus for Transforming Facial Age on Facial Image
CN105224929A (en) * 2015-10-10 2016-01-06 北京邮电大学 A kind of method of searching human face photo
EP3503023B1 (en) * 2017-12-22 2022-11-23 Chanel Parfums Beauté Improved age modelling method
CN112562026A (en) * 2020-10-22 2021-03-26 百果园技术(新加坡)有限公司 Wrinkle special effect rendering method and device, electronic equipment and storage medium
CN114612994A (en) * 2022-03-23 2022-06-10 深圳伯德睿捷健康科技有限公司 Method and device for training wrinkle detection model and method and device for detecting wrinkles

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092349A (en) * 2003-09-12 2005-04-07 Advanced Telecommunication Research Institute International Face image synthesizer, face image synthesizing method and face image synthesizing program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092349A (en) * 2003-09-12 2005-04-07 Advanced Telecommunication Research Institute International Face image synthesizer, face image synthesizing method and face image synthesizing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810719B2 (en) 2016-06-30 2020-10-20 Meiji University Face image processing system, face image processing method, and face image processing program
US11354844B2 (en) 2018-10-26 2022-06-07 Soul Machines Limited Digital character blending and generation system and method

Also Published As

Publication number Publication date
JP2007128171A (en) 2007-05-24

Similar Documents

Publication Publication Date Title
JP4682373B2 (en) Face image synthesis device, face image synthesis method, and face image synthesis program
O'Toole et al. 3D shape and 2D surface textures of human faces: The role of “averages” in attractiveness and age
JP6368919B2 (en) Makeup support device, makeup support method, and makeup support program
Liao et al. Automatic caricature generation by analyzing facial features
JP4683200B2 (en) Automatic hair region extraction method
JP3639476B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
EP3335195A2 (en) Methods of generating personalized 3d head models or 3d body models
JP5261586B2 (en) Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program
US20080304736A1 (en) Method of estimating a visual evaluation value of skin beauty
JP2012181843A (en) Method and apparatus for realistic simulation of wrinkle aging and de-aging
JP2010507854A (en) Method and apparatus for virtual simulation of video image sequence
JP3920747B2 (en) Image processing device
JP5035524B2 (en) Facial image composition method and composition apparatus
CN113344837B (en) Face image processing method and device, computer readable storage medium and terminal
JP5095182B2 (en) Face classification device, face classification program, and recording medium on which the program is recorded
Baltrusaitis et al. A high fidelity synthetic face framework for computer vision
JP2017122993A (en) Image processor, image processing method and program
JP4893968B2 (en) How to compose face images
Terzopoulos et al. Model-based and image-based methods for facial image synthesis, analysis and recognition
JP5650012B2 (en) Facial image processing method, beauty counseling method, and facial image processing apparatus
JPH1021290A (en) Makeup simulating method
Leta et al. A study of the facial aging-a multidisciplinary approach
JP7495292B2 (en) Method for predicting facial changes over time
Heravi et al. Adult-child 3D backward face aging model (3D B-FAM)
KR20010073916A (en) Real time picture mapping device and methode

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110120

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4682373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees