JP3139617B2 - Portrait making method and device - Google Patents

Portrait making method and device

Info

Publication number
JP3139617B2
JP3139617B2 JP09050928A JP5092897A JP3139617B2 JP 3139617 B2 JP3139617 B2 JP 3139617B2 JP 09050928 A JP09050928 A JP 09050928A JP 5092897 A JP5092897 A JP 5092897A JP 3139617 B2 JP3139617 B2 JP 3139617B2
Authority
JP
Japan
Prior art keywords
face
face part
portrait
image
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP09050928A
Other languages
Japanese (ja)
Other versions
JPH10255017A (en
Inventor
牛田  博英
秀二 江島
尚弘 田畑
雅人 川出
勉 石田
吉朗 田坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP09050928A priority Critical patent/JP3139617B2/en
Publication of JPH10255017A publication Critical patent/JPH10255017A/en
Application granted granted Critical
Publication of JP3139617B2 publication Critical patent/JP3139617B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、ビデオカ
メラや電子スチルカメラ等にて得られた対象人物の顔画
像を基に似顔絵を自動的に作成するための似顔絵作成方
法及び装置に係り、特に、顔部品画像間の相対的な位置
関係、並びに、顔部品画像それ自体の大きさや形状を、
対象人物の顔の計測値を用いて誇張することにより、似
顔絵の本質的な特徴である誇張した顔画像を自動的に作
成できるようにした似顔絵作成方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a portrait creating method and apparatus for automatically creating a portrait based on a face image of a target person obtained by, for example, a video camera or an electronic still camera. In particular, the relative positional relationship between the face part images, and the size and shape of the face part images themselves,
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a caricature creation method and apparatus capable of automatically creating an exaggerated face image which is an essential feature of a caricature by exaggerating a measured value of a face of a target person.

【0002】[0002]

【従来の技術】従来、似顔絵などの顔画像の作成に利用
される装置としては、例えば、特開平6−324671
号公報に記載された『図形表示装置』が知られている。
この装置にあっては、要するに、眉・目・鼻・口など顔
を構成する顔部品の画像データベースから適当な部品画
像を選択し、選択された部品画像を顔部品のない無地の
顔画像上に配置するものである。
2. Description of the Related Art Conventionally, as an apparatus used for creating a face image such as a portrait, for example, Japanese Patent Application Laid-Open No. Hei 6-324671 is disclosed.
A "graphic display device" described in Japanese Patent Application Laid-Open Publication No. H10-209,985 is known.
In this apparatus, in short, an appropriate part image is selected from an image database of face parts such as eyebrows, eyes, nose, and mouth, and the selected part image is displayed on a plain face image without face parts. It is to be arranged in.

【0003】すなわち、同装置にあっては、背景の中に
人物画を挿入する似顔絵の向きを示すパラメータD、人
物画の拡大・縮小処理を行うための拡大率M、背景の中
に人物画を挿入する位置を示す位置パラメータCnをそ
れぞれ選択する。そして、背景データの上の位置パラメ
ータCnで示される位置に似顔絵合成結果データを合成
して表示装置に表示する。これにより、正面からの似顔
絵入力を行い、その後は表示角度データdに対応する向
きパラメータDを選択するだけで異なる角度の似顔絵デ
ータを自動生成し、似顔絵を背景データの内容と容易に
一致させ、しかも各図形の大きさも適切に合わせるよう
にしたものである。
That is, in the apparatus, a parameter D indicating the direction of a portrait in which a portrait is inserted in the background, an enlargement ratio M for performing enlargement / reduction processing of the portrait, a portrait in the background. Are respectively selected to indicate the position at which the is inserted. Then, the portrait synthesis result data is synthesized with the position indicated by the position parameter Cn on the background data and displayed on the display device. Thereby, the portrait is input from the front, and then the portrait data of a different angle is automatically generated simply by selecting the direction parameter D corresponding to the display angle data d, and the portrait is easily matched with the content of the background data. In addition, the size of each figure is appropriately adjusted.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、このよ
うな従来装置にあっては、顔部品画像を配置する場所
が、固定あるいは実物の部品の場所と同じであったた
め、似顔絵の本質的な特徴である誇張した顔画像を作成
できないと言う問題点があった。
However, in such a conventional apparatus, the place where the face part image is arranged is the same as the place of the fixed or real part, and therefore, the essential feature of the portrait. There was a problem that a certain exaggerated face image could not be created.

【0005】加えて、このような従来装置にあっては、
いろいろな人の顔部品に対応できるように、多くの顔部
品画像をあらかじめ用意しておかねばならないと言う問
題がある。
[0005] In addition, in such a conventional device,
There is a problem that many face part images must be prepared in advance so as to be able to handle various human face parts.

【0006】この発明は、このような従来の問題点に着
目してなされたものであり、その目的とするところは、
似顔絵の本質的特徴である誇張した顔画像を自動的に作
成できるようにした似顔絵作成方法及び装置を提供する
ことにある。
[0006] The present invention has been made in view of such conventional problems.
It is an object of the present invention to provide a portrait creating method and apparatus capable of automatically creating an exaggerated face image which is an essential feature of a portrait.

【0007】この発明の他の目的とするところは、いろ
いろな人の顔部品に対応する場合でも、多くの顔部品を
あらかじめ用意することを不要とすることができる似顔
絵作成方法及び装置を提供することにある。
Another object of the present invention is to provide a caricature creating method and apparatus which can eliminate the need to prepare many face parts in advance even when dealing with various human face parts. It is in.

【0008】[0008]

【課題を解決するための手段】この出願の請求項1に記
載の発明は、顔画像を入力するための顔画像入力手段
と、前記顔画像入力手段から入力された顔画像を解析し
て顔部品の形状及び配置に関する特徴量である顔特徴量
を抽出する顔特徴量抽出手段と、予め各顔部品の種類毎
に用意された複数の顔部品データを記憶しておくための
顔部品データ記憶手段と、前記顔部品データ記憶手段か
ら、前記顔部品の形状に関する特徴量を用いて、その形
状特徴量に該当する顔部品データを各顔部品の種類毎に
抽出する顔部品データ抽出手段と、前記抽出した顔部品
データで表現される顔部品を配置する位置の変更を制御
する変更パラメータを入力するための変更パラメータ入
力手段と、前記変更パラメータに基づいて前記顔特徴量
の中の顔部品の配置特徴量を修正して、前記顔部品デー
タ抽出手段で抽出した顔部品データに対応する顔部品パ
ターンを前記修正した配置特徴量で示される位置に配置
する顔部品配置手段と、を具備することを特徴とする似
顔絵作成装置にある。
According to a first aspect of the present invention, there is provided a face image input means for inputting a face image, and a face image input from the face image input means by analyzing the face image. A face feature extraction means for extracting a face feature which is a feature related to the shape and arrangement of the part, and a face part data storage for storing a plurality of face part data prepared in advance for each type of face part Means for extracting, from the face part data storage means, face part data corresponding to the shape feature amount for each type of face part using a feature amount relating to the shape of the face part; Change parameter input means for inputting a change parameter for controlling a change of a position at which a face part represented by the extracted face part data is arranged; and a change of a face part in the face feature amount based on the change parameter. Arrangement Face part arranging means for correcting the amount of collection and arranging a face part pattern corresponding to the face part data extracted by the face part data extracting means at a position indicated by the corrected arrangement feature amount. The feature is in the portrait creation device.

【0009】ここで、『配置特徴量』とは、配置する位
置又は配置する位置を生成することのできる特徴量を意
味するものであり、後述する実施の形態では、X1,Y
1,Eye height等がこれに相当する。
Here, the "arrangement feature amount" means a feature amount at which an arrangement position or an arrangement position can be generated. In an embodiment described later, X1, Y
1, Eye height and the like correspond to this.

【0010】そして、この請求項1に記載の発明によれ
ば、顔の特徴を強調するように顔部品を配置することが
可能となるので、似顔絵の本質的特徴である誇張した顔
画像を自動的に作成できる。
According to the first aspect of the present invention, it is possible to arrange face parts so as to emphasize the features of the face, so that an exaggerated face image, which is an essential feature of a portrait, is automatically generated. Can be created.

【0011】この出願の請求項2に記載の発明は、前記
変更パラメータは、似顔絵作成対象人物の性別情報及び
/又は似顔絵作成対象人物が成人か否かの情報を含んで
いる請求項1に記載の似顔絵作成装置にある。
In the invention according to claim 2 of the present application, the change parameter includes gender information of a portrait creation target person and / or information on whether the portrait creation target person is an adult. In the portrait creation device.

【0012】そして、この請求項2に記載の発明によれ
ば、性別や成人子供の別に合わせて、一層誇張した似顔
絵を自動的に作成することができる。
According to the second aspect of the present invention, a more exaggerated caricature can be automatically created according to gender and adult / children.

【0013】この出願の請求項3に記載の発明は、与え
られた顔画像を解析して顔部品の形状及び配置に関する
特徴量である顔特徴量を抽出する顔特徴量抽出ステップ
と、各顔部品の種類毎に予め記憶された複数の顔部品デ
ータの中から、前記顔部品の形状に関する特徴量を用い
て、その形状特徴量に該当する顔部品データを各顔部品
の種類毎に抽出する顔部品データ抽出ステップと、前記
抽出した顔部品データで表現される顔部品を配置する位
置の変更を制御する変更パラメータを入力する変更パラ
メータ入力ステップと、前記入力された変更パラメータ
に基づいて前記顔特徴量の中の顔部品の配置特徴量を修
正して、前記顔部品データ抽出ステップで抽出した顔部
品データに対応する顔部品パターンを前記修正した配置
特徴量で示される位置に配置する顔部品配置ステップ
と、を具備することを特徴とする似顔絵作成方法にあ
る。
According to a third aspect of the present invention, there is provided a face feature amount extracting step of analyzing a given face image to extract a face feature amount which is a feature amount related to the shape and arrangement of a face part. From a plurality of pieces of face part data stored in advance for each type of part, face part data corresponding to the shape feature amount is extracted for each type of face part by using a feature amount related to the shape of the face part. A face part data extraction step; a change parameter input step of inputting a change parameter for controlling a change of a position at which a face part represented by the extracted face part data is to be arranged; and the face based on the input change parameter. The arrangement feature amount of the face part in the feature amount is corrected, and the face part pattern corresponding to the face part data extracted in the face part data extraction step is indicated by the corrected arrangement feature amount. In the portrait creation method characterized by comprising a face component arrangement step of arranging the location, the.

【0014】そして、この請求項3に記載の発明によれ
ば、顔の特徴を強調するように顔部品を配置することが
可能となるので、似顔絵の本質的特徴である誇張した顔
画像を自動的に作成できる。
According to the third aspect of the present invention, it is possible to arrange face parts so as to emphasize the features of the face, so that an exaggerated face image which is an essential feature of a portrait is automatically generated. Can be created.

【0015】この出願の請求項4に記載の発明は、前記
変更パラメータは、似顔絵作成対象人物の性別又は似顔
絵作成対象者が成人か否かの情報を含んでいる請求項3
に記載の似顔絵作成方法にある。
In the invention described in claim 4 of this application, the change parameter includes information on the gender of the portrait creation target person or whether the portrait creation target person is an adult.
In the caricature creation method described in.

【0016】そして、この請求項4に記載の発明によれ
ば、性別や成人子供の別に合わせて、一層誇張した似顔
絵を自動的に作成することができる。
According to the present invention, a more exaggerated caricature can be automatically created according to gender or adult children.

【0017】この出願の請求項5に記載の発明は、顔画
像を入力するための顔画像入力手段と、前記入力された
顔画像から顔部品の特徴量を抽出する顔部品特徴量抽出
手段と、予め各顔部品の種類毎に用意された複数の顔部
品データを記憶しておくための顔部品データ記憶手段
と、前記顔部品データ記憶手段から、似顔絵作成におい
て使用される顔部品データを各顔部品の種類毎に抽出す
る顔部品抽出手段と、前記抽出された顔部品データで表
現される顔部品の大きさ又は形状を前記顔部品の特徴量
に基づいて修正するための相関を生成する相関生成手段
と、前記顔部品データ記憶手段から読み出した顔部品デ
ータの大きさ又は形状を前記相関によって修正して得た
顔部品を用いて似顔絵を合成する似顔絵合成手段と、を
具備することを特徴とする似顔絵作成装置にある。
According to a fifth aspect of the present invention, there is provided a face image inputting means for inputting a face image, and a face part characteristic amount extracting means for extracting a characteristic amount of a face part from the input face image. A face part data storage unit for storing a plurality of face part data prepared in advance for each type of face part; and a face part data used in caricature creation from the face part data storage unit. A face part extraction unit for extracting each type of face part and a correlation for correcting the size or shape of the face part represented by the extracted face part data based on the feature amount of the face part are generated. Correlation generating means, and a portrait synthesizing means for synthesizing a portrait using a facial part obtained by correcting the size or shape of the facial part data read from the facial part data storage means by the correlation. Characteristic In the portrait creating apparatus for.

【0018】そして、この請求項5に記載の発明によれ
ば、顔部品の形状や大きさを変換して誇張できるので、
印象的な似顔絵を作成できると共に、そのための顔部品
画像の記憶量を節減することができる。
According to the fifth aspect of the present invention, the shape and size of the face part can be changed and exaggerated.
An impressive portrait can be created, and the storage amount of the face part image can be reduced.

【0019】この出願の請求項6に記載の発明は、前記
相関生成手段は、似顔絵作成対象人物の性別又は成人か
否かの情報に基づいて相関を生成するものである、請求
項5に記載の似顔絵作成装置にある。
According to a sixth aspect of the present invention, in the fifth aspect, the correlation generating means generates the correlation based on the gender of the person whose portrait is to be created or whether or not it is an adult. In the portrait creation device.

【0020】そして、この請求項6に記載の発明によれ
ば、子供のような顔や女性らしい顔等を容易に作成する
ことができる。
According to the invention described in claim 6, it is possible to easily create a child-like face, a feminine face, and the like.

【0021】この出願の請求項7に記載の発明は、顔画
像を入力するための顔画像入力手段と、前記入力された
顔画像を解析して、顔部品の形状及び配置に関する特徴
量である顔特徴量を抽出する顔特徴量抽出手段と、予め
各顔部品の種類毎に用意された複数の顔部品データを記
憶しておくための顔部品データ記憶手段と、前記顔部品
データ記憶手段から似顔絵において使用する顔部品デー
タを選択する際に用いられるパラメータを入力するパラ
メータ入力手段と、似顔絵において使用する顔部品デー
タを、前記パラメータに基づいて、前記顔部品データ記
憶手段から顔部品の種類毎に抽出する顔部品抽出手段
と、前記抽出された顔部品データで表現される顔部品の
大きさ又は形状を、前記顔部品の形状に関する特徴量に
基づいて修正する顔部品修正手段と、前記顔部品修正手
段によって修正して得られる顔部品を、前記配置に関す
る特徴量に基づき配置して似顔絵を合成する似顔絵合成
手段と、を具備する似顔絵作成装置にある。
According to a seventh aspect of the present invention, there is provided a face image input means for inputting a face image, and a feature quantity relating to the shape and arrangement of the face parts by analyzing the input face image. A face feature amount extraction unit for extracting a face feature amount, a face part data storage unit for storing a plurality of face part data prepared in advance for each type of face part, and a face part data storage unit. Parameter input means for inputting parameters used when selecting face part data to be used in the portrait, and face part data to be used in the portrait, from the face part data storage means for each type of face part based on the parameter; And a face for correcting the size or shape of the face part represented by the extracted face part data on the basis of a feature amount related to the shape of the face part. And goods correcting means, a facial parts obtained by correcting by the facial part modifying means, in the portrait creation device including a portrait synthesis unit, a synthesized portrait arranged based on the feature quantity relating to the arrangement.

【0022】そして、この請求項7に記載の発明によれ
ば、顔部品の形状や大きさ、配置を変換して誇張するこ
とができるため、より印象的な似顔絵を作成することが
できる。それにより、予め顔部品を大量に設ける必要も
なくなり、顔部品画像の記憶量を節減することができ
る。
According to the seventh aspect of the present invention, since the shape, size and arrangement of the face parts can be changed and exaggerated, a more impressive portrait can be created. Thus, it is not necessary to provide a large number of face parts in advance, and the storage amount of the face part image can be reduced.

【0023】この出願の請求項8に記載の発明は、与え
られた顔画像を解析して顔部品の特徴量を抽出する顔部
品特徴量抽出ステップと、各顔部品の種類毎に予め用意
され記憶された複数の顔部品データの中から、似顔絵作
成において使用される顔部品データを各顔部品の種類毎
に抽出する顔部データ品抽出ステップと、前記抽出した
顔部品データで表現される顔部品の大きさ又は形状を前
記顔部品の特徴量に基づいて修正するための相関を生成
する相関生成ステップと、前記抽出した顔部品データで
表現される顔部品の大きさ又は形状を前記相関によって
修正して得た顔部品を用いて似顔絵を合成する似顔絵合
成ステップと、を具備する、ことを特徴とする似顔絵作
成方法にある。
The invention described in claim 8 of this application is a face part feature value extracting step of analyzing a given face image and extracting feature values of face parts, and is prepared in advance for each type of face part. A face data product extracting step of extracting face component data used in creating a portrait from each of a plurality of stored face component data for each type of face component; and a face represented by the extracted face component data. A correlation generation step of generating a correlation for correcting the size or shape of the part based on the feature amount of the face part, and the size or shape of the face part represented by the extracted face part data by the correlation. And a portrait synthesizing step of synthesizing a portrait using the face parts obtained by the correction.

【0024】そして、この請求項8に記載の発明によれ
ば、顔部品の形状や大きさを変換して誇張することがで
きるため、より印象的な似顔絵を作成することができ
る。それにより、予め顔部品を大量に設ける必要もなく
なり、顔部品画像の記憶量を節減することができる。
According to the eighth aspect of the present invention, since the shape and size of the face part can be changed and exaggerated, a more impressive portrait can be created. Thus, it is not necessary to provide a large number of face parts in advance, and the storage amount of the face part image can be reduced.

【0025】この出願の請求項9に記載の発明は、前記
相関生成ステップは、似顔絵作成対象人物の性別又は成
人か否かの情報に基づいて相関が生成されるものであ
る、請求項8に記載の似顔絵作成方法にある。
The invention according to claim 9 of the present application is the invention according to claim 8, wherein the correlation generating step generates a correlation based on the gender of the person whose portrait is to be created or whether it is an adult. See the caricature creation method described.

【0026】そして、この請求項9に記載の発明によれ
ば、子供のような顔や女性らしい顔等を容易に作成する
ことができる。
According to the ninth aspect, it is possible to easily create a child-like face, a feminine face, and the like.

【0027】この出願の請求項10に記載の発明は、似
顔絵作成対象となる顔画像を入力する顔画像入力ステッ
プと、前記入力された顔画像を解析して、顔部品の形状
及び配置に関する特徴量である顔特徴量を抽出する顔特
徴量抽出ステップと、予め各顔部品の種類毎に用意され
た複数の顔部品データから似顔絵において使用される顔
部品データを選択する際に用いられるパラメータを入力
するパラメータ入力ステップと、前記予め用意された複
数の顔部品データから似顔絵において使用される顔部品
データを、前記パラメータに基づいて、各顔部品の種類
毎に抽出する顔部品抽出ステップと、前記抽出された顔
部品データで表現される顔部品の大きさ又は形状を、前
記顔部品の形状に関する特徴量に基づいて修正する顔部
品修正ステップと、前記顔部品修正ステップによって修
正して得られる顔部品を、前記配置に関する特徴量に基
づき配置して似顔絵を合成する似顔絵合成ステップと、
を具備することを特徴とする似顔絵作成方法にある。
According to a tenth aspect of the present invention, there is provided a face image input step of inputting a face image for which a portrait is to be created, and analyzing the input face image to determine the shape and arrangement of face parts. A face feature amount extraction step of extracting a face feature amount, which is an amount, and a parameter used when selecting face part data used in a portrait from a plurality of face part data prepared in advance for each type of face part. A parameter inputting step of inputting, a face part extraction step of extracting face part data used in a portrait from the plurality of face part data prepared in advance for each type of face part based on the parameter, A face part correction step of correcting the size or shape of the face part represented by the extracted face part data based on a feature amount related to the shape of the face part; A face part obtained by correcting by the facial part modification step, a portrait synthesis step of synthesizing a portrait arranged based on the feature quantity relating to the arrangement,
A portrait drawing creation method characterized by comprising:

【0028】そして、この請求項10に記載の発明によ
れば、顔部品の形状や大きさ、配置を変換して誇張でき
るので、印象的な似顔絵を作成できると共に、そのため
の顔部品画像の記憶量を節減することができる。
According to the tenth aspect of the present invention, the shape, size, and arrangement of the face parts can be changed and exaggerated, so that an impressive portrait can be created and a face part image for that purpose can be stored. The amount can be saved.

【0029】[0029]

【発明の実施の形態】以下、この発明の好ましい実施の
形態につき、添付図面を参照して詳細に説明する。
Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0030】この発明の好ましい実施の形態(第1の実
施の形態)である似顔絵作成装置の全体構成を図1に示
し、またその動作手順を説明するためのフローチャート
を図2に示す。
FIG. 1 shows the overall configuration of a portrait creating apparatus according to a preferred embodiment (first embodiment) of the present invention, and FIG. 2 is a flowchart for explaining the operation procedure.

【0031】図1に示されるように、この似顔絵作成装
置は、データ入力手段1と、画像入力手段2と、特徴量
抽出手段3と、特徴量記憶手段4と、非線形関数作成手
段5と、輪郭画像抽出手段6と、部品画像記憶手段7
と、部品配置手段8と、顔画像出力手段9とから構成さ
れている。これらの手段1〜9は、具体的には、以下の
ように構成されている。
As shown in FIG. 1, the portrait creating apparatus includes a data input unit 1, an image input unit 2, a feature extraction unit 3, a feature storage unit 4, a nonlinear function creation unit 5, Contour image extraction means 6 and component image storage means 7
, Component arrangement means 8 and face image output means 9. These means 1 to 9 are specifically configured as follows.

【0032】データ入力手段1は、利用者が、後述する
人物パラメータや誇張程度パラメータを入力するために
使用されるものであり、例えばキーボードやマウス等の
入力装置により構成されている。ここで、この例では、
人物パラメータ(Person_para)の値は整数とされてお
り、具体的には、0(成人男性)、1(成人女性)、2
(子供)と決められている。尚、この例では、成人と子
供の区別は、15歳以上を成人、15歳未満を子供とし
ている。
The data input means 1 is used by a user to input a person parameter and an exaggeration degree parameter, which will be described later, and is constituted by an input device such as a keyboard and a mouse. Here, in this example,
The value of the person parameter (Person_para) is an integer, and specifically, 0 (adult male), 1 (adult female),
(Child). In this example, the distinction between an adult and a child is 15 years or older as an adult and a child under 15 years as a child.

【0033】画像入力手段2は、本装置の内部に対象人
物のカラー顔画像を取り込むためのものであり、具体的
には、例えばビデオカメラや電子スチルカメラ等で構成
することができるほか、予め撮影されたカラー顔画像が
何らかの記録媒体(例えば、フロッピーディスク、MO
ディスク、DVD等)に格納されているのであれば、そ
のような記録媒体からカラー顔画像を再生する再生装置
により構成することもできる。
The image input means 2 is for taking in a color face image of a target person into the apparatus. Specifically, the image input means 2 can be constituted by, for example, a video camera, an electronic still camera, or the like. The captured color face image is stored in some storage medium (eg, floppy disk, MO
(A disc, a DVD, or the like), a reproducing apparatus that reproduces a color face image from such a recording medium may be used.

【0034】特徴量抽出手段3は、画像入力手段2にて
入力されたカラー顔画像から、対象人物の顔の特徴量を
抽出するためのものである。ここで言う特徴量は、選択
用特徴量と、配置用特徴量と、拡大縮小率(Scale_rati
o)とから構成されている。選択用特徴量には、目の大
きさ(Eye_size)、目の形状(Eye_shape)、鼻の形状
(Nose_shape)、口の大きさ(Mouth_size)、口の形状
(Mouth_shape)、眉の濃さ(Brow_thickness)が含ま
れている。配置用特徴量には、顔輪郭の特徴量(X1,
Y1)、目の高さ(Eye_height)、目鼻間距離(Eye_no
se)、鼻口間距離(Nose_mouth)、目と目の間隔(Eye_
space)、目と眉の間隔(Eye_brow)が含まれている。
そして、上述の選択用特徴量は部品画像記憶手段7に記
憶されている部品画像を選択するために用いられ、また
上述の配置用特徴量は部品画像を輪郭画像上に合成する
ために用いられる。
The feature value extracting means 3 is for extracting the feature value of the face of the target person from the color face image input by the image input means 2. Here, the feature amounts include a selection feature amount, an arrangement feature amount, and a scaling ratio (Scale_rati
o). The feature amounts for selection include eye size (Eye_size), eye shape (Eye_shape), nose shape (Nose_shape), mouth size (Mouth_size), mouth shape (Mouth_shape), and eyebrow depth (Brow_thickness) )It is included. The feature amount for arrangement includes the feature amount (X1,
Y1), eye height (Eye_height), eye-nose distance (Eye_no)
se), distance between nose and mouth (Nose_mouth), distance between eyes (Eye_mouth)
space), eye-brow spacing (Eye_brow).
The above-mentioned feature quantity for selection is used for selecting a component image stored in the component image storage means 7, and the feature quantity for arrangement is used for synthesizing the component image on the contour image. .

【0035】以下に、上述した特徴量抽出手段3にて行
われる選択用特徴量、配置用特徴量、拡大縮小率の具体
的な求め方を詳細に説明する。
A detailed description will now be given of a specific method of obtaining the selection feature, the arrangement feature, and the enlargement / reduction ratio performed by the feature extraction means 3 described above.

【0036】先ず、顔の輪郭の特徴点を求めるための方
法を説明する。ここで、顔の輪郭の特徴点(頭の頂点P
1、アゴの下端点P2、アゴの右端点P3、アゴの左端
点P4)は図3に示されるように定義される。このよう
な特徴点を求めるためには、まず、入力画像(RGB)
をHSVに変換し、肌色領域を抽出する。次いで、肌色
領域内を下側から探索することによりアゴのエッジを検
出し、アゴのエッジの最下点をP2とする。次いで、肌
色領域の右端点をP3、左端点をP4とする。次いで、
HSV変換後の顔画像から黒色領域を抽出し、その最上
点をP1とする。以上の4点(P1〜P4)を求めた
後、顔画像をグレー濃淡画像に変換する。
First, a method for obtaining a feature point of a face contour will be described. Here, the feature points of the face outline (the vertex P of the head)
1, the lower end point P2 of the jaw, the right end point P3 of the jaw, and the left end point P4 of the jaw) are defined as shown in FIG. In order to obtain such feature points, first, the input image (RGB)
Is converted to HSV, and a flesh color region is extracted. Next, the jaw edge is detected by searching the flesh color area from below, and the lowest point of the jaw edge is set to P2. Next, the right end point of the skin color area is set to P3, and the left end point is set to P4. Then
A black area is extracted from the HSV-converted face image, and the highest point is set to P1. After obtaining the above four points (P1 to P4), the face image is converted into a gray shade image.

【0037】次に、上記で求めた顔画像の特徴点(P1
〜P4)を用いて顔輪郭の特徴点X1,Y1を求める方
法を説明する。xpiを特徴点iのX座標、ypiを特徴点i
のY座標とすれば、顔輪郭の特徴点X1,Y1は次式
(数1)により表される。
Next, the feature points (P1
To P4), a method of obtaining the feature points X1 and Y1 of the face contour will be described. xpi is the X coordinate of feature point i, ypi is the feature point i
, The characteristic points X1 and Y1 of the face contour are represented by the following equation (Equation 1).

【0038】[0038]

【数1】 X1=xp4−xp3 Y1=yp1−yp2 (数1) 次に、目頭、目尻、鼻頭、鼻左端、鼻右端、口左端、口
右端の特徴点の求めるための方法を説明する。ここで、
これらの特徴点(右目頭P5、右目尻P6、左目頭P
7、左目尻P8、鼻頭P9、鼻右端P10、鼻左端P1
1、口右端P12、口左端P13)は図3に示されるよ
うに定義される。これらの特徴点は、特徴点を含む特徴
点周辺部分の画像のテンプレートマッチングにより求め
られる。テンプレートマッチングの方法としては、例え
ば正規化濃度相関法を挙げることができる。正規化濃度
相関法ではグレー濃淡画像が用いられる。すなわち、対
象画像とテンプレート画像との間でグレー濃度の変化パ
ターンが照合され、グレー濃度の変化パターンが類似し
ているほど、照合一致の度合いが大きいものとされる。
そして、探索範囲内で最も照合一致の度合いが大きい点
が特徴点として抽出される。このとき、テンプレートと
しては、複数人の顔画像の各特徴点付近のグレー濃度を
平均化して求めた画像データが用いられる。テンプレー
トマッチングによる具体的な照合結果の一例を図19に
示す。
[Number 1] X1 = x p4 -x p3 Y1 = y p1 -y p2 ( Equation 1) Next, inner corner, eye area, nose tip, nose left, nose right end, mouth left, a method for finding the feature points of the mouth rightmost Will be described. here,
These feature points (right eye corner P5, right eye corner P6, left eye corner P6)
7, left eye corner P8, nose head P9, nose right end P10, nose left end P1
1, the right end P12 and the left end P13) are defined as shown in FIG. These feature points are obtained by template matching of the image around the feature points including the feature points. As a template matching method, for example, a normalized density correlation method can be cited. In the normalized density correlation method, a gray shade image is used. That is, the change pattern of the gray density is compared between the target image and the template image, and the more similar the change pattern of the gray density, the greater the degree of matching match.
Then, the point having the highest degree of matching in the search range is extracted as a feature point. At this time, as the template, image data obtained by averaging gray densities in the vicinity of each feature point of the face images of a plurality of persons is used. FIG. 19 shows an example of a specific matching result by template matching.

【0039】次に、目の選択用特徴量(Eye_size,Eye_s
hape)並びに配置用特徴量(Eye_height,Eye_space)を
求めるための方法を図4を参照して説明する。なお、こ
こでは左目についてのみ説明するが、右目についても同
様な方法により求めることができる。図4において、目
頭P7の座標値(xp7,yp7)と目尻P8の座標値(xp8,y
p8)が既に与えられているものとする。尚、右目の場合
であれば、目頭P5と目尻P6とが与えられているもの
とする。
Next, the feature quantities for eye selection (Eye_size, Eye_s
hape) and a method for obtaining the arrangement feature amount (Eye_height, Eye_space) will be described with reference to FIG. Although only the left eye will be described here, the right eye can be obtained in a similar manner. In FIG. 4, the coordinate value (xp7, yp7) of the inner corner P7 and the coordinate value (xp8, y
p8) has already been given. In the case of the right eye, it is assumed that the inner corner P5 and the outer corner P6 are given.

【0040】また、図4における作図上の約束事は以下
(イ)〜(ヌ)の通りである。 (イ)目の垂直中心線はY軸に平行、目の水平中心線は
X軸に平行 (ロ)目の垂直中心線のX座標=(目頭のX座標値+目
尻のX座標値)/2 (ハ)目の水平中心線のY座標=(目頭のY座標値+目
尻のY座標値)/2 (ニ)EyeSearchArea_X=Y1×0.02 (ホ)EyeSearchArea_Y=Y1×0.1 (ヘ)Y座標における加算明るさ=EyeSearchArea_X内
の該当Y座標における輝度の総和 (ト)Y座標における加算明るさの差分=Y座標の加算
明るさ−(Y−1)座標の明るさ (チ)D1=目の水平中心線よりも下で水平中心線に最
も近い位置に存在する加算明るさの極大値 (リ)D2=目の水平中心線よりも上で水平中心線に最
も近い位置に存在する加算明るさの極大値 (ヌ)D3=0.7×min(D1,D2) 但し、上記の計算式において、小数点以下は切り捨て
(座標値は整数値)
The plotting conventions in FIG. 4 are as follows (a) to (nu). (A) The vertical center line of the eye is parallel to the Y axis, and the horizontal center line of the eye is parallel to the X axis. (B) The X coordinate of the vertical center line of the eye = (X coordinate value of the inner corner of the eye + X coordinate value of the outer corner of the eye) / 2 (c) Y coordinate of horizontal center line of eye = (Y coordinate value of inner corner of eye + Y coordinate value of outer corner of eye) / 2 (d) EyeSearchArea_X = Y1 × 0.02 (e) EyeSearchArea_Y = Y1 × 0.1 (f) ) Additional brightness at Y coordinate = sum of brightness at corresponding Y coordinate in EyeSearchArea_X (g) Difference of added brightness at Y coordinate = additional brightness at Y coordinate− (Y-1) brightness at coordinate (h) D1 = Maximum value of the added brightness existing at a position below the horizontal center line of the eye and closest to the horizontal center line. (I) D2 = Existing at a position above the horizontal center line of the eye and closest to the horizontal center line. Maximum value of added brightness (nu) D3 = 0.7 × min (D1, D2) However, in the above formula, small Truncate below several points (coordinates are integers)

【0041】先ず、目の基準水平線並びに目の基準垂直
線を求める。ここで、目の基準水平線は、(yp7+yp8)
/2の点を通りX軸に平行な直線として求められ、また
目の基準垂直線は、(xp7+xp8)/2を通りY軸に平行
な直線として求められる。次いで、次式(数2)に従
い、目のX方向及びY方向のサーチ範囲を決定する。
First, an eye reference horizontal line and an eye reference vertical line are obtained. Here, the reference horizontal line of the eye is (yp7 + yp8)
/ 2 is obtained as a straight line parallel to the X axis, and the reference vertical line of the eye is obtained as a straight line passing (xp7 + xp8) / 2 and parallel to the Y axis. Next, the search range in the X and Y directions of the eyes is determined according to the following equation (Equation 2).

【0042】[0042]

【数2】 EyeSearchArea_X=Y1×0.02 EyeSearchArea_Y=Y1×0.1 (数2) 次いで、図4に示される(EyeSearchArea_X×EyeSearch
Area_Y)の範囲内の各Y座標において、輝度値を総和す
る。但し、輝度値は255−濃度値とする。この例で
は、黒い画素の濃度を255、白い画素の濃度を0とし
ている。次いで、各Y座標において、{(xp7+xp8)/
2−(EyeSearchArea_X/2)}〜{(xp7+xp8)/2+
(EyeSearchArea_X/2)}の範囲の輝度値を『加算明
るさ』と定義し、この定義される加算明るさを{(yp7+
yp8)/2−(EyeSearchArea_Y/2)}〜{(yp7+yp
8)/2+(EyeSearchArea_Y/2)}の範囲内の各Y座
標について求める。ここで、1画素の輝度を用いずに加
算明るさを求める理由は、ノイズの影響を防ぐためであ
る。次いで、図4に示される(EyeSearchArea_X×EyeSe
archArea_Y)の範囲内の各Y座標において、上記の加算
明るさの差分を求める。このとき求められる差分は、次
式(数3)に示されるように、隣接するY座標の加算明
るさの差である。
[Equation 2] EyeSearchArea_X = Y1 × 0.02 EyeSearchArea_Y = Y1 × 0.1 (Equation 2) Next, FIG. 4 shows (EyeSearchArea_X × EyeSearch)
The luminance values are summed at each Y coordinate within the range of (Area_Y). However, the luminance value is 255-density value. In this example, the density of black pixels is 255, and the density of white pixels is 0. Then, at each Y coordinate, {(xp7 + xp8) /
2- (EyeSearchArea_X / 2)} ~ {(xp7 + xp8) / 2 +
(EyeSearchArea_X / 2) The brightness value in the range of} is defined as “additional brightness,” and the defined addition brightness is defined as {(yp7 +
yp8) / 2- (EyeSearchArea_Y / 2)}-{(yp7 + yp
8) Determine for each Y coordinate within the range of / 2 + (EyeSearchArea_Y / 2)}. Here, the reason for obtaining the added brightness without using the brightness of one pixel is to prevent the influence of noise. Next, FIG. 4 shows (EyeSearchArea_X × EyeSe
For each Y coordinate within the range of (archArea_Y), the above difference in the added brightness is obtained. The difference obtained at this time is the difference between the added brightnesses of adjacent Y coordinates, as shown in the following equation (Equation 3).

【0043】[0043]

【数3】 差分=Y座標の加算明るさ−(Y−1)座標の加算明るさ (数3) 次いで、図4に示される値D1,D2,D3を求める。
ここで、D1は基準水平線よりも下で基準水平線に最も
近い位置に存在する加算明るさの極大点の値、D2は基
準水平線よりも上で基準水平線に最も近い位置に存在す
る加算明るさの極大点の値、D3はD1とD2のうち
で、値の小さい方の値に0.7を掛けた値、すなわち、
D3=0.7× min(D1,D2)である。次いで、
目の水平中心線から上方向へ探索していき、加算明るさ
がD3よりも大きくなる点を見つけ、この点を通りX軸
に平行な直線をEyeLineTop2とする。次いで、目の水平
中心線から下方向へ探索していき、加算明るさがD3よ
りも大きくなる点を見つけ、この点を通りX軸に平行な
直線をEyeLineBot2とする。次いで、直線EyeLineTop2か
ら上下方向にY1×0.03の範囲内で探索し、明るさ
の差分の極大点を見つける。この極大点を通りX軸に平
行な直線をEyeLineTop1とする。次いで、直線EyeLineBo
t2から上下方向にY1×0.03の範囲内で探索し、明
るさの差分の極大点を見つける。この極大点を通りX軸
に平行な直線をEyeLineBot1とする。次いで、互いに平
行な2直線EyeLineTop1とEyeLineBot1の距離をLeft_Eye
Width_Yとする。次いで、次式(数4)によりLeft EyeW
idth_Xを求める。
## EQU00003 ## Difference = addition brightness of Y coordinate-addition brightness of (Y-1) coordinate (Expression 3) Next, values D1, D2, and D3 shown in FIG. 4 are obtained.
Here, D1 is the value of the maximum point of the added brightness existing below the reference horizontal line and closest to the reference horizontal line, and D2 is the value of the added brightness existing above the reference horizontal line and closest to the reference horizontal line. The value of the maximum point, D3, is a value obtained by multiplying the smaller value of D1 and D2 by 0.7, ie,
D3 = 0.7 × min (D1, D2). Then
A search is made upward from the horizontal center line of the eye to find a point where the added brightness is greater than D3, and a straight line passing through this point and parallel to the X axis is set as EyeLineTop2. Next, a search is made downward from the horizontal center line of the eye to find a point where the added brightness becomes larger than D3, and a straight line passing through this point and parallel to the X axis is defined as EyeLineBot2. Next, a search is made in the vertical direction within a range of Y1 × 0.03 from the straight line EyeLineTop2 to find the maximum point of the difference in brightness. A straight line that passes through the maximum point and is parallel to the X axis is defined as EyeLineTop1. Then, the straight line EyeLineBo
A search is made in the range of Y1 × 0.03 in the vertical direction from t2 to find the maximum point of the difference in brightness. A straight line passing through the maximum point and parallel to the X axis is defined as EyeLineBot1. Next, the distance between two parallel lines, EyeLineTop1 and EyeLineBot1, is set to Left_Eye
Width_Y. Next, Left EyeW
Find idth_X.

【0044】[0044]

【数4】 Left_EyeWidth_X=Xp7−Xp8 (数4) 次いで、右目についても同様にしてRight_EyeWidth_X並
びにRight_EyeWidth_Yを求め、次式(数5)に従い左右
の値を平均化する。
[Equation 4] Left_EyeWidth_X = X p7 −X p8 (Equation 4) Then, for the right eye, Right_EyeWidth_X and Right_EyeWidth_Y are similarly obtained, and the left and right values are averaged according to the following equation (Equation 5).

【0045】[0045]

【数5】 EyeWidth_X=(Left_EyeWidth_X+Right_EyeWidth_X)/2 EyeWidth_Y=(Left_EyeWidth_Y+Right_EyeWidth_Y)/2 (数5) 次いで、目の選択用特徴量を次式(数6)に従って計算
により求める。
[Equation 5] EyeWidth_X = (Left_EyeWidth_X + Right_EyeWidth_X) / 2 EyeWidth_Y = (Left_EyeWidth_Y + Right_EyeWidth_Y) / 2 (Equation 5) Then, the feature quantity for selecting an eye is calculated by the following equation (Equation 6).

【0046】[0046]

【数6】 Eye_size=(EyeWidth_X×EyeWidth_Y)/(X1×Y1) Eye_shape=EyeWidth_Y/EyeWidth_X (数6) 次いで、目の配置用特徴量を次式(数7)に従って計算
により求める。
[Equation 6] Eye_size = (EyeWidth_X × EyeWidth_Y) / (X1 × Y1) Eye_shape = EyeWidth_Y / EyeWidth_X (Equation 6) Next, the feature amount for arranging eyes is calculated by the following equation (Equation 7).

【0047】[0047]

【数7】 Right_Eye_height=(yp5+yp6)/2−yp2 Left_Eye_height=(yp7+yp8)/2−yp2 Y2=(Right_Eye_height+Left_Eye_height)/2 Eye_height=Y2/Y1 Eye_space=(xp7−xp5)/X1 (数7 ) 次に、鼻の選択用特徴量Nose_shape並びに配置用特徴量
Eye_noseを求めるための方法を説明する。この場合に
は、次式(数8)に示されるように、左右の目頭P5,
P7と鼻頭P9のY座標値を用いてRight Eye_nose,Lef
t Eye_noseを求める。次いで、求められたRight Eye_no
se,Left Eye_noseを平均化してY4を求める。次いで、
左右の鼻端点P10,P11と先に求められたY4とか
らNose_shape並びにY2を用いてEye_noseを求める。
[Equation 7] Right_Eye_height = (y p5 + y p6 ) / 2-y p2 Left_Eye_height = (y p7 + y p8) / 2-y p2 Y2 = (Right_Eye_height + Left_Eye_height) / 2 Eye_height = Y2 / Y1 Eye_space = (x p7 -x p5 ) / X1 (Equation 7) Next, the nose selection feature amount Nose_shape and the arrangement feature amount
A method for obtaining Eye_nose will be described. In this case, as shown in the following equation (Equation 8), the left and right inner corners P5,
Right Eye_nose, Lef using Y coordinate value of P7 and nasal head P9
t Find Eye_nose. Next, the calculated Right Eye_no
The se and Left Eye_nose are averaged to obtain Y4. Then
Eye_nose is obtained from the left and right nose end points P10 and P11 and the previously obtained Y4 using Nose_shape and Y2.

【0048】[0048]

【数8】 Right_eye_nose=yp5−yp9 Left_eye_nose=yp7−yp9 Y4=(Right_eye_nose+Left_eye_nose)/2 Nose_shape=(xp11−xp10)/Y4 Eye_nose=Y4/Y2 (数8) 次に、口の選択用特徴量Mouth_size,Mouth_shape並びに
配置用特徴量Nose_mouthを求めるための方法を図5を参
照して説明する。先ず、目の特徴量EyeLineTop1,EyeLin
eBot1を求めたと同様にして、MouthLineTop1,MouthLine
Bot1を求める。次いで、互いに平行な直線MouthLineTop
1とMouthLineBot1の距離をMouthWidth_Yとする。次い
で、次式(数9)を用いて、MouthWidth_Xを求める。
Equation 8] Right_eye_nose = y p5 -y p9 Left_eye_nose = y p7 -y p9 Y4 = (Right_eye_nose + Left_eye_nose) / 2 Nose_shape = (x p11 -x p10) / Y4 Eye_nose = Y4 / Y2 ( 8) Next, mouth A method for obtaining the selection feature amount Mouth_size, Mouth_shape and the placement feature amount Nose_mouth will be described with reference to FIG. First, the eye features EyeLineTop1, EyeLin
MouthLineTop1, MouthLine
Ask for Bot1. Next, straight lines MouthLineTop parallel to each other
The distance between 1 and MouthLineBot1 is MouthWidth_Y. Next, MouthWidth_X is calculated using the following equation (Equation 9).

【0049】[0049]

【数9】 MouthWidth_X=Xp13−Xp12 (数9 ) 次いで、次式(数10)を用いて、口の選択用特徴量Mo
uth_sizeとMouth_shapeとを求める。
MouthWidth_X = X p13 −X p12 (Equation 9) Then, using the following equation (Equation 10), the mouth selection feature amount Mo is obtained.
Find uth_size and Mouth_shape.

【0050】[0050]

【数10】 Mouth_size=MouthWidth_X/X1 Mouth_shape=MouthWidth_Y/MouthWidth_X (数10) 次いで、次式(数11)を用いて、口の配置用特徴量No
se_mouthを求める。尚、数11において、ymcはMouthLi
neTop1とMouthLineBot1とに平行でこれら直線の中間を
通る直線のY座標である。
Mouth_size = MouthWidth_X / X1 Mouth_shape = MouthWidth_Y / MouthWidth_X (Equation 10) Then, using the following expression (Equation 11), the mouth arrangement feature amount No.
Ask for se_mouth. In Equation 11, ymc is MouthLi
This is the Y coordinate of a straight line that is parallel to neTop1 and MouthLineBot1 and passes through the middle of these straight lines.

【0051】[0051]

【数11】 Y5=yp9−ymc Nose_mouth=Y5/Y2 (数11) 次に、眉の選択用特徴量Brow_thickness並びに配置用特
徴量Eye_browを求める方法を図6を参照して説明する。
尚、ここでは、左眉の場合のみを説明するが、右眉につ
いても同様にして求めることができる。先ず、目の上側
のラインEyeLineTop1から上に向かって目の基準垂直線
上を探索していき、輝度が極小となる点を見つける。こ
の点が、最も黒い部分であり、眉の中心となる。次い
で、上記の極小点を通り、X軸に平行な直線を求め、こ
れを眉の基準水平線とする。眉の基準垂直線について
は、目の基準垂直線を延長した線とする。次いで、目の
特徴量EyeLineTop1,EyeLineBot1を求めたときと同様に
して、BrowLineTop1,BrowLineBot1を求める。次いで、
互いに平行な直線BrowLineTop1とBrowLineBot1との距離
を求め、これをLeft_BrowWidth_Yとする。右眉について
も、同様にして、Right_Browwidth_Yが求められる。次
いで、次式(数12)に従って、選択用特徴量Brow_thi
cknessが求められる。
Equation 11] Y5 = y p9 -y mc Nose_mouth = Y5 / Y2 ( number 11) Next, a method of obtaining the selected feature quantity Brow_thickness and placed feature quantity Eye_brow eyebrow reference to FIG. 6 will be described.
Here, only the case of the left eyebrow will be described, but the same can be obtained for the right eyebrow. First, a search is made on the reference vertical line of the eye upward from the upper line EyeLineTop1 of the eye to find a point at which the luminance becomes minimum. This point is the darkest part and becomes the center of the eyebrows. Next, a straight line that passes through the above minimum point and is parallel to the X axis is obtained, and this is set as a reference horizontal line of the eyebrows. The reference vertical line of the eyebrows is a line obtained by extending the reference vertical line of the eye. Next, BrowLineTop1 and BrowLineBot1 are obtained in the same manner as when eye characteristic amounts EyeLineTop1 and EyeLineBot1 are obtained. Then
The distance between the straight lines BrowLineTop1 and BrowLineBot1 that are parallel to each other is determined, and this is defined as Left_BrowWidth_Y. Similarly, Right_Browwidth_Y is obtained for the right eyebrow. Next, according to the following equation (Equation 12), the selection feature amount Brow_thi
ckness is required.

【0052】[0052]

【数12】 Brow_thickness =(Left_BrowWidth_Y+Right_BrowWidth_Y)/2/Y1 (数12) 次いで、配置用特徴量については、次式(数13)に従
って求められる。尚、次式において、ybLは左眉のBrowL
ineBot1のY座標値、ybRは右眉のBrowLineBot1のY座標
値、yeLは左目のEyelineTop1のY座標、yeRは右目のEye
lineTop1のY座標である。
Brow_thickness = (Left_BrowWidth_Y + Right_BrowWidth_Y) / 2 / Y1 (Formula 12) Next, the layout feature amount is obtained according to the following formula (Formula 13). In the following equation, ybL is BrowL of the left eyebrow
Y coordinate value of ineBot1, ybR is Y coordinate value of BrowLineBot1 of right eyebrow, yeL is Y coordinate of EyelineTop1 of left eye, yeR is Eye of right eye
This is the Y coordinate of lineTop1.

【0053】[0053]

【数13】 Y3=(ybL+ybR)/2−(yeL+yeR)/2 Eye_brow=Y3/Y2 (数13) 次いで、拡大縮小率Scale_ratioを次式(数14)に従
って求める。尚、次式において、Scale_baseは予め設定
しておいた整数値である。
Equation 13] Y3 = (y bL + y bR ) / 2- (y eL + y eR) / 2 Eye_brow = Y3 / Y2 ( number 13) then determines a scaling factor Scale_ratio according the following equation (equation 14). In the following equation, Scale_base is an integer value set in advance.

【0054】[0054]

【数14】 Scale_ratio=(X1×Y1)/Scale_base (数14) 以上説明した特徴量抽出手段3から、特徴量記憶手段
4、部品画像記憶手段7、及び部品配置手段8へと出力
されるデータの構造を図7に示す。
## EQU14 ## Scale_ratio = (X1 × Y1) / Scale_base (Expression 14) Data output from the feature amount extracting means 3 described above to the feature amount storing means 4, the component image storing means 7, and the component arranging means 8. Is shown in FIG.

【0055】同図から明らかなように、特徴量抽出手段
3から特徴量記憶手段4に対しては、Eye_height,Eye_s
pace,Eye_nose,Eye_mouth,Eye_browが出力される。ま
た、特徴量抽出手段3から部品画像記憶手段7に対して
は、Eye_size,Eye_shape,Nose_shape,Mouth_size,Mouth
_shape,Brow_thicknessが出力される。さらに、特徴量
抽出手段3から部品配置手段8に対しては、Scale_rati
o,Eye_height,Eye_space,Eye_nose,Nose_mouth,Eye_bro
w,X1,Y1が出力される。
As is clear from the drawing, the feature amount extraction means 3 sends the feature amount storage means 4 Eye_height, Eye_s
Pace, Eye_nose, Eye_mouth, Eye_brow are output. In addition, from the feature amount extraction means 3 to the part image storage means 7, Eye_size, Eye_shape, Nose_shape, Mouth_size, Mouth
_shape, Brow_thickness are output. Further, the feature amount extraction means 3 sends the Scale_rati
o, Eye_height, Eye_space, Eye_nose, Nose_mouth, Eye_bro
w, X1, and Y1 are output.

【0056】次に、特徴量記憶手段4の構成を説明す
る。本手段の入力は人物パラメータPerson_paraと配置
用特徴量であり、出力は(人物パラメータ、配置用特徴
量)のデータ列である。特徴量記憶手段4には、人物パ
ラメータPerson_paraと配置用特徴量とが対となって記
憶されている。特徴量記憶手段4に記憶される各データ
の構造を図8に示す。同図に示されるように、特徴量記
憶手段4内には、前述したPerson_para,Eye_height,Eye
_space,Eye_nose,Nose_mouth,Eye_browが記憶されてい
る。
Next, the configuration of the feature amount storage means 4 will be described. The input of this means is a person parameter Person_para and a feature amount for arrangement, and the output is a data string of (person parameter, feature amount for arrangement). The feature amount storage unit 4 stores a pair of a person parameter Person_para and an arrangement feature amount. FIG. 8 shows the structure of each data stored in the feature amount storage unit 4. As shown in FIG. 3, the above-mentioned Person_para, Eye_height, Eye
_space, Eye_nose, Nose_mouth, Eye_brow are stored.

【0057】次に、非線形関数作成手段5の構成を図9
のフローチャートを参照して説明する。この非線形関数
作成手段5の入力は人物パラメータ並びに配置用特徴量
のデータ列であり、またその出力は非線形関数である。
ここで、非線形関数とは、部品配置手段8において顔輪
郭と部品の位置関係、部品と部品の位置関係を誇張する
ために使用されるものである。この非線形関数の入力は
実物から得られた配置用特徴量であり、またその出力は
作成すべき顔画像の部品間の距離パラメータである。非
線形関数としては、例えば、図10に示される曲線のよ
うに、配置用特徴量がある値を越えると、部品間距離パ
ラメータの値が急激に増加する傾向にあるものが使用さ
れる。この例で使用される非線形関数としては、ファジ
イ推論ルールが採用されている。ファジイ推論ルールの
一例を図11に示す。この例にあっては、ファジイ推論
ルールの後件部の値は人物パラメータの値により使い分
けられるようにされており、特徴量データベースの場合
と同様にして、成人男性用、成人女性用、子供用の3種
類のルールが用意されている。後件部の値の一例を図1
1の右端に示す。また、ファジイラベルに関しては、そ
れぞれの特徴量に対して、SMALL,MEDIUM,
BIGの3種類のものが用意されている。各々のファジ
イ推論ルールは、1入力1出力である。また、ファジイ
推論の入力値は、特徴量抽出手段3にて求められた特徴
量(Eye_height,Eye_space,Eye_nose,Nose_mouth,Eye_b
row)である。尚、後に説明する数式においては、入力
値として使用されているXとは、これらの特徴量(Eye_
height,Eye_space,Eye_nose,Nose_mouth,Eye_brow)の
いずれか一つを示すものである。また、ファジイ推論の
出力値は部品間パラメータである。
Next, the configuration of the nonlinear function creating means 5 is shown in FIG.
This will be described with reference to the flowchart of FIG. The input of the non-linear function creating means 5 is a data string of the person parameters and the arrangement feature values, and the output is a non-linear function.
Here, the non-linear function is used by the component arranging means 8 to exaggerate the positional relationship between the face contour and the component and the positional relationship between the component and the component. The input of this non-linear function is an arrangement feature obtained from a real object, and the output is a distance parameter between parts of a face image to be created. As the non-linear function, for example, a function such as a curve shown in FIG. 10 in which the value of the distance parameter between components tends to rapidly increase when the arrangement feature value exceeds a certain value is used. As the nonlinear function used in this example, a fuzzy inference rule is adopted. FIG. 11 shows an example of the fuzzy inference rule. In this example, the value of the consequent part of the fuzzy inference rule is set to be properly used depending on the value of the person parameter, and in the same manner as in the feature amount database, for the adult male, for the adult female, and for the child. Are prepared. Fig. 1 shows an example of the value of the consequent part
1 is shown at the right end. As for fuzzy labels, SMALL, MEDIUM,
Three types of BIG are prepared. Each fuzzy inference rule has one input and one output. The input values of the fuzzy inference are the feature amounts (Eye_height, Eye_space, Eye_nose, Nose_mouth, Eye_b) obtained by the feature amount extraction means 3.
row). In the mathematical expressions described later, X used as an input value refers to these feature amounts (Eye_
height, Eye_space, Eye_nose, Nose_mouth, Eye_brow). The output value of the fuzzy inference is a parameter between components.

【0058】各ファジイラベルに対するメンバーシップ
関数の決定方法を図9のフローチャートを適宜に参照し
つつ以下に説明する。先ず、特徴量記憶手段4から成人
男性、成人女性、子供のそれぞれについて(ステップ9
02〜905)、配置用特徴量のデータ群を読み込み
(ステップ901)、次いで各々(ステップ9031,
9035,9036)の最小値MIN,平均値AVE、
最大値MAXを求める(ステップ9032)。次いで、
上記で求めた最小値MIN,平均値AVE、最大値MA
Xを用いて、次式(数15)に従い、各数値LEFT,
RIGHTを計算により求める(ステップ9033)。
A method of determining a membership function for each fuzzy label will be described below with reference to the flowchart of FIG. First, an adult man, an adult woman, and a child are stored in the feature amount storage means 4 (step 9).
02 to 905), a data group of the arrangement feature amount is read (step 901), and then each of them is read (step 9031,
9035, 9036), the minimum value MIN, the average value AVE,
The maximum value MAX is obtained (step 9032). Then
Minimum value MIN, average value AVE, maximum value MA obtained above
Using X, each numerical value LEFT,
RIGHT is obtained by calculation (step 9033).

【0059】[0059]

【数15】 LEFT=(MIN+AVE)/2 RIGHT=(AVE+MAX)/2 (数15) 次いで、上記で求めた最小値MIN,平均値AVE、最
大値MAX、LEFT,RIGHTの値を用いて、SM
ALL,MEDIUM,BIGの各メンバーシップ関数
を求める(ステップ9034)。なお、図9のフローチ
ャートにおいて、Iは人物パラメータであり、I=0の
場合は成人男性、I=1の場合は成人女性、I=2の場
合は子供のデータについて処理するものとする。また、
Jは特徴量の種別を示し、J=0の場合はEye_height,
J=1の場合はEye_space,J=2の場合はEye_nose,
J=3の場合はNose_mouth,J=4の場合はEye_browの
特徴量について処理するものとする。
[Expression 15] LEFT = (MIN + AVE) / 2 RIGHT = (AVE + MAX) / 2 (Expression 15) Then, using the values of the minimum value MIN, average value AVE, maximum value MAX, LEFT, and RIGHT determined above, SM
All, MEDIUM, and BIG membership functions are obtained (step 9034). In the flowchart of FIG. 9, I is a person parameter, and data of an adult male when I = 0, an adult female when I = 1, and a child when I = 2 is processed. Also,
J indicates the type of feature amount, and when J = 0, Eye_height,
Eye_space when J = 1, Eye_nose when J = 2,
When J = 3, processing is performed on the feature amount of Nose_mouth, and when J = 4, processing is performed on the feature amount of Eye_brow.

【0060】すなわち、SMALLのメンバーシップ関
数は、入力値をX、出力値をμs(X)とした場合、次
式(数16)により求められる。
That is, the membership function of SMALL is obtained by the following equation (Equation 16) when the input value is X and the output value is μs (X).

【0061】[0061]

【数16】 また、MEDIUMのメンバーシップ関数は、入力値を
X、出力値をμm(X)とした場合、次式(数17)に
より求められる。
(Equation 16) The MEDIUM membership function is obtained by the following equation (Equation 17) when the input value is X and the output value is μm (X).

【0062】[0062]

【数17】 さらに、BIGのメンバーシップ関数は、入力値をX、
出力値をμb(X)とした場合、次式(数18)により
求められる。
[Equation 17] In addition, the BIG membership function uses input values X,
When the output value is μb (X), it is obtained by the following equation (Equation 18).

【0063】[0063]

【数18】 次に、輪郭画像抽出手段6の構成を説明する。この輪郭
画像抽出手段6の入力はカラーの顔画像であり、またそ
の出力は2値の顔輪郭の画像である。先ず、輪郭画像抽
出手段6は、カラー顔画像の肌色領域を抽出する。次い
で、輪郭画像抽出手段6は、カラー顔画像を2値化す
る。次いで、輪郭画像抽出手段6は、2値化した顔画像
において、上記肌色領域と一致する領域の内部の濃度値
を0に設定する。輪郭画像抽出手段6により抽出された
顔輪郭の幾つかの例が図16に示されている。同図から
明らかなように、この輪郭画像抽出手段6によれば、対
象人物のそれぞれに関して、髪形と顎の輪郭線とで囲ま
れた図形として顔の輪郭を抽出することができる。
(Equation 18) Next, the configuration of the contour image extracting means 6 will be described. The input of the contour image extracting means 6 is a color face image, and the output is a binary face contour image. First, the contour image extracting means 6 extracts a skin color area of a color face image. Next, the contour image extracting means 6 binarizes the color face image. Next, the contour image extracting means 6 sets the density value inside the area corresponding to the skin color area to 0 in the binarized face image. Some examples of face contours extracted by the contour image extracting means 6 are shown in FIG. As can be seen from the figure, the contour image extracting means 6 can extract the face contour as a figure surrounded by the hairstyle and the contour of the chin for each of the target persons.

【0064】次に、部品画像記憶手段7の構成を説明す
る。部品画像記憶手段7には、複数種類の右眉、左眉、
右目、左目、鼻、口の顔部品の画像が画像データベース
として記憶されており、これらの部品画像は、特徴量抽
出手段3から入力される選択用特徴量の値に応じて適宜
に選択され、部品配置手段8へと出力される。ここで、
部品画像は2値画像とされている。また、部品画像記憶
手段7は、特徴量抽出手段3から入力される選択用特徴
量の値を、図12に示される境界を用いて評価し、その
評価結果に応じて次のように選択用パラメータの値を変
える。
Next, the configuration of the component image storage means 7 will be described. The component image storage means 7 stores a plurality of types of right eyebrows, left eyebrows,
Images of facial parts for the right eye, left eye, nose, and mouth are stored as an image database, and these part images are appropriately selected according to the value of the selecting feature amount input from the feature amount extracting unit 3, It is output to the component placement means 8. here,
The part image is a binary image. In addition, the component image storage unit 7 evaluates the value of the selection feature amount input from the feature amount extraction unit 3 using the boundary shown in FIG. 12, and according to the evaluation result, selects the selection feature amount as follows. Change the value of a parameter.

【0065】 選択用特徴量の値≦境界1ならば、選択用パラメータ値=0 境界1<選択用特徴量の値≦境界2ならば、選択用パラメータ値=1 境界2<選択用特徴量の値ならば、選択用パラメータ値=2 部品画像としては、選択用パラメータに対応した部品が
用意されており、選択パラメータに応じた部品が部品配
置手段8へと出力される。すなわち、眉の部品として
は、Brow_thicknessの3個の選択用パラメータに対して
3個の部品が用意されている。但し、左眉用と右眉用で
合計は6個の部品であり、左右の部品形状はY軸に関し
て対象である。また、目の部品としては、Eye_sizeの3
個の選択用パラメータとEye_shapeの3個の選択用パラ
メータの組み合わせに対して9個の部品が用意されてい
る。但し、左目用と右目用で合計は18個の部品であ
り、左右の部品形状はY軸に関して対象である。また、
鼻の部品としては、Nose_shapeの3個の選択用パラメー
タに対して3個の部品が用意されている。さらに、口の
部品としては、Mouth_sizeの3個の選択用パラメータと
Mouth_shapeの3個の選択用パラメータの組み合わせに
対して9個の部品が用意されている。
If the value of the feature amount for selection ≦ the boundary 1, the parameter value for selection = 0. If the boundary 1 <the value of the feature amount for the selection ≦ boundary 2, the parameter value for selection = 1 the boundary 2 <the feature value for the selection. If the value is a selection parameter value = 2, a component corresponding to the selection parameter is prepared as the component image, and the component corresponding to the selection parameter is output to the component placement unit 8. That is, as eyebrow parts, three parts are prepared for three selection parameters of Brow_thickness. However, a total of six parts are used for the left eyebrow and the right eyebrow, and the left and right part shapes are targeted for the Y axis. In addition, Eye_size 3
Nine parts are prepared for a combination of three selection parameters and three selection parameters of Eye_shape. However, a total of 18 parts are used for the left eye and the right eye, and the shapes of the left and right parts are targeted with respect to the Y axis. Also,
As nose parts, three parts are prepared for three selection parameters of Nose_shape. In addition, the mouth part has three selection parameters of Mouth_size and
Nine parts are prepared for combinations of three selection parameters of Mouth_shape.

【0066】次に、部品配置手段8の構成を図13のフ
ローチャートを参照しつつ説明する。部品配置手段8の
入力は、配置用特徴量、拡大縮小率、部品画像、輪郭画
像、非線形関数、人物パラメータ、誇張程度パラメータ
である。また、部品配置手段8の出力は、部品画像と輪
郭画像とを合成した顔画像である。すなわち、部品配置
手段8は、データ入力手段1から人物パラメータ、誇張
程度パラメータを読み込み(ステップ1301)、輪郭
画像抽出手段6から輪郭画像を読み込み(ステップ13
02)、部品画像記憶手段7から部品画像を読み込み
(ステップ1303)、最後に、特徴量抽出手段3から
配置用特徴量並びに拡大縮小率を読み込む(ステップ1
304)。その後、それらの読み込まれたデータに基づ
いて、ファジイ推論ルールを用いて部品配置パラメータ
が推論により求められる(ステップ1305)。
Next, the configuration of the component placement means 8 will be described with reference to the flowchart of FIG. The input of the component arranging means 8 is an arrangement feature amount, an enlargement / reduction ratio, a component image, a contour image, a nonlinear function, a person parameter, and an exaggeration degree parameter. The output of the component arranging means 8 is a face image obtained by synthesizing the component image and the contour image. That is, the component placement unit 8 reads the person parameter and the exaggeration degree parameter from the data input unit 1 (step 1301), and reads the contour image from the contour image extraction unit 6 (step 13).
02), the component image is read from the component image storage means 7 (step 1303), and finally the arrangement feature quantity and the enlargement / reduction ratio are read from the feature quantity extraction means 3 (step 1).
304). Then, based on the read data, the component placement parameters are obtained by inference using fuzzy inference rules (step 1305).

【0067】ファジイ推論の方法を以下に説明する。図
11に示される部品配置ルールを一般化すると、各々の
配置場所は次式(数19)にて示される3つのルールに
て表現される。
The fuzzy inference method will be described below. When the component placement rules shown in FIG. 11 are generalized, each location is represented by three rules expressed by the following equation (Equation 19).

【0068】[0068]

【数19】 IF X is SMALL THEN FZ is W1 IF X is MEDIUM THEN FZ is W2 IF X is BIG THEN FZ is W3 (数19) ここで、SMALL,MEDIUM,BIGの各メンバ
ーシップ関数の出力値を各々μs(X),μm(X),
μb(X)とした場合、ファジイ推論の出力値である部
品間距離パラメータFZは、次式(数20)で示される
W1,W2,W3を用いた関数により表される。
IF X is SMALL THEN FZ is W1 IF X is MEDIUM THEN FZ is W2 IF X is BIG THEN FZ is W3 (Equation 19) Here, the output values of the SMALL, MEDIUM, and BIG membership functions are respectively μs (X), μm (X),
When μb (X) is used, the inter-component distance parameter FZ, which is an output value of fuzzy inference, is represented by a function using W1, W2, and W3 expressed by the following equation (Equation 20).

【0069】[0069]

【数20】 但し、部品配置パラメータであるFZは、目の高さの場
合はFA、眉と目の間隔の場合はFB、目と鼻の間隔の
場合はFC、鼻と口の間隔の場合はFD、左右の目の間
隔の場合はFEであり、これらの値を用いて部品配置用
の実数値(YY2,YY3,YY4,XX2)が求めら
れる。
(Equation 20) However, FZ, which is a component placement parameter, is FA for eye height, FB for eyebrow and eye spacing, FC for eye and nose spacing, FD for nose and mouth spacing, FD, left and right. Is the FE, the real value (YY2, YY3, YY4, XX2) for component placement is obtained using these values.

【0070】次いで、誇張程度パラメータの値に応じて
非線形関数の形を変える(ステップ1306)。誇張程
度パラメータの値をExaggerate_paraとした場合、部品
配置ルールにおけるW1とW3の値を変える。変更前の
W1,W3の値を各々W1_old,W3_old,変更後の値
をW1_new,W3_newとした場合、両者の関係は次式
(数21)により表される。
Next, the form of the nonlinear function is changed according to the value of the exaggeration degree parameter (step 1306). When the value of the exaggeration degree parameter is Exaggerate_para, the values of W1 and W3 in the component placement rule are changed. When the values of W1 and W3 before the change are W1_old and W3_old, and the values after the change are W1_new and W3_new, the relationship between the two is expressed by the following equation (Equation 21).

【0071】[0071]

【数21】 W1_new=W1_old×(1−Exaggerate_para) W3_new=W3_old×(1+Exaggerate_para) ただし、0≦Exaggerate_para<1 (数21) ここで着目すべきは、前式において、Exaggerate_para
の符号が両式では異なる点である。そのため、Exaggera
te_paraの値が大きくなるほど、誇張の程度が大きくな
る。
W1_new = W1_old × (1−Exaggerate_para) W3_new = W3_old × (1 + Exaggerate_para) where 0 ≦ Exaggerate_para <1 (Formula 21) It should be noted here that Exaggerate_para
Is different between the two formulas. So, Exaggera
The greater the value of te_para, the greater the degree of exaggeration.

【0072】次いで、特徴量のうち拡大縮小パラメータ
の値Scale_ratioを利用して、各部品画像を拡大又は縮
小する(ステップ1307)。部品画像のある点(x,
y)が、拡大縮小されて点(X,Y)に位置を変えると
すると、両者の間には次式(数22)の関係が成立す
る。尚、具体的な変換方法については、参考文献『C言
語で学ぶ実践画像処理』(オーム社)等の記載を参照す
ることにより、当業者であれば容易に理解されるはずで
ある。
Next, each component image is enlarged or reduced by using the value Scale_ratio of the enlargement / reduction parameter among the feature amounts (step 1307). A point (x,
If y) is scaled to change its position to point (X, Y), a relationship represented by the following equation (Equation 22) is established between the two. It should be noted that a person skilled in the art can easily understand a specific conversion method by referring to the description in the reference document “Practical image processing learned in C language” (Ohmsha).

【0073】[0073]

【数22】 Y=Scale_ratio×y, X=Scale_ratio×x (数22) 次いで、部品距離パラメータ並びにX1,Y1を基に、
図14に示される部品配置用の実数値(YY2,YY
3,YY4,XX2)を次式(数23)により求める
(ステップ1306)。但し、FA,FB,FC,F
D,FEは、ファジイ推論の出力値である部品間距離パ
ラメータである。
Y = Scale_ratio × y, X = Scale_ratio × x (Equation 22) Then, based on the component distance parameter and X1, Y1,
Real values (YY2, YY2) for component placement shown in FIG.
3, YY4, XX2) is obtained by the following equation (Equation 23) (step 1306). However, FA, FB, FC, F
D and FE are inter-component distance parameters which are output values of fuzzy inference.

【0074】[0074]

【数23】 目の高さ YY2=FA×Y1 眉と目の間隔 YY3=FB×YY2 目と鼻の間隔 YY4=FC×YY2 鼻と口の間隔 YY5=FD×YY2 左右の目の間隔 XX2=FE×X1 (数23) 次いで、求められた部品配置用の実数値に基づいて、図
14に示されるように、各部品画像を配置する(ステッ
プ1308)。但し、図15に示される各部品の代表点
が次式(数24)に示す位置になるように配置する。す
なわち、各部品の代表点が配置される座標は次式(数2
4)により表される。尚、ここで作成される画像は、2
値画像である。
[Equation 23] Eye height YY2 = FA × Y1 Eyebrow and eye distance YY3 = FB × YY2 Eye and nose distance YY4 = FC × YY2 Nose and mouth distance YY5 = FD × YY2 Left and right eye distance XX2 = FE × X1 (Equation 23) Next, based on the obtained real values for component placement, component images are arranged as shown in FIG. 14 (step 1308). However, the components are arranged such that the representative point of each component shown in FIG. That is, the coordinates at which the representative point of each part is arranged are expressed by the following equation (Equation 2).
4). The image created here is 2
It is a value image.

【0075】[0075]

【数24】 xcenter=(xp3+xp4)/2 右眉:(xcenter−XX2/2,yp2+YY2+Eye_half_Y+YY3) 左眉:(xcenter+XX2/2,yp2+YY2+Eye_half_Y+YY3) 右目:(xcenter−XX2/2,yp2+YY2) 左目:(xcenter+XX2/2,yp2+YY2) 鼻:(xcenter,yp2+YY2−YY4) 口:(xcenter,yp2+YY2−YY4−YY5) (数24 ) 次に、顔画像出力手段9の構成について説明する。顔画
像出力手段9は、以上で合成された顔画像を可視的に出
力させるものであり、具体的には、顔画像である2値画
像のハードコピーを出力する印刷装置や映像を映し出す
ディスプレイ装置等により構成されている。このように
して出力される顔画像の幾つかの例を図17及び図18
に示す。これらの図から明らかなように、顔部品画像間
の相対的な位置関係を対象人物の顔の計測値を用いて誇
張することにより、似顔絵の本質的な特徴である誇張し
た顔画像を自動的に作成していることが理解されるであ
ろう。
[Number 24] x center = (x p3 + x p4) / 2 right eyebrow: (x center -XX2 / 2, y p2 + YY2 + Eye_half_Y + YY3) left eyebrow: (x center + XX2 / 2 , y p2 + YY2 + Eye_half_Y + YY3) right eye: (x center - XX2 / 2, y p2 + YY2 ) left eye: (x center + XX2 / 2 , y p2 + YY2) nose: (x center, y p2 + YY2-YY4) mouth: (x center, y p2 + YY2-YY4-YY5) ( number 24 Next, the configuration of the face image output means 9 will be described. The face image output means 9 visually outputs the face image synthesized as described above, and specifically, a printing device for outputting a hard copy of a binary image as a face image or a display device for displaying an image. And the like. FIGS. 17 and 18 show some examples of face images output in this manner.
Shown in As is apparent from these figures, by exaggerating the relative positional relationship between the face part images using the measured values of the face of the target person, the exaggerated face image, which is an essential feature of the portrait, is automatically generated. It will be understood that it is made in.

【0076】そして、この第1の実施の形態によれば、
(1)部品の位置関係を誇張することにより、似顔絵の
本来的な特徴である誇張した顔画像を自動的に作成する
ことができること、(2)顔画像が対象者の顔に似なく
なるような過度の誇張を防ぐことができること、等の格
別の作用効果を有する。
According to the first embodiment,
(1) By exaggerating the positional relationship of parts, an exaggerated face image, which is an essential feature of a portrait, can be automatically created. (2) The face image does not resemble the face of the subject. It has an extraordinary effect such as the ability to prevent excessive exaggeration.

【0077】次に、この発明の好ましい他の実施の形態
(第2の実施の形態)である似顔絵作成装置の全体構成
を図20に示し、またその動作手順を説明するためのフ
ローチャートを図21に示す。
Next, FIG. 20 shows the overall configuration of a portrait creating apparatus according to another preferred embodiment (second embodiment) of the present invention, and FIG. 21 is a flowchart for explaining the operation procedure. Shown in

【0078】図20に示されるように、この似顔絵作成
装置は、データ入力手段101と、画像入力手段102
と、特徴量抽出手段103と、特徴量記憶手段104
と、部品誇張用非線形関数作成手段105と、配置誇張
用非線形関数作成手段106と、輪郭画像抽出手段10
7と、部品画像記憶手段108と、部品誇張手段109
と、部品配置手段110と、顔画像出力手段111とか
ら構成されている。これらの手段101〜111は、具
体的には、以下のように構成されている。
As shown in FIG. 20, this caricature creation device includes a data input unit 101 and an image input unit 102
, Feature amount extraction means 103, feature amount storage means 104
A component exaggeration nonlinear function creating unit 105, an arrangement exaggeration nonlinear function creating unit 106, and a contour image extracting unit 10.
7, component image storage means 108, component exaggeration means 109
And a part arranging unit 110 and a face image outputting unit 111. These means 101 to 111 are specifically configured as follows.

【0079】データ入力手段101は、利用者が、後述
する人物パラメータ、誇張部分選択パラメータ、誇張程
度パラメータ等を入力するために使用されるものであ
り、例えばキーボードやマウス等の入力装置により構成
されている。
The data input means 101 is used by a user to input a person parameter, an exaggerated portion selection parameter, an exaggeration degree parameter, etc., which will be described later, and is constituted by an input device such as a keyboard and a mouse. ing.

【0080】ここで、この例では、人物パラメータ(Pe
rson_para)の値は整数とされており、具体的には、0
(成人男性)、1(成人女性)、2(子供)と決められ
ている。尚、この例では、成人と子供の区別は、15歳
以上を成人、15歳未満を子供としている。
Here, in this example, the person parameter (Pe
rson_para) is an integer, specifically, 0
(Adult male), 1 (Adult female), 2 (Child). In this example, the distinction between an adult and a child is 15 years or older as an adult and a child under 15 years as a child.

【0081】また、誇張部分選択パラメータ(Parts_se
lect_para)の値も整数値とされており、具体的には、
1(目の大きさ)、2(目の形状)、3(鼻の形状)、
4(口の大きさ)、5(口の形状)、6(眉の厚さ)、
7(目の高さ)、8(目と鼻の間隔)、9(鼻と口の間
隔)、10(左右の目の間隔)、11(目と眉の間隔)
と決められている。
The exaggerated part selection parameter (Parts_se
lect_para) is also an integer value. Specifically,
1 (eye size), 2 (eye shape), 3 (nose shape),
4 (size of mouth), 5 (shape of mouth), 6 (thickness of eyebrows),
7 (eye height), 8 (eye and nose interval), 9 (nose and mouth interval), 10 (left and right eye interval), 11 (eye and eyebrow interval)
It has been decided.

【0082】さらに、誇張程度パラメータの値は実数値
とされており、具体的には、後述する非線形関数の表現
形態によって、Exaggerate_paraの場合と、R1,R2
の場合とが存在する。
Further, the value of the exaggeration degree parameter is a real value. Specifically, the value of Exaggerate_para, the value of R1, R2
And the case exists.

【0083】画像入力手段102は、本装置の内部に対
象人物のカラー顔画像を取り込むためのものであり、具
体的には、例えばビデオカメラや電子スチルカメラ等で
構成することができるほか、予め撮影されたカラー顔画
像が何らかの記録媒体(例えば、フロッピーディスク、
MOディスク、DVD等)に格納されているのであれ
ば、そのような記録媒体からカラー顔画像を再生する再
生装置により構成することもできる。
The image input means 102 is for taking in a color face image of a target person into the apparatus. Specifically, the image input means 102 can be constituted by, for example, a video camera, an electronic still camera, or the like. The captured color face image is stored on some storage medium (for example, floppy disk,
(MO disk, DVD, etc.), a reproducing apparatus for reproducing a color face image from such a recording medium may be used.

【0084】特徴量抽出手段103は、画像入力手段2
にて入力されたカラー顔画像から、対象人物の顔の特徴
量を抽出するためのものである。ここで言う特徴量は、
部品誇張用特徴量と、配置誇張用特徴量と、拡大縮小率
(Scale_ratio)とから構成されている。
The feature amount extracting means 103 includes the image input means 2
This is for extracting the feature amount of the face of the target person from the color face image input at. The feature amount here is
It is composed of a feature amount for component exaggeration, a feature amount for arrangement exaggeration, and a scaling ratio (Scale_ratio).

【0085】部品誇張用特徴量には、目の大きさ(Eye_
size)、目の形状(Eye_shape)、鼻の形状(Nose_shap
e)、口の大きさ(Mouth_size)、口の形状(Mouth_sha
pe)、眉の濃さ(Brow_thickness)が含まれている。
The feature amount for component exaggeration includes an eye size (Eye_
size), eye shape (Eye_shape), nose shape (Nose_shap
e), mouth size (Mouth_size), mouth shape (Mouth_sha
pe), and the depth of the eyebrows (Brow_thickness).

【0086】また、配置誇張用特徴量には、顔輪郭の特
徴量(X1,Y1)、目の高さ(Eye_height)、目鼻間
距離(Eye_nose)、鼻口間距離(Nose_mouth)、目と目
の間隔(Eye_space)、目と眉の間隔(Eye_brow)が含
まれている。
The layout exaggeration features include face outline features (X1, Y1), eye height (Eye_height), eye-nose distance (Eye_nose), nose-mouth distance (Nose_mouth), eyes and eyes. (Eye_space) and the distance between eyes and eyebrows (Eye_brow) are included.

【0087】そして、上述の部品誇張用特徴量並びに配
置誇張用特徴量は、特徴量記憶手段104に記憶され
る。それらの中で、部品誇張用特徴量は部品画像の大き
さや形状を誇張するために用いられ、また配置誇張用特
徴量は部品画像を輪郭画像上に合成する場合に部品画像
間の位置関係を誇張するために用いられる。
The above-described feature amount for component exaggeration and the feature amount for placement exaggeration are stored in the feature amount storage unit 104. Among them, the feature amount for component exaggeration is used to exaggerate the size and shape of the component image, and the feature amount for placement exaggeration determines the positional relationship between the component images when the component image is synthesized on the outline image. Used to exaggerate.

【0088】以下に、上述した特徴量抽出手段103に
て行われる部品誇張用特徴量、配置誇張用特徴量、拡大
縮小率の具体的な求め方を詳細に説明する。なお、この
説明は、先に説明した第1の実施の形態と一部重複する
であろうが、第2の実施の形態の理解を容易とするため
に、敢えて繰り返すものとする。
Hereinafter, a specific method for obtaining the feature amount for component exaggeration, the feature amount for layout exaggeration, and the enlargement / reduction ratio performed by the feature amount extraction unit 103 will be described in detail. Note that this description will partially overlap with the first embodiment described above, but will be repeated dare to facilitate understanding of the second embodiment.

【0089】先ず、顔の輪郭の特徴点を求めるための方
法を説明する。ここで、顔の輪郭の特徴点(頭の頂点P
1、アゴの下端点P2、アゴの右端点P3、アゴの左端
点P4)は図22に示されるように定義される。このよ
うな特徴点を求めるためには、まず、入力画像(RG
B)をHSVに変換し、肌色領域を抽出する。次いで、
肌色領域内を下側から探索することによりアゴのエッジ
を検出し、アゴのエッジの最下点をP2とする。次い
で、肌色領域の右端点をP3、左端点をP4とする。次
いで、HSV変換後の顔画像から黒色領域を抽出し、そ
の最上点をP1とする。以上の4点(P1〜P4)を求
めた後、顔画像をグレー濃淡画像に変換する。
First, a method for obtaining a feature point of a face contour will be described. Here, the feature points of the face outline (the vertex P of the head)
1, the lower end point P2 of the jaw, the right end point P3 of the jaw, and the left end point P4 of the jaw) are defined as shown in FIG. In order to obtain such feature points, first, the input image (RG
B) is converted to HSV, and a flesh color region is extracted. Then
The jaw edge is detected by searching the skin color region from below, and the lowest point of the jaw edge is set to P2. Next, the right end point of the skin color area is set to P3, and the left end point is set to P4. Next, a black area is extracted from the HSV-converted face image, and the highest point is set to P1. After obtaining the above four points (P1 to P4), the face image is converted into a gray shade image.

【0090】次に、上記で求めた顔画像の特徴点(P1
〜P4)を用いて顔輪郭の特徴点X1,Y1を求める方
法を説明する。xpiを特徴点iのX座標、ypiを特徴点i
のY座標とすれば、顔輪郭の特徴点X1,Y1は次式
(数25)により表される。
Next, the characteristic points (P1
To P4), a method of obtaining the feature points X1 and Y1 of the face contour will be described. xpi is the X coordinate of feature point i, ypi is the feature point i
, The characteristic points X1 and Y1 of the face contour are represented by the following equation (Equation 25).

【0091】[0091]

【数25】 X1=xp4−xp3 Y1=yp1−yp2 (数25) 次に、目頭、目尻、鼻頭、鼻左端、鼻右端、口左端、口
右端の特徴点の求めるための方法を説明する。ここで、
これらの特徴点(右目頭P5、右目尻P6、左目頭P
7、左目尻P8、鼻頭P9、鼻右端P10、鼻左端P1
1、口右端P12、口左端P13)は図22に示される
ように定義される。これらの特徴点は、特徴点を含む特
徴点周辺部分の画像のテンプレートマッチングにより求
められる。テンプレートマッチングの方法としては、例
えば正規化濃度相関法を挙げることができる。正規化濃
度相関法ではグレー濃淡画像が用いられる。すなわち、
対象画像とテンプレート画像との間でグレー濃度の変化
パターンが照合され、グレー濃度の変化パターンが類似
しているほど、照合一致の度合いが大きいものとされ
る。そして、探索範囲内で最も照合一致の度合いが大き
い点が特徴点として抽出される。このとき、テンプレー
トとしては、複数人の顔画像の各特徴点付近のグレー濃
度を平均化して求めた画像データが用いられる。テンプ
レートマッチングによる具体的な照合結果の一例を図1
9に示す。
X1 = x p4 −x p3 Y1 = y p1 −y p2 (Equation 25) Next, a method for obtaining characteristic points of the inner and outer eyes, the nose head, the left nose, the right nose, the left end of the mouth, and the right end of the mouth Will be described. here,
These feature points (right eye corner P5, right eye corner P6, left eye corner P6)
7, left eye corner P8, nose head P9, nose right end P10, nose left end P1
1, the right end P12 and the left end P13) are defined as shown in FIG. These feature points are obtained by template matching of the image around the feature points including the feature points. As a template matching method, for example, a normalized density correlation method can be cited. In the normalized density correlation method, a gray shade image is used. That is,
The change pattern of the gray density is compared between the target image and the template image, and the more similar the change pattern of the gray density, the greater the degree of matching match. Then, the point having the highest degree of matching in the search range is extracted as a feature point. At this time, as the template, image data obtained by averaging gray densities in the vicinity of each feature point of the face images of a plurality of persons is used. FIG. 1 shows an example of a specific matching result by template matching.
It is shown in FIG.

【0092】次に、目の部品誇張用特徴量(Eye_size,E
ye_shape)並びに配置誇張用特徴量(Eye_height,Eye_s
pace)を求めるための方法を図23を参照して説明す
る。なお、ここでは左目についてのみ説明するが、右目
についても同様な方法により求めることができる。図2
3において、目頭P7の座標値(xp7,yp7)と目尻P8
の座標値(xp8,yp8)が既に与えられているものとす
る。尚、右目の場合であれば、目頭P5と目尻P6とが
与えられているものとする。
Next, the feature amount (Eye_size, E
ye_shape) and layout exaggeration features (Eye_height, Eye_s
The method for determining pace) will be described with reference to FIG. Although only the left eye will be described here, the right eye can be obtained in a similar manner. FIG.
In 3, the coordinate value (xp7, yp7) of the inner corner P7 and the outer corner P8
It is assumed that the coordinate values (xp8, yp8) have already been given. In the case of the right eye, it is assumed that the inner corner P5 and the outer corner P6 are given.

【0093】また、図23における作図上の約束事は以
下(イ)〜(ヌ)の通りである。 (イ)目の垂直中心線はY軸に平行、目の水平中心線は
X軸に平行 (ロ)目の垂直中心線のX座標=(目頭のX座標値+目
尻のX座標値)/2 (ハ)目の水平中心線のY座標=(目頭のY座標値+目
尻のY座標値)/2 (ニ)EyeSearchArea_X=Y1×0.02 (ホ)EyeSearchArea_Y=Y1×0.1 (ヘ)Y座標における加算明るさ=EyeSearchArea_X内
の該当Y座標における輝度の総和 (ト)Y座標における加算明るさの差分=Y座標の加算
明るさ−(Y−1)座標の明るさ (チ)D1=目の水平中心線よりも下で水平中心線に最
も近い位置に存在する加算明るさの極大値 (リ)D2=目の水平中心線よりも上で水平中心線に最
も近い位置に存在する加算明るさの極大値 (ヌ)D3=0.7×min(D1,D2) 但し、上記の計算式において、小数点以下は切り捨て
(座標値は整数値)
Further, the conventions for drawing in FIG. 23 are as follows (a) to (nu). (A) The vertical center line of the eye is parallel to the Y axis, and the horizontal center line of the eye is parallel to the X axis. (B) The X coordinate of the vertical center line of the eye = (X coordinate value of the inner corner of the eye + X coordinate value of the outer corner of the eye) / 2 (c) Y coordinate of horizontal center line of eye = (Y coordinate value of inner corner of eye + Y coordinate value of outer corner of eye) / 2 (d) EyeSearchArea_X = Y1 × 0.02 (e) EyeSearchArea_Y = Y1 × 0.1 (f ) Addition brightness at Y coordinate = sum of brightness at corresponding Y coordinate in EyeSearchArea_X (g) Difference of addition brightness at Y coordinate = addition brightness at Y coordinate− (Y-1) brightness at coordinate (h) D1 = Maximum value of the added brightness existing at a position below the horizontal center line of the eye and closest to the horizontal center line. Maximum value of added brightness (D) D3 = 0.7 × min (D1, D2) However, in the above formula, the decimal point Truncate below (coordinates are integers)

【0094】先ず、目の基準水平線並びに目の基準垂直
線を求める。ここで、目の基準水平線は、(yp7+yp8)
/2の点を通りX軸に平行な直線として求められ、また
目の基準垂直線は、(xp7+xp8)/2を通りY軸に平行
な直線として求められる。次いで、次式(数26)に従
い、目のX方向及びY方向のサーチ範囲を決定する。
First, a reference horizontal line of the eye and a reference vertical line of the eye are obtained. Here, the reference horizontal line of the eye is (yp7 + yp8)
/ 2 is obtained as a straight line parallel to the X axis, and the reference vertical line of the eye is obtained as a straight line passing (xp7 + xp8) / 2 and parallel to the Y axis. Next, the search range in the X and Y directions of the eyes is determined according to the following equation (Equation 26).

【0095】[0095]

【数26】 EyeSearchArea_X=Y1×0.02 EyeSearchArea_Y=Y1×0.1 (数26) 次いで、図23に示される(EyeSearchArea_X×EyeSear
chArea_Y)の範囲内の各Y座標において、輝度値を総和
する。但し、輝度値は255−濃度値とする。この例で
は、黒い画素の濃度値を255、白い画素の濃度値を0
としている。次いで、各Y座標において、{(xp7+xp
8)/2−(EyeSearchArea_X/2)}〜{(xp7+xp8)
/2+(EyeSearchArea_X/2)}の範囲の輝度値を
『加算明るさ』と定義し、この定義される加算明るさを
{(yp7+yp8)/2−(EyeSearchArea_Y/2)}〜
{(yp7+yp8)/2+(EyeSearchArea_Y/2)}の範囲
内の各Y座標について求める。ここで、1画素の輝度を
用いずに加算明るさを求める理由は、ノイズの影響を防
ぐためである。
[Equation 26] EyeSearchArea_X = Y1 × 0.02 EyeSearchArea_Y = Y1 × 0.1 (Equation 26) Next, (EyeSearchArea_X × EyeSear) shown in FIG.
The luminance values are summed at each Y coordinate within the range of (chArea_Y). However, the luminance value is 255-density value. In this example, the density value of a black pixel is 255, and the density value of a white pixel is 0.
And Next, at each Y coordinate, {(xp7 + xp
8) / 2- (EyeSearchArea_X / 2)}-{(xp7 + xp8)
/ 2 + (EyeSearchArea_X / 2)} is defined as “additional brightness”, and the defined additional brightness is {(yp7 + yp8) / 2− (EyeSearchArea_Y / 2)} ~
It is determined for each Y coordinate within the range of {(yp7 + yp8) / 2 + (EyeSearchArea_Y / 2)}. Here, the reason for obtaining the added brightness without using the brightness of one pixel is to prevent the influence of noise.

【0096】次いで、図23に示される(EyeSearchAre
a_X×EyeSearchArea_Y)の範囲内の各Y座標において、
上記の加算明るさの差分を求める。このとき求められる
差分は、次式(数27)に示されるように、隣接するY
座標の加算明るさの差である。
Next, FIG. 23 shows (EyeSearchAre
a_X × EyeSearchArea_Y)
A difference between the above added brightnesses is obtained. The difference obtained at this time is, as shown in the following equation (Equation 27), the difference between adjacent Y
It is the difference in the added brightness of the coordinates.

【0097】[0097]

【数27】 差分=Y座標の加算明るさ−(Y−1)座標の加算明るさ (数27) 次いで、図23に示される値D1,D2,D3を求め
る。ここで、D1は基準水平線よりも下で基準水平線に
最も近い位置に存在する加算明るさの極大点の値、D2
は基準水平線よりも上で基準水平線に最も近い位置に存
在する加算明るさの極大点の値、D3はD1とD2のう
ちで、値の小さい方の値に0.7を掛けた値、すなわ
ち、D3=0.7× min(D1,D2)である。
## EQU27 ## Difference = additional brightness of Y coordinate−additional brightness of (Y-1) coordinate (Expression 27) Next, values D1, D2, and D3 shown in FIG. 23 are obtained. Here, D1 is the value of the maximum point of the added brightness existing at a position below the reference horizontal line and closest to the reference horizontal line, D2
Is the value of the maximum point of the added brightness existing at a position above the reference horizontal line and closest to the reference horizontal line, and D3 is a value obtained by multiplying the smaller value of D1 and D2 by 0.7, that is, , D3 = 0.7 × min (D1, D2).

【0098】次いで、目の水平中心線から上方向へ探索
していき、加算明るさがD3よりも大きくなる点を見つ
け、この点を通りX軸に平行な直線をEyeLineTop2とす
る。
Next, a search is made upward from the horizontal center line of the eye to find a point where the added brightness is greater than D3, and a straight line passing through this point and parallel to the X axis is defined as EyeLineTop2.

【0099】次いで、目の水平中心線から下方向へ探索
していき、加算明るさがD3よりも大きくなる点を見つ
け、この点を通りX軸に平行な直線をEyeLineBot2とす
る。
Next, a search is made downward from the horizontal center line of the eye to find a point where the added brightness becomes larger than D3, and a straight line passing through this point and parallel to the X axis is defined as EyeLineBot2.

【0100】次いで、直線EyeLineTop2から上下方向に
Y1×0.03の範囲内で探索し、明るさの差分の極大
点を見つける。この極大点を通りX軸に平行な直線をEy
eLineTop1とする。
Next, a search is made in the vertical direction within a range of Y1 × 0.03 from the straight line EyeLineTop2 to find the maximum point of the difference in brightness. A straight line passing through this maximum point and parallel to the X axis is Ey
eLineTop1.

【0101】次いで、直線EyeLineBot2から上下方向に
Y1×0.03の範囲内で探索し、明るさの差分の極大
点を見つける。この極大点を通りX軸に平行な直線をEy
eLineBot1とする。
Next, a search is made in the vertical direction within a range of Y1 × 0.03 from the straight line EyeLineBot2 to find the maximum point of the difference in brightness. A straight line passing through this maximum point and parallel to the X axis is Ey
eLineBot1.

【0102】次いで、互いに平行な2直線EyeLineTop1
とEyeLineBot1の距離をLeft_EyeWidth_Yとする。
Next, two mutually parallel straight lines EyeLineTop1
And the distance between EyeLineBot1 and Left_EyeWidth_Y.

【0103】次いで、次式(数28)によりLeft_EyeWi
dth Xを求める。
Next, Left_EyeWi is obtained by the following equation (Equation 28).
Find dth X.

【0104】[0104]

【数28】 Left_EyeWidth_X=Xp7−Xp8 (数28) 次いで、右目についても同様にしてRight_EyeWidth_X並
びにRight_EyeWidth_Yを求め、次式(数29)に従い左
右の値を平均化する。
[Equation 28] Left_EyeWidth_X = X p7 −X p8 (Equation 28) Next, Right_EyeWidth_X and Right_EyeWidth_Y are similarly obtained for the right eye, and the left and right values are averaged according to the following equation (Equation 29).

【0105】[0105]

【数29】 EyeWidth_X=(Left_EyeWidth_X+Right_EyeWidth_X)/2 EyeWidth_Y=(Left_EyeWidth_Y+Right_EyeWidth_Y)/2 (数29) 次いで、目の部品誇張用特徴量(Eye_size,Eye_shape)
を次式(数30)に従って計算により求める。
[Equation 29] EyeWidth_X = (Left_EyeWidth_X + Right_EyeWidth_X) / 2 EyeWidth_Y = (Left_EyeWidth_Y + Right_EyeWidth_Y) / 2 (Equation 29) Next, the feature amount for eye part exaggeration (Eye_size, Eye_shape)
Is calculated by the following equation (Equation 30).

【0106】[0106]

【数30】 Eye_size=(EyeWidth_X×EyeWidth_Y)/(X1×Y1) Eye_shape=EyeWidth_Y/EyeWidth_X (数30) 次いで、目の配置誇張用特徴量(Right_Eye_height,Lef
t_Eye_height,Y2,Eye_height,Eye_space)を次式(数3
1)に従って計算により求める。
[Equation 30] Eye_size = (EyeWidth_X × EyeWidth_Y) / (X1 × Y1) Eye_shape = EyeWidth_Y / EyeWidth_X (Equation 30)
t_Eye_height, Y2, Eye_height, Eye_space)
It is determined by calculation according to 1).

【0107】[0107]

【数31】 Right_Eye_height=(yp5+yp6)/2−yp2 Left_Eye_height=(yp7+yp8)/2−yp2 Y2=(Right_Eye_height+Left_Eye_height)/2 Eye_height=Y2/Y1 Eye_space=(xp7−xp5)/X1 (数31) 次に、鼻の部品誇張用特徴量Nose_shape並びに配置誇張
用特徴量Eye_noseを求めるための方法を説明する。この
場合には、次式(数32)に示されるように、左右の目
頭P5,P7と鼻頭P9のY座標値を用いてRight_Eye_
nose,Left_Eye_noseを求める。
[Number 31] Right_Eye_height = (y p5 + y p6 ) / 2-y p2 Left_Eye_height = (y p7 + y p8) / 2-y p2 Y2 = (Right_Eye_height + Left_Eye_height) / 2 Eye_height = Y2 / Y1 Eye_space = (x p7 -x p5 ) / X1 (Equation 31) Next, a method for obtaining the nose part exaggeration feature amount Nose_shape and the arrangement exaggeration feature amount Eye_nose will be described. In this case, as shown in the following equation (Equation 32), Right_Eye_Right_Eye_Right is obtained using the Y coordinate values of the left and right inner corners P5 and P7 and the nose head P9.
Find nose and Left_Eye_nose.

【0108】次いで、求められたRight_Eye_nose,Left_
Eye_noseを平均化することによりY4が求められる。
Next, the calculated Right_Eye_nose, Left_
Y4 is obtained by averaging Eye_nose.

【0109】次いで、左右の鼻端点P10,P11と先
に求められたY4とからNose_shape並びにY2を用いて
Eye_noseを求める。
Next, using the Nose_shape and Y2, the left and right nose end points P10 and P11 and the previously obtained Y4 are used.
Ask for Eye_nose.

【0110】[0110]

【数32】 Right_eye_nose=yp5−yp9 Left_eye_nose=yp7−yp9 Y4=(Right_eye_nose+Left_eye_nose)/2 Nose_shape=(xp11−xp10)/Y4 Eye_nose=Y4/Y2 (数32) 次に、口の部品誇張用特徴量Mouth_size,Mouth_shape並
びに配置誇張用特徴量Nose_mouthを求めるための方法を
図24を参照して説明する。先ず、目の特徴量EyeLineT
op1,EyeLineBot1を求めたと同様にして、MouthLineTop
1,MouthLineBot1を求める。
Equation 32] Right_eye_nose = y p5 -y p9 Left_eye_nose = y p7 -y p9 Y4 = (Right_eye_nose + Left_eye_nose) / 2 Nose_shape = (x p11 -x p10) / Y4 Eye_nose = Y4 / Y2 ( number 32) Next, mouth A method for obtaining the feature amount Mouth_size and Mouth_shape for component exaggeration and the feature amount Nose_mouth for arrangement exaggeration will be described with reference to FIG. First, EyeLineT
MouthLineTop in the same way as op1 and EyeLineBot1
1. Find MouthLineBot1.

【0111】次いで、互いに平行な直線MouthLineTop1
とMouthLineBot1の距離をMouthWidth_Yとする。次い
で、次式(数33)を用いて、MouthWidth_Xを求め
る。
Next, straight lines MouthLineTop1 parallel to each other
And the distance between MouthLineBot1 and MouthWidth_Y. Next, MouthWidth_X is obtained using the following equation (Equation 33).

【0112】[0112]

【数33】 MouthWidth_X=Xp13−Xp12 (数33 ) 次いで、次式(数34)を用いて、口の部品誇張用特徴
量Mouth_sizeとMouth_shapeとを求める。
MouthWidth_X = X p13 −X p12 (Equation 33) Then, the mouth part exaggeration feature amounts Mouth_size and Mouth_shape are obtained using the following equation (Equation 34).

【0113】[0113]

【数34】 Mouth_size=MouthWidth_X/X1 Mouth_shape=MouthWidth_Y/MouthWidth_X (数34) 次いで、次式(数35)を用いて、口の配置誇張用特徴
量Nose_mouthを求める。尚、数35において、ymcはMou
thLineTop1とMouthLineBot1とに平行でこれら直線の中
間を通る直線のY座標である。
Mouth_size = MouthWidth_X / X1 Mouth_shape = MouthWidth_Y / MouthWidth_X (Expression 34) Next, the mouth arrangement exaggeration feature amount Nose_mouth is obtained using the following expression (Expression 35). In Equation 35, ymc is Mou
This is the Y coordinate of a straight line that is parallel to thLineTop1 and MouthLineBot1 and that passes through the middle of these straight lines.

【0114】[0114]

【数35】 Y5=yp9−ymc Nose_mouth=Y5/Y2 (数35) 次に、眉の部品誇張用特徴量Brow_thickness並びに配置
誇張用特徴量Eye_browを求める方法を図25を参照して
説明する。尚、ここでは、左眉の場合のみを説明する
が、右眉についても同様にして求めることができる。先
ず、目の上側のラインEyeLineTop1から上に向かって目
の基準垂直線上を探索していき、輝度が極小となる点を
見つける。この点が、最も黒い部分であり、眉の中心と
なる。
Equation 35] Y5 = y p9 -y mc Nose_mouth = Y5 / Y2 ( number 35) Next, a method for obtaining the components exaggerated for feature quantity Brow_thickness and arranged exaggerated feature quantity Eye_brow eyebrow reference to FIG. 25 . Here, only the case of the left eyebrow will be described, but the same can be obtained for the right eyebrow. First, a search is made on the reference vertical line of the eye upward from the upper line EyeLineTop1 of the eye to find a point at which the luminance becomes minimum. This point is the darkest part and is the center of the eyebrows.

【0115】次いで、上記の極小点を通り、X軸に平行
な直線を求め、これを眉の基準水平線とする。眉の基準
垂直線については、目の基準垂直線を延長した線とす
る。
Next, a straight line that passes through the minimum point and is parallel to the X axis is determined, and this is set as a reference horizontal line of the eyebrows. The reference vertical line of the eyebrows is a line obtained by extending the reference vertical line of the eye.

【0116】次いで、目の特徴量EyeLineTop1,EyeLineB
ot1を求めたときと同様にして、BrowLineTop1,BrowLine
Bot1を求める。
Next, the eye features EyeLineTop1, EyeLineB
BrowLineTop1, BrowLine
Ask for Bot1.

【0117】次いで、互いに平行な直線BrowLineTop1と
BrowLineBot1との距離を求め、これをLeft_BrowWidth_
Yとする。右眉についても、同様にして、Right_Browwi
dth_Yが求められる。
Next, a straight line BrowLineTop1 parallel to each other
Find the distance to BrowLineBot1 and call this Left_BrowWidth_
Let it be Y. Similarly for the right eyebrow, Right_Browwi
dth_Y is determined.

【0118】次いで、次式(数36)に従って、部品誇
張用特徴量Brow_thicknessが求められる。
Next, the feature amount Brow_thickness for component exaggeration is calculated according to the following equation (Equation 36).

【0119】[0119]

【数36】 Brow_thickness =(Left_BrowWidth_Y+Right_BrowWidth_Y)/2/Y1 (数36) 次いで、配置誇張用特徴量については、次式(数37)
に従って求められる。尚、次式において、ybLは左眉のB
rowLineBot1のY座標値、ybRは右眉のBrowLineBot1のY
座標値、yeLは左目のEyelineTop1のY座標、yeRは右目
のEyelineTop1のY座標である。
Brow_thickness = (Left_BrowWidth_Y + Right_BrowWidth_Y) / 2 / Y1 (Formula 36) Next, the feature amount for layout exaggeration is expressed by the following formula (Formula 37).
Is required in accordance with In the following equation, ybL is the left eyebrow B
Y coordinate value of rowLineBot1, ybR is Y of BrowLineBot1 of right eyebrow
The coordinate value, yeL, is the Y coordinate of EyelineTop1 of the left eye, and yeR is the Y coordinate of EyelineTop1 of the right eye.

【0120】[0120]

【数37】 Y3=(ybL+ybR)/2−(yeL+yeR)/2 Eye_brow=Y3/Y2 (数37) 次いで、拡大縮小率Scale_ratioを次式(数38)に従
って求める。尚、次式において、Scale_baseは予め設定
しておいた整数値である。
Equation 37] Y3 = (y bL + y bR ) / 2- (y eL + y eR) / 2 Eye_brow = Y3 / Y2 ( number 37) then determines a scaling factor Scale_ratio according the following equation (Equation 38). In the following equation, Scale_base is an integer value set in advance.

【0121】[0121]

【数38】 Scale_ratio=(X1×Y1)/Scale_base (数38) 以上説明した特徴量抽出手段103から、特徴量記憶手
段104、部品誇張手段109、及び、部品配置手段1
10へと出力されるデータの構造を図26に示す。
[Equation 38] Scale_ratio = (X1 × Y1) / Scale_base (Equation 38) From the feature amount extraction means 103 described above, the feature amount storage means 104, the component exaggeration means 109, and the component arrangement means 1
FIG. 26 shows the structure of the data output to 10.

【0122】同図から明らかなように、特徴量抽出手段
103から特徴量記憶手段104に対しては、Eye_heig
ht,Eye_space,Eye_nose,Nose_mouth,Eye_brow,Eye_siz
e,Eye_shape,Nose_shape,Mouth_size,Mouth_shape,Brow
_thicknessが出力される。
As is clear from the drawing, the Eye_heig is transmitted from the feature extracting means 103 to the feature storing means 104.
ht, Eye_space, Eye_nose, Nose_mouth, Eye_brow, Eye_siz
e, Eye_shape, Nose_shape, Mouth_size, Mouth_shape, Brow
_thickness is output.

【0123】また、特徴量抽出手段103から部品誇張
手段109に対しては、Eye_size,Eye_shape,Nose_shap
e,Mouth_size,Mouth_shape,Brow_thicknessが出力され
る。
Further, the feature amount extraction means 103 sends the Eye_size, Eye_shape, Nose_shap
e, Mouth_size, Mouth_shape, Brow_thickness are output.

【0124】さらに、特徴量抽出手段103から部品配
置手段110に対しては、Scale_ratio,Eye_height,Eye
_space,Eye_nose,Nose_mouth,Eye_brow,X1,Y1が出
力される。
Further, the feature amount extraction means 103 sends the Scale_ratio, Eye_height, Eye
_space, Eye_nose, Nose_mouth, Eye_brow, X1, Y1 are output.

【0125】次に、特徴量記憶手段104の構成を説明
する。本手段の入力は人物パラメータPerson_para、部
品誇張用特徴量、及び、配置誇張用特徴量である。
Next, the configuration of the feature amount storage means 104 will be described. The input of this means is a person parameter Person_para, a component exaggeration feature amount, and an arrangement exaggeration feature amount.

【0126】また、その出力は、部品誇張用非線形関数
作成手段105並びに配置誇張用非線形関数作成手段1
06へと供給される。ここで、部品誇張用非線形関数作
成手段105への出力は、人物パラメータ並びに部品誇
張用特徴量である。また、配置誇張用非線形関数作成手
段106への出力は、人物パラメータ並びに配置誇張用
特徴量である。
The output is output to the component exaggeration nonlinear function creating means 105 and the arrangement exaggeration nonlinear function creating means 1.
06. Here, the output to the component exaggeration nonlinear function creating unit 105 is a person parameter and a component exaggeration feature amount. The output to the arrangement exaggeration nonlinear function creating means 106 is a person parameter and an arrangement exaggeration feature amount.

【0127】特徴量記憶手段104には、人物パラメー
タPerson_para、部品誇張用特徴量、及び、配置誇張用
特徴量が記憶されている。特徴量記憶手段104に記憶
される各データの構造を図27に示す。同図に示される
ように、特徴量記憶手段104内には、前述したPerson
_para,Eye_height,Eye_space,Eye_nose,Nose_mouth,Eye
_brow,Eye_size,Eye_shape,Nose_shape,Mouth_size,Mou
th_shape,Brow_thicknessが記憶されている。
The feature amount storage means 104 stores a person parameter Person_para, a feature amount for component exaggeration, and a feature amount for layout exaggeration. FIG. 27 shows the structure of each data stored in the feature amount storage unit 104. As shown in FIG.
_para, Eye_height, Eye_space, Eye_nose, Nose_mouth, Eye
_brow, Eye_size, Eye_shape, Nose_shape, Mouth_size, Mou
th_shape and Brow_thickness are stored.

【0128】次に、部品誇張用非線形関数作成手段10
5の構成を図28(非線形関数がファジイルール表現の
場合)並びに図29(非線形関数が数式表現の場合)の
フローチャートを参照して説明する。
Next, the part exaggeration nonlinear function creating means 10
The configuration of FIG. 5 will be described with reference to the flowcharts of FIG. 28 (when the non-linear function is a fuzzy rule expression) and FIG. 29 (when the non-linear function is a mathematical expression).

【0129】この部品誇張用非線形関数作成手段105
の入力は人物パラメータ並びに部品誇張用特徴量のデー
タ列であり、またその出力は非線形関数並びに特徴量中
間値(非線形関数が数式表現の場合)である。ここで、
非線形関数とは、部品誇張手段109において顔部品の
形状や大きさを誇張するために使用されるものである。
この非線形関数の入力は実物から得られた部品誇張用特
徴量であり、またその出力は作成すべき顔部品の部品誇
張パラメータ(画像の拡大縮小率)である。非線形関数
としては、例えば、図32、図33に示される曲線のよ
うに、入力である部品誇張用特徴量xがある値を越える
と、出力である部品誇張パラメータf(x)の値が急激
に増加するS字傾向にあるものが使用される。
This part exaggeration nonlinear function creating means 105
Is a data string of a person parameter and a feature amount for part exaggeration, and its output is a non-linear function and a feature value intermediate value (when the non-linear function is a mathematical expression). here,
The non-linear function is used by the part exaggerating means 109 to exaggerate the shape and size of the face part.
The input of this non-linear function is the feature amount for part exaggeration obtained from the real thing, and the output thereof is the part exaggeration parameter (enlargement / reduction ratio of the image) of the face part to be created. As the nonlinear function, for example, as shown in the curves in FIGS. 32 and 33, when the input component exaggeration feature amount x exceeds a certain value, the output component exaggeration parameter f (x) rapidly increases. Are used which have an S-shaped tendency to increase.

【0130】この例で使用される非線形関数としては、
ファジイ推論ルールを用いる場合と数式を用いる場合と
が考えられる。部品誇張用のファジイ推論ルールの一例
を図34に示す。この例にあっては、ファジイ推論ルー
ルの後件部の値は人物パラメータの値により使い分けら
れるようにされており、特徴量データベースの場合と同
様にして、成人男性用、成人女性用、子供用の3種類の
ルールが用意されている。後件部の値の一例を図34の
右端に示す。また、ファジイラベルに関しては、それぞ
れの特徴量に対して、SMALL,MEDIUM,BI
Gの3種類のものが用意されている。各々のファジイ推
論ルールは、1入力1出力である。また、ファジイ推論
の入力値は、特徴量抽出手段103にて求められた部品
誇張用特徴量(Eye_size,Eye_shape,Nose_shape,Mouth_
size,Mouth_shape,Brow_thickness)である。尚、後に
説明する数式においては、入力値として使用されている
Xとは、これらの特徴量(Eye_size,Eye_shape,Nose_sh
ape,Mouth_size,Mouth_shape,Brow_thickness)のいず
れか一つを示すものである。また、ファジイ推論の出力
値は部品誇張パラメータである。
The non-linear functions used in this example include:
There are a case where a fuzzy inference rule is used and a case where a mathematical expression is used. FIG. 34 shows an example of a fuzzy inference rule for parts exaggeration. In this example, the value of the consequent part of the fuzzy inference rule is set to be properly used depending on the value of the person parameter, and in the same manner as in the feature amount database, for the adult male, for the adult female, and for the child. Are prepared. An example of the value of the consequent part is shown at the right end of FIG. As for fuzzy labels, SMALL, MEDIUM, BI
G types are prepared. Each fuzzy inference rule has one input and one output. The input value of the fuzzy inference is the feature amount for component exaggeration (Eye_size, Eye_shape, Nose_shape, Mouth_
size, Mouth_shape, Brow_thickness). In the mathematical expressions described later, X used as an input value refers to these feature amounts (Eye_size, Eye_shape, Nose_sh
ape, Mouth_size, Mouth_shape, Brow_thickness). The output value of the fuzzy inference is a component exaggeration parameter.

【0131】次に、非線形関数がファジイルール表現の
場合における部品誇張用非線形関数作成手段105の構
成を、特に、各ファジイラベルに対するメンバーシップ
関数の決定方法を中心として図28のフローチャートを
適宜に参照しつつ説明する。
Next, the configuration of the component exaggeration non-linear function creating means 105 in the case where the non-linear function is a fuzzy rule expression will be described with reference to the flowchart of FIG. 28, especially the method of determining the membership function for each fuzzy label. It will be explained while doing.

【0132】先ず、特徴量記憶手段104から成人男
性、成人女性、子供のそれぞれについて(ステップ28
02〜2805)、部品誇張用特徴量のデータ群を読み
込み(ステップ2801)、次いで各々(ステップ28
031,28035,28036)の最小値MIN,平
均値AVE、最大値MAXを求める(ステップ2803
2)。
First, for each of an adult male, an adult female, and a child (step 28)
02 to 2805), the data group of the feature amount for component exaggeration is read (step 2801), and then each of them is read (step 28).
031, 28035, and 28036), the minimum value MIN, the average value AVE, and the maximum value MAX are obtained (step 2803).
2).

【0133】次いで、上記で求めた最小値MIN,平均
値AVE、最大値MAXを用いて、次式(数39)に従
い、各数値LEFT,RIGHTを計算により求める
(ステップ28033)。
Next, using the minimum value MIN, average value AVE, and maximum value MAX obtained above, numerical values LEFT and RIGHT are obtained by calculation in accordance with the following equation (Equation 39) (step 28033).

【0134】[0134]

【数39】 LEFT=(MIN+AVE)/2 RIGHT=(AVE+MAX)/2 (数39) 次いで、上記で求めた最小値MIN,平均値AVE、最
大値MAX、LEFT,RIGHTの値を用いて、SM
ALL,MEDIUM,BIGの各メンバーシップ関数
を求める(ステップ28034)。すなわち、SMAL
Lのメンバーシップ関数は、入力値をX、出力値をμs
(X)とした場合、次式(数40)により求められる。
LEFT = (MIN + AVE) / 2 RIGHT = (AVE + MAX) / 2 (Expression 39) Next, SM is calculated using the values of the minimum value MIN, average value AVE, maximum value MAX, LEFT, and RIGHT determined above.
The membership functions of ALL, MEDIUM, and BIG are obtained (step 28034). That is, SMAL
The membership function of L is defined as X for input value and μs for output value.
In the case of (X), it is obtained by the following equation (Equation 40).

【0135】[0135]

【数40】 また、MEDIUMのメンバーシップ関数は、入力値を
X、出力値をμm(X)とした場合、次式(数41)に
より求められる。
(Equation 40) The MEDIUM membership function is obtained by the following equation (Equation 41) when the input value is X and the output value is μm (X).

【0136】[0136]

【数41】 さらに、BIGのメンバーシップ関数は、入力値をX、
出力値をμb(X)とした場合、次式(数42)により
求められる。
[Equation 41] In addition, the BIG membership function uses input values X,
When the output value is μb (X), it can be obtained by the following equation (Equation 42).

【0137】[0137]

【数42】 そして、このようにして得られたファジイルール表現の
非線形関数は、部品誇張手段109へと送られ、これに
より後述の部品誇張処理に供される(ステップ280
6)。
(Equation 42) Then, the non-linear function of the fuzzy rule expression obtained in this manner is sent to the component exaggeration means 109, and is subjected to component exaggeration processing described later (step 280).
6).

【0138】次に、非線形関数が数式表現の場合におけ
る部品誇張用非線形関数作成手段105の構成を、図2
9のフローチャートを適宜に参照しつつ説明する。
Next, the configuration of the component exaggeration non-linear function creating means 105 when the non-linear function is a mathematical expression will be described with reference to FIG.
This will be described with reference to the flowchart of FIG.

【0139】先ず、特徴量記憶手段104から成人男
性、成人女性、子供のそれぞれについて(ステップ29
02〜2905)、部品誇張用特徴量のデータ群を読み
込み(ステップ2901)、次いで各々(ステップ29
031,29035,29036)の最小値MIN並び
に最大値MAXを求める(ステップ29032)。
First, for each of an adult male, an adult female, and a child (step 29)
02 to 2905), a data group of the feature amount for component exaggeration is read (step 2901), and then each of them is read (step 29).
031, 29035, and 29036) are obtained (step 29032).

【0140】次いで、上で求めた最小値MIN並びに最
大値MAXを用いて、次式(数43)に従い、特徴量中
間値MIDを計算により求める(ステップ2903
3)。
Next, using the minimum value MIN and the maximum value MAX obtained above, a feature amount intermediate value MID is obtained by calculation according to the following equation (Equation 43) (step 2903).
3).

【0141】[0141]

【数43】 MID←(MIN+MAX)/2 (数43) 次いで、上で求めた特徴量最小値MIN、特徴量最大値
MAX、特徴量中間値MID、定数R1,R2の値を用
いて、次式(数44)に従い、現在のIとJの値に相当
する特徴量について、非線形関数の係数aが計算により
求められる(ステップ29034)。但し、Iは人物パ
ラメータであり、I=0の場合は成人男性、I=1の場
合は成人女性、I=2の場合は子供のデータについて処
理するものとする。また、Jは特徴量の種別であり、J
=0の場合はEye_size、J=1の場合はEye_shape、J
=2の場合はNose_shape、J=3の場合はMouth_size、
J=4の場合はMouth_shape、J=5の場合はBrow_thic
knessの特徴量について処理するものとする。
MID ← (MIN + MAX) / 2 (Equation 43) Next, using the values of the minimum feature value MIN, maximum feature value MAX, intermediate feature value MID, and constants R1 and R2 obtained above, In accordance with the equation (Equation 44), the coefficient a of the nonlinear function is obtained by calculation for the feature amount corresponding to the current values of I and J (step 29034). Here, I is a person parameter, and it is assumed that data is processed for adult male when I = 0, adult female when I = 1, and child when I = 2. J is the type of the feature amount.
If Eye = 0, Eye_size, If J = 1, Eye_shape, J
= 2 for Nose_shape, J = 3 for Mouth_size,
Mouth_shape when J = 4, Brow_thic when J = 5
It is assumed that the kness feature amount is processed.

【0142】[0142]

【数44】 上式は、特徴量データ群の中間値が入力されたときに、
非線形関数f(x)の出力が1となるような係数aを求
めることを意味している。すなわち、中間値MIDが入
力された場合には、部品画像の大きさや形状は誇張され
ない。
[Equation 44] When the intermediate value of the feature data group is input,
This means that a coefficient a such that the output of the nonlinear function f (x) becomes 1 is obtained. That is, when the intermediate value MID is input, the size and shape of the component image are not exaggerated.

【0143】ここで、数式を用いた非線形関数の実現方
法について理論的な説明を行う。例えば、図32並びに
図33に示されるS字形状を有する非線形関数は一般に
次式(数45)により表される。
Here, a method of realizing a non-linear function using a mathematical expression will be described theoretically. For example, the non-linear function having the S-shape shown in FIGS. 32 and 33 is generally represented by the following equation (Equation 45).

【0144】[0144]

【数45】 ここで、R1,R2,aの値は、ここで説明する部品誇
張用特徴量の場合と後に説明する配置誇張用特徴量の場
合とでは異なる。また、R1,R2の初期値はデフォル
ト値であるが、これらの値を変更することにより、誇張
の程度を調整することができる。例えば、デフォルト値
を使用すると、a=10の場合、非線形関数f(x)の
最大値は1.2となり、最小値は0.8となる。また、
係数aの値は、式(数44)に従って、計算により求め
られることは、先に説明したとおりである。
[Equation 45] Here, the values of R1, R2, and a are different between the case of the feature amount for component exaggeration described here and the case of the feature amount for arrangement exaggeration described later. The initial values of R1 and R2 are default values, but the degree of exaggeration can be adjusted by changing these values. For example, when a default value is used, when a = 10, the maximum value of the nonlinear function f (x) is 1.2 and the minimum value is 0.8. Also,
As described above, the value of the coefficient a is obtained by calculation according to the equation (Equation 44).

【0145】そして、このようにして得られた数式表現
の非線形関数は、部品誇張手段109へと送られ、後述
の部品誇張処理に供される(ステップ2906)。
The non-linear function of the mathematical expression obtained in this way is sent to the component exaggeration means 109, and is subjected to component exaggeration processing described later (step 2906).

【0146】次に、配置誇張用非線形関数作成手段10
6の構成を図30(非線形関数がファジイルール表現の
場合)並びに図31(非線形関数が数式表現の場合)の
フローチャートを参照して説明する。
Next, the arrangement exaggeration nonlinear function creating means 10
The configuration of FIG. 6 will be described with reference to the flowcharts of FIG. 30 (when the nonlinear function is a fuzzy rule expression) and FIG. 31 (when the nonlinear function is a mathematical expression).

【0147】この配置誇張用非線形関数作成手段106
の入力は人物パラメータ並びに配置誇張用特徴量のデー
タ列であり、またその出力は非線形関数並びに特徴量中
間値(非線形関数が数式表現の場合)である。ここで、
非線形関数とは、部品配置手段110において顔輪郭と
部品の位置関係、部品と部品の位置関係等を誇張するた
めに使用されるものである。この非線形関数の入力は実
物から得られた配置誇張用特徴量であり、またその出力
は作成すべき顔画像の部品間の配置誇張パラメータであ
る。非線形関数としては、例えば、図32、図33に示
される曲線のように、入力である配置誇張用特徴量xが
ある値を越えると、出力である配置誇張パラメータf
(x)の値が急激に増加するS字傾向にあるものが使用
される。
The arrangement exaggeration nonlinear function creating means 106
Is a data string of a person parameter and a feature amount for layout exaggeration, and its output is a non-linear function and a feature value intermediate value (when the non-linear function is a mathematical expression). here,
The non-linear function is used by the component arranging means 110 to exaggerate the positional relationship between the face contour and the component, the positional relationship between the components, and the like. The input of this non-linear function is the layout exaggeration feature quantity obtained from the real thing, and its output is the layout exaggeration parameter between the parts of the face image to be created. As the nonlinear function, for example, as shown in the curves in FIGS. 32 and 33, when the input layout exaggeration feature quantity x exceeds a certain value, the output layout exaggeration parameter f
Those having an S-shaped tendency in which the value of (x) rapidly increases are used.

【0148】この例で使用される非線形関数としては、
ファジイ推論ルールを用いる場合と数式を用いる場合と
が考えられる。配置誇張用のファジイ推論ルールの一例
を図35に示す。この例にあっては、ファジイ推論ルー
ルの後件部の値は人物パラメータの値により使い分けら
れるようにされており、特徴量データベースの場合と同
様にして、成人男性用、成人女性用、子供用の3種類の
ルールが用意されている。後件部の値の一例を図35の
右端に示す。また、ファジイラベルに関しては、それぞ
れの特徴量に対して、SMALL,MEDIUM,BI
Gの3種類のものが用意されている。各々のファジイ推
論ルールは、1入力1出力である。また、ファジイ推論
の入力値は、特徴量抽出手段103にて求められた配置
誇張用特徴量(Eye_height,Eye_brow,Eye_nose,Nose_mo
uth,Eye_space)である。尚、後に説明する数式におい
ては、入力値として使用されているXとは、これらの特
徴量(Eye_height,Eye_brow,Eye_nose,Nose_mouth,Eye_
space)のいずれか一つを示すものである。また、ファ
ジイ推論の出力値は配置誇張パラメータである。
The non-linear functions used in this example include:
There are a case where a fuzzy inference rule is used and a case where a mathematical expression is used. An example of a fuzzy inference rule for layout exaggeration is shown in FIG. In this example, the value of the consequent part of the fuzzy inference rule is set to be properly used depending on the value of the person parameter, and in the same manner as in the feature amount database, for the adult male, for the adult female, and for the child. Are prepared. An example of the value of the consequent is shown at the right end of FIG. As for fuzzy labels, SMALL, MEDIUM, BI
G types are prepared. Each fuzzy inference rule has one input and one output. The input values of the fuzzy inference are the layout exaggeration feature amounts (Eye_height, Eye_brow, Eye_nose, Nose_mo
uth, Eye_space). In the mathematical expressions described later, X used as an input value refers to these feature amounts (Eye_height, Eye_brow, Eye_nose, Nose_mouth, Eye_mouth).
space). The output value of the fuzzy inference is an arrangement exaggeration parameter.

【0149】次に、非線形関数がファジイルール表現の
場合における配置誇張用非線形関数作成手段106の構
成を、特に、各ファジイラベルに対するメンバーシップ
関数の決定方法を中心として図30のフローチャートを
適宜に参照しつつ説明する。
Next, the configuration of the arrangement exaggeration non-linear function creating means 106 when the non-linear function is a fuzzy rule expression will be described with reference to the flow chart of FIG. 30, especially the method of determining the membership function for each fuzzy label. It will be explained while doing.

【0150】先ず、特徴量記憶手段104から成人男
性、成人女性、子供のそれぞれについて(ステップ30
02〜3005)、配置誇張用特徴量のデータ群を読み
込み(ステップ3001)、次いで各々(ステップ30
031,30035,30036)の最小値MIN,平
均値AVE、最大値MAXを求める(ステップ3003
2)。
First, for each of an adult man, an adult woman, and a child (step 30)
02 to 3005), a data group of the layout exaggeration feature amount is read (Step 3001), and then each of them is read (Step 30).
031, 30035, and 30036), the minimum value MIN, the average value AVE, and the maximum value MAX are obtained (step 3003).
2).

【0151】次いで、上記で求めた最小値MIN,平均
値AVE、最大値MAXを用いて、先に部品誇張用非線
形関数作成手段の説明に際して引用した式(数39)に
従い、各数値LEFT,RIGHTを計算により求める
(ステップ28033)。
Next, using the minimum value MIN, the average value AVE, and the maximum value MAX obtained above, the respective numerical values LEFT, RIGHT are obtained according to the equation (Equation 39) cited earlier in the description of the means for creating a nonlinear function for component exaggeration. Is obtained by calculation (step 28033).

【0152】次いで、上記で求めた最小値MIN,平均
値AVE、最大値MAX、LEFT,RIGHTの値を
用いて、SMALL,MEDIUM,BIGの各メンバ
ーシップ関数を求める(ステップ28034)。
Next, using the values of the minimum value MIN, average value AVE, maximum value MAX, LEFT, and RIGHT determined above, each membership function of SMALL, MEDIUM, and BIG is determined (step 28034).

【0153】すなわち、SMALLのメンバーシップ関
数は、入力値をX、出力値をμs(X)とした場合、先
に部品誇張用非線形関数作成手段の説明に際して引用し
た式(数40)により求められる。
That is, when the input value is X and the output value is μs (X), the SMALL membership function is obtained by the equation (Equation 40) cited earlier in the description of the component exaggeration nonlinear function creating means. .

【0154】また、MEDIUMのメンバーシップ関数
は、入力値をX、出力値をμm(X)とした場合、先に
部品誇張用非線形関数作成手段の説明に際して引用した
式(数41)により求められる。
When the input value is X and the output value is μm (X), the membership function of MEDIUM can be obtained by the equation (Equation 41) cited earlier in the description of the component exaggeration nonlinear function creating means. .

【0155】さらに、BIGのメンバーシップ関数は、
入力値をX、出力値をμb(X)とした場合、先に部品
誇張用非線形関数作成手段の説明に際して引用した式
(数42)により求められる。
Further, the membership function of BIG is:
Assuming that the input value is X and the output value is μb (X), the value is obtained by the equation (Equation 42) cited earlier in the description of the component exaggeration nonlinear function creating means.

【0156】そして、このようにして得られたファジイ
ルール表現の非線形関数は、部品配置手段110へと送
られ、これにより後述の部品誇張処理に供される(ステ
ップ3006)。
Then, the non-linear function of the fuzzy rule expression thus obtained is sent to the component arranging means 110, where it is subjected to a component exaggeration process described later (step 3006).

【0157】次に、非線形関数が数式表現の場合におけ
る配置誇張用非線形関数作成手段106の構成を、図3
1のフローチャートを適宜に参照しつつ説明する。
Next, the configuration of the arrangement exaggeration nonlinear function creating means 106 when the nonlinear function is a mathematical expression will be described with reference to FIG.
1 will be described with appropriate reference to the flowchart.

【0158】先ず、特徴量記憶手段104から成人男
性、成人女性、子供のそれぞれについて(ステップ31
02〜3105)、配置誇張用特徴量のデータ群を読み
込み(ステップ3101)、次いで各々(ステップ31
031,31035,31036)の最小値MIN並び
に最大値MAXを求める(ステップ31032)。
First, an adult man, an adult woman, and a child are stored in the feature amount storage means 104 (step 31).
02 to 3105), the data group of the layout exaggeration feature amount is read (step 3101), and then each of them is read (step 31).
031, 31035, 31036) is obtained (step 31032).

【0159】次いで、上で求めた最小値MIN並びに最
大値MAXを用いて、先に部品誇張用非線形関数作成手
段の説明に際して引用した式(数43)に従い、特徴量
中間値MIDを計算により求める(ステップ3103
3)。
Then, using the minimum value MIN and the maximum value MAX obtained above, a feature amount intermediate value MID is obtained by calculation in accordance with the equation (Equation 43) cited earlier in the description of the component exaggeration nonlinear function creating means. (Step 3103
3).

【0160】次いで、上で求めた特徴量最小値MIN、
特徴量最大値MAX、特徴量中間値MID、定数R1,
R2の値を用いて、先に部品誇張用非線形関数作成手段
の説明に際して引用した式(数44)に従い、現在のI
とJの値に相当する特徴量について、非線形関数の係数
aが計算により求められる(ステップ31034)。但
し、Iは人物パラメータであり、I=0の場合は成人男
性、I=1の場合は成人女性、I=2の場合は子供のデ
ータについて処理するものとする。また、Jは特徴量の
種別であり、J=0の場合はEye_height、J=1の場合
はEye_space、J=2の場合はEye_nose、J=3の場合
はNose_mouth、J=4の場合はEye_browの特徴量につい
て処理するものとする。
Next, the minimum feature value MIN obtained above,
Feature amount maximum value MAX, feature amount intermediate value MID, constant R1,
Using the value of R2, according to the equation (Equation 44) cited earlier in the description of the component exaggeration nonlinear function creating means, the current I
The coefficient a of the non-linear function is obtained by calculation for the feature amount corresponding to the values of and J (step 31034). Here, I is a person parameter, and it is assumed that data is processed for adult male when I = 0, adult female when I = 1, and child when I = 2. J is the type of the feature amount. Eye_height when J = 0, Eye_space when J = 1, Eye_nose when J = 2, Nose_mouth when J = 3, Eye_brow when J = 4. It is assumed that the feature amount is processed.

【0161】上式(数44)は、特徴量データ群の中間
値が入力されたときに、非線形関数f(x)の出力が1
となるような係数aを求めることを意味している。すな
わち、中間値MIDが入力された場合には、部品配置は
誇張されない。
The above equation (Equation 44) indicates that when the intermediate value of the feature amount data group is input, the output of the nonlinear function f (x) is 1
This means that a coefficient a such that That is, when the intermediate value MID is input, the component arrangement is not exaggerated.

【0162】ここで、数式を用いた非線形関数の実現方
法について理論的な説明については、先に説明した部品
誇張用特徴量の場合と同様であるから省略する。
Here, the theoretical description of the method of realizing the nonlinear function using the mathematical formula is omitted because it is the same as the case of the component exaggeration feature amount described above.

【0163】そして、このようにして得られた数式表現
の非線形関数は、部品誇張手段109へと送られ、後述
の部品誇張処理に供される(ステップ3106)。
Then, the non-linear function of the mathematical expression obtained in this way is sent to the component exaggeration means 109, and is subjected to a component exaggeration process described later (step 3106).

【0164】次に、輪郭画像抽出手段107の構成を説
明する。この輪郭画像抽出手段107の入力はカラーの
顔画像であり、またその出力は2値の顔輪郭の画像であ
る。先ず、輪郭画像抽出手段107は、カラー顔画像の
肌色領域を抽出する。次いで、輪郭画像抽出手段107
は、カラー顔画像を2値化する。次いで、輪郭画像抽出
手段107は、2値化した顔画像において、上記肌色領
域と一致する領域の内部の濃度値を0に設定する。
Next, the configuration of the contour image extracting means 107 will be described. The input of the contour image extracting means 107 is a color face image, and the output is a binary face contour image. First, the contour image extracting unit 107 extracts a skin color area of a color face image. Next, the contour image extracting means 107
Converts a color face image into a binary image. Next, the contour image extracting unit 107 sets the density value inside the area corresponding to the skin color area to 0 in the binarized face image.

【0165】第1の実施の形態にて説明したように、輪
郭画像抽出手段6により抽出された顔輪郭の幾つかの例
が図16に示されている。同図から明らかなように、こ
の輪郭画像抽出手段107によれば、対象人物のそれぞ
れに関して、髪形と顎の輪郭線とで囲まれた図形として
顔の輪郭を抽出することができる。
As described in the first embodiment, several examples of the face outline extracted by the outline image extracting means 6 are shown in FIG. As can be seen from the drawing, the contour image extracting means 107 can extract the contour of the face as a figure surrounded by the hairstyle and the contour line of the chin for each of the target persons.

【0166】このようにして輪郭画像抽出手段107で
抽出された輪郭画像は、部品配置手段110に出力され
る。
The contour image thus extracted by the contour image extracting means 107 is output to the component arranging means 110.

【0167】次に、部品画像記憶手段108の構成を説
明する。部品画像記憶手段108には、右眉、左眉、右
目、左目、鼻、口の顔部品の画像が、人物パラメータ
(I=0,1,2)の値毎に、画像データベースとして
記憶されており、これらの部品画像は、データ入力手段
101から入力される人物パラメータIの値に応じて適
宜に選択され、部品誇張手段109へと出力される。こ
こで、部品画像は2値画像とされている。
Next, the configuration of the component image storage means 108 will be described. In the part image storage unit 108, images of the face parts of the right eyebrow, the left eyebrow, the right eye, the left eye, the nose, and the mouth are stored as an image database for each value of the person parameter (I = 0, 1, 2). These component images are appropriately selected according to the value of the person parameter I input from the data input unit 101, and output to the component exaggeration unit 109. Here, the component image is a binary image.

【0168】次に、部品誇張手段109の構成を図36
のフローチャートを参照しつつ説明する。部品誇張手段
109の入力は、特徴量抽出手段103から到来する部
品誇張用特徴量と、部品誇張用非線形関数作成手段10
5から到来する非線形関数並びに特徴量中間値と、部品
画像記憶手段108から到来する部品画像と、データ入
力手段101から到来する人物パラメータ、誇張部分選
択パラメータ、並びに、誇張程度パラメータである。ま
た、部品誇張手段109の出力は、大きさや形状が変更
された部品画像である。
Next, the structure of the component exaggeration means 109 is shown in FIG.
This will be described with reference to the flowchart of FIG. The input of the component exaggeration means 109 includes the feature quantity for component exaggeration coming from the feature quantity extraction means 103 and the non-linear function creation means 10 for component exaggeration.
5, a non-linear function and a feature amount intermediate value, a component image from the component image storage unit 108, a person parameter, an exaggerated portion selection parameter, and an exaggeration degree parameter from the data input unit 101. The output of the component exaggeration means 109 is a component image whose size or shape has been changed.

【0169】すなわち、部品誇張手段109は、データ
入力手段101から人物パラメータ、誇張部分選択パラ
メータ、並びに、誇張程度パラメータを読み込み(ステ
ップ3601)、部品画像記憶手段108から部品画像
を読み込み(ステップ3602)、最後に、特徴量抽出
手段103から部品誇張用特徴量を読み込む(ステップ
3603)。
That is, the part exaggeration means 109 reads the person parameter, the exaggerated part selection parameter, and the exaggeration degree parameter from the data input means 101 (step 3601), and reads the part image from the part image storage means 108 (step 3602). Finally, the feature amount for component exaggeration is read from the feature amount extraction means 103 (step 3603).

【0170】その後、それらの読み込まれたデータに基
づいて、非線形関数を用いることにより、部品誇張パラ
メータが求められる(ステップ3604)。このとき、
図34に示される部品誇張ルールの後件部の値は、人物
パラメータの値により使い分けられる。
Thereafter, a component exaggeration parameter is obtained by using a non-linear function based on the read data (step 3604). At this time,
The value of the consequent part of the part exaggeration rule shown in FIG. 34 is properly used depending on the value of the person parameter.

【0171】ファジイ推論の方法を以下に説明する。図
34に示される部品誇張ルールを一般化すると、各々の
配置場所は次式(数46)にて示される3つのルールに
て表現される。
A fuzzy inference method will be described below. When the parts exaggeration rules shown in FIG. 34 are generalized, each arrangement location is expressed by three rules expressed by the following equation (Equation 46).

【0172】[0172]

【数46】 IF X is SMALL THEN FZ is W1 IF X is MEDIUM THEN FZ is W2 IF X is BIG THEN FZ is W3 (数46) ここで、SMALL,MEDIUM,BIGの各メンバ
ーシップ関数の出力値を各々μs(X),μm(X),
μb(X)とした場合、ファジイ推論の出力値である部
品誇張パラメータFZは、次式(数47)で示されるW
1,W2,W3を用いた関数により表される。
IF X is SMALL THEN FZ is W1 IF X is MEDIUM THEN FZ is W2 IF X is BIG THEN FZ is W3 (Expression 46) Here, the output values of the SMALL, MEDIUM, and BIG membership functions are respectively μs (X), μm (X),
When μb (X) is used, the component exaggeration parameter FZ which is an output value of fuzzy inference is expressed by W expressed by the following equation (Equation 47).
1, W2, and W3.

【0173】[0173]

【数47】 但し、部品誇張パラメータであるFZは、目の大きさの
場合はFA、目の形状の場合はFB、鼻の形状の場合は
FC、口の大きさの場合はFD、口の形状の場合はF
E、眉の厚さの場合はFFであり、これらの値を用いて
部品の大きさや形状が変更される。
[Equation 47] However, FZ, which is a part exaggeration parameter, is FA for eye size, FB for eye shape, FC for nose shape, FD for mouth size, and FD for mouth shape. F
In the case of E and the thickness of the eyebrows, the value is FF, and the size and shape of the part are changed using these values.

【0174】また、データ入力手段101において、誇
張部分選択パラメータと誇張程度パラメータとが入力さ
れると、それらの値に応じて非線形関数の形が変更され
る(ステップ3604)。すなわち、誇張部分選択パラ
メータで指定される特徴量の非線形関数が変形される。
When the exaggerated portion selection parameter and the exaggeration degree parameter are input to the data input means 101, the form of the nonlinear function is changed in accordance with the values (step 3604). That is, the non-linear function of the feature specified by the exaggerated portion selection parameter is modified.

【0175】誇張程度パラメータと変形方法とは、非線
形関数がファジイルールで表現されている場合と数式で
表現されている場合とで異なる。
The exaggeration degree parameter and the deformation method are different between the case where the nonlinear function is expressed by fuzzy rules and the case where it is expressed by mathematical expressions.

【0176】非線形関数がファジイルールで表現されて
いる場合には、次のように処理が進行される。ユーザが
入力する誇張程度パラメータの値をExaggerate_paraと
した場合、部品配置ルールにおけるW1とW3の値が変
更される。変更前のW1,W3の値を各々W1_old,W
3_old,変更後の値をW1_new,W3_newとした場合、
両者の関係は次式(数48)により表される。
When the non-linear function is represented by fuzzy rules, the processing proceeds as follows. When the value of the exaggeration degree parameter input by the user is Exaggerate_para, the values of W1 and W3 in the component placement rule are changed. The values of W1 and W3 before the change are W1_old and W, respectively.
If 3_old and the changed values are W1_new and W3_new,
The relationship between the two is represented by the following equation (Equation 48).

【0177】[0177]

【数48】 W1_new=W1_old×(1−Exaggerate_para) W3_new=W3_old×(1+Exaggerate_para) ただし、0≦Exaggerate_para<1 (数48) ここで着目すべきは、前式(数48)において、Exagge
rate_para の符号が両式では異なる点である。そのた
め、Exaggerate_paraの値が大きくなるほど、誇張の程
度が大きくなる。
W1_new = W1_old × (1−Exaggerate_para) W3_new = W3_old × (1 + Exaggerate_para) where 0 ≦ Exaggerate_para <1 (Equation 48) It should be noted here that in the previous equation (Equation 48), Exagge
The sign of rate_para is different between the two formulas. Therefore, the greater the value of Exaggerate_para, the greater the degree of exaggeration.

【0178】非線形関数が数式で表現されている場合に
は、次のように処理が進行される。この場合、先に説明
したように、非線形関数は次式(数49)にて表され
る。
When the non-linear function is represented by an equation, the processing proceeds as follows. In this case, as described above, the nonlinear function is expressed by the following equation (Equation 49).

【0179】[0179]

【数49】 上式において、ユーザが入力する誇張程度パラメータの
値は、R1とR2である。これらの値に応じて、関数が
直接に変形されて誇張の程度が変更される。但し、特徴
量中間値MIDを用いて係数aの値を変更する必要があ
る。この係数aの値の変更は、次式(数50)に従って
行われる。
[Equation 49] In the above equation, the values of the exaggeration degree parameter input by the user are R1 and R2. Depending on these values, the function is directly transformed to change the degree of exaggeration. However, it is necessary to change the value of the coefficient a using the feature amount intermediate value MID. The change of the value of the coefficient a is performed according to the following equation (Equation 50).

【0180】[0180]

【数50】 次に、非線形関数の出力値を用いて部品の大きさや形状
を変更する方法を以下に説明する。部品画像上の点
(x,y)が、拡大縮小されて点(X,Y)に位置を変
えるとすれば、大きさや形状の変更は次式(数51)で
表される。
[Equation 50] Next, a method of changing the size and shape of the component using the output value of the nonlinear function will be described below. Assuming that the point (x, y) on the component image is scaled to change its position to the point (X, Y), the change in size and shape is expressed by the following equation (Equation 51).

【0181】[0181]

【数51】 ・目の大きさの場合 Y=FA×y, X=FA×x ・目の形状の場合 Y=FB×y, X=x ・鼻の形状の場合 Y=y, X=FC×x ・口の大きさの場合 Y=FD×y, X=FD×x (数51) ここで、x方向とy方向の拡大縮小率が等しければ、部
品画像を相似的に拡大縮小することになり、x方向とy
方向の拡大縮小率が異なれば、部品画像を変形すること
になる。尚、画像の大きさや形状の具体的な変換方法に
ついては、参考文献『C言語で学ぶ実践画像処理』(オ
ーム社)等の記載を参照することにより、当業者であれ
ば容易に理解されるはずである。
[Equation 51]-For eye size Y = FA x y, X = FA x x-For eye shape Y = FB x y, X = x-For nose shape Y = y, X = FC × x In the case of mouth size Y = FD × y, X = FD × x (Equation 51) Here, if the scaling ratios in the x direction and the y direction are equal, the component images should be scaled similarly. And the x direction and y
If the enlargement / reduction ratio in the direction is different, the component image is deformed. It should be noted that a person skilled in the art can easily understand a specific method of converting the size and shape of an image by referring to the description in the reference document “Practical image processing learned in C language” (Ohm). Should be.

【0182】次に、部品配置手段110の構成を図37
のフローチャートを参照しつつ説明する。部品配置手段
10の入力は、特徴量抽出手段103から到来する配置
誇張用特徴量並びに拡大縮小率と、配置誇張用非線形関
数作成手段106から到来する非線形関数並びに特徴量
中間値と、部品誇張手段109から到来する部品画像
と、輪郭画像抽出手段107から到来する輪郭画像と、
データ入力手段101から入力される人物パラメータ、
誇張部分選択パラメータ、並びに、誇張程度パラメータ
である。また、部品配置手段110の出力は、部品画像
と輪郭画像とを合成した顔画像である。
Next, the structure of the component arranging means 110 is shown in FIG.
This will be described with reference to the flowchart of FIG. The input of the component arranging means 10 includes an arrangement exaggeration feature quantity and an enlargement / reduction rate coming from the feature quantity extraction means 103, a nonlinear function and a feature quantity intermediate value coming from the arrangement exaggeration nonlinear function creating means 106, and a component exaggeration means. A component image arriving from 109, a contour image arriving from the contour image extracting means 107,
Person parameters input from the data input means 101,
An exaggerated portion selection parameter and an exaggeration degree parameter. The output of the component arranging means 110 is a face image obtained by synthesizing the component image and the contour image.

【0183】すなわち、部品配置手段110は、データ
入力手段1から人物パラメータ、誇張部分選択パラメー
タ、並びに、誇張程度パラメータを読み込み(ステップ
3701)、輪郭画像抽出手段107から輪郭画像を読
み込み(ステップ3702)、部品誇張手段109から
部品画像を読み込み(ステップ3703)、最後に、特
徴量抽出手段103から配置誇張用特徴量並びに拡大縮
小率を読み込む(ステップ3704)。その後、それら
の読み込まれたデータに基づいて、非線形関数を用い
て、配置誇張パラメータが求められる(ステップ370
5)。このとき、図35に示される配置誇張ルールの後
件部の値は、人物パラメータの値により使い分けられ
る。
That is, the component arranging means 110 reads the person parameter, the exaggerated portion selection parameter, and the exaggeration degree parameter from the data input means 1 (step 3701), and reads the contour image from the contour image extracting means 107 (step 3702). The component image is read from the component exaggeration means 109 (step 3703). Finally, the feature amount for arrangement exaggeration and the enlargement / reduction ratio are read from the feature amount extraction means 103 (step 3704). Thereafter, based on the read data, a placement exaggeration parameter is obtained using a nonlinear function (step 370).
5). At this time, the value of the consequent part of the layout exaggeration rule shown in FIG. 35 is properly used depending on the value of the person parameter.

【0184】ファジイ推論の方法を以下に説明する。図
35に示される配置誇張ルールを一般化すると、各々の
配置場所は次式(数52)にて示される3つのルールに
て表現される。
The fuzzy inference method will be described below. When the layout exaggeration rules shown in FIG. 35 are generalized, each layout location is expressed by three rules expressed by the following formula (Equation 52).

【0185】[0185]

【数52】 IF X is SMALL THEN FZ is W1 IF X is MEDIUM THEN FZ is W2 IF X is BIG THEN FZ is W3 (数52) ここで、SMALL,MEDIUM,BIGの各メンバ
ーシップ関数の出力値を各々μs(X),μm(X),
μb(X)とした場合、ファジイ推論の出力値である配
置誇張パラメータFZは、次式(数53)で示されるW
1,W2,W3を用いた関数により表される。
IF X is SMALL THEN FZ is W1 IF X is MEDIUM THEN FZ is W2 IF X is BIG THEN FZ is W3 (Expression 52) Here, the output values of the membership functions SMALL, MEDIUM, and BIG are respectively μs (X), μm (X),
When μb (X) is set, the arrangement exaggeration parameter FZ which is the output value of the fuzzy inference is expressed by W
1, W2, and W3.

【0186】[0186]

【数53】 但し、配置誇張パラメータであるFZは、目の高さの場
合はFG、眉と目の間隔の場合はFH、目と鼻の間隔の
場合はFI、鼻と口の間隔の場合はFJ、左右の目の間
隔の場合はFKであり、これらの値を用いて部品配置用
の実数値(YY2,YY3,YY4,XX2)が求めら
れる。
(Equation 53) However, the layout exaggeration parameter FZ is FG for eye height, FH for eyebrow and eye spacing, FI for eye to nose spacing, FJ for nose and mouth spacing, FJ for left and right. In the case of the eye interval, FK is used, and real values (YY2, YY3, YY4, XX2) for component placement are obtained using these values.

【0187】なお、データ入力手段101において、誇
張部分選択パラメータ並びに誇張程度パラメータが入力
された場合には、先に説明した部品誇張手段109の場
合と同様にして、その値に応じて非線形関数の形が変更
される(ステップ3705)。すなわち、ユーザが入力
する誇張程度パラメータの値をExaggerate_paraとした
場合、部品配置ルールにおけるW1とW3の値が変更さ
れる。変更前のW1,W3の値を各々W1_old,W3_ol
d,変更後の値をW1_new,W3_newとした場合、両者の
関係は先に引用した式(数48)により表される。
When the exaggerated portion selection parameter and the exaggeration degree parameter are input to the data input means 101, the nonlinear function is changed in accordance with the values in the same manner as in the case of the component exaggeration means 109 described above. The shape is changed (step 3705). That is, when the value of the exaggeration degree parameter input by the user is Exaggerate_para, the values of W1 and W3 in the component placement rule are changed. The values of W1 and W3 before the change are W1_old and W3_ol, respectively.
Assuming that d and the changed values are W1_new and W3_new, the relationship between the two is represented by the equation (Equation 48) cited earlier.

【0188】ここで着目すべきは、式(数48)におい
て、Exaggerate_para の符号が両式では異なる点であ
る。そのため、Exaggerate_paraの値が大きくなるほ
ど、誇張の程度が大きくなる。
It should be noted here that the sign of Exaggerate_para is different between the two equations in the equation (Equation 48). Therefore, the greater the value of Exaggerate_para, the greater the degree of exaggeration.

【0189】次いで、各部品画像の大きさを顔輪郭画像
の大きさに合わせるために、拡大縮小パラメータの値Sc
ale_ratioを利用して、各部品画像を拡大又は縮小する
(ステップ3707)。部品画像のある点(x,y)
が、拡大縮小されて点(X,Y)に位置を変えるとする
と、両者の間には次式(数54)の関係が成立する。
尚、具体的な変換方法については、参考文献『C言語で
学ぶ実践画像処理』(オーム社)等の記載を参照するこ
とにより、当業者であれば容易に理解されるはずであ
る。
Next, in order to adjust the size of each component image to the size of the face outline image, the value Sc of the scaling parameter is set.
Each part image is enlarged or reduced using ale_ratio (step 3707). A point (x, y) on the part image
Is scaled to change the position to the point (X, Y), a relationship represented by the following equation (Equation 54) is established between the two.
It should be noted that a person skilled in the art can easily understand a specific conversion method by referring to the description in the reference document “Practical image processing learned in C language” (Ohmsha).

【0190】[0190]

【数54】 Y=Scale_ratio×y, X=Scale_ratio×x (数54) 次いで、配置誇張パラメータ並びにX1,Y1を基に、
図38に示される部品配置用の実数値(YY2,YY
3,YY4,XX2)を次式(数55)により求める
(ステップ3706)。但し、FG,FH,FI,F
J,FKは、ファジイ推論の出力値である部品間距離パ
ラメータである。
Y = Scale_ratio × y, X = Scale_ratio × x (Equation 54) Then, based on the layout exaggeration parameter and X1, Y1,
Real values (YY2, YY2) for component placement shown in FIG.
3, YY4, XX2) is obtained by the following equation (Equation 55) (step 3706). However, FG, FH, FI, F
J and FK are inter-component distance parameters which are output values of fuzzy inference.

【0191】[0191]

【数55】 目の高さ YY2=FG×Y1 眉と目の間隔 YY3=FH×YY2 目と鼻の間隔 YY4=FI×YY2 鼻と口の間隔 YY5=FJ×YY2 左右の目の間隔 XX2=FK×X1 (数55) 次いで、求められた部品配置用の実数値に基づいて、図
38に示されるように、各部品画像を配置する(ステッ
プ3708)。但し、図39に示される各部品の代表点
が次式(数56)に示す位置になるように配置する。す
なわち、各部品の代表点が配置される座標は次式(数5
6)により表される。尚、ここで作成される画像は、2
値画像である。
[Equation 55] Eye height YY2 = FG × Y1 Eyebrow and eye distance YY3 = FH × YY2 Eye and nose distance YY4 = FI × YY2 Nose and mouth distance YY5 = FJ × YY2 Left and right eye distance XX2 = FK × X1 (Equation 55) Next, based on the obtained real values for component placement, each component image is placed as shown in FIG. 38 (step 3708). However, the components are arranged such that the representative point of each component shown in FIG. 39 is at the position shown by the following equation (Equation 56). That is, the coordinates at which the representative point of each part is arranged are expressed by the following equation (Equation 5).
6). The image created here is 2
It is a value image.

【0192】[0192]

【数56】 xcenter=(xp3+xp4)/2 右眉:(xcenter−XX2/2,yp2+YY2+Eye_half_Y+YY3) 左眉:(xcenter+XX2/2,yp2+YY2+Eye_half_Y+YY3) 右目:(xcenter−XX2/2,yp2+YY2) 左目:(xcenter+XX2/2,yp2+YY2) 鼻:(xcenter,yp2+YY2−YY4) 口:(xcenter,yp2+YY2−YY4−YY5) (数56 ) 次に、顔画像出力手段111の構成について説明する。
顔画像出力手段111は、以上で合成された顔画像を可
視的に出力させるものであり、具体的には、顔画像であ
る2値画像のハードコピーを出力する印刷装置や映像を
映し出すディスプレイ装置等により構成されている。
Equation 56] x center = (x p3 + x p4) / 2 right eyebrow: (x center -XX2 / 2, y p2 + YY2 + Eye_half_Y + YY3) left eyebrow: (x center + XX2 / 2 , y p2 + YY2 + Eye_half_Y + YY3) eye: (x center - XX2 / 2, y p2 + YY2 ) left eye: (x center + XX2 / 2 , y p2 + YY2) nose: (x center, y p2 + YY2-YY4) mouth: (x center, y p2 + YY2-YY4-YY5) ( number 56 Next, the configuration of the face image output unit 111 will be described.
The face image output unit 111 visually outputs the face image synthesized as described above, and specifically, a printing device that outputs a hard copy of a binary image, which is a face image, or a display device that displays an image. And the like.

【0193】そして、この第2の実施の形態によれば、
(1)部品の位置関係のみならず、部品の形状や大きさ
を誇張することにより、似顔絵の本質的な特徴である誇
張した印象的な顔画像を自動作成することができるこ
と、(2)多くの部品画像を用意しておく必要がないこ
と、(3)顔画像が対象者の顔に似なくなるような過度
の誇張を防ぐことができること、(4)利用者の好みに
応じて誇張の程度を調整することができること、等の格
別の作用効果を有する。
According to the second embodiment,
(1) It is possible to automatically create an exaggerated and impressive face image, which is an essential feature of a portrait, by exaggerating not only the positional relationship of the parts but also the shape and size of the parts. (3) that it is possible to prevent excessive exaggeration such that the face image does not resemble the face of the target person, and (4) the degree of exaggeration according to the user's preference. Can be adjusted, and the like.

【0194】次に、この発明の好ましい他の実施の形態
(第3の実施の形態)である変装シミュレーション機能
付きの似顔絵作成装置の全体構成を図40に示し、また
その動作手順を説明するためのフローチャートを図41
並びに図42に示す。
Next, FIG. 40 shows the overall configuration of a portrait creating apparatus having a disguise simulation function according to another preferred embodiment (third embodiment) of the present invention, and the operation procedure thereof will be described. The flowchart of FIG. 41
42 and FIG.

【0195】図40に示されるように、この似顔絵作成
装置は、データ入力手段201と、似顔絵作成手段20
2と、部品画像記憶手段203と、選択メニュー記憶手
段204と、画像合成手段205と、表示手段206
と、印刷手段207とから構成されている。これらの手
段201〜207は、具体的には、以下のように構成さ
れている。
As shown in FIG. 40, the portrait creating apparatus includes a data input unit 201 and a portrait creating unit 20.
2, a component image storage unit 203, a selection menu storage unit 204, an image synthesis unit 205, and a display unit 206
And printing means 207. These means 201 to 207 are specifically configured as follows.

【0196】先ず、データ入力手段201は、利用者か
ら入力された属性番号や部品番号を部品画像記憶手段2
03へと与えたり、或いは、部品の変形や位置調整等と
言った利用者からの指示入力を画像合成手段205へと
与える機能を有するものであり、例えばキーボードやマ
ウス等の入力装置により構成されている。
First, the data input means 201 stores the attribute number and the part number input by the user in the part image storage means 2.
03 or an instruction input from the user such as deformation or position adjustment of parts to the image synthesizing means 205, and is configured by an input device such as a keyboard and a mouse. ing.

【0197】利用者が、このデータ入力手段201を使
用して、後述の選択メニューから「P.印刷」を選択し
た場合には、画像合成手段205にて合成された画像が
印刷手段207へと出力される。なお、この選択操作
は、例えばキーボードから「P」の文字を入力するか、
或いは画面上の「P.印刷」の部分にマウスカーソルを
移動させ、マウスボタンをクリックすること等により行
われる。
When the user selects “P. print” from a selection menu described later using the data input unit 201, the image synthesized by the image synthesizing unit 205 is sent to the printing unit 207. Is output. This selection operation is performed, for example, by inputting the letter “P” from a keyboard,
Alternatively, it is performed by moving the mouse cursor to the “P. print” portion on the screen and clicking the mouse button.

【0198】利用者が、このデータ入力手段201を使
用して、後述の選択メニューから「Q.終了」を選択し
た場合には、画像合成手段205にて合成された画像が
印刷手段207へと出力される。なお、この選択操作
は、例えばキーボードから「Q」の文字を入力するか、
或いは画面上の「Q.終了」の部分にマウスカーソルを
移動させ、マウスボタンをクリックすること等により行
われる。
When the user uses the data input unit 201 to select “Q. end” from a selection menu described later, the image synthesized by the image synthesizing unit 205 is sent to the printing unit 207. Is output. This selection operation is performed, for example, by inputting a letter “Q” from a keyboard,
Alternatively, the user can move the mouse cursor to the “Q. end” portion on the screen and click the mouse button.

【0199】次に、似顔絵作成手段202の基本的な構
成は、先に図1若しくは図20を参照して説明した第1
若しくは第2の実施の形態におけるそれとほぼ同一であ
り、顔写真から抽出した特徴量に基づいて似顔絵を作成
するものである。ただし、この似顔絵作成手段202の
出力は、合成された似顔絵画像ではなくて、その前段階
の情報、すなわち選択されかつ誇張された似顔絵部品
(顔部品)、部品画像座標データ、位置関係データ
である点で、第1若しくは第2の実施の形態のそれとは
若干相違している。
Next, the basic configuration of the portrait creating means 202 is the same as the first configuration described above with reference to FIG. 1 or FIG.
Alternatively, it is almost the same as that in the second embodiment, and creates a portrait based on the feature amount extracted from the face photograph. However, the output of the portrait creating means 202 is not a synthesized portrait image, but information on the preceding stage, that is, selected and exaggerated portrait parts (face parts), part image coordinate data, and positional relationship data. This is slightly different from that of the first or second embodiment.

【0200】ここで、似顔絵部品(顔部品)としては、
この例では、左右の眉、左右の目、鼻、並びに、口が使
用されている。また、部品画像座標データとしては、第
1の実施の形態における図15並びに第2の実施の形態
における図39において×印で示された各部品の代表点
の座標が使用されている。また、位置関係データとして
は、第1の実施の形態の場合には、図14に示される、
Y2(目の高さ)、Y3(眉と目の間隔)、Y4(目と
鼻の間隔)、Y5(鼻と口の間隔)、並びに、X2(左
右の目の間隔)が使用され、第2の実施の形態の場合に
は、図38に示される、YY2(目の高さ)、YY3
(眉と目の間隔)、YY4(目と鼻の間隔)、YY5
(鼻と口の間隔)、並びに、XX2(左右の目の間隔)
が使用される。
Here, the portrait parts (face parts) include:
In this example, left and right eyebrows, left and right eyes, nose, and mouth are used. Further, as the component image coordinate data, the coordinates of the representative points of the components indicated by the crosses in FIG. 15 in the first embodiment and FIG. 39 in the second embodiment are used. In the case of the first embodiment, the positional relationship data is shown in FIG.
Y2 (eye height), Y3 (eyebrow and eye distance), Y4 (eye and nose distance), Y5 (nose and mouth distance), and X2 (left and right eye distance) are used. In the case of the second embodiment, YY2 (eye height), YY3 shown in FIG.
(Interval between eyebrows and eyes), YY4 (interval between eyes and nose), YY5
(Interval between nose and mouth) and XX2 (Interval between left and right eyes)
Is used.

【0201】次に、部品画像記憶手段203には、似顔
絵に相当する顔部品と合成して例えば変装シミュレーシ
ョンを行うための背景部品、すなわち、顔輪郭部品・髪
型部品・胴体部品・メガネ部品・髭部品等の画像が複数
パターン記憶されている。それら背景部品画像の一例が
図43に示されている。なお、各部品のサイズは統一さ
れており、大きさを変更することなく、前述の似顔絵に
相当する顔部品(左右の眉、左右の目、鼻、並びに、
口)と違和感なく合成できるようになされている。
Next, in the part image storage means 203, background parts for synthesizing, for example, a disguise simulation by synthesizing with a face part corresponding to a portrait, that is, a face outline part, a hairstyle part, a body part, a glasses part, a beard, etc. A plurality of patterns of parts and the like are stored. FIG. 43 shows an example of these background component images. In addition, the size of each part is unified, and the face parts (left and right eyebrows, left and right eyes, nose, and
Mouth) and can be combined without discomfort.

【0202】各部品にはカテゴリ記号と部品番号とが付
されている。カテゴリ記号は、利用者が合成したい背景
部品のカテゴリを選択するための記号であり、例えば、
顔輪郭部品は「A」、髪型部品は「B」、胴体部品は
「C」のように決められている。部品番号は、個々の部
品に付された番号(正の整数値)であり、利用者が複数
パターンの同種部品から1つの部品を選択する場合に使
用される。
Each part is assigned a category symbol and a part number. The category symbol is a symbol for selecting the category of the background component that the user wants to combine, for example,
The face outline part is determined as “A”, the hairstyle part as “B”, and the body part as “C”. The part number is a number (positive integer value) assigned to each part, and is used when the user selects one part from a plurality of patterns of the same kind.

【0203】利用者からのカテゴリ記号の入力がある
と、そのカテゴリ記号が示す種類に含まれる全ての部品
画像の一覧が、それに付随する部品番号と共に、部品画
像記憶手段203から読み出され、表示手段206へと
送出される。これにより、利用者は、そのカテゴリ内か
ら合成したい部品画像を、その部品番号を使用して選択
指示することができる。利用者からの部品番号の入力が
あると、その部品番号が示す部品画像が部品画像記憶手
段203から読み出され、画像合成手段205へと送出
される。
When a category symbol is input by the user, a list of all the component images included in the type indicated by the category symbol is read out from the component image storage means 203 together with the associated component number and displayed. Sent to the means 206. As a result, the user can select and instruct a part image to be combined from within the category using the part number. When a user inputs a part number, the part image indicated by the part number is read from the part image storage unit 203 and sent to the image combining unit 205.

【0204】各背景部品画像には、画像合成手段205
においてそれらを互い整合させて合成させることができ
るように、基準点が決定されている。各背景部品に付さ
れた基準点の例が図43に示されている。すなわち、同
図に示されるように、顔輪郭部品には上下左右の各点P
1,P2,P3,P4からなる4個の基準点が(同図
a)、髪型部品にはその上部中央の点Qからなる1個の
基準点が(同図b)、胴体部品にはその首中央の点Qか
らなる1個の基準点が(同図c)、メガネ部品にはその
中央の点Qからなる1個の基準点が(同図d)、さら
に、髭部品にはその上部中央の点Qからなる1個の基準
点が決定されている(同図e)。また、それらの基準点
に対応して、各背景部品には、次のような座標値データ
が付随されている。すなわち、顔輪郭部品には4個の基
準点P1〜P4の座標値が、髪型部品には顔輪郭部品の
基準点P1に対する基準点Qの相対座標値が、胴体部品
には顔輪郭部品の基準点P2に対する基準点Qの相対座
標値が、メガネ部品には図44(a)に示される左目基
準点Eに対する基準点Qの相対座標値が、さらに、髭部
品には図44(b)に示される髭部品基準点Mに対する
基準点Qの相対座標値がそれぞれ付随的に記憶されてい
る。
An image synthesizing means 205 is added to each background part image.
The reference points are determined so that they can be aligned with each other and synthesized. FIG. 43 shows an example of reference points assigned to each background component. That is, as shown in FIG.
Four reference points consisting of 1, P2, P3, and P4 are shown (a in the figure), one reference point consisting of a point Q at the upper center of the hairstyle part is shown (b in the figure), and the body part has the same reference point. One reference point consisting of a point Q at the center of the neck (c in the figure), one reference point consisting of the center point Q of the eyeglass part (d in the figure), and the upper part of the beard part One reference point consisting of the central point Q has been determined (FIG. 9E). Also, corresponding to these reference points, the following coordinate value data is attached to each background component. That is, the coordinate values of the four reference points P1 to P4 are set for the face outline part, the relative coordinate values of the reference point Q with respect to the reference point P1 of the face outline part are set for the hairstyle part, and the reference values of the face outline part are set for the body part. The relative coordinate value of the reference point Q with respect to the point P2, the relative coordinate value of the reference point Q with respect to the left-eye reference point E shown in FIG. Relative coordinate values of the reference point Q with respect to the shown beard part reference point M are additionally stored.

【0205】次に、選択メニュー記憶手段204には、
利用者が選択可能な背景部品のカテゴリ名が文字列とし
て記憶されている。ここで、背景部品としては、例え
ば、「顔輪郭」、「髪型」、「胴体」、「メガネ」、
「髭」等が挙げられる。
Next, the selection menu storage means 204 stores
The category name of the background component that can be selected by the user is stored as a character string. Here, as the background parts, for example, “face contour”, “hairstyle”, “body”, “glasses”,
"Whiskers" and the like.

【0206】この選択メニュー記憶手段204からは、
上述の各カテゴリ名がその先頭に部品記号が付された状
態で読み出され、例えば、「A.顔輪郭」、「B.髪
型」の如くに、表示手段206へと送出される。これに
より、利用者は、変装で使用したい背景部品のカテゴリ
を、そのカテゴリ記号を使用して選択指示することがで
きる。
From this selection menu storage means 204,
Each of the above-mentioned category names is read with a part symbol added to the head thereof, and sent to the display means 206, for example, "A. face outline", "B. hairstyle". Thus, the user can select and instruct the category of the background part desired to be used in the disguise using the category symbol.

【0207】なお、選択メニューの中には、利用者から
の印刷指示を受け付けるためのガイド項目「P.印
刷」、並びに、利用者からのプログラム終了指示を受け
付けるためのガイド項目「Q.終了」が設けられてい
る。
In the selection menu, a guide item “P. print” for receiving a print instruction from the user and a guide item “Q. end” for receiving a program end instruction from the user. Is provided.

【0208】次に、画像合成手段205は、似顔絵作成
手段202から得られる似顔絵部品画像と部品画像記憶
手段203から得られる背景部品画像とを合成すること
により背景合成が施された似顔絵画像を生成し、これを
表示手段206又は印刷手段207へと送出する。
Next, the image synthesizing means 205 generates a portrait image subjected to background synthesis by synthesizing the portrait image obtained from the portrait creating means 202 and the background part image obtained from the part image storing means 203. Then, this is sent to the display means 206 or the printing means 207.

【0209】この背景合成処理は、選択された顔輪郭画
像(図43(a)参照)の中に似顔絵作成手段202か
ら得られる似顔絵部品(顔部品)を配置して似顔絵画像
を生成する第1の処理と、生成された似顔絵画像に背景
部品(図43(b),(c),(d),(e)参照)を
配置して背景合成(変装)似顔絵画像を生成する第2の
処理とを含んでいる。
In the background synthesizing process, a portrait image is generated by arranging a portrait part (face part) obtained from the portrait creation means 202 in the selected face outline image (see FIG. 43A). And a second process of arranging background parts (see FIGS. 43 (b), (c), (d), and (e)) on the generated portrait image to generate a background composite (disguise) portrait image And

【0210】そのうちで、似顔絵画像を生成する第1の
処理については、先に説明した第1並びに第2の実施形
態における部品配置処理とほぼ同様であるため、該当部
分の記述を参照することにより、当業者であれば容易に
理解されるであろう。ただし、顔輪郭部品のそれぞれに
は、図43(a)に示されるように、4個の基準点(P
1,P2,P3,P4)の座標値が付随しているため、
これらの座標値を使用することにより顔輪郭部品と似顔
絵部品(顔部品)との合成が行われる。また、顔輪郭部
品が合成時のベースとなるため、他のカテゴリ部品が選
ばれる前に、先ず顔輪郭部品の選択モードに設定される
必要があるであろう。
Since the first processing for generating a portrait image is substantially the same as the component arrangement processing in the first and second embodiments described above, the first processing is performed by referring to the description of the corresponding part. It will be easily understood by those skilled in the art. However, as shown in FIG. 43 (a), each of the face contour parts has four reference points (P
1, P2, P3, P4)
By using these coordinate values, synthesis of the face outline part and the portrait part (face part) is performed. In addition, since the face outline part is used as a base at the time of synthesis, it is necessary to first set the face outline part selection mode before selecting another category part.

【0211】背景合成(変装)がかけられた似顔絵画像
を生成する第2の処理については、次のようにして行わ
れる。すなわち、先に説明したように、図43(b)〜
図43(e)に示される髪形、胴体、メガネ、髭の各部
品画像には基準点Qが設けられており、これらの基準点
には顔輪郭部品の基準点(図43(a)のP1,P2,
P3,P4)若しくは似顔絵部品の基準点(図44
(a)のE,図44(b)のM)に対する相対座標値が
付されている。そして、これらの相対座標値を利用する
ことにより、各変装部品の配置が行われる。
The second process for generating a portrait image subjected to background synthesis (disguise) is performed as follows. That is, as described above, FIG.
Each of the hairstyle, torso, glasses, and beard parts images shown in FIG. 43 (e) is provided with reference points Q, and these reference points are reference points of the face contour parts (P1 in FIG. 43 (a)). , P2
P3, P4) or the reference point of the portrait part (FIG. 44)
Relative coordinate values with respect to E in (a) and M) in FIG. 44 (b) are given. Then, by using these relative coordinate values, the disguise parts are arranged.

【0212】すなわち、図43(b)に示される髪形部
品については、髪形部品の基準点Qと顔輪郭の基準点P
1とが一致するように、部品配置が行われる。
That is, for the hairstyle part shown in FIG. 43B, the reference point Q of the hairstyle part and the reference point P of the face contour
Parts arrangement is performed so that 1 matches.

【0213】図43(c)に示される胴体部品について
は、顔輪郭部品の基準点P2(Xp2,Yp2)に対す
る胴体部品の基準点Qの相対座標値(dx,dy)が胴
体に付随して記憶されており、合成後の基準点Qの座標
値(Xq,Yq)が次式(数57)となるように部品配
置が行われる。
For the body part shown in FIG. 43 (c), the relative coordinate value (dx, dy) of the reference point Q of the body part to the reference point P2 (Xp2, Yp2) of the face contour part is attached to the body. The stored components are arranged such that the coordinate value (Xq, Yq) of the synthesized reference point Q is expressed by the following equation (Equation 57).

【0214】[0214]

【数57】 Xq=Xp2+dx, Yq=Yp2+dy (数57) 図43(d)に示されるメガネ部品については、左目の
目頭の基準点E(Xe,Ye)に対するメガネ部品の基
準点Qの相対座標値(dx,dy)がメガネ部品に付随
して記憶されており、合成後のQの座標値(Xq,Y
q)が次式(数58)となるように部品配置が行われ
る。
Xq = Xp2 + dx, Yq = Yp2 + dy (Equation 57) For the eyeglass part shown in FIG. 43D, the relative coordinates of the reference point Q of the eyeglass part with respect to the reference point E (Xe, Ye) of the left inner corner of the eye. The values (dx, dy) are stored in association with the eyeglass parts, and the coordinate values (Xq, Y) of the combined Q
The components are arranged so that q) becomes the following equation (Equation 58).

【0215】[0215]

【数58】 Xq=Xe+dx, Yq=Ye+dy (数58) 図43(e)に示される髭部品については、口の基準点
M(Xm,Ym)に対する髭部品の基準点Qの相対座標
値(dx,dy)が髭部品に付随して記憶されており、
合成後のQの座標(Xq,Yq)が次式(数59)とな
るように部品配置が行われる。
Xq = Xe + dx, Yq = Ye + dy (Equation 58) For the beard part shown in FIG. 43 (e), the relative coordinate value of the reference point Q of the beard part with respect to the reference point M (Xm, Ym) of the mouth ( dx, dy) are stored along with the beard parts,
The components are arranged such that the coordinates (Xq, Yq) of the combined Q become the following equation (Equation 59).

【0216】[0216]

【数59】 Xq=Xm+dx, Yq=Ym+dy (数59) このような処理により、各部品は基準点に基づく位置に
配置されるが、利用者はキーホードやマウスを使用した
操作によって、画像上の部品サイズ変更や位置変更を行
うことができる。この機能は、グラフィカル・ユーザ・
インタフェースの機能を使用すれば、容易に実現するこ
とができる。
Xq = Xm + dx, Yq = Ym + dy (Equation 59) By such processing, each component is arranged at a position based on the reference point. Part size change and position change can be performed. This feature is available for graphical user
It can be easily realized by using the function of the interface.

【0217】一旦部品を合成した後で、その部品を同じ
カテゴリの違う部品に置換したい場合もあるであろう。
この場合には、次のような機能を設けることが好まし
い。すなわち、各カテゴリに選択済みフラグを設ける。
全ての選択済みフラグの初期値は“0”(オフ)であ
る。一旦、カテゴリが選択されると、そのカテゴリの選
択済みフラグの値を“1”(オン)にする。選択済みフ
ラグがオンの状態で、同じカテゴリが再度選択される
と、既に合成していた該当カテゴリの部品を削除して、
新しい部品を合成する。
Once a part has been synthesized, it may be desirable to replace that part with a different part of the same category.
In this case, it is preferable to provide the following functions. That is, a selected flag is provided for each category.
The initial values of all the selected flags are “0” (off). Once a category is selected, the value of the selected flag of that category is set to "1" (ON). When the same category is selected again while the selected flag is on, the parts of the corresponding category that have already been synthesized are deleted,
Synthesize a new part.

【0218】既に合成した部品を削除できるようにする
ためには、パソコン等の描画ツールで用いられるレイヤ
構造を利用すればよいであろう。例えば、レイヤ1に顔
輪郭部品、レイヤ2に似顔絵部品、レイヤ3に髪形部
品、・・・と言ったように、レイヤ別に部品を配置する
ことにより、合成した部品を削除することができる。
In order to be able to delete a component already synthesized, a layer structure used in a drawing tool such as a personal computer may be used. For example, by arranging parts for each layer, such as a face outline part on Layer 1, a portrait part on Layer 2, a hairstyle part on Layer 3,..., It is possible to delete the synthesized part.

【0219】次に、表示手段206は、選択メニュー、
部品画像一覧、合成画像等を映し出すものであり、例え
ば液晶、CRT、プラズマディスプレイ等のディスプレ
イ装置にて構成することができる。
Next, the display means 206 displays a selection menu,
It displays a component image list, a composite image, and the like, and can be configured by a display device such as a liquid crystal display, a CRT, and a plasma display.

【0220】最後に、画像印刷手段207は、背景合成
(変装)処理等が施された似顔絵画像のハードコピーを
生成するためのものであり、レーザビームプリンタ等の
各種のカラー若しくはモノクロプリンタ装置で構成する
ことができる。
Finally, the image printing means 207 is for generating a hard copy of a portrait image subjected to background synthesis (disguise) processing and the like, and is implemented by various color or monochrome printer devices such as a laser beam printer. Can be configured.

【0221】次に、図41並びに図42のフローチャー
トを参照しつつ、以上説明した変装シミュレーション機
能付きの似顔絵作成装置の一連の動作の流れを系統的に
説明する。利用者により装置が起動されると、当該利用
者の顔画像が電子カメラ等で読み込まれ、続いて、第1
並びに第2の実施の形態にて詳細に説明した経過を経
て、顔特徴量の抽出処理、似顔絵部品(顔部品)の選択
処理、似顔絵部品の誇張処理、位置関係データの作成処
理が実行される(ステップ4101)。
Next, the flow of a series of operations of the portrait creating apparatus having the disguise simulation function described above will be systematically described with reference to the flowcharts of FIGS. 41 and 42. When the user activates the apparatus, a face image of the user is read by an electronic camera or the like, and then the first
In addition, through the process described in detail in the second embodiment, a facial feature amount extraction process, a portrait part (face part) selection process, a portrait part exaggeration process, and a positional relationship data creation process are executed. (Step 4101).

【0222】次いで、ディスプレイ装置の画面上には、
顔部品画像の一覧が表示されて、利用者の顔輪郭選択操
作を待機する状態となる(ステップ4102)。この状
態において、利用者から顔輪郭部品の部品番号が受け取
られると(ステップ4103)、指定された番号の顔輪
郭部品と似顔絵部品(顔部品)との合成処理が行われ
て、似顔絵が完成する(ステップ4104)。
Next, on the screen of the display device,
A list of face part images is displayed, and the apparatus enters a state of waiting for a user to select a face contour (step 4102). In this state, when the part number of the face outline part is received from the user (step 4103), the processing of synthesizing the face outline part of the designated number and the portrait part (face part) is performed, and the portrait is completed. (Step 4104).

【0223】以後、利用者の入力操作を待機する状態と
なり(ステップ4105)、入力操作に応じて(ステッ
プ4106)、画像合成処理(ステップ4107)、画
像印刷処理(ステップ4108)、若しくは、終了処理
が実行される。
Thereafter, the apparatus is in a state of waiting for an input operation by the user (step 4105), and according to the input operation (step 4106), an image synthesizing process (step 4107), an image printing process (step 4108), or an end process. Is executed.

【0224】図42に示されるように、画像合成処理
(ステップ4107)では、先ず、該当カテゴリの選択
済みフラグの内容が判定され(ステップ4201)、こ
れがオフ状態であれば(ステップ4201オフ)、該当
するカテゴリの選択済みフラグをオン状態にしたのち
(ステップ4202)、カテゴリ記号に相当する背景部
品画像の一覧がディスフプレイ装置の画面上に表示され
(ステップ4204)、利用者の選択操作を待機する状
態となる。これに対して、該当するカテゴリの選択済み
フラグがオン状態であれば(ステップ4201オン)、
既に合成されている該当カテゴリの背景部品を合成画像
から削除したのち(ステップ4203)、カテゴリ記号
に相当する部品画像の一覧がディスフプレイ装置の画面
上に表示され(ステップ4204)、利用者の選択操作
を待機する状態となる。
As shown in FIG. 42, in the image synthesizing process (step 4107), first, the content of the selected flag of the category is determined (step 4201). If the flag is off (step 4201 off), After the selected flag of the corresponding category is turned on (step 4202), a list of background part images corresponding to the category symbols is displayed on the screen of the display device (step 4204), and the selection operation of the user is performed. It will be in a state of waiting. On the other hand, if the selected flag of the corresponding category is on (step 4201 on),
After the background component of the corresponding category that has already been combined is deleted from the combined image (step 4203), a list of component images corresponding to the category symbols is displayed on the screen of the display device (step 4204), and It is in a state of waiting for a selection operation.

【0225】この状態において、利用者からの部品番号
が受け取られると(ステップ4203)、部品番号に相
当する背景部品と似顔絵との合成処理が行われる(ステ
ップ4204)、背景合成された似顔絵はディスプレイ
装置の画面上に表示される。その後、利用者がマウスに
より部品サイズや位置の変更操作を行うと、それに応じ
て背景合成(変装)似顔絵の修正が行われて所望の変装
似顔絵が完成する(ステップ4205)。
In this state, when a part number is received from the user (step 4203), a process of synthesizing a portrait with a background part corresponding to the part number is performed (step 4204). Displayed on the screen of the device. Thereafter, when the user performs an operation of changing the component size or position with the mouse, the background synthesis (disguise) portrait is corrected accordingly, and a desired disguise portrait is completed (step 4205).

【0226】以後、利用者が印刷指示を行うと(ステッ
プ4106)、完成した変装似顔絵はプリンタ装置から
カラー若しくはモノクロでプリントアウトされ(ステッ
プ4108)、これにより変装似顔絵のハードコピーが
得られることとなる。
Thereafter, when the user gives a print instruction (step 4106), the completed disguise portrait is printed out in color or monochrome from the printer device (step 4108), whereby a hard copy of the disguise portrait is obtained. Become.

【0227】このように、この第3の実施の形態に係る
変装シミュレーション機能付きの似顔絵作成方法及び装
置によれば、実際の顔画像から自動的に誇張して作成さ
れた似顔絵を用いつつも、これに適宜に背景部品を取り
付けて変装シミュレーションを行うことにより、より一
層興趣に富んだ似顔絵を作成することができる。
As described above, according to the portrait creating method and apparatus with the disguise simulation function according to the third embodiment, while using the portrait created automatically and exaggerated from the actual face image, By performing a disguise simulation by appropriately attaching background parts to this, a more interesting portrait can be created.

【0228】次に、この発明の好ましい他の実施の形態
(第4の実施の形態)である簡易作成機能付きの似顔絵
作成装置の全体構成を図45に示し、またその動作手順
を説明するためのフローチャートを図46、図47、並
びに、図48に示す。
Next, FIG. 45 shows an overall configuration of a portrait creating apparatus having a simple creating function according to another preferred embodiment (fourth embodiment) of the present invention, and the operation procedure thereof will be described. Are shown in FIGS. 46, 47 and 48.

【0229】図45に示されるように、この似顔絵作成
装置は、似顔絵作成手段301と、背景画像合成手段3
02と、表示手段303と、部品コード連結手段304
と、エンコード手段305と、画像バーコード合成手段
306と、印刷手段307と、デコード手段309と、
バーコード読み取り手段308とから構成される。
As shown in FIG. 45, the portrait creating apparatus includes a portrait creating section 301 and a background image synthesizing section 3.
02, display means 303, and component code connection means 304
Encoding means 305, image barcode combining means 306, printing means 307, decoding means 309,
And a bar code reading means 308.

【0230】似顔絵作成手段301の基本的な構成は、
先に図1若しくは図20を参照して説明した第1若しく
は第2の実施の形態におけるそれとほぼ同一であり、顔
写真から抽出した特徴量に基づいて似顔絵を作成するも
のである。ただし、この似顔絵作成手段302の出力
は、顔画像を一定の規則に従って誇張して得られる似顔
絵画像だけではなくて、それに加えて、その前段階の情
報、すなわち似顔絵部品コード、配置コード、並び
に、部品座標データを出力する点で、第1若しくは第
2の実施の形態のそれとは若干相違している。
The basic configuration of the portrait creating means 301 is as follows.
This is almost the same as that in the first or second embodiment described above with reference to FIG. 1 or FIG. 20, and creates a portrait based on the feature amount extracted from the face photograph. However, the output of the portrait creating means 302 is not only a portrait image obtained by exaggerating the face image according to a certain rule, but also information on the preceding stage, that is, a portrait part code, a placement code, and The output of the component coordinate data is slightly different from that of the first or second embodiment.

【0231】ここで、この例における似顔絵部品コード
は、目・鼻・口・眉等の顔部品に関するコードとされて
いる。似顔絵部品が目である場合における似顔絵部品コ
ードの一例が図51に示されている。同図に示されるよ
うに、目の大きさに関しては、小さい(1)、普通
(2)、大きい(3)と決められている。目の形に関し
ては、細い(1)、普通(2)、丸い(3)と決められ
ている。さらに、目の傾きに関しては、下がり目
(1)、水平(2)、上がり目(3)と決められてい
る。そのため、例えば、目の特徴が、小さく・普通の形
・下がり目であると想定すると、目に関する似顔絵部品
コードは(121)となる。鼻、口、眉に関する顔部品
コードについてもそれぞれの特徴項目を例えば数値に変
換することで同様にして生成される。
Here, the portrait part code in this example is a code relating to face parts such as eyes, nose, mouth, and eyebrows. FIG. 51 shows an example of a portrait part code when the portrait part is an eye. As shown in the figure, the size of the eyes is determined to be small (1), normal (2), and large (3). Regarding the shape of the eyes, it is determined to be thin (1), normal (2), and round (3). Further, regarding the inclination of the eyes, a falling eye (1), a horizontal eye (2), and an rising eye (3) are determined. Therefore, for example, assuming that the features of the eyes are small, ordinary shapes, and falling eyes, the caricature part code relating to the eyes is (121). The facial part codes relating to the nose, mouth, and eyebrows are similarly generated by converting the respective characteristic items into numerical values, for example.

【0232】また、配置コードは、目・鼻・口・眉の位
置関係をコード化したものである。例えば、目と眉との
距離が325画素であると想定すると、目と眉の位置関
係に関するコードは(325)とされる。同様にして、
顔輪郭と目、右目と左目、目と鼻、鼻と口の位置関係が
それぞれコード化され、それら個別相互の位置関係コー
ドを連結することにより、目的とする配置コードが最終
的に生成される。
The arrangement code is obtained by encoding the positional relationship among eyes, nose, mouth, and eyebrows. For example, assuming that the distance between the eye and the eyebrow is 325 pixels, the code related to the positional relationship between the eye and the eyebrow is (325). Similarly,
The positional relationship between the face outline and the eyes, the right eye and the left eye, the eyes and the nose, and the nose and the mouth are coded, respectively, and by connecting these individual mutual positional relationship codes, the target arrangement code is finally generated .

【0233】さらに、部品座標データとしては、例え
ば、第1の実施の形態における図15並びに第2の実施
の形態における図39において×印で示された各部品の
代表点の座標が使用される。
Further, as the part coordinate data, for example, the coordinates of the representative point of each part indicated by a cross in FIG. 15 in the first embodiment and FIG. 39 in the second embodiment are used. .

【0234】次に、背景画像合成手段302は、似顔絵
作成手段301から得られる似顔絵に背景画像を合成す
ることにより、背景合成された似顔絵画像を生成する。
なお、複雑化を回避するために図示を省略しているが、
図45に示される背景画像合成手段302には、先に、
第3の実施の形態の説明に際して参照した図40に示さ
れるデータ入力手段201、部品画像記憶手段203、
選択メニュー記憶手段204が含まれているものと理解
されたい。そのため、この背景画像合成手段302にお
ける背景画像合成処理は、第3の実施の形態において先
に説明したように、似顔絵作成手段301から得られる
似顔絵情報並びに部品座標データと、利用者が画面上の
メニューを見ながら対話処理で選択した背景部品画像と
を合成することにより行われる。そして、この背景合成
された似顔絵画像は、表示手段303へと送出される。
Next, the background image synthesizing means 302 generates a portrait image with the background synthesized by synthesizing the background image with the portrait obtained from the portrait creating means 301.
Although illustration is omitted to avoid complication,
First, the background image combining means 302 shown in FIG.
The data input unit 201, the component image storage unit 203 shown in FIG.
It should be understood that the selection menu storage means 204 is included. Therefore, as described above in the third embodiment, the background image synthesizing process in the background image synthesizing unit 302 includes the portrait information and the part coordinate data obtained from the portrait creation unit 301 and the user This is performed by synthesizing with the background part image selected by the interactive processing while looking at the menu. The portrait image combined with the background is sent to the display unit 303.

【0235】次に、表示手段303は、液晶式、CRT
式、プラズマディスプレイ式等々のカラー若しくはモノ
クロのディスプレイ装置にて構成されており、この表示
手段303には背景合成された似顔絵画像や各種の操作
用メニュー画像等が適宜に表示されることとなる。
Next, the display means 303 is a liquid crystal type, CRT
It is composed of a color or monochrome display device such as a display type, a plasma display type, and the like, and the display means 303 appropriately displays a portrait image combined with a background and various operation menu images.

【0236】次に、部品コード連結手段304は、似顔
絵作成手段301から得られる似顔絵部品(顔部品)
コード並びに配置コードと、背景画像合成手段302
から得られる背景部品コードとを連結することによ
り、一定のフォーマットから成るコード列を生成する。
こうして得られたコード列は、エンコード手段305へ
と送出される。
Next, the part code linking means 304 is a portrait part (face part) obtained from the portrait creation means 301.
Code and arrangement code, and background image synthesizing means 302
By generating a code string having a predetermined format by linking the background part code obtained from the above.
The code string thus obtained is sent to the encoding means 305.

【0237】次に、エンコード手段305では、部品コ
ード連結手段304から送られてくるコード列を対応す
るバーコードに符号変換する。こうして得られたバーコ
ード情報は、画像バーコード合成手段306へと送出さ
れる。
Next, the encoding means 305 converts the code string sent from the component code linking means 304 into a corresponding bar code. The barcode information thus obtained is sent to the image barcode combining means 306.

【0238】次に、画像バーコード合成手段306で
は、背景画像合成手段302から得られる背景合成画像
とエンコード手段305から得られるバーコード情報と
に基づいて、背景合成画像とバーコードとが合成された
画像データを作成する。こうして作成された画像データ
は印刷手段307へと送出される。
Next, the image barcode combining means 306 combines the background combined image and the barcode based on the background combined image obtained from the background image combining means 302 and the barcode information obtained from the encoding means 305. Create image data. The image data thus created is sent to the printing unit 307.

【0239】次に、印刷手段307を構成するプリンタ
装置では、画像バーコード合成手段306から得られる
画像データに基づいてプリント処理を実行することによ
り、図45の右下に印刷結果の一例が示されているよう
に、背景合成画像とバーコード310とが合成された画
像をカラー若しくはモノクロにて所定の若しくは任意の
用紙上にプリントアウトすることとなる。
Next, the printer constituting the printing means 307 executes a printing process based on the image data obtained from the image barcode synthesizing means 306, so that an example of the printing result is shown in the lower right of FIG. As described above, an image obtained by synthesizing the background composite image and the barcode 310 is printed out on a predetermined or arbitrary sheet in color or monochrome.

【0240】次に、バーコード読み取り手段308は、
先ほど背景合成画像がプリントアウトされた用紙からそ
れに付されたバーコード310を読み取る機能を有する
ものであり、公知のバーコードリーダにより実現するこ
とができる。こうして読み取られたバーコードは、デコ
ード手段309へと送出される。
Next, the bar code reading means 308
It has a function of reading the barcode 310 attached to the background composite image from the paper on which the background composite image has been printed out, and can be realized by a known barcode reader. The bar code thus read is sent to the decoding means 309.

【0241】次に、デコード手段309では、バーコー
ド読み取り手段308から送られてくるバーコードを復
号変換することにより、似顔絵部品(顔部品)コー
ド、配置コード、並びに、背景部品コードを生成出
力する。こうして得られた似顔絵部品コード並びに配置
コードは似顔絵作成手段301へと送出され、また背景
部品コードは背景画像合成手段302へと送出される。
Next, the decoding means 309 decodes and converts the bar code sent from the bar code reading means 308 to generate and output a portrait part code (face part) code, an arrangement code, and a background part code. . The portrait part code and the arrangement code thus obtained are sent to the portrait creation means 301, and the background part code is sent to the background image synthesis means 302.

【0242】その後、似顔絵作成手段301では、デコ
ード手段309から得られた似顔絵部品コード並びに配
置コードに基づいて、顔写真等の利用者の顔画像に頼る
ことなく、所定の簡易手法を用いて似顔絵作成処理を実
行する。なお、この簡易手法を用いた似顔絵作成処理の
詳細については、図50を参照しつつ後に詳細に説明す
る。また、背景画像合成手段302では、デコード手段
309から得られる背景部品コードに基づいて、背景画
像合成処理を実行する。
Thereafter, the portrait creating means 301 uses a portrait simple method based on the portrait part code and the arrangement code obtained from the decoding means 309 without depending on the face image of the user such as a face photograph. Execute the creation process. The details of the portrait creation process using this simplified method will be described later in detail with reference to FIG. Further, the background image synthesizing unit 302 executes a background image synthesizing process based on the background part code obtained from the decoding unit 309.

【0243】次に、図46〜図48のフローチャート、
並びに、図49及び図50の処理工程説明図を参照しつ
つ、この第4の実施の形態に係る簡易作成機能付きの似
顔絵作成装置の動作を系統的に説明する。
Next, the flowcharts of FIGS.
The operation of the portrait creating apparatus with a simple creation function according to the fourth embodiment will be systematically described with reference to the processing step explanatory diagrams of FIGS. 49 and 50.

【0244】図46のフローチャートに示されるよう
に、所定のモード指定操作を行うことにより(ステップ
4601)、写真から似顔絵作成を行う通常モード(ス
テップ4602)とバーコードから似顔絵作成を行う簡
易モード(ステップ4603)とのいずれかを選択的に
実行させることができる。
As shown in the flow chart of FIG. 46, by performing a predetermined mode designating operation (step 4601), a normal mode for creating a portrait from a photograph (step 4602) and a simple mode for creating a portrait from a barcode (step 4601). Step 4603) can be selectively executed.

【0245】写真から似顔絵作成を行う通常モードの処
理内容の詳細が図47のフローチャート並びに図49の
処理工程説明図に示されている。図47のフローチャー
トに示されるように、処理が開始されると、先ず、似顔
絵作成手段301では、顔写真から抽出した特徴量に基
づいて似顔絵の作成を行う(ステップ4701)。すな
わち、図49の処理工程説明図に示されるように、電子
カメラ等から得られた顔写真に対して特徴抽出処理(4
901)が実行されて、顔に関する各種の特徴量が抽出
され、これらの特徴量に従って部品選択処理(490
2)が実行されて、目・鼻・口の部品コードが求められ
る。さらに、それらの特徴量に従って配置誇張処理(4
903)が実行されて、目・鼻・口の配置コードが求め
られる。
The details of the processing in the normal mode for creating a portrait from a photograph are shown in the flowchart of FIG. 47 and the processing step explanatory diagram of FIG. As shown in the flowchart of FIG. 47, when the processing is started, first, the portrait creating unit 301 creates a portrait based on the feature amount extracted from the face photograph (step 4701). That is, as shown in the process step explanatory diagram of FIG. 49, a feature extraction process (4
901) is executed to extract various feature amounts related to the face, and a component selection process (490) is performed according to these feature amounts.
2) is executed to obtain the eye / nose / mouth part codes. Further, the arrangement exaggeration processing (4
903) is executed to determine the eye / nose / mouth arrangement code.

【0246】次いで、背景画像合成手段302において
は、似顔絵と背景部品とを合成した背景合成画像の作成
が行われる(ステップ4702)。すなわち、似顔絵作
成手段301から得られる似顔絵画像並びに部品配置座
標データと別途利用者から指定された背景部品画像(胴
体・メガネ等)とに基づいて背景部品合成処理(490
4)が実行されて、背景合成画像が生成され、この背景
合成画像は表示手段303を構成するディスプレイ装置
の画面上に表示される。
Next, the background image synthesizing means 302 creates a background synthesized image obtained by synthesizing the portrait and the background component (step 4702). That is, the background part synthesizing process (490) is performed based on the portrait image and the part arrangement coordinate data obtained from the portrait creating means 301 and the background part image (body, glasses, etc.) separately specified by the user.
4) is executed to generate a background composite image, and this background composite image is displayed on the screen of the display device constituting the display unit 303.

【0247】次いで、部品コード連結手段304におい
ては、似顔絵部品(顔部品)コード、配置コード、
並びに、背景コードのそれぞれを連結する処理が実行
される(ステップ4703)。すなわち、目・鼻・口の
部品コードに対しては部品コード連結処理(4905)
が、目・鼻・口の配置コードに関しては配置コード連結
処理(4906)が、さらに、胴体・メガネ等の背景部
品コードに関しては背景コード連結処理(4907)が
実行され、これにより部品・配置・背景の各々別にコー
ド連結処理が行われる。さらに、それらの部品コード・
配置コード・背景コードに対して連結処理(4908)
が実行されて、最終的に、似顔絵コードが生成される。
Next, in the part code linking means 304, a portrait part (face part) code, an arrangement code,
In addition, processing for linking each of the background codes is executed (step 4703). That is, for the eye / nose / mouth part code, the part code connection processing (4905)
However, the arrangement code connection processing (4906) is executed for the eye / nose / mouth arrangement code, and the background code connection processing (4907) is executed for the background part code such as the body and glasses. A code connection process is performed for each of the backgrounds. Furthermore, their part codes
Consolidation processing for arrangement code / background code (4908)
Is executed, and finally a portrait code is generated.

【0248】次いで、エンコード手段305では、連結
したコード列から成る似顔絵コードを似顔絵バーコード
に変換する処理が行われる(ステップ4704)。すな
わち、似顔絵コードから似顔絵バーコードへの変換処理
(4909)が実行されて、似顔絵バーコードが出力さ
れるのである。
Next, the encoding means 305 performs a process for converting the portrait code composed of the linked code sequence into a portrait bar code (step 4704). That is, the conversion process from the portrait code to the portrait barcode (4909) is executed, and the portrait barcode is output.

【0249】次いで、画像バーコード合成手段306で
は、背景合成画像とバーコードとを合成した画像データ
が合成され、この画像データは印刷手段307へと送出
される(ステップ4705)。
Next, the image barcode synthesizing means 306 synthesizes image data obtained by synthesizing the background synthesized image and the barcode, and sends this image data to the printing means 307 (step 4705).

【0250】最後に、印刷手段307では、画像バーコ
ード合成手段306から得られる画像データに基づいて
印刷処理を実行することにより、背景合成画像とバーコ
ードとが合成された画像をプリントアウトすることとな
る(ステップ4706)。
Finally, the printing means 307 prints out the image in which the background synthesized image and the barcode are synthesized by executing a printing process based on the image data obtained from the image barcode synthesizing means 306. (Step 4706).

【0251】バーコードからから似顔絵作成を行う簡易
モードの処理内容の詳細が図48のフローチャート並び
に図50の処理工程説明図に示されている。図48のフ
ローチャートに示されるように、処理が開始されると、
先ず、バーコード読み取り手段308では、先にプリン
トアウトされた似顔絵画像のハードコピー311からバ
ーコードの読み取りが行われる(ステップ4801)。
The details of the processing in the simple mode for creating a portrait from a bar code are shown in the flowchart of FIG. 48 and the processing step explanatory diagram of FIG. As shown in the flowchart of FIG. 48, when the process is started,
First, the barcode reading unit 308 reads a barcode from the hard copy 311 of the portrait image printed out earlier (step 4801).

【0252】次いで、デコード手段309においては、
読み取られたバーコードは、似顔絵部品コード、配
置コード、並びに、背景部品コードに変換される(ス
テップ4802)。すなわち、図50の処理工程説明図
に示されるように、バーコード読み取り手段308にて
読み取られたバーコードに対してコード分解処理(50
01)が実行されることにより、目・鼻・口の部品コー
ド、目・鼻・口の配置コード、並びに、胴体・メガネ等
の背景コードが生成される。
Next, in the decoding means 309,
The read barcode is converted into a portrait part code, an arrangement code, and a background part code (step 4802). That is, as shown in FIG. 50, the bar code read by the bar code reading means 308 is subjected to a code decomposition process (50).
01) is executed to generate eye / nose / mouth part codes, eye / nose / mouth arrangement codes, and body / glasses background codes.

【0253】次いで、似顔絵作成手段301において
は、似顔絵部品コードに対応する部品を選択して、配置
コードに基づき似顔絵画像を作成する(ステップ480
3)。すなわち、図50の処理工程説明図に示されるよ
うに、目・鼻・口の部品コードにより部品選択処理(5
002)が、また目・鼻・口の配置コードにより配置誇
張処理(5003)が実行されて、似顔絵画像が作成さ
れるのである。
Next, the portrait creating means 301 selects a part corresponding to the portrait part code and creates a portrait image based on the arrangement code (step 480).
3). That is, as shown in the processing step explanatory diagram of FIG. 50, the part selection processing (5
002), the arrangement exaggeration process (5003) is executed by the arrangement codes of the eyes, nose, and mouth, and a portrait image is created.

【0254】次いで、背景画像合成手段302において
は、図50の処理工程説明図に示されるように、胴体・
メガネ等の背景コードにより背景部品合成処理(500
4)が実行されて、背景合成された似顔絵画像が作成さ
れる(ステップ4804,4805,4806,480
7)。このとき、利用者に対しては、背景画像の変更が
許されている。すなわち、利用者が背景画像の変更を選
択しない場合には(ステップ4804変更しない)、背
景部品コードに対応する背景部品が選択されて(ステッ
プ4805)、背景合成処理が実行されるのに対して
(ステップ4807)、利用者が背景画像の変更を選択
する場合には(ステップ4804変更する)、利用者が
別の背景を選択するのを待って(ステップ4806)、
その新たに選択された背景部品により背景合成処理が実
行される(ステップ4807)。
Next, in the background image synthesizing means 302, as shown in FIG.
Background component synthesis processing (500
4) is executed to create a portrait image with background synthesis (steps 4804, 4805, 4806, 480).
7). At this time, the user is allowed to change the background image. That is, if the user does not select to change the background image (step 4804 is not changed), the background component corresponding to the background component code is selected (step 4805), and the background synthesis processing is executed. If the user selects to change the background image (step 4804) (step 4807), the user waits until the user selects another background (step 4806).
A background synthesis process is performed using the newly selected background component (step 4807).

【0255】次いで、画像バーコード合成手段306に
おいては、背景合成画像とバーコードとを合成した画像
データが作成される(ステップ4808)。すなわち、
それに先立ち、部品コード連結手段304においては、
部品選択処理(5002)、配置誇張処理(500
3)、並びに、背景部品合成処理(5004)にて使用
された部品コード、配置コード、並びに、背景コードを
連結して似顔絵コードを生成するコード連結処理(50
05)が実行され、さらに、エンコード手段305にお
いては、似顔絵コードから似顔絵バーコードへの符号変
換処理(5006)が実行される。そして、この似顔絵
バーコードが背景合成された似顔絵と合成されるのであ
る。
Next, the image barcode synthesizing means 306 creates image data obtained by synthesizing the background synthesized image and the barcode (step 4808). That is,
Prior to that, in the part code coupling means 304,
Component selection processing (5002), placement exaggeration processing (500
3) and a code linking process (50) for generating a portrait code by linking the component code, the arrangement code, and the background code used in the background component synthesizing process (5004).
05), and the encoding means 305 executes a code conversion process (5006) from the portrait code to the portrait barcode. Then, the portrait bar code is combined with the portrait combined with the background.

【0256】このように、この第4の実施の形態に係る
簡易作成機能付きの似顔絵作成方法及び装置によれば、
実際の顔画像から自動的に誇張して作成された似顔絵を
用いつつも、これに適宜に背景部品を取り付けて変装シ
ミュレーションを行うことにより、より一層興趣に富ん
だ似顔絵を作成することができ、しかも、似顔絵のハー
ドコピーに付されたバーコードを装置に読み込まれるこ
とにより、気に入った顔写真から作成された似顔絵画像
を何度も繰り返して簡単に作成することができる。
As described above, according to the portrait creating method and apparatus with the simple creating function according to the fourth embodiment,
While using a portrait created by automatically exaggerating the actual face image, by appropriately attaching background components to it and performing a disguise simulation, it is possible to create a more interesting portrait, Moreover, by reading the barcode attached to the hard copy of the portrait into the apparatus, a portrait image created from a favorite face photograph can be repeatedly and easily created.

【0257】なお、以上の第1、第2、第3、並びに、
第4の実施の形態において、図1、図20、図40、並
びに、図45に示される各機能実現手段は、コンピュー
タプログラムにて実現することができ、その際に、その
ようなコンピュータプログラムはフロッピーディスク、
CD、DVD等の可搬型記憶媒体に格納されて提供さ
れ、また一般にコンピュータの補助記憶装置(ハードデ
ィスク等)にインストールされて実行されるであろう。
The above first, second, third, and
In the fourth embodiment, each function realizing means shown in FIG. 1, FIG. 20, FIG. 40, and FIG. 45 can be realized by a computer program. floppy disk,
It will be provided stored in a portable storage medium such as a CD or DVD, and will generally be installed and executed in an auxiliary storage device (such as a hard disk) of a computer.

【0258】[0258]

【発明の効果】以上の説明から明らかなように、本発明
によれば、似顔絵の本質的特徴である誇張した顔画像を
自動的に作成することができる。また、本発明によれ
ば、似顔絵の合成に必要とされる顔部品の量を節減する
ことができる。
As is apparent from the above description, according to the present invention, an exaggerated face image, which is an essential feature of a portrait, can be automatically created. Further, according to the present invention, it is possible to reduce the amount of face parts required for synthesizing a portrait.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態に係る顔画像作成装
置の全体構成を示すブロック図である。
FIG. 1 is a block diagram illustrating an overall configuration of a face image creation device according to a first embodiment of the present invention.

【図2】本発明の第1の実施の形態に係る顔画像作成装
置の動作を概略的に示すフローチャートである。
FIG. 2 is a flowchart schematically showing an operation of the face image creating device according to the first embodiment of the present invention.

【図3】本発明の第1の実施の形態に係る顔画像作成装
置において、顔の特徴点を説明するための図である。
FIG. 3 is a view for explaining feature points of the face in the face image creating apparatus according to the first embodiment of the present invention.

【図4】本発明の第1の実施の形態に係る顔画像作成装
置において、目の特徴量の抽出方法を説明するための図
である。
FIG. 4 is a diagram for explaining a method of extracting an eye feature amount in the face image creating apparatus according to the first embodiment of the present invention.

【図5】本発明の第1の実施の形態に係る顔画像作成装
置において、口の特徴量の抽出方法を説明するための図
である。
FIG. 5 is a diagram for explaining a method of extracting a feature amount of a mouth in the face image creating device according to the first embodiment of the present invention.

【図6】本発明の第1の実施の形態に係る顔画像作成装
置において、眉の特徴量の抽出方法を説明するための図
である。
FIG. 6 is a diagram illustrating a method for extracting a feature amount of eyebrows in the face image creating device according to the first embodiment of the present invention.

【図7】本発明の第1の実施の形態に係る顔画像作成装
置において、特徴量抽出手段から他の手段へ出力される
データの構造を示すための図である。
FIG. 7 is a diagram showing a structure of data output from a feature amount extracting unit to another unit in the face image creating apparatus according to the first embodiment of the present invention.

【図8】本発明の第1の実施の形態に係る顔画像作成装
置において、特徴量データベースの各データの構造を示
す図である。
FIG. 8 is a diagram showing a structure of each data of a feature amount database in the face image creating device according to the first embodiment of the present invention.

【図9】本発明の第1の実施の形態に係る顔画像作成装
置において、非線形関数作成手段の構成を説明するため
のフローチャートである。
FIG. 9 is a flowchart for explaining a configuration of a nonlinear function creating unit in the face image creating apparatus according to the first embodiment of the present invention.

【図10】本発明の第1の実施の形態に係る顔画像作成
装置において、非線形関数の入出力特性の一例を説明す
るためのグラフである。
FIG. 10 is a graph for explaining an example of input / output characteristics of a nonlinear function in the face image creating device according to the first embodiment of the present invention.

【図11】本発明の第1の実施の形態に係る顔画像作成
装置において、ファジイ推論ルールを説明するための図
である。
FIG. 11 is a diagram for explaining a fuzzy inference rule in the face image creating device according to the first embodiment of the present invention.

【図12】本発明の第1の実施の形態に係る顔画像作成
装置において、選択用特徴量に対する境界を説明するた
めの図である。
FIG. 12 is a diagram for explaining a boundary with respect to a feature for selection in the face image creating apparatus according to the first embodiment of the present invention.

【図13】本発明の第1の実施の形態に係る顔画像作成
装置において、部品配置手段の構成を説明するためのフ
ローチャートである。
FIG. 13 is a flowchart illustrating a configuration of a component arranging unit in the face image creating device according to the first embodiment of the present invention.

【図14】本発明の第1の実施の形態に係る顔画像作成
装置において、顔部品の配置方法を説明するための図で
ある。
FIG. 14 is a diagram for explaining a method of arranging face parts in the face image creating apparatus according to the first embodiment of the present invention.

【図15】本発明の第1の実施の形態に係る顔画像作成
装置において、顔部品配置における顔部品代表点の位置
を示す図である。
FIG. 15 is a diagram showing a position of a face part representative point in a face part arrangement in the face image creation device according to the first embodiment of the present invention.

【図16】本発明の第1の実施の形態に係る顔画像作成
装置において、無地の全体顔画像の一例を説明するため
の図である。
FIG. 16 is a diagram for explaining an example of a plain whole face image in the face image creation device according to the first embodiment of the present invention.

【図17】本発明の第1の実施の形態に係る顔画像作成
装置において、出力画像の幾つかの例を示す図である。
FIG. 17 is a diagram showing some examples of output images in the face image creation device according to the first embodiment of the present invention.

【図18】本発明の第1の実施の形態に係る顔画像作成
装置において、出力画像の幾つかの例を示す図である。
FIG. 18 is a diagram illustrating some examples of output images in the face image creation device according to the first embodiment of the present invention.

【図19】本発明の第1の実施の形態に係る顔画像作成
装置において、テンプレートマッチングによる特徴点抽
出結果の一例を示す図である。
FIG. 19 is a diagram showing an example of a feature point extraction result by template matching in the face image creation device according to the first embodiment of the present invention.

【図20】本発明の第2の実施の形態に係る顔画像作成
装置の全体構成を示すブロック図である。
FIG. 20 is a block diagram showing an overall configuration of a face image creation device according to a second embodiment of the present invention.

【図21】本発明の第2の実施の形態に係る顔画像作成
装置の動作を概略的に示すフローチャートである。
FIG. 21 is a flowchart schematically showing an operation of the face image creating device according to the second embodiment of the present invention.

【図22】本発明の第2の実施の形態に係る顔画像作成
装置において、顔の特徴点を説明するための図である。
FIG. 22 is a diagram for describing feature points of a face in the face image creating device according to the second embodiment of the present invention.

【図23】本発明の第2の実施の形態に係る顔画像作成
装置において、目の特徴量の抽出方法を説明するための
図である。
FIG. 23 is a diagram for explaining a method of extracting an eye feature amount in the face image creating device according to the second embodiment of the present invention.

【図24】本発明の第2の実施の形態に係る顔画像作成
装置において、口の特徴量の抽出方法を説明するための
図である。
FIG. 24 is a diagram for explaining a method for extracting a feature amount of a mouth in the face image creating device according to the second embodiment of the present invention.

【図25】本発明の第2の実施の形態に係る顔画像作成
装置において、眉の特徴量の抽出方法を説明するための
図である。
FIG. 25 is a diagram for explaining a method of extracting a feature amount of eyebrows in the face image creating device according to the second embodiment of the present invention.

【図26】本発明の第2の実施の形態に係る顔画像作成
装置において、特徴量抽出手段から他の手段へ出力され
るデータの構造を示すための図である。
FIG. 26 is a diagram showing a structure of data output from a feature amount extracting unit to another unit in the face image creating apparatus according to the second embodiment of the present invention.

【図27】本発明の第2の実施の形態に係る顔画像作成
装置において、特徴量データベースの各データの構造を
示す図である。
FIG. 27 is a diagram showing a structure of each data of a feature amount database in the face image creating device according to the second embodiment of the present invention.

【図28】本発明の第2の実施の形態に係る顔画像作成
装置において、部品誇張用非線形関数作成手段(非線形
関数がファジイルール表現の場合)の構成を説明するた
めのフローチャートである。
FIG. 28 is a flowchart illustrating a configuration of a component exaggeration nonlinear function creating unit (when the nonlinear function is a fuzzy rule expression) in the face image creating apparatus according to the second embodiment of the present invention.

【図29】本発明の第2の実施の形態に係る顔画像作成
装置において、部品誇張用非線形関数作成手段(非線形
関数が数式表現の場合)の構成を説明するためのフロー
チャートである。
FIG. 29 is a flowchart illustrating a configuration of a component exaggeration nonlinear function creating unit (when the nonlinear function is expressed by a mathematical expression) in the face image creating apparatus according to the second embodiment of the present invention.

【図30】本発明の第2の実施の形態に係る顔画像作成
装置において、配置誇張用非線形関数作成手段(非線形
関数がファジイルール表現の場合)の構成を説明するた
めのフローチャートである。
FIG. 30 is a flowchart for explaining a configuration of a layout exaggeration nonlinear function creating unit (when the nonlinear function is a fuzzy rule expression) in the face image creating apparatus according to the second embodiment of the present invention.

【図31】本発明の第2の実施の形態に係る顔画像作成
装置において、配置誇張用非線形関数作成手段(非線形
関数が数式表現の場合)の構成を説明するためのフロー
チャートである。
FIG. 31 is a flowchart illustrating a configuration of a layout exaggeration nonlinear function creating unit (when the nonlinear function is expressed by a mathematical expression) in the face image creating apparatus according to the second embodiment of the present invention.

【図32】本発明の第2の実施の形態に係る顔画像作成
装置において、非線形関数の一例を説明するための図で
ある。
FIG. 32 is a diagram illustrating an example of a nonlinear function in the face image creating device according to the second embodiment of the present invention.

【図33】本発明の第2の実施の形態に係る顔画像作成
装置において、非線形関数の他の一例を説明するための
図である。
FIG. 33 is a diagram for explaining another example of the nonlinear function in the face image creating device according to the second embodiment of the present invention.

【図34】本発明の第2の実施の形態に係る顔画像作成
装置において、部品誇張のためのファジイルールの一例
を説明するための図である。
FIG. 34 is a diagram illustrating an example of a fuzzy rule for exaggerating parts in the face image creating apparatus according to the second embodiment of the present invention.

【図35】本発明の第2の実施の形態に係る顔画像作成
装置において、配置誇張のためのファジイルールの一例
を説明するための図である。
FIG. 35 is a diagram for explaining an example of a fuzzy rule for layout exaggeration in the face image creation device according to the second embodiment of the present invention.

【図36】本発明の第2の実施の形態に係る顔画像作成
装置において、部品誇張手段の構成を説明するためのフ
ローチャートである。
FIG. 36 is a flowchart for describing a configuration of a component exaggeration unit in the face image creation device according to the second embodiment of the present invention.

【図37】本発明の第2の実施の形態に係る顔画像作成
装置において、部品配置手段の構成を説明するためのフ
ローチャートである。
FIG. 37 is a flowchart for explaining a configuration of a component arranging unit in the face image creating apparatus according to the second embodiment of the present invention.

【図38】本発明の第2の実施の形態に係る顔画像作成
装置において、顔部品の配置方法を説明するための図で
ある。
FIG. 38 is a diagram for explaining a method of arranging face parts in the face image creating apparatus according to the second embodiment of the present invention.

【図39】本発明の第2の実施の形態に係る顔画像作成
装置において、顔部品配置における顔部品代表点の位置
を示す図である。
FIG. 39 is a diagram showing the position of a face part representative point in the face part arrangement in the face image creation device according to the second embodiment of the present invention.

【図40】本発明の第3の実施の形態に係る顔画像作成
装置の全体構成を示すブロック図である。
FIG. 40 is a block diagram showing an overall configuration of a face image creation device according to a third embodiment of the present invention.

【図41】本発明の第3の実施の形態に係る顔画像作成
装置の動作を概略的に示すフローチャートである。
FIG. 41 is a flowchart schematically showing an operation of the face image creating device according to the third embodiment of the present invention.

【図42】本発明の第3の実施の形態に係る画像合成処
理の詳細を示すフローチャートである。
FIG. 42 is a flowchart illustrating details of image synthesis processing according to the third embodiment of the present invention.

【図43】本発明の第3の実施の形態に係る顔画像作成
装置において、背景部品とその基準点の関係を説明する
ための図である。
FIG. 43 is a diagram for explaining a relationship between a background component and its reference point in the face image creation device according to the third embodiment of the present invention.

【図44】本発明の第3の実施の形態に係る顔画像作成
装置において、顔部品の基準点を説明するための図であ
る。
FIG. 44 is a diagram for describing reference points of face parts in the face image creation device according to the third embodiment of the present invention.

【図45】本発明の第4の実施の形態に係る顔画像作成
装置の全体構成を示すブロック図である。
FIG. 45 is a block diagram showing an overall configuration of a face image creation device according to a fourth embodiment of the present invention.

【図46】本発明の第4の実施の形態に係る顔画像作成
装置の動作を概略的に示すフローチャートである。
FIG. 46 is a flowchart schematically showing an operation of the face image creating device according to the fourth embodiment of the present invention.

【図47】本発明の第4の実施の形態に係る写真からの
似顔絵作成処理の詳細を示すフローチャートである。
FIG. 47 is a flowchart illustrating details of a portrait creation process from a photograph according to the fourth embodiment of the present invention.

【図48】本発明の第4の実施の形態に係るバーコード
からの似顔絵作成処理の詳細を示すフローチャートであ
る。
FIG. 48 is a flowchart illustrating details of a process for creating a portrait from a barcode according to the fourth embodiment of the present invention.

【図49】本発明の第4の実施の形態に係る写真からの
似顔絵作成処理の処理工程の内容を説明するためのブロ
ック図である。
FIG. 49 is a block diagram for explaining the contents of processing steps of a portrait drawing creation process from a photograph according to the fourth embodiment of the present invention.

【図50】本発明の第4の実施の形態に係る似顔絵バー
コードからの似顔絵作成処理の処理工程の内容を説明す
るためのブロック図である。
FIG. 50 is a block diagram for explaining contents of processing steps of a portrait creation process from a portrait barcode according to the fourth embodiment of the present invention.

【図51】本発明の第4の実施の形態における目の部品
の場合の部品コードの内容を説明する図である。
FIG. 51 is a diagram illustrating the contents of a component code in the case of an eye component according to the fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 データ入力手段 2 画像入力手段 3 特徴量抽出手段 4 特徴量記憶手段 5 非線形関数作成手段 6 輪郭画像抽出手段 7 部品画像記憶手段 8 部品配置手段 9 顔画像出力手段 101 データ入力手段 102 画像入力手段 103 特徴量抽出手段 104 特徴量記憶手段 105 部品誇張用非線形関数作成手段 106 配置誇張用非線形関数作成手段 107 輪郭画像抽出手段 108 部品画像記憶手段 109 部品誇張手段 110 部品配置手段 111 顔画像出力手段 201 データ入力手段 202 似顔絵作成手段 203 部品画像記憶手段 204 選択メニュー記憶手段 205 画像合成手段 206 表示手段 207 印刷手段 301 似顔絵作成手段 302 背景画像合成手段 303 表示手段 304 部品コード連結手段 305 エンコード手段 306 画像バーコード合成手段 307 印刷手段 308 バーコード読み取り手段 309 デコード手段 310 バーコード 311 背景合成された似顔絵画像のハードコピー REFERENCE SIGNS LIST 1 data input means 2 image input means 3 feature quantity extraction means 4 feature quantity storage means 5 nonlinear function creation means 6 contour image extraction means 7 part image storage means 8 component placement means 9 face image output means 101 data input means 102 image input means 103 Feature Amount Extracting Means 104 Feature Amount Storage Means 105 Component Exaggeration Nonlinear Function Creation Means 106 Layout Exaggeration Nonlinear Function Creation Means 107 Contour Image Extraction Means 108 Component Image Storage Means 109 Component Exaggeration Means 110 Component Arrangement Means 111 Face Image Output Means 201 Data input means 202 Portrait creation means 203 Part image storage means 204 Selection menu storage means 205 Image synthesis means 206 Display means 207 Printing means 301 Portrait creation means 302 Background image synthesis means 303 Display means 304 Component code connection means 305 Encoding Hardcopy stage 306 image bar code synthesizing means 307 print unit 308 bar code reading means 309 decode unit 310 bar code 311 Background synthesized portrait image

フロントページの続き (72)発明者 川出 雅人 京都府京都市右京区花園土堂町10番地 オムロン株式会社内 (72)発明者 石田 勉 京都府京都市右京区花園土堂町10番地 オムロン株式会社内 (72)発明者 田坂 吉朗 京都府京都市右京区花園土堂町10番地 オムロン株式会社内 (56)参考文献 特開 平7−239945(JP,A) 特開 平7−85240(JP,A) 特開 平6−324670(JP,A) 特開 平4−360276(JP,A) 特開 平7−129787(JP,A) 特開 平9−161058(JP,A) 特開 平9−161086(JP,A) 錯視を用いた似顔絵生成システム P ICASSO について 村上和人 輿 水大和 中山晶 福村晃夫 情報処理学 会論文誌 Vol.34 Number10 P.2106−2116 平成5年10月15日発 行 (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 280 G06T 11/80 特許ファイル(PATOLIS) JICSTファイル(JOIS)Continuing on the front page (72) Inventor Masato Kawade 10th Hanazono Todocho, Ukyo-ku, Kyoto-shi, Kyoto, Japan (72) Inventor Tsutomu Ishida 10th Hanazono-Todocho, Ukyo-ku, Kyoto-shi, Kyoto Omron Corporation ( 72) Inventor Yoshiro Tasaka 10 Okado Dodocho, Ukyo-ku, Kyoto-shi, Japan OMRON Corporation (56) References JP-A-7-239945 (JP, A) JP-A-7-85240 (JP, A) JP-A-6-324670 (JP, A) JP-A-4-360276 (JP, A) JP-A-7-129787 (JP, A) JP-A 9-161058 (JP, A) JP-A 9-161086 (JP) , A) Caricature generation system using optical illusion P ICASSO Kazuto Murakami Koshi Miki Yamato Akira Nakayama Akio Fukumura Transactions of the Information Processing Society of Japan Vol. 34 Number 10 P.E. 2106-2116 Published October 15, 1993 (58) Fields investigated (Int. Cl. 7 , DB name) G06T 1/00 280 G06T 11/80 Patent file (PATOLIS) JICST file (JOIS)

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 顔画像を入力するための顔画像入力手段
と、 前記顔画像入力手段から入力された顔画像を解析して顔
部品の形状及び配置に関する特徴量である顔特徴量を抽
出する顔特徴量抽出手段と、 予め各顔部品の種類毎に用意された複数の顔部品データ
を記憶しておくための顔部品データ記憶手段と、 前記顔部品データ記憶手段から、前記顔部品の形状に関
する特徴量を用いて、その形状特徴量に該当する顔部品
データを各顔部品の種類毎に抽出する顔部品データ抽出
手段と、 前記抽出した顔部品データで表現される顔部品を配置す
る位置の変更を制御する変更パラメータを入力するため
の変更パラメータ入力手段と、 前記変更パラメータに基づいて前記顔特徴量の中の顔部
品の配置特徴量を修正して、前記顔部品データ抽出手段
で抽出した顔部品データに対応する顔部品パターンを前
記修正した配置特徴量で示される位置に配置する顔部品
配置手段と、 を具備することを特徴とする似顔絵作成装置。
1. A face image input means for inputting a face image, and a face image input from the face image input means is analyzed to extract a face feature quantity which is a feature quantity related to a shape and an arrangement of a face part. A face feature amount extraction unit, a face part data storage unit for storing a plurality of face part data prepared in advance for each type of face part, and a shape of the face part from the face part data storage unit. Face part data extraction means for extracting face part data corresponding to the shape feature amount for each type of face part by using the feature amount related to the shape feature amount, and a position for arranging the face part represented by the extracted face part data A change parameter input means for inputting a change parameter for controlling the change of the face part; correcting the arrangement feature amount of the face part in the face feature amount based on the change parameter; Portrait creation device, characterized by comprising: a face component placement unit, the a face part patterns corresponding to the face component data the position indicated by the arrangement feature quantities said modified.
【請求項2】 前記変更パラメータは、似顔絵作成対象
人物の性別情報及び/又は似顔絵作成対象人物が成人か
否かの情報を含んでいる請求項1に記載の似顔絵作成装
置。
2. The portrait drawing apparatus according to claim 1, wherein the change parameter includes gender information of the portrait creation target person and / or information on whether the portrait creation target person is an adult.
【請求項3】 与えられた顔画像を解析して顔部品の形
状及び配置に関する特徴量である顔特徴量を抽出する顔
特徴量抽出ステップと、 各顔部品の種類毎に予め記憶された複数の顔部品データ
の中から、前記顔部品の形状に関する特徴量を用いて、
その形状特徴量に該当する顔部品データを各顔部品の種
類毎に抽出する顔部品データ抽出ステップと、 前記抽出した顔部品データで表現される顔部品を配置す
る位置の変更を制御する変更パラメータを入力する変更
パラメータ入力ステップと、 前記入力された変更パラメータに基づいて前記顔特徴量
の中の顔部品の配置特徴量を修正して、前記顔部品デー
タ抽出ステップで抽出した顔部品データに対応する顔部
品パターンを前記修正した配置特徴量で示される位置に
配置する顔部品配置ステップと、 を具備することを特徴とする似顔絵作成方法。
3. A face feature amount extraction step of analyzing a given face image to extract a face feature amount that is a feature amount related to the shape and arrangement of the face part, and a plurality of face feature amounts stored in advance for each type of face part. From among the face part data of the above, using a feature amount related to the shape of the face part,
A face part data extraction step of extracting face part data corresponding to the shape feature amount for each type of face part; and a change parameter for controlling a change of a position at which a face part represented by the extracted face part data is arranged. Inputting a change parameter, and correcting the arrangement feature of the face part in the face feature based on the input change parameter to correspond to the face part data extracted in the face part data extraction step. And a face part arranging step of arranging the face part pattern to be arranged at a position indicated by the corrected arrangement feature amount.
【請求項4】 前記変更パラメータは、似顔絵作成対象
人物の性別又は似顔絵作成対象者が成人か否かの情報を
含んでいる請求項3に記載の似顔絵作成方法。
4. The portrait drawing method according to claim 3, wherein the change parameter includes information on the sex of the portrait creation target person or information on whether the portrait creation target person is an adult.
【請求項5】 顔画像を入力するための顔画像入力手段
と、 前記入力された顔画像から顔部品の特徴量を抽出する顔
部品特徴量抽出手段と、 予め各顔部品の種類毎に用意された複数の顔部品データ
を記憶しておくための顔部品データ記憶手段と、 前記顔部品データ記憶手段から、似顔絵作成において使
用される顔部品データを各顔部品の種類毎に抽出する顔
部品抽出手段と、 前記抽出された顔部品データで表現される顔部品の大き
さ又は形状を前記顔部品の特徴量に基づいて修正するた
めの相関を生成する相関生成手段と、 前記顔部品データ記憶手段から読み出した顔部品データ
の大きさ又は形状を前記相関によって修正して得た顔部
品を用いて似顔絵を合成する似顔絵合成手段と、 を具備することを特徴とする似顔絵作成装置。
5. A face image input means for inputting a face image; a face part feature quantity extraction means for extracting feature quantities of face parts from the input face image; Face part data storage means for storing a plurality of pieces of face part data obtained, and a face part for extracting face part data used in creating a portrait for each type of face part from the face part data storage means Extraction means; correlation generation means for generating a correlation for correcting the size or shape of the face part represented by the extracted face part data based on the feature amount of the face part; and storing the face part data. A portrait synthesizing means for synthesizing a portrait using a facial part obtained by correcting the size or shape of the facial part data read from the means by the correlation.
【請求項6】 前記相関生成手段は、似顔絵作成対象人
物の性別又は成人か否かの情報に基づいて相関を生成す
るものである、請求項5に記載の似顔絵作成装置。
6. The portrait drawing apparatus according to claim 5, wherein the correlation generation section generates a correlation based on the gender of the portrait creation target person or information on whether or not the person is an adult.
【請求項7】 顔画像を入力するための顔画像入力手段
と、 前記入力された顔画像を解析して、顔部品の形状及び配
置に関する特徴量である顔特徴量を抽出する顔特徴量抽
出手段と、 予め各顔部品の種類毎に用意された複数の顔部品データ
を記憶しておくための顔部品データ記憶手段と、 前記顔部品データ記憶手段から似顔絵において使用する
顔部品データを選択する際に用いられるパラメータを入
力するパラメータ入力手段と、 似顔絵において使用する顔部品データを、前記パラメー
タに基づいて、前記顔部品データ記憶手段から顔部品の
種類毎に抽出する顔部品抽出手段と、 前記抽出された顔部品データで表現される顔部品の大き
さ又は形状を、前記顔部品の形状に関する特徴量に基づ
いて修正する顔部品修正手段と、 前記顔部品修正手段によって修正して得られる顔部品
を、前記配置に関する特徴量に基づき配置して似顔絵を
合成する似顔絵合成手段と、 を具備する似顔絵作成装置。
7. A face image input unit for inputting a face image, and a face feature amount extraction unit that analyzes the input face image and extracts a face feature amount that is a feature amount related to the shape and arrangement of a face part. Means, face part data storage means for storing a plurality of face part data prepared in advance for each type of face part, and selecting face part data to be used in the portrait from the face part data storage means. Parameter input means for inputting parameters used in the process, face part data to be used in a portrait, face part extraction means for extracting each face part type from the face part data storage means based on the parameters, A face part correction unit configured to correct the size or shape of the face part represented by the extracted face part data based on a feature amount related to the shape of the face part; A portrait synthesizing means for arranging a facial part obtained by the correction means based on the feature amount related to the arrangement and synthesizing a portrait.
【請求項8】 与えられた顔画像を解析して顔部品の特
徴量を抽出する顔部品特徴量抽出ステップと、 各顔部品の種類毎に予め用意され記憶された複数の顔部
品データの中から、似顔絵作成において使用される顔部
品データを各顔部品の種類毎に抽出する顔部データ品抽
出ステップと、 前記抽出した顔部品データで表現される顔部品の大きさ
又は形状を前記顔部品の特徴量に基づいて修正するため
の相関を生成する相関生成ステップと、 前記抽出した顔部品データで表現される顔部品の大きさ
又は形状を前記相関によって修正して得た顔部品を用い
て似顔絵を合成する似顔絵合成ステップと、 を具備する、ことを特徴とする似顔絵作成方法。
8. A face part feature amount extracting step of analyzing a given face image to extract a feature amount of the face part, and a plurality of face part data prepared and stored in advance for each type of face part. A face part data product extraction step of extracting face part data used in portrait creation for each type of face part; and determining the size or shape of the face part represented by the extracted face part data by the face part Using a face part obtained by correcting the size or shape of the face part expressed by the extracted face part data by the correlation, A portrait creating method, comprising: a portrait synthesizing step of synthesizing a portrait.
【請求項9】 前記相関生成ステップは、似顔絵作成対
象人物の性別又は成人か否かの情報に基づいて相関が生
成されるものである、請求項8に記載の似顔絵作成方
法。
9. The portrait drawing method according to claim 8, wherein in the correlation generation step, a correlation is generated based on the sex of the portrait creation target person or information on whether or not the portrait is an adult.
【請求項10】 似顔絵作成対象となる顔画像を入力す
る顔画像入力ステップと、 前記入力された顔画像を解析して、顔部品の形状及び配
置に関する特徴量である顔特徴量を抽出する顔特徴量抽
出ステップと、 予め各顔部品の種類毎に用意された複数の顔部品データ
から似顔絵において使用される顔部品データを選択する
際に用いられるパラメータを入力するパラメータ入力ス
テップと、 前記予め用意された複数の顔部品データから似顔絵にお
いて使用される顔部品データを、前記パラメータに基づ
いて、各顔部品の種類毎に抽出する顔部品抽出ステップ
と、 前記抽出された顔部品データで表現される顔部品の大き
さ又は形状を、前記顔部品の形状に関する特徴量に基づ
いて修正する顔部品修正ステップと、 前記顔部品修正ステップによって修正して得られる顔部
品を、前記配置に関する特徴量に基づき配置して似顔絵
を合成する似顔絵合成ステップと、 を具備することを特徴とする似顔絵作成方法。
10. A face image inputting step of inputting a face image for which a portrait is to be created, and a face for analyzing the input face image to extract a face feature quantity which is a feature quantity related to the shape and arrangement of the face part. A feature amount extracting step; a parameter inputting step of inputting a parameter used when selecting face part data to be used in a portrait from a plurality of face part data prepared in advance for each type of face part; A face part extraction step of extracting face part data to be used in a portrait from the plurality of pieces of face part data based on the parameters based on the parameters; A face part correction step of correcting the size or shape of the face part based on a feature amount related to the shape of the face part; Composite picture editing method characterized by comprising a face part obtained by modifying, with the portrait synthesis step of synthesizing a portrait arranged based on the feature quantity relating to the arrangement, the.
JP09050928A 1996-03-25 1997-02-18 Portrait making method and device Expired - Lifetime JP3139617B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09050928A JP3139617B2 (en) 1996-03-25 1997-02-18 Portrait making method and device

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP9487296 1996-03-25
JP8-94872 1997-01-13
JP1589097 1997-01-13
JP9-15890 1997-01-13
JP09050928A JP3139617B2 (en) 1996-03-25 1997-02-18 Portrait making method and device

Publications (2)

Publication Number Publication Date
JPH10255017A JPH10255017A (en) 1998-09-25
JP3139617B2 true JP3139617B2 (en) 2001-03-05

Family

ID=27281183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09050928A Expired - Lifetime JP3139617B2 (en) 1996-03-25 1997-02-18 Portrait making method and device

Country Status (1)

Country Link
JP (1) JP3139617B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357389A (en) * 2000-06-12 2001-12-26 Topcon Corp Spectacles frame selection service system and its program recording medium
JP2002175538A (en) * 2000-12-08 2002-06-21 Mitsubishi Electric Corp Device and method for portrait generation, recording medium with portrait generating program recorded thereon, terminal for communication, and communication method by terminal for communication
JP3842073B2 (en) * 2001-05-25 2006-11-08 シャープ株式会社 Image processing apparatus, image processing program, and recording medium recording image processing program
JP2003296713A (en) 2002-04-04 2003-10-17 Mitsubishi Electric Corp Device and method for synthesizing facial images, communication terminal provided with program for performing the method and facial image synthesizing device and communicating method by the communication terminal
JP4449723B2 (en) 2004-12-08 2010-04-14 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2011090466A (en) 2009-10-21 2011-05-06 Sony Corp Information processing apparatus, method, and program
JP2014048767A (en) * 2012-08-30 2014-03-17 Casio Comput Co Ltd Image generating device, image generating method, and program
JP7110966B2 (en) 2018-12-13 2022-08-02 トヨタ自動車株式会社 Display control device and display control program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
錯視を用いた似顔絵生成システム PICASSO について 村上和人 輿水大和 中山晶 福村晃夫 情報処理学会論文誌 Vol.34 Number10 P.2106−2116 平成5年10月15日発行

Also Published As

Publication number Publication date
JPH10255017A (en) 1998-09-25

Similar Documents

Publication Publication Date Title
US7082211B2 (en) Method and system for enhancing portrait images
TWI325567B (en) Method and system for enhancing portrait images that are processed in a batch mode
US7764828B2 (en) Method, apparatus, and computer program for processing image
EP0950988A2 (en) Three-Dimensional image generating apparatus
US20070127844A1 (en) Image processing apparatus, image processing method, program, and data configuration
US8965125B2 (en) Image processing device, method and storage medium for storing and displaying an electronic document
US20070071319A1 (en) Method, apparatus, and program for dividing images
JP2010507854A (en) Method and apparatus for virtual simulation of video image sequence
EA000271B1 (en) Method and apparatus for processing a table
JP3139617B2 (en) Portrait making method and device
JP3444148B2 (en) Eyebrow drawing method
JP2000011144A (en) Eyebrow deformation system
JP5569504B2 (en) Image processing apparatus, image processing method, and program
KR20020014844A (en) Three dimensional face modeling method
JP2008171248A (en) Two dimensional code preparation system
JPH11175765A (en) Method and device for generating three-dimensional model and storage medium
JP2009033249A (en) Image processing device, image processing method, and computer program
JP3543152B2 (en) Image creation apparatus and image creation method
KR100618493B1 (en) The Apparatus and Method for Creating Three-Dimensional Image Automatically
JP2979718B2 (en) Child caricature creation device
JP3345808B2 (en) Method and apparatus for displaying a three-dimensional shape model
JP2002208024A (en) Method and device for generating agent character animation dataset, and recording medium recorded with generation program
JPH10105673A (en) Device and method for preparing portrait image
KR20020015229A (en) Retargetting method and apparatus for facial expression of caricature
JPH11203456A (en) Image forming device, its method and recording medium

Legal Events

Date Code Title Description
S211 Written request for registration of transfer of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314213

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081215

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081215

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081215

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081215

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091215

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101215

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101215

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121215

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121215

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131215

Year of fee payment: 13

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term