JP3478255B2 - Face image creation device and face image creation control method - Google Patents

Face image creation device and face image creation control method

Info

Publication number
JP3478255B2
JP3478255B2 JP2000232606A JP2000232606A JP3478255B2 JP 3478255 B2 JP3478255 B2 JP 3478255B2 JP 2000232606 A JP2000232606 A JP 2000232606A JP 2000232606 A JP2000232606 A JP 2000232606A JP 3478255 B2 JP3478255 B2 JP 3478255B2
Authority
JP
Japan
Prior art keywords
image
portrait
face
images
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000232606A
Other languages
Japanese (ja)
Other versions
JP2001076164A (en
Inventor
嘉行 村田
善登 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2000232606A priority Critical patent/JP3478255B2/en
Publication of JP2001076164A publication Critical patent/JP2001076164A/en
Application granted granted Critical
Publication of JP3478255B2 publication Critical patent/JP3478255B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Of Color Television Signals (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、顔画像作成装置および
顔画像作成制御方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a face image forming apparatus and a face image forming control method.

【0002】[0002]

【従来の技術】従来、顔画像を作成するには、例えばマ
イクロコンピュータを用いた図形表示装置を使用してお
り、この装置では、顔を構成する各パーツ(例えば、
目、眉、口等の部位)毎のパーツ画像を組み合せること
で、似顔絵顔画像を作成している。具体的には、髪型、
顔の輪郭、目、眉、鼻、口等の各パーツをそれぞれ複数
種類ビットマップ画像として記憶しているパーツメモリ
を備え、この個々のパーツ画像をキー入力操作により選
択的に呼び出して表示部に合成表示させ、任意の似顔絵
画像を作成している。
2. Description of the Related Art Conventionally, a graphic display device using, for example, a microcomputer is used to create a face image. In this device, each part (eg,
A portrait image is created by combining parts images for each part (eye, eyebrow, mouth, etc.). Specifically, hairstyle,
It has a parts memory that stores each type of face contour, eyes, eyebrows, nose, mouth, etc. as multiple types of bitmap images.The individual part images are selectively called by key input operation and displayed on the display. An arbitrary portrait image is created by synthesizing and displaying.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
図形表示装置で顔画像を作成する場合、パーツメモリに
予め記憶されているパーツ画像の種類が少ないと、実物
の顔と近似した似顔絵画像が作成できないという問題点
がある。そのため、例えば上記パーツメモリにおける各
パーツそれぞれの画像の種類を多く持たせることで、実
物の顔と近似した似顔絵画像を作成することができるよ
うにすることも行われているが、あまりにパーツ画像の
種類が多くなると、各パーツ画像を選択するのに非常に
手間がかかったり、近似した複数画像のうちの1つを適
切な画像として判断するのが困難であった。
However, in the case of creating a face image with the conventional graphic display device, if there are few kinds of the part images stored in the parts memory in advance, a portrait image similar to the actual face is created. There is a problem that you cannot do it. Therefore, for example, it is also possible to create a portrait image that is similar to the actual face by giving many types of images for each part in the parts memory, but too many parts images are created. As the number of types increases, it takes a lot of time to select each part image, and it is difficult to determine one of the approximated plural images as an appropriate image.

【0004】一方、このような課題を解決するものとし
て、本発明の出願人は近似した複数のパーツ画像の中か
ら1つを適切なパーツ画像として判断する技術を先に提
案している(特開平6−187410号公報)。この技
術では入力された顔画像の各部位を表す画像部分または
部分画像と、パーツメモリに予め記憶しておいた各部位
毎の複数種類のパーツ画像とをそれぞれ照合し、例えば
画像一致度が最も高い各部位毎のパーツ画像を選択して
組み合せて合成することにより、実物の顔と近似した似
顔絵画像を作成するようにしている。しかしながら、こ
の方法ではこのようにして作成された似顔絵画像を構成
している各パーツ画像は、機械的かつ自動的に一義的に
予め定まられたパーツ画像が選択されてしまうため、よ
り実物の顔に近似した似顔絵画像を作成することはでき
なかった。
On the other hand, in order to solve such a problem, the applicant of the present invention has previously proposed a technique of judging one of a plurality of similar parts images as an appropriate parts image (special feature). Kaihei 6-187410). In this technique, an image portion or a partial image representing each part of the input face image is collated with a plurality of types of part images stored in the part memory in advance, and for example, the image matching degree is the highest. By selecting and combining the parts images of each high part and combining them, a portrait image similar to the actual face is created. However, in this method, each of the part images that make up the portrait image created in this way is mechanically and automatically uniquely selected, so that a more realistic face is selected. It was not possible to create a caricature image close to.

【0005】そこで本発明は、パーツ画像の選択操作に
手間がかかることがなく、実物の顔と非常に似ている似
顔絵画像を容易かつ迅速に作成することができるととも
に、作成された似顔絵画像と個人に関するデータとを迅
速かつ確実に確認することができる顔画像作成装置およ
び顔画像作成制御方法を提供することを目的としてい
る。
[0005] The present invention, without laborious to selection operation of the part image, when a portrait image is very similar to the real face can be produced easily and rapidly Tomo
Quickly create the created portrait image and personal data.
A face image creation device that enables quick and reliable confirmation and
And a face image creation control method .

【0006】[0006]

【課題を解決するための手段】こうした目的達成のた
め、本発明は次の構成を備えていることを特徴とする。
請求項1記載の本発明による顔画像作成装置は、顔画像
を記憶する顔画像記憶手段と、この顔画像記憶手段に記
憶されている顔画像に対応する個人に関するデータを記
憶する個人データ記憶手段と、顔を構成する髪,目,
鼻,口等の各部位毎に複数種類のパーツ画像を記憶して
いるパーツ画像記憶手段と、このパーツ画像記憶手段に
記憶されている複数種類のパーツ画像と前記顔画像記憶
手段に記憶されている顔画像の各部位の画像部分とを各
部位毎に照合する照合手段と、この照合手段による照合
結果に応じて、前記パーツ画像記憶手段に記憶されてい
る各部位毎のパーツ画像を組み合せて、前記顔画像に対
応した第1の似顔絵画像を作成する第1の似顔絵作成手
段と、この第1の似顔絵作成手段により作成された第1
の似顔絵画像を構成する各パーツ画像のうちの少なくと
も一部のパーツ画像を前記パーツ画像記憶手段に記憶さ
れている他のパーツ画像と置き換え、この置き換えられ
た他のパーツ画像と置き換えられていないパーツ画像と
を組み合せて、第2の似顔絵画像を作成する第2の似顔
絵作成手段と、この第2の似顔絵作成手段により作成さ
れた第2の似顔絵画像と当該第2の似顔絵画像の作成の
ために照合された前記顔画像に対応する個人に関するデ
ータとを対応付けて表示するように制御する表示制御手
段と、を具備したことを特徴とする。
To achieve these objects, the present invention is characterized by having the following constitution.
A face image creating apparatus according to the present invention according to claim 1 stores face image storing means for storing a face image and the face image storing means.
Enter the data about the person corresponding to the stored face image.
Memorizing personal data storage means and hair, eyes,
A parts image storage unit that stores a plurality of types of parts images for each part such as a nose and a mouth, a plurality of types of parts images stored in the parts image storage unit, and the face image storage unit A collating means for collating the image part of each part of the face image for each part, and a part image for each part stored in the part image storage means according to the matching result by the matching part. , A first portrait creation means for creating a first portrait image corresponding to the face image, and a first portrait created by the first portrait creation means.
Of at least a part of each of the part images forming the portrait image of the other part image is replaced with another part image stored in the part image storage means, and the part is not replaced with the replaced other part image. A second portrait creation means for creating a second portrait image by combining the image and the second portrait creation means.
Of the created second portrait image and the second portrait image
For the individual corresponding to the face image matched for
Display control hand that controls to display in association with the data
And a step .

【0007】また、請求項2記載の本発明による顔画像
作成装置は、顔画像を記憶する顔画像記憶手段と、この
顔画像記憶手段に記憶されている顔画像に対応する個人
に関するデータを記憶する個人データ記憶手段と、顔の
各部を構成する髪,目,鼻,口等の各部位毎に形状の異
なる複数種類のパーツ画像を記憶しているパーツ画像記
憶手段と、前記顔画像記憶手段に記憶された顔画像のう
ちの、少なくとも目、鼻、口に対応した部分画像と、こ
の少なくとも目、鼻、口の部位と同じ部位における、前
記パーツ画像記憶手段に記憶された複数種類のパーツ画
像とを照合し、その一致度を判断する照合手段と、この
照合手段による照合の結果、前記複数種類のパーツ画像
のうち、最も一致度の高いパーツ画像を各部位毎に前記
パーツ画像記憶手段から読み出し、この読み出された各
部位毎のパーツ画像を組み合せて、前記顔画像に対応し
た似顔絵画像を作成する第1の似顔絵作成手段と、この
第1の似顔絵作成手段により作成された第1の似顔絵画
像を構成する各パーツ画像のうちの、少なくとも一部の
パーツ画像を前記パーツ画像記憶手段に記憶されている
他のパーツ画像と置き換え、この置き換えられた他のパ
ーツ画像と置き換えられていないパーツ画像とを組み合
せて、第2の似顔絵画像を作成する第2の似顔絵作成手
段と、この第2の似顔絵作成手段により作成された第2
の似顔絵画像と当該第2の似顔絵画像の作成のために照
合された前記顔画像に対応する個人に関するデータとを
対応付けて表示するように制御する表示制御手段と、
具備したことを特徴とする。
[0007] The face image creation device according to the present invention according to claim 2, the face image storing means for storing a face image, the
An individual corresponding to a face image stored in the face image storage means
Personal data storage means for storing data relating to : a parts image storage means for storing a plurality of types of parts images having different shapes for each part of the face, such as hair, eyes, nose, mouth, and the like; Of the face images stored in the face image storage means, at least partial images corresponding to the eyes, nose, and mouth, and at least the same parts as the eyes, nose, and mouth parts are stored in the part image storage means. A collating unit that collates a plurality of types of part images and determines the degree of coincidence, and, as a result of collation by the collating unit, the part image with the highest degree of coincidence among the plurality of types of part images First portrait drawing means for creating a portrait image corresponding to the face image by combining the read out part images of the respective parts, and the first portrait creation At least a part of the part images constituting the first portrait image created by the step is replaced with another part image stored in the part image storage means, and the replaced other part image is replaced. A second portrait creation means for creating a second portrait image by combining the parts image and the parts image that has not been replaced, and a second portrait created by the second portrait creation means .
For creating the second portrait image and the second portrait image
Data about the individual corresponding to the combined face image
And a display control means for controlling the display in association with each other.

【0008】また、請求項3記載の本発明による顔画像
作成装置は、顔画像を記憶する顔画像記憶手段と、この
顔画像記憶手段に記憶されている顔画像に対応する個人
に関するデータを記憶する個人データ記憶手段と、前記
顔画像記憶手段に記憶された顔画像から顔の各部位毎に
画像部分を抽出して記憶するとともに、この抽出した画
像部分の各部位毎の位置データを記憶する第1の記憶手
段と、顔の各部位毎に複数種類のパーツ画像を記憶して
いる第2の記憶手段と、この第2の記憶手段に記憶され
ている複数種類のパーツ画像と前記顔画像記憶手段に記
憶されている顔画像の各部位の画像部分とを各部位毎に
照合する照合手段と、この照合手段による照合結果に基
づいて、前記第2の記憶手段に記憶された各部位毎のパ
ーツ画像を前記第1の記憶手段に記憶された位置データ
に対応した位置にそれぞれ配置し、この配置された各部
位毎のパーツ画像を組み合せて、前記顔画像に対応した
似顔絵画像を作成する第1の似顔絵作成手段と、この第
1の似顔絵作成手段により作成された第1の似顔絵画像
を構成する各パーツ画像のうちの、少なくとも一部のパ
ーツ画像を前記パーツ画像記憶手段に記憶されている他
のパーツ画像と置き換え、この置き換えられた他のパー
ツ画像と置き換えられていないパーツ画像とを組み合せ
て、第2の似顔絵画像を作成する第2の似顔絵作成手段
と、この第2の似顔絵作成手段により作成された第2の
似顔絵画像と当該第2の似顔絵画像の作成のために照合
された前記顔画像に対応する個人に関するデータとを対
応付けて表示するように制御する表示制御手段と、を備
えたことを特徴とする。
[0008] The face image creation device according to the present invention according to claim 3, the face image storing means for storing a face image, the
An individual corresponding to a face image stored in the face image storage means
Personal data storage means for storing data relating to the facial image, and image parts for each part of the face extracted and stored from the face image stored in the face image storage means. A first storage unit that stores position data for each part, a second storage unit that stores a plurality of types of parts images for each part of the face, and a plurality of units stored in the second storage unit. A collation unit that collates each type of part image with the image portion of each part of the face image stored in the face image storage unit, and the second storage based on the collation result by this collation unit. The part image for each part stored in the means is arranged at a position corresponding to the position data stored in the first storage means, and the part image for each part thus arranged is combined to obtain the face image. The portrait image corresponding to At least a part of the first portrait image creating means to be formed and each of the part images constituting the first portrait image created by the first portrait image creating means are stored in the part image storage means. And a second portrait image creating means for creating a second portrait image by replacing the replaced other part image with the replaced other part image and combining the replaced other part image with the non-replaced part image . The second created by the portrait creation means
Collate to create a portrait image and the second portrait image
The data related to the individual corresponding to the face image
Display control means for controlling so as to display in response to each other.

【0009】また、請求項4記載の本発明による顔画像
作成装置は、顔画像を記憶する顔画像記憶手段と、この
顔画像記憶手段に記憶されている顔画像に対応する個人
に関するデータを記憶する個人データ記憶手段と、顔の
構成要素を表わすパーツ画像を各部位毎に複数記憶して
いるパーツ記憶手段と、似顔絵画像の対象となる顔画像
から顔の各部位を表わす画像部分を抽出する抽出手段
と、この抽出手段により抽出された画像部分と前記パー
ツ記憶手段に記憶されているパーツ画像とを各部位毎に
照合し,前記パーツ記憶手段に記憶されている複数のパ
ーツ画像のうち、前記抽出手段により抽出された画像部
分に最も近似するパーツ画像を選択する選択手段と、こ
の選択手段により選択されたパーツ画像を、各部位毎
に、前記抽出された画像部分に対応する位置に表示させ
るように前記パーツ画像の表示位置を調整する表示位置
調整手段と、この表示位置調整手段により表示された各
部位毎のパーツ画像の組み合わせからなる第1の似顔絵
画像を表示させる第1の表示制御手段と、この第1の表
示制御手段の制御により表示された第1の似顔絵画像を
構成する各パーツ画像のうちの、少なくとも一部のパー
ツ画像を前記パーツ画像記憶手段に記憶されている他の
パーツ画像と置き換え、この置き換えられた他のパーツ
画像と置き換えられていないパーツ画像とを組み合せ
て、第2の似顔絵画像を作成する第2の似顔絵作成手段
と、この第2の似顔絵作成手段により作成された第2の
似顔絵画像と当該第2の似顔絵画像の作成のために照合
された前記顔画像に対応する個人に関するデータとを対
応付けて表示するように制御する表示制御手段と、を備
えたことを特徴とする。また、請求項5記載の本発明に
よる顔画像作成装置は、顔画像を記憶する顔画像記憶手
段と、この顔画像記憶手段に記憶されている顔画像に対
応する個人に関するデータを記憶する個人データ記憶手
段と、顔の各部を構成する髪,目,鼻,口等の各部位毎
に形状の異なる複数種類のパーツ画像を記憶しているパ
ーツ画像記憶手段と、前記顔画像記憶手段に記憶された
顔画像のなかから少なくとも目、鼻、口に対応した画像
部分を各部位毎に個別に抽出する個別抽出手段と、この
個別抽出手段により抽出された少なくとも目、鼻、口に
対応した画像部分と前記パーツ画像記憶手段に記憶され
た複数種類のパーツ画像とを各部位毎に照合する照合手
段と、この照合手段による照合の結果、各部位毎の一致
度の高いパーツ画像を各部位毎に前記パーツ画像記憶手
段から読み出しこの読み出された各部位毎のパーツ画像
を組み合せて、前記顔画像に対応した似顔絵画像を作成
する第1の似顔絵作成手段と、この第1の似顔絵作成手
段により作成された第1の似顔絵画像を構成する各パー
ツ画像のうちの、少なくとも一部のパーツ画像を前記パ
ーツ画像記憶手段に記憶されている他のパーツ画像と置
き換え、この置き換えられた他のパーツ画像と置き換え
られていないパーツ画像とを組み合せて、第2の似顔絵
画像を作成する第2の似顔絵作成手段と、この第2の似
顔絵作成手段により作成された第2の似顔絵画像と当該
第2の似顔絵画像の作成のために照合された前記顔画像
に対応する個人に関するデータとを対応付けて表示する
ように制御する表示制御手段と、を備えたことを特徴と
する。
According to a fourth aspect of the present invention, there is provided a face image creating apparatus, which includes face image storing means for storing a face image.
An individual corresponding to a face image stored in the face image storage means
Data storing means for storing data relating to face, parts storing means for storing a plurality of part images representing face constituent elements for each part, and an image representing each part of the face from the face image targeted for the portrait image A plurality of parts stored in the parts storage means, which is extracted by the extraction means, and the image parts extracted by the extraction means and the parts images stored in the parts storage means are collated for each part. Of the images, a selecting means for selecting a part image that is closest to the image portion extracted by the extracting means, and a part image selected by the selecting means correspond to the extracted image portion for each part. Display position adjusting means for adjusting the display position of the part image so that the part image is displayed at the position to be displayed, and the part image of each part displayed by the display position adjusting means. At least one of first display control means for displaying a first portrait image composed of a combination and each part image constituting the first portrait image displayed by the control of the first display control means. The part image of the set is replaced with another part image stored in the part image storage means, and the replaced other part image and the part image not replaced are combined to create a second portrait image. The second portrait creation means and the second portrait created by the second portrait creation means.
Collate to create a portrait image and the second portrait image
The data related to the individual corresponding to the face image
Display control means for controlling so as to display in response to each other. The face image creation device according to the present invention described in claim 5, the face image storing means for storing the face image pairs to the face images stored in the face image storing means
A personal data memorizer that stores data about the responding individual.
A step, a parts image storage means for storing a plurality of types of parts images having different shapes for each part such as hair, eyes, nose, mouth, etc., which constitute each part of the face, and the face image storage means. Individual extraction means for individually extracting each image portion corresponding to at least eyes, nose, and mouth from the face image, and an image portion corresponding to at least eyes, nose, and mouth extracted by this individual extraction means Collating means for collating each part with a plurality of types of part images stored in the part image storage means, and as a result of collation by this collating means, a part image having a high degree of coincidence for each part is obtained for each part. A first portrait creation means for creating a portrait image corresponding to the face image by combining the read out part images for each part and created by the first portrait creation means At least a part of the part images forming the first portrait image is replaced with another part image stored in the part image storage means, and is replaced with the replaced other part image. A second portrait creating means for creating a second portrait image by combining with a part image which is not included, and this second portrait image.
The second portrait image created by the portrait creating means and
The face image collated to create a second caricature image
Correspondingly displayed with the personal data corresponding to
And a display control unit for controlling as described above .

【0010】[0010]

【作用】本発明では、次のような作用を行う。請求項1
記載の本発明による顔画像作成装置によれば、画像を記
憶する顔画像記憶手段と顔を構成する髪,目,鼻,口等
の各部位毎に複数種類のパーツ画像を記憶しているパー
ツ画像記憶手段とをアクセスし、このパーツ画像記憶手
段に記憶されている複数種類のパーツ画像と前記顔画像
記憶手段に記憶されている顔画像の各部位の画像部分と
を各部位毎に照合手段にて照合する。すると、この照合
手段による照合結果に応じて、前記パーツ画像記憶手段
に記憶されている各部位毎のパーツ画像を組み合せて、
前記顔画像に対応した第1の似顔絵画像が第1の似顔絵
作成手段にて作成される。この第1の似顔絵作成手段に
より作成された第1の似顔絵画像を構成する各パーツ画
像のうちの、少なくとも一部のパーツ画像を前記パーツ
画像記憶手段に記憶されている他のパーツ画像に置換手
段にて置き換える。すると、この置換手段により置き換
えられた他のパーツ画像と置き換えられていないパーツ
画像とを組み合せて、第2の似顔絵画像が第2の似顔絵
作成手段にて作成される。この第2の似顔絵作成手段に
より作成された第2の似顔絵画像と当該第2の似顔絵画
像の作成のために照合された前記顔画像に対応する個人
に関するデータとを対応付けて表示するように制御され
る。
In the present invention, the following actions are performed. Claim 1
According to the described face image creating apparatus of the present invention, a part for storing a plurality of types of parts images for each part of the face, such as hair, eyes, nose, mouth, etc. The image storage means is accessed, and a plurality of types of parts images stored in the parts image storage means and the image portion of each portion of the face image stored in the face image storage means are collated for each portion. Check with. Then, according to the collation result by the collating means, the part images for each part stored in the part image storing means are combined,
A first portrait image creating unit creates a first portrait image corresponding to the face image. Replacing means for replacing at least a part of the part images of the respective part images forming the first portrait image created by the first portrait drawing means with another part image stored in the part image storing means. Replace with. Then, the second portrait image is created by the second portrait creating unit by combining the other part image replaced by the replacing unit and the part image that is not replaced. This second portrait creation means
Second portrait image created by the above and the second portrait painting
An individual corresponding to the face image matched for creating the image
It is controlled to display in association with the data about
It

【0011】請求項2記載の本発明による顔画像作成装
置によれば、顔画像を記憶する顔画像記憶手段と顔の各
部を構成する髪,目,鼻,口等の各部位毎に形状の異な
る複数種類のパーツ画像を記憶しているパーツ画像記憶
手段とをアクセスし、前記顔画像記憶手段に記憶された
顔画像のうちの、少なくとも目、鼻、口に対応した部分
画像と、この少なくとも目、鼻、口の部位と同じ部位に
おける、前記パーツ画像記憶手段に記憶された複数種類
のパーツ画像とを照合し、その一致度を照合手段にて判
断する。すると、この照合手段による照合の結果、前記
複数種類のパーツ画像のうち、最も一致度の高いパーツ
画像を各部位毎に前記パーツ画像記憶手段から読み出
し、この読み出された各部位毎のパーツ画像を組み合せ
て、前記顔画像に対応した似顔絵画像が第1の似顔絵作
成手段にて作成させる。その後、この第1の似顔絵作成
手段により作成された第1の似顔絵画像を構成する各パ
ーツ画像のうちの、少なくとも一部のパーツ画像を前記
パーツ画像記憶手段に記憶されている他のパーツ画像に
置換手段にて置き換える。すると、この置換手段により
置き換えられた他のパーツ画像と置き換えられていない
パーツ画像とを組み合せて、第2の似顔絵画像が第2の
似顔絵作成手段にて作成される。この第2の似顔絵作成
手段により作成された第2の似顔絵画像と当該第2の似
顔絵画像の作成のために照合された前記顔画像に対応す
る個人に関するデータとを対応付けて表示するように制
御される。他の請求項記載の本発明による顔画像作成装
置も同様な作用をもつ。
According to the face image creating apparatus of the present invention as defined in claim 2, the face image storing means for storing the face image and the shape of each part such as hair, eyes, nose, mouth, etc. constituting each part of the face are formed. By accessing a part image storage unit that stores a plurality of different types of part images, and among the face images stored in the face image storage unit, at least partial images corresponding to eyes, nose, and mouth, and at least this partial image. The plurality of types of parts images stored in the parts image storage means at the same parts as the eyes, nose, and mouth are compared, and the matching degree is determined by the matching means. Then, as a result of the matching by the matching means, the part image having the highest degree of matching among the plurality of types of part images is read out from the part image storage means for each part, and the read part image for each part is read. In combination with each other, a portrait image corresponding to the face image is created by the first portrait creating means. After that, at least a part of the part images constituting the first portrait image created by the first portrait creating means is replaced with another part image stored in the part image storing means. Replace with replacement means. Then, the second portrait image is created by the second portrait creating unit by combining the other part image replaced by the replacing unit and the part image that is not replaced. Create this second caricature
The second portrait image created by the means and the second portrait image.
Corresponds to the face image that has been matched to create a face image.
It is controlled so that it is displayed in association with the data about the individual
Controlled. The face image creating apparatus according to the present invention described in the other claims also has the same operation.

【0012】[0012]

【実施例】以下、図面を参照して発明の実施例について
説明する。図1は本発明に係る顔画像作成装置および顔
画像用データ記憶装置の第1実施例を示す図であり、特
に本発明を使用者により携帯される携帯型の電子機器で
ある電子手帳に適用した場合における電子手帳の正面図
である。図1において、この電子手帳1は一対の本体1
a、1bをそれぞれ左右に開いた状態を示している。電
子手帳1の本体1bの上部にはCCDカメラ部(入力画
像データ読取手段)2が配置されている。CCDカメラ
部2は電子手帳1のほぼ正面に存在するオペレータ(操
作者)の顔に向けられており、オペレータの顔を撮像し
て画像データを生成し、その画像データを読み取って本
体1a、1bの内部にある後述の図2に示すY/C分離
部23aに出力する。すなわち、CCDカメラ部2は内
部に撮像部と、撮影画像を処理し画像データとして読み
取るデータ部とを有している。なお、入力画像データ読
取手段としては、CCDカメラに限らず、例えばビデオ
カメラ、イメージスキャナ、あるいは電子スチルカメラ
等を用いてもよい。また、他の装置からの画像信号を利
用するようにしてもよい。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a first embodiment of a face image creating apparatus and a face image data storage apparatus according to the present invention. In particular, the present invention is applied to an electronic notebook, which is a portable electronic device carried by a user. It is a front view of the electronic notebook in the case of doing. In FIG. 1, the electronic notebook 1 is a pair of main bodies 1
It shows a state in which a and 1b are respectively opened to the left and right. A CCD camera unit (input image data reading means) 2 is arranged above the main body 1b of the electronic notebook 1. The CCD camera unit 2 is aimed at the face of an operator (operator) existing almost in front of the electronic organizer 1, takes an image of the face of the operator to generate image data, and reads the image data to read the main bodies 1a, 1b. Output to a Y / C separation unit 23a shown in FIG. That is, the CCD camera unit 2 has an image pickup unit and a data unit that processes a captured image and reads it as image data. The input image data reading means is not limited to the CCD camera, but a video camera, an image scanner, an electronic still camera, or the like may be used. Alternatively, an image signal from another device may be used.

【0013】電子手帳1の本体1bにおけるCCDカメ
ラ部2の下側には第2表示部3、データ入力キー4が順
次配置されている。第2表示部3は、例えばLCD(液
晶表示装置)からなり、CCDカメラ部2で撮像した顔
画像2aを表示するもので、撮像した顔画像2aをその
ままの状態で表示することができるようになっている。
なお、第2表示部3はモノクロ画面を表示可能なLCD
でもよいし、あるいはカラー画面を表示可能なLCDで
あってもよい。データ入力キー4は電子手帳1の操作に
必要な各種のデータを入力するもので、例えば「1」、
「2」、・・・「9」、「0」からなる数字キー、
「−」、「+」、・・・等の演算キー、「A」、
「B」、・・・「Y」、「Z」からなるアルファベット
キーを有している。これらの数字キー、演算キー、アル
ファベットキーを用いて顔画像作成の対象者となる人物
についての各種データの入力を行ったり、あるいは画像
以外のデータの入力を行ったりする。
A second display portion 3 and a data input key 4 are sequentially arranged below the CCD camera portion 2 in the main body 1b of the electronic notebook 1. The second display unit 3 is composed of, for example, an LCD (liquid crystal display device), and displays the face image 2a captured by the CCD camera unit 2, so that the captured face image 2a can be displayed as it is. Has become.
The second display unit 3 is an LCD capable of displaying a monochrome screen.
Alternatively, it may be an LCD capable of displaying a color screen. The data input key 4 is for inputting various data necessary for operating the electronic notebook 1, for example, "1",
Numeric key consisting of "2", ... "9", "0",
Operation keys such as "-", "+", ..., "A",
It has alphabetic keys consisting of "B", ... "Y", "Z". By using these numerical keys, calculation keys, and alphabet keys, various data about a person who is a target person of face image creation is input, or data other than the image is input.

【0014】電子手帳1の本体1bの下方にはラベルテ
ープ4を印刷可能な印刷部(後述の図2参照)が内蔵さ
れており、図1の例では第1表示部11に表示した顔画
像11aをラベルテープ4に印刷して取り出す状態が図
示されている。ラベルテープ4は、その裏面側に粘着層
を介して剥離可能に設けられている剥離シートを剥がす
ことにより、粘着層の粘着作用により適当な箇所に顔画
像が印刷されたラベルテープ4を張り付けることが可能
なものである。また、ラベルテープ4には画像だけでな
く、文章も印刷可能である。なお、ラベルテープ4には
第1表示部11に表示した顔画像11aだけでなく、例
えば後述の第2表示部3に表示した画像も印刷して取り
出すことができるようになっている。印刷素材はラベル
テープでなく、普通紙であってもよい。
Below the main body 1b of the electronic notebook 1, a printing unit (see FIG. 2 described later) capable of printing the label tape 4 is built in. In the example of FIG. 1, the face image displayed on the first display unit 11 is displayed. The state where 11a is printed on the label tape 4 and taken out is illustrated. The label tape 4 is attached to the label tape 4 on which a face image is printed at an appropriate position by the adhesive action of the adhesive layer by peeling off the release sheet provided on the back side of the label tape so as to be removable via the adhesive layer. It is possible. Further, not only an image but also a sentence can be printed on the label tape 4. It should be noted that not only the face image 11a displayed on the first display unit 11 but also an image displayed on the second display unit 3 described later can be printed on the label tape 4 and taken out. The printing material may be plain paper instead of label tape.

【0015】一方、電子手帳1の本体1aには上部側か
ら第1表示部11、入力スイッチ部12、オン/オフキ
ー13、部位キー14が配置されている。第1表示部1
1は例えばLCDからなり、電子的に顔画像を作成する
段階で各種の画像や合成の顔画像を表示したり、必要な
データ(例えば、人物の氏名等のデータ)を表示したり
する。なお、第1表示部11はモノクロ画面を表示可能
なLCDでもよいし、あるいはカラー画面を表示可能な
LCDであってもよい。図1の例では人物の顔画像11
aおよび人物に関するデータとして氏名、住所、電話番
号、年齢が表示されている。これら以外の他のデータを
使用してもよいことは勿論である。入力スイッチ部12
は電子手帳1によって人物の顔画像を作成する場合に必
要な各種の操作を行うためのもので、具体的には以下の
キーがある。なお、以下のキーは、例えば薄いシートタ
イプのキースイッチが用いられる。「マッチング」は、
CCDカメラ部2の読り取りデータとして記憶された顔
の部分画像に対応するパーツデータと、パーツ画像とし
て記憶された顔の各部位毎の複数種類のパーツ画像とを
比較してマッチングするときに操作するキーである。
「表示」は第1表示部11に画像を表示させるときに操
作するキーである。あるいは第2表示部3に画像を表示
させるときに操作するようにしてもよい。「印刷」はラ
ベルテープ4に画像や文章を印刷させるときに操作する
キーである。
On the other hand, the main body 1a of the electronic notebook 1 is provided with a first display portion 11, an input switch portion 12, an on / off key 13, and a site key 14 from the upper side. First display unit 1
Reference numeral 1 denotes, for example, an LCD, which displays various images and a composite face image at the stage of electronically creating a face image, and displays necessary data (for example, data such as a person's name). The first display unit 11 may be an LCD capable of displaying a monochrome screen or an LCD capable of displaying a color screen. In the example of FIG. 1, a face image 11 of a person
The name, address, telephone number, and age are displayed as data relating to a and the person. Of course, data other than these may be used. Input switch unit 12
Is for performing various operations necessary for creating a face image of a person using the electronic notebook 1, and specifically, the following keys are provided. For the following keys, for example, thin sheet type key switches are used. "Matching" means
When comparing and matching the part data corresponding to the partial image of the face stored as the read data of the CCD camera unit 2 and the plurality of types of part images for each part of the face stored as the part image The key to operate.
“Display” is a key operated when displaying an image on the first display unit 11. Alternatively, the operation may be performed when the image is displayed on the second display unit 3. “Print” is a key operated when printing an image or text on the label tape 4.

【0016】「個人」は個人に関するデータ、例えば氏
名、住所、電話番号等の個人に関するデータを第1表示
部11に表示させるときに操作するキーである。「拡
大」は第1表示部11に表示した顔画像の部位を拡大す
るときに操作するキーである。「画像入力」はCCDカ
メラ部2で撮像した顔画像2aを固定して表示するとき
に操作するキーである。「位置修正」は第1表示部11
に表示した顔画像の部位の位置を修正するときに操作す
るキーである。「修正」は第1表示部11に表示した顔
画像を修正するときに操作するキーである。「△▽」は
顔のパーツや複数のパーツの中から所望のパーツ画像を
選択するとき等に操作する選択キーで、いわゆるインク
リメント、デクリメントする操作を行うものである。△
はアップ用、▽はダウン用を表す。「終了」は第1表示
部11に表示した顔画像の処理を終了するときに操作す
るキーである。「登録」は第1表示部11に表示した顔
画像を登録するときに操作するキーである。「顔方向」
は第1表示部11に表示した顔画像の向きを変える(例
えば、側面の顔を表示させる)ときに操作するキーであ
る。オン/オフキー13は電子手帳1の電源をオン/オ
フするときに操作されるものである。部位キー14は顔
の各部位(例えば、髪、目、鼻、口等)を指定するとき
に操作されるもので、各部位を模した図形タイプのキー
を押すことにより、所望の部位が指定される。なお、人
物の胴体、手、足等は単に図形表示されているのみで、
スイッチとしての機能は略されている。
The "individual" is a key operated when displaying data relating to an individual, for example, data relating to an individual such as name, address, telephone number, etc., on the first display section 11. “Enlarge” is a key operated when enlarging a part of the face image displayed on the first display unit 11. The "image input" is a key operated when the face image 2a captured by the CCD camera unit 2 is fixed and displayed. “Position correction” means the first display 11
This is a key to be operated when correcting the position of the part of the face image displayed in. The “correction” is a key operated when correcting the face image displayed on the first display unit 11. “Δ ▽” is a selection key that is operated when selecting a desired part image from a face part or a plurality of parts, and performs so-called increment / decrement operations. △
Is for up and ▽ is for down. “End” is a key operated when ending the processing of the face image displayed on the first display unit 11. “Register” is a key operated when registering the face image displayed on the first display unit 11. "Face direction"
Is a key operated when changing the direction of the face image displayed on the first display unit 11 (for example, displaying a side face). The on / off key 13 is operated when the power of the electronic notebook 1 is turned on / off. The part key 14 is operated when designating each part of the face (for example, hair, eyes, nose, mouth, etc.), and a desired part is designated by pressing a graphic type key imitating each part. To be done. It should be noted that the body, hands, feet, etc. of the person are simply displayed graphically,
The function as a switch is omitted.

【0017】次に、図2は電子手帳における顔画像作成
装置の構成を示すブロック図である。図2において、こ
の顔画像作成装置はCPU21、キー入力部22、イメ
ージデータ入力部23、画像マッチング部24、印刷駆
動部25、印刷部26、表示駆動部27、入力画像メモ
リ28、基本位置メモリ29、パーツ画像ROM30、
ROM31、ワークRAM32および前述した第1表示
部11、第2表示部3を含んで構成されている。キー入
力部22は図1に示すデータ入力キー4、入力スイッチ
部12、オン/オフキー13および部位キー14を含ん
でおり、キー入力部22からのキー操作信号はCPU2
1に入力される。CPU21はキー入力部22からのキ
ー操作信号に基づきROM31に格納されている似顔絵
画像作成プログラムに従って回路各部の動作制御を行う
もので、CPU21にはキー入力部22、ROM31の
他に上記イメージデータ入力部23、画像マッチング部
24、印刷駆動部25、表示駆動部27、入力画像メモ
リ28、基本位置メモリ29、パーツ画像ROM30、
ROM31およびワークRAM32が接続されている。
CPU21はROM31とともに、データ比較手段10
1、画像合成手段102、時間計測手段103を構成す
る。また、請求項4乃至7記載の発明に対応するよう
に、CPU21はROM31とともに、比較手段および
合成手段としての機能を実現する。
Next, FIG. 2 is a block diagram showing the configuration of the face image creating apparatus in the electronic notebook. In FIG. 2, the face image creating apparatus includes a CPU 21, a key input unit 22, an image data input unit 23, an image matching unit 24, a print drive unit 25, a print unit 26, a display drive unit 27, an input image memory 28, a basic position memory. 29, parts image ROM 30,
It is configured to include the ROM 31, the work RAM 32, and the first display unit 11 and the second display unit 3 described above. The key input unit 22 includes the data input key 4, the input switch unit 12, the on / off key 13 and the part key 14 shown in FIG. 1, and the key operation signal from the key input unit 22 is the CPU 2
Input to 1. The CPU 21 controls the operation of each part of the circuit according to the portrait image creating program stored in the ROM 31 based on the key operation signal from the key input unit 22, and the CPU 21 inputs the image data in addition to the key input unit 22 and the ROM 31. Unit 23, image matching unit 24, print driving unit 25, display driving unit 27, input image memory 28, basic position memory 29, parts image ROM 30,
The ROM 31 and the work RAM 32 are connected.
The CPU 21 and the ROM 31 together with the data comparison means 10
1. An image synthesizing unit 102 and a time measuring unit 103 are configured. Further, the CPU 21 realizes the functions of the comparing unit and the synthesizing unit together with the ROM 31 so as to correspond to the inventions of claims 4 to 7.

【0018】イメージデータ入力部23はCCDカメラ
部2で撮像した似顔絵画像対象となる人物像の顔画像
(例えば、図1に示す顔画像2a)がビデオ信号(1フ
ィールド分)として入力されるもので、イメージデータ
入力部23はY/C分離部23aおよびA/D変換部2
3bによって構成される。Y/C分離部23aはCCD
カメラ部2からのビデオ信号に含まれる輝度信号Yと色
差信号Cから輝度信号Yのみを分離抽出するもので、Y
/C分離部23aからのビデオ信号はA/D変換部23
bに供給される。A/D変換部23bはY/C分離部2
3aから供給される1フィールド分のビデオ輝度信号Y
を予め設定されたサンプリングクロックに同期して白黒
2値のデジタル信号に変換するもので、A/D変換部2
3bを介してデジタルデータに変換された画像データは
入力画像メモリ28に転送されて記憶される。すなわ
ち、入力画像メモリ(顔画像データ記憶手段)28には
似顔絵画像対象人物として撮像された顔画像データがビ
ットマップデータとして記憶される。なお、入力画像メ
モリ28に記憶される顔画像データは、その顔の「鼻」
が存在する画像領域を記憶領域の中央に設定して記憶さ
れる。
The image data input unit 23 is a unit for inputting a face image of a portrait (for example, the face image 2a shown in FIG. 1) of a portrait image imaged by the CCD camera unit 2 as a video signal (for one field). Then, the image data input unit 23 includes the Y / C separation unit 23a and the A / D conversion unit 2
3b. The Y / C separation unit 23a is a CCD
Only the luminance signal Y is separated and extracted from the luminance signal Y and the color difference signal C included in the video signal from the camera unit 2.
The video signal from the A / C separation unit 23a is converted into the A / D conversion unit 23.
b. The A / D converter 23b is the Y / C separator 2
Video luminance signal Y for one field supplied from 3a
Is converted into a black-and-white binary digital signal in synchronization with a preset sampling clock, and the A / D conversion unit 2
The image data converted into digital data via 3b is transferred to and stored in the input image memory 28. That is, the input image memory (face image data storage means) 28 stores face image data captured as a portrait image target person as bitmap data. The face image data stored in the input image memory 28 is the "nose" of the face.
The image area in which is stored is set in the center of the storage area and stored.

【0019】基本位置メモリ29は入力画像メモリ28
における顔画像の基本的記憶位置を髪、眉、目、鼻、
口、耳等の部位毎に分割したアドレス値として記憶して
おり、基本位置メモリ29に記憶されたアドレス値に応
じて入力画像メモリ28に記憶された顔画像データを読
み出すことにより、似顔絵画像対象人物として撮像され
た顔画像データが髪、眉、目、鼻、口、耳等の部位毎に
読み出される。パーツ画像ROM(パーツ画像記憶手
段)30は顔の各部を髪、眉、目、鼻、口、耳等の部位
に分け、各部位毎に複数種類のパーツ画像を所定の記憶
位置に番号を付けてビットマップデータとして記憶して
おり、パーツ画像ROM30に記憶される各部位毎のパ
ーツ画像がそれぞれ1つずつ組み合されることにより、
似顔絵画像が構成される。
The basic position memory 29 is the input image memory 28.
The basic memory locations of face images in hair, eyebrows, eyes, nose,
The face image data stored in the input image memory 28 according to the address value stored in the basic position memory 29 is stored as the address value divided for each part such as the mouth and the ear. Face image data captured as a person is read for each part such as hair, eyebrows, eyes, nose, mouth, and ears. A parts image ROM (parts image storage means) 30 divides each part of the face into parts such as hair, eyebrows, eyes, nose, mouth, and ears, and assigns a plurality of kinds of parts images to predetermined storage positions for each part. Are stored as bitmap data, and by combining one part image for each part stored in the part image ROM 30, one by one,
A portrait image is constructed.

【0020】ここで、パーツ画像ROM30に記憶され
ている顔の各部位のパーツ画像の一例は図3のように示
される。図3において、顔の各部位としては、正面用
(A)、右側面用(B)、・・・斜め右側面用(N)と
いう具合に、顔の向きに対応して複数のパーツ画像が設
定されている。そして、各面用(A)〜(N)には顔の
各部位が、例えば顔の輪郭、髪型、右目、・・・・口と
いうようにパーツ画像に分けて複数種用意されている。
なお、顔の部位は図3に示した例に限らず、他にも、図
示は略しているが、例えば眉、鼻というものが用意され
ている。また、この他の顔の部位を用意してもよい。
Here, an example of a part image of each part of the face stored in the part image ROM 30 is shown in FIG. In FIG. 3, for each part of the face, there are a plurality of part images corresponding to the orientation of the face, such as front (A), right side (B), and diagonal right side (N). It is set. Then, for each surface (A) to (N), a plurality of types of each part of the face are prepared by dividing into parts images such as the contour of the face, hairstyle, right eye, ...
The face part is not limited to the example shown in FIG. 3, but other parts such as eyebrows and nose are prepared, though not shown. Further, other face parts may be prepared.

【0021】一方、顔の各部位のパーツ画像として、
[01]、[02]、・・・・[50]というパーツ画
像番号で示される複数種類(ここでは50種類)のもの
が予め設けられ、それぞれ輪郭、髪型、右目、・・・・
両足に対応して用意され、格納されている。また、各部
位のパーツ画像のそれぞれに対して、その位置データが
座標[x、y]として付けられ、所定のエリアに格納さ
れている。したがって、各部位は複数のパーツ画像と、
各パーツ画像の位置データとを合せて有することにな
る。さらに、パーツ画像ROM30には、各パーツ毎に
複数種類備えられるパーツ画像[01]〜[50]のそ
れぞれに対応して入力画像メモリ28に記憶された顔画
像データ対応部位との照合一致ドット数を格納する一致
度数レジスタと、この一致度数レジスタに格納された一
致ドット数の大きい順に順位番号が格納される順位レジ
スタとが備えられている。図4は一例として、顔の部位
の1つである「鼻」に対応するパーツ画像の格納状態
で、特にその照合一致ドット数および順位番号を示すも
のである。
On the other hand, as a part image of each part of the face,
A plurality of types (here, 50 types) indicated by the part image numbers [01], [02], ... [50] are provided in advance, and the contour, hairstyle, right eye, ...
Prepared and stored for both feet. Further, the position data of each part image of each part is attached as coordinates [x, y] and stored in a predetermined area. Therefore, each part has multiple parts images,
It will have the position data of each part image together. Further, in the part image ROM 30, the number of matching matching dots with the face image data corresponding portion stored in the input image memory 28 corresponding to each of the part images [01] to [50] provided in plural for each part. And a rank register for storing rank numbers in descending order of the number of matching dots stored in the match frequency register. FIG. 4 shows, as an example, a stored state of a part image corresponding to one of the facial parts, that is, the "nose", and particularly shows the number of matching matching dots and the order number.

【0022】ワークRAM(パーツデータ記憶手段、パ
ーツ画像指定用データ記憶手段)32は入力画像メモリ
28に記憶された顔画像データから顔の各部位毎に部分
画像を抽出し、抽出した部分画像の向きデータ、各部位
毎の位置データを記憶する。画像マッチング部24はワ
ークRAM32に記憶された部分画像に対応するパーツ
データと、パーツ画像ROM31に記憶された顔の各部
位毎の複数種類のパーツ画像とを順次照合(比較)し、
その画像一致点の数に相当する一致ドット数を求めるも
ので、顔画像データ各部位に対する複数パーツ画像それ
ぞれの照合一致ドット数は、前述した一致度数レジスタ
に格納されるとともに、その一致度数の順位は前述した
順位レジスタに格納される。
The work RAM (parts data storage means, parts image designation data storage means) 32 extracts a partial image for each part of the face from the face image data stored in the input image memory 28, and stores the extracted partial image. The orientation data and the position data for each part are stored. The image matching unit 24 sequentially collates (compares) the part data corresponding to the partial image stored in the work RAM 32 with a plurality of types of part images for each part of the face stored in the part image ROM 31,
The number of matching dots corresponding to the number of image matching points is calculated. The number of matching matching dots for each of the multiple part images for each part of the face image data is stored in the above-described matching frequency register and the order of the matching frequencies is determined. Is stored in the above-mentioned rank register.

【0023】そして、パーツ画像ROM30における各
部位毎の複数のパーツ画像の全てに対して顔画像データ
各部位毎との一致ドット数およびその順位番号が格納さ
れると、各部位毎に第1順位のパーツ画像が読み出さ
れ、それぞれの位置データに対応して合成表示される。
表示駆動部27はCPU21の出力に基づいて第1表示
部11および第2表示部3を駆動して処理画像を表示さ
せる。また、印刷駆動部25はCPU21の出力に基づ
いて印刷部26を駆動し、印刷部26はラベルテープ4
に処理画像や文字等を印刷する。表示駆動部27および
第1表示部11は表示手段を構成する。
When the number of matching dots for each part of the face image data and its order number are stored for all of the plurality of part images for each part in the part image ROM 30, the first rank is set for each part. The part images of are read out and displayed in combination corresponding to each position data.
The display drive unit 27 drives the first display unit 11 and the second display unit 3 based on the output of the CPU 21 to display the processed image. Further, the print driving unit 25 drives the printing unit 26 based on the output of the CPU 21, and the printing unit 26 causes the label tape 4
Print processed images and characters on. The display drive unit 27 and the first display unit 11 form a display unit.

【0024】次に、作用を説明する。まず、電子手帳1
の本体1a、1bをそれぞれ左右に開いてオン/オフキ
ー13を押すと、電子手帳1に電源が供給され、動作が
開始する。以後は後述のプログラムを実行することによ
り、個人データの入力や似顔絵画像作成処理が行われ
る。図5は本実施例の電子手帳1を使用して個人データ
の入力・登録処理を行う場合の処理プログラムを示すフ
ローチャートである。本プログラムがスタートすると、
まずステップS10で個人キーが押されているか否かを
判別する。個人キーとは、入力スイッチ部12における
「個人」キーのことで、個人に関するデータ、例えば氏
名、住所、電話番号等の個人に関するデータを第1表示
部11に表示させるときに操作されるものである。個人
キーが押されていなければステップS10に留り、個人
キーが押されると、ステップS12に進んで個人データ
が入力されたか否かを判別する。
Next, the operation will be described. First, electronic notebook 1
When the main bodies 1a and 1b are opened to the left and right and the on / off key 13 is pressed, power is supplied to the electronic notebook 1 and the operation starts. After that, by executing the program described later, the personal data is input and the portrait image creation process is performed. FIG. 5 is a flow chart showing a processing program when inputting / registering personal data using the electronic notebook 1 of this embodiment. When this program starts,
First, in step S10, it is determined whether or not the personal key is pressed. The personal key is an “individual” key in the input switch unit 12, and is operated when displaying data relating to the individual, for example, data relating to the individual such as name, address, and telephone number on the first display unit 11. is there. If the individual key has not been pressed, the process stays in step S10. If the individual key has been pressed, the process proceeds to step S12, and it is determined whether or not the individual data has been input.

【0025】個人データはデータ入力キー4を用いて入
力され、例えば氏名、住所、電話番号等の個人に関する
データを入力することが可能である。この場合、個人デ
ータが入力されていなければステップS16にジャンプ
する。また、個人データが入力されていれば、ステップ
S14に進んで入力された個人データをワークRAM3
2に格納する。これにより、CPU21がワークRAM
32に格納された入力個人データを読み出して表示駆動
部27に出力し、表示駆動部27が第1表示部11を駆
動することにより、入力された個人データが第1表示部
11に表示される。次いで、ステップS16では登録キ
ーがオンしているか否かを判別し、オンしていなければ
ステップS12に戻ってステップS12〜ステップS1
6のループを繰り返す。ステップS16で登録キーがオ
ンすると、入力された個人データの登録処理を行って本
ルーチンを終了する。これにより、個人データがワーク
RAM32の所定の登録エリアに格納され、以後、登録
個人データとして取り出し可能になる。
The personal data is input by using the data input key 4, and it is possible to input personal data such as name, address and telephone number. In this case, if personal data has not been input, the process jumps to step S16. If the personal data is input, the process proceeds to step S14, and the input personal data is stored in the work RAM 3
Store in 2. As a result, the CPU 21 causes the work RAM to
The input personal data stored in 32 is read and output to the display drive unit 27, and the display drive unit 27 drives the first display unit 11, whereby the input personal data is displayed on the first display unit 11. . Next, in step S16, it is determined whether or not the registration key is turned on. If it is not turned on, the process returns to step S12 and steps S12 to S1.
Repeat the loop of 6. When the registration key is turned on in step S16, the input personal data is registered and the present routine is terminated. As a result, the personal data is stored in the predetermined registration area of the work RAM 32, and can be subsequently taken out as registered personal data.

【0026】図6、図7は似顔絵画像作成処理のプログ
ラムを示すフローチャートである。このプログラムがス
タートすると、まずステップS100で表示スイッチが
オンしているか否かを判別する。表示スイッチとは、入
力スイッチ部12における表示キーのことで、表示スイ
ッチがオンしていると、第1表示部11が作動して画像
を表示可能になり、ステップS102に進み、既に作成
された似顔絵画像を選択して表示する処理を行う。ま
た、表示スイッチがオンしていなければステップS10
4に分岐し、実際の人物画像から似顔絵画像を作成する
処理を実行する。A.似顔絵画像選択処理のルーチン最
初に、似顔絵画像選択処理のルーチンから説明する。ス
テップS102で検索データが入力されたか否かを判別
する。検索データとは作成された似顔絵画像を選択する
ためのデータであり、例えば個人データがある。検索デ
ータが入力されていなければステップS100に戻り、
検索データが入力ていると、ステップS106に進んで
検索データによりワークRAM32における個人データ
の中から対応するデータを検索して第1表示部11に表
示する。
FIGS. 6 and 7 are flowcharts showing a program for portrait image creation processing. When this program starts, it is first determined in step S100 whether the display switch is on. The display switch is a display key in the input switch unit 12, and when the display switch is turned on, the first display unit 11 is activated to display an image, and the process proceeds to step S102 and is already created. A process of selecting and displaying a portrait image is performed. If the display switch is not turned on, step S10
The process branches to 4 and the process of creating a portrait image from an actual person image is executed. A. Routine of portrait image selection processing First, the routine of portrait image selection processing will be described. In step S102, it is determined whether search data has been input. The search data is data for selecting the created portrait image, and is, for example, personal data. If no search data is input, the process returns to step S100,
When the search data is input, the process proceeds to step S106, and the corresponding data is searched from the personal data in the work RAM 32 by the search data and displayed on the first display unit 11.

【0027】ここで、図8はワークRAM32の記憶例
を示すもので、例えば人物の個人データに対応して1人
ずつの顔の特徴が顔の向き、顔の各部位毎のパーツ画像
番号、各部位の位置データ(パーツデータ)をパラメー
タとしてそれぞれ所定のエリアに格納されている。ま
た、この場合、顔の向き(すなわち、正面、右側面、・
・・・斜右側面)に対応して輪郭、髪、右目、・・・等
のパーツ画像番号が、例えばそれぞれ[50]、[0
2]、[50]、・・・というようにして所定のエリア
に格納されているとともに、輪郭、髪、右目、・・・等
のパーツの位置データがそれぞれ例えば[x1、y
1]、[x2、y2]、[x3、y3]、・・・・とい
うようにして所定のエリアに格納されている。[x1、
y1]、[x2、y2]、[x3、y3]、・・・・と
いう各値は、画面上の位置を指定する座標値であり、位
置の修正に応じた絶対位置からの差分データである。な
お、位置の修正がない場合には座標値が[0、0]とな
る。
Here, FIG. 8 shows a storage example of the work RAM 32. For example, the facial features of each person correspond to the personal data of the person, the face direction, the part image number of each part of the face, The position data (parts data) of each part is stored in a predetermined area as a parameter. Also, in this case, the orientation of the face (that is, the front surface, the right side surface, ...
... The part image numbers such as contour, hair, right eye, ... corresponding to the oblique right side surface) are, for example, [50] and [0, respectively.
2], [50], ... Are stored in predetermined areas, and the position data of parts such as contour, hair, right eye, ... Are respectively [x1, y].
1], [x2, y2], [x3, y3], ..., And stored in a predetermined area. [X1,
The values y1], [x2, y2], [x3, y3], ... Are coordinate values that specify the position on the screen, and are difference data from the absolute position according to the position correction. . If the position is not corrected, the coordinate value is [0,0].

【0028】そして、例えば顔の向き(すなわち、正
面、右側面、・・・・斜右側面)に対応する顔画像につ
いての各部位毎のパーツ画像番号および各部位の位置デ
ータをそれぞれ組み合せて合成することにより、1つの
モンタージュ画が作成される。したがって、入力された
検索データが個人データである場合には、該当する個人
データを照合し、一致する人物のものが選択されて第1
表示部11に表示されることになる。例えば、個人デー
タとしての氏名:甲、住所:○○、電話番号:○○、血
液型:○、趣味:○○の何れかが入力されると、該当す
る人物として図8の第1番目のエリアに格納されている
人物の個人データが選択されて第1表示部11に表示さ
れる。なお、個人データとしては、甲という人物の例の
他に、以下のような人物のデータが格納されている。ま
た、この他の人物データを格納してもよい。 氏名:乙 住所:○○ 電話番号:○○ 血液型:○ 趣味:○○
Then, for example, a part image number of each part and a position data of each part of the face image corresponding to the orientation of the face (that is, the front surface, the right side surface, ..., the oblique right side surface) are combined and synthesized. By doing so, one montage image is created. Therefore, if the input search data is personal data, the corresponding personal data is collated and the matching person's data is selected.
It will be displayed on the display unit 11. For example, if any of personal name: A, address: ○○, telephone number: ○○, blood type: ○, hobby: ○○ is input, the first person in FIG. The personal data of the person stored in the area is selected and displayed on the first display unit 11. As personal data, in addition to the example of the person A, the following person data is stored. Further, other person data may be stored. Name: B Address: ○○ Phone number: ○○ Blood type: ○ Hobbies: ○○

【0029】次いで、ステップS108で検索された個
人データに対応するモンタージュ画(すなわち、似顔絵
画像)の記憶されているワークRAM32のエリアの中
の1つの顔画像データを読み出して第1表示部11に表
示する。これにより、個人データを基に既に作成された
似顔絵画像の中から1つがピックアップされて表示され
る。例えば、個人データとして上記のように人物甲に関
連するデータが入力された場合には、図8に示す人物甲
に対応する顔の向き、顔の各部位毎のパーツ画像番号、
各部位の位置データ(パーツデータ)を基にした1つの
似顔絵画像が表示される。したがって、人物甲に対応す
る似顔絵画像は顔の向き等に応じて複数のものがある
が、その中の1つが選択されて表示されることになる。
Next, one face image data in the area of the work RAM 32 in which the montage image (that is, a portrait image) corresponding to the personal data retrieved in step S108 is stored is read out on the first display unit 11. indicate. As a result, one of the portrait images already created based on the personal data is picked up and displayed. For example, when the data relating to the person's instep as described above is input as personal data, the orientation of the face corresponding to the person's instep shown in FIG. 8, the part image number for each part of the face,
One portrait image based on the position data (parts data) of each part is displayed. Therefore, although there are a plurality of portrait images corresponding to the instep of the person depending on the direction of the face and the like, one of them is selected and displayed.

【0030】次いで、ステップS110で選択キー(△
▽キー)がオンしたか否かを判別する。選択キーがオン
していれば個人データは同じでも他の似顔絵画像が選択
要求されていると判断し、ステップS112でワークR
AM32のエリアの中の他の顔画像データを選択する。
その後、ステップS108に戻り、同様のループを繰り
返す。これにより、例えば個人データとして上記のよう
に人物甲に関連するデータが入力されている場合には、
人物甲に対応する他の似顔絵画像が選択されて第1表示
部11に表示される。
Then, in step S110, the selection key (Δ
Determine whether or not the ▽ key) is turned on. If the selection key is on, it is determined that another portrait image is requested to be selected even if the personal data is the same, and the work R is selected in step S112.
Other face image data in the AM 32 area is selected.
Then, the process returns to step S108 and the same loop is repeated. Thereby, for example, when the data related to the person A is input as the personal data as described above,
Another portrait image corresponding to the person A is selected and displayed on the first display unit 11.

【0031】このとき、人物甲についての似顔絵画像で
検索データに対応する所望のものが第1表示部11に表
示されない場合には、さらに選択キー(△▽キー)を操
作する(例えば、△キーの操作で似顔絵画像をインクリ
メント的に選択したり、あるいは▽キーの操作で似顔絵
画像をデクリメント的に選択したりする)。次いで、ス
テップS114に進み、終了スイッチ(終了キー)がオ
ンしたか否かを判別し、終了スイッチがオンしていなけ
ればステップS110に戻って同様のループを繰り返す
る。そして、最終的に検索データに対応する所望の似顔
絵画像を第1表示部11に表示させる。検索データに対
応する所望の似顔絵画像が第1表示部11に表示された
後、ステップS114に進んで終了スイッチがオンされ
ていることが検出されれば、似顔絵画像の選択処理を終
了してステップS100に戻る。
At this time, if the desired portrait image of the human instep corresponding to the search data is not displayed on the first display portion 11, the selection key (Δ ▽ key) is further operated (for example, the Δ key). Incrementally select a portrait image, or by operating the ▽ key to decrement a portrait image). Next, in step S114, it is determined whether or not the end switch (end key) is turned on. If the end switch is not turned on, the process returns to step S110 and the same loop is repeated. Then, finally, the desired portrait image corresponding to the search data is displayed on the first display unit 11. After the desired portrait image corresponding to the search data is displayed on the first display unit 11, the process proceeds to step S114 and if it is detected that the end switch is turned on, the portrait image selection process is terminated and the step is completed. Return to S100.

【0032】B.似顔絵画像作成処理のルーチン ステップS100から分岐してステップS104に進
み、このステップS104でイメージデータを入力す
る。すなわち、入力スイッチ部12の画像入力キーをオ
ンすることより、似顔絵画像の対象としてCCDカメラ
部2で撮像したオペレータの顔画像データがビデオ信号
としてイメージデータ入力部23に供給される。これに
より、イメージデータ入力部23に供給された1フィー
ルド分のビデオ信号がY/C分離部23aからA/D変
換部23bを介して1画面分のデジタル画像データに変
換される。次いで、ステップS116でイメージデータ
補正を行う。これは、デジタル画像データに変換された
1画面分の顔画像データに対して、その背景部分に存在
する余分な画像データを消去して補正するものである。
次いで、ステップS118で入力イメージデータをCP
U21から入力画像メモリ28に対して転送して入力画
像メモリ28に記憶するとともに、第2表示部3に表示
する。これにより、CCDカメラ部2によって撮像され
たオペレータの顔画像が第2表示部3に表示されること
になる。第2表示部3に表示される入力画像は、例えば
図9(A)に示すようなものになる。
B. The routine of portrait image creation processing branches from step S100 to step S104, and image data is input in step S104. That is, when the image input key of the input switch unit 12 is turned on, the face image data of the operator captured by the CCD camera unit 2 as the target of the portrait image is supplied to the image data input unit 23 as a video signal. As a result, the video signal for one field supplied to the image data input unit 23 is converted from the Y / C separation unit 23a to the digital image data for one screen through the A / D conversion unit 23b. Next, in step S116, image data correction is performed. This is to correct the one screen of face image data converted into digital image data by erasing extra image data existing in the background portion.
Next, in step S118, the input image data is CP
The image data is transferred from U21 to the input image memory 28, stored in the input image memory 28, and displayed on the second display unit 3. As a result, the face image of the operator captured by the CCD camera unit 2 is displayed on the second display unit 3. The input image displayed on the second display unit 3 is as shown in FIG. 9 (A), for example.

【0033】次いで、ステップS120で顔方向が入力
されたか否かを判別する。これは、入力スイッチ部12
の顔方向キーがオンしたかどうかで判断する。顔方向キ
ーがオンしていなければステップS100に戻り、顔方
向キーがオンした場合には続くステップS122に進ん
で、対応する個人データの顔画像を記憶するワークRA
M32のエリアを指定する。これにより、そのとき顔方
向に応じた顔画像データがワークRAM32に記憶され
る。例えば、正面の顔方向を撮像し、この方向でOKの
ときは、図9(A)に示すような正面方向の顔が入力画
像としてワークRAM32に記憶される。
Next, in step S120, it is determined whether or not the face direction has been input. This is the input switch unit 12
Judgment is made based on whether or not the face direction key of is turned on. If the face direction key is not turned on, the process returns to step S100. If the face direction key is turned on, the process proceeds to step S122, and the work RA for storing the face image of the corresponding personal data.
Specify the M32 area. As a result, the face image data corresponding to the face direction at that time is stored in the work RAM 32. For example, when the face direction in the front is imaged, and when the direction is OK, the face in the front direction as shown in FIG. 9A is stored in the work RAM 32 as an input image.

【0034】次いで、図7に移り、ステップS124で
入力スイッチ部12の部位キーがオンしたか否かを判別
し、部位キーがオンしていればステップS126で選択
された部位に対応する入力イメージデータにカーソルを
表示する。例えば、図9(B)に示すように部位キーが
オンして「鼻」を指定しているときは、「鼻」の部位に
第2表示部3上でカーソルCが表示される。一方、部位
キーがオンしていなければステップS126をジャンプ
してステップS128に進む。このように、撮像した顔
画像から顔の各部位を部分画像として抽出し、後述のよ
うに抽出した部分画像の向きデータ、各部位毎の位置デ
ータをパーツ画像ROM30に予め格納されているパー
ツ画像と比較照合することで、撮像画像に対して近似し
た似顔絵画像が各部位毎の組み合わせによって合成表示
されることになる。
Next, moving to FIG. 7, it is determined in step S124 whether or not the part key of the input switch unit 12 is turned on. If the part key is turned on, the input image corresponding to the part selected in step S126 is input. Display the cursor on the data. For example, as shown in FIG. 9B, when the part key is turned on and "nose" is designated, the cursor C is displayed on the second display unit 3 at the part "nose". On the other hand, if the region key is not turned on, the process jumps to step S126 and proceeds to step S128. In this way, each part of the face is extracted as a partial image from the captured face image, and the orientation data of the extracted partial image and the position data of each part are stored in the part image ROM 30 in advance as described below. By comparing and collating with, the similar portrait image to the captured image is combined and displayed by the combination for each part.

【0035】次いで、ステップS128で入力スイッチ
部12の位置修正キーがオンしたか否かを判別する。こ
れは、第2表示部3上でカーソルCによって表示された
部位の位置を修正するかどうかを判断するものである。
位置修正キーがオンしていればステップS130でカー
ソルの表示位置を移動する。これにより、例えば図9
(B)に示すように部位キーがオンして「鼻」を指定し
ているとき、「鼻」を指定しているカーソルの表示位置
が移動し、「鼻」が画面上でわずかに別の場所に移動す
る。一方、位置修正キーがオンしていなければステップ
S130をジャンプしてステップS132に進む。
Then, in step S128, it is determined whether or not the position correction key of the input switch section 12 is turned on. This is to determine whether to correct the position of the part displayed by the cursor C on the second display unit 3.
If the position correction key is on, the display position of the cursor is moved in step S130. As a result, for example, as shown in FIG.
As shown in (B), when the body part key is turned on and the "nose" is designated, the display position of the cursor designating the "nose" moves, and the "nose" is slightly different on the screen. Move to a place. On the other hand, if the position correction key is not turned on, the process jumps to step S130 and proceeds to step S132.

【0036】ステップS132では入力スイッチ部12
の拡大キーがオンしたか否かを判別する。これは、第2
表示部3上でカーソルCによって表示された部位の大き
さを拡大するかどうかを判断するものである。拡大キー
がオンしていればステップS136でカーソルCで指定
された部位を拡大して表示する。これにより、例えば図
9(C)に示すように部位キーがオンして「鼻」を指定
しているとき、「鼻」が所定の倍率で拡大されて拡大画
像Kとして画面上に表示される。このように指定の部位
を拡大して表示することにより、拡大した部位の修正が
容易により、結果的に部位の特徴を出しながらより実物
に近い似顔絵画像(モンタージュ画)を作成することが
可能になる。一方、拡大キーがオンしていなければステ
ップS134をジャンプしてステップS136に進む。
ステップS136では入力スイッチ部12のマッチング
キーがオンしたか否かを判別する。これは、第2表示部
3上でカーソルCによって表示された撮像画像中の部位
と、予めパーツ画像ROM30に格納されているパーツ
画像とを比較照合し、その一致度数の順位付けを行うも
ので、マッチング処理を各部位毎に繰り返すことによ
り、撮像画像に対して理論上最も近似した似顔絵画像を
合成表示することが可能になる。
In step S132, the input switch unit 12
It is determined whether or not the enlargement key of is turned on. This is the second
It is to determine whether to enlarge the size of the part displayed by the cursor C on the display unit 3. If the enlargement key is turned on, the part designated by the cursor C is enlarged and displayed in step S136. As a result, for example, as shown in FIG. 9C, when the region key is turned on and the "nose" is designated, the "nose" is enlarged at a predetermined magnification and displayed as an enlarged image K on the screen. . By enlarging and displaying the designated part in this way, it is easy to correct the enlarged part, and as a result it is possible to create a portrait image (montage image) that is closer to the real thing while showing the characteristics of the part Become. On the other hand, if the enlargement key is not turned on, the process jumps to step S134 and proceeds to step S136.
In step S136, it is determined whether or not the matching key of the input switch section 12 is turned on. This is to compare and collate the part in the captured image displayed by the cursor C on the second display part 3 with the part image stored in the part image ROM 30 in advance, and rank the matching frequency. By repeating the matching process for each part, it is possible to compositely display the portrait image that is theoretically the closest to the captured image.

【0037】マッチングキーがオンしていればステップ
S138でパーツ画像ROM30からカーソルCで指定
された部位のパーツ画像を読み出す。例えば、図9
(B)に示すように部位キーがオンして「鼻」を指定し
ていれば、パーツ画像ROM30から「鼻」というパー
ツ画像を読み出す。次いで、ステップS140で読み出
されたパーツ画像と、カーソルで指定された部位の画像
の一致ドット数をカウントする。例えば、部位キーがオ
ンして「鼻」を指定していれば、入力画像メモリ28か
ら読み出された撮像画像における「鼻」の画像データ
と、パーツ画像ROM30から読み出された「鼻」の第
1パーツ画像とが照合され、そのパーツ画像の一致点に
相当する一致ドット数がカウントされる。例えば、図3
の例では「鼻」のパーツ画像として、[01]、[0
2]、・・・・[50]というように50種類が予め用
意されているから、第1パーツ画像としては[01]と
いうパーツ画像番号で指定されるものが読み出されて撮
像画像における「鼻」の画像データと照合される。この
画像データ中の「鼻」画像データと、予め登録された
「鼻」の第1パーツ画像との照合一致ドット数は、
「鼻」の第1パーツ画像に対応するパーツ画像ROM3
0内の一致度数レジスタに格納される。
If the matching key is turned on, the part image of the part designated by the cursor C is read from the part image ROM 30 in step S138. For example, in FIG.
As shown in (B), if the part key is turned on and "nose" is specified, the part image "nose" is read from the part image ROM 30. Next, the number of matching dots between the part image read in step S140 and the image of the part designated by the cursor is counted. For example, if the part key is turned on and "nose" is designated, the image data of "nose" in the captured image read from the input image memory 28 and the "nose" read from the parts image ROM 30 are displayed. The first part image is collated, and the number of coincident dots corresponding to the coincident point of the part image is counted. For example, in FIG.
In the above example, the parts images of “nose” are [01], [0
2], ..., [50] such as 50 types are prepared in advance, so that as the first part image, the one designated by the part image number [01] is read and “ It is collated with the image data of "nose". The number of matching matching dots between the “nose” image data in this image data and the pre-registered “nose” first part image is
Parts image ROM3 corresponding to the first part image of the "nose"
It is stored in the match frequency register within 0.

【0038】次いで、ステップS142で照合対象とな
る次のパーツ画像(例えば、「鼻」の第2パーツ画像)
があるか否かを判別する。次のパーツ画像がある場合に
はステップS138に戻ってパーツ画像ROM30から
次の(第2の)「鼻」のパーツ画像(第2パーツ画像)
を読み出し、その後、ステップS140で同様にして読
み出された第2パーツ画像と、カーソルで指定された部
位の画像の一致ドット数をカウントする。例えば、
「鼻」のパーツ画像を照合中であれば、第2パーツ画像
としては[02]というパーツ画像番号で指定されるも
のが読み出されて撮像画像における「鼻」の画像データ
と照合される。この画像データ中の「鼻」画像データ
と、予め登録された「鼻」の第2パーツ画像との照合一
致ドット数は、「鼻」の第2パーツ画像に対応するパー
ツ画像ROM30内の一致度数レジスタに格納される。
Next, in step S142, the next part image to be matched (for example, the second part image of "nose").
It is determined whether or not there is. If there is a next part image, the process returns to step S138 and the next (second) "nose" part image (second part image) is read from the part image ROM 30.
Is read, and thereafter, the number of matching dots in the image of the part designated by the cursor and the second part image similarly read in step S140 are counted. For example,
If the part image of the "nose" is being collated, the second part image designated by the part image number [02] is read out and collated with the image data of the "nose" in the captured image. The matching match dot number of the “nose” image data in this image data and the second part image of the “nose” registered in advance is the matching frequency in the part image ROM 30 corresponding to the second part image of the “nose”. Stored in register.

【0039】同様にして、ステップS138〜ステップ
S142のループを繰り返すことにより、似顔絵画像対
象として入力画像メモリ28に記憶された顔画像中の
「鼻」の画像データと、パーツ画像ROM30に予め登
録されている「鼻」パーツの各パーツ画像との照合処理
が順次繰り返され、それぞれの照合一致ドット数が各パ
ーツ画像に対応する一致度数レジスタに格納されてい
く。そして、全ての「鼻」のパーツ画像との照合処理が
終了すると、ステップS142において次のパーツ画像
無しと判断されて、判別結果がNOとなり、ステップS
144に分岐する。ステップS144では一致ドット数
の多さにより、各パーツ画像の順位付けを行う。すなわ
ち、各パーツ画像に対応して一致度数レジスタに格納さ
れた「鼻」画像データとの照合一致ドット数に基づき、
その一致度数の高い順から順位番号が付され、それぞれ
の対応する順位レジスタに格納される。例えば、顔の部
位の1つである「鼻」に対応するパーツ画像について
は、図4に示すように、その照合一致ドット数および順
位番号が格納される。この場合、照合一致ドット数=
[25]が順位=[1]で、以下、照合一致ドット数=
[20]が順位=[2]、・・・・という具合に一致度
数の高い順から順位番号が付されて対応する順位レジス
タに格納されている。
Similarly, by repeating the loop of steps S138 to S142, the image data of the "nose" in the face image stored in the input image memory 28 as the portrait image object and the part image ROM 30 are registered in advance. The matching process of each "nose" part with each part image is sequentially repeated, and the number of matching match dots for each part is stored in the matching frequency register corresponding to each part image. Then, when the matching process with all the "nose" part images is completed, it is determined in step S142 that there is no next part image, the determination result is NO, and step S
It branches to 144. In step S144, the parts images are ranked according to the number of matching dots. That is, based on the number of matching dots matched with the “nose” image data stored in the matching frequency register corresponding to each part image,
A rank number is given from the highest matching frequency, and the rank numbers are stored in the corresponding rank registers. For example, as for the part image corresponding to "nose" which is one of the face parts, the number of matching matching dots and the order number are stored as shown in FIG. In this case, the number of matching dots =
[25] is the rank = [1], and the following is the number of matching matching dots =
[20] is stored in the corresponding rank register with a rank number from the highest matching frequency, such as rank = [2] ,.

【0040】次いで、ステップS146に進み、指定さ
れている部位の座標をワークRAM32の対応部位エリ
アに記憶する。次いで、ステップS148で全部位につ
いて上記のようなマッチングおよび順位付け処理が終了
したか否かを判別する。以上は、一例として顔の部位の
1つである「鼻」に対応するパーツ画像についてのマッ
チングおよび順位付け処理であり、「鼻」が終了する
と、次は「口」に移り、「口」画像データに対する全て
の「口」パーツ画像とのマッチング処理およびその一致
度数の順位付け処理が実行される。そして、全部位につ
いてマッチング処理およびその一致度数の順位付け処理
が終了していなければステップS124に戻って上記ル
ープを繰り返す。全部位について上記のようなマッチン
グ処理およびその一致度数の順位付け処理が終了する
と、ステップS150に進む。このようにして、各部位
についてそれぞれマッチング処理およびその一致度数の
順位付け処理が全て繰り返されることにより、入力画像
メモリ28に記憶された顔画像データの全ての部位の画
像データに対して、パーツ画像ROM30に記憶された
全パーツ画像が各部位毎に照合され、その一致度数に対
する順位付けが行われることになる。
Next, in step S146, the coordinates of the designated part are stored in the corresponding part area of the work RAM 32. Next, in step S148, it is determined whether or not the above matching and ranking processing has been completed for all the parts. The above is the matching and ranking process for the part image corresponding to one of the face parts, "nose", as an example. When the "nose" ends, the next moves to the "mouth" and the "mouth" image. The matching process with all "mouth" part images for the data and the ranking process of the matching frequency are executed. If the matching process and the matching frequency ranking process have not been completed for all parts, the process returns to step S124 to repeat the above loop. When the matching process and the matching frequency ranking process as described above are completed for all parts, the process proceeds to step S150. In this way, the matching process and the matching frequency ranking process are all repeated for each part, so that the parts image is compared with the image data of all parts of the face image data stored in the input image memory 28. All the part images stored in the ROM 30 are collated for each part, and the matching frequency is ranked.

【0041】ステップS150では最高順位のパーツ画
像によりモンタージュ画を第1表示部11に表示する。
すなわち、パーツ画像ROM30の各パーツそれぞれの
順位レジスタに対し、各パーツ画像の顔画像データとの
照合順位が格納されると、そのそれぞれのパーツ(輪
郭、髪、右目、・・・口)における最高順位のパーツ画
像がパーツ画像ROM30より読み出され、入力画像メ
モリ28に記憶された顔画像データの全ての部位の画像
データに対して、パーツ画像ROM30に記憶された顔
画像データに対して、まず最初の段階で近似した似顔絵
画像としてモンタージュ画が第1表示部11に表示され
る。すなわち、オペレータが入力スイッチ部12の画像
入力キーを操作してイメージデータ入力部23を介して
CPU21に入力された似顔絵画像対象人物の顔画像デ
ータが入力画像メモリ28に記憶されると、この顔画像
データに構成する各部位(輪郭、髪、右目、左目、・・
・口)それぞれのパーツ画像に最も類似したパーツ画像
が上記の画像マッチング処理に基づきパーツ画像ROM
31より自動的に読み出され、第1表示部11に合成さ
れて表示される。
In step S150, the montage image is displayed on the first display section 11 by the parts image of the highest rank.
That is, when the order register of the face image data of each part image is stored in the order register of each part of the part image ROM 30, the highest of each part (contour, hair, right eye, ... Mouth) is stored. The part images of the order are read from the part image ROM 30, and the image data of all the parts of the face image data stored in the input image memory 28 are first compared with the face image data stored in the part image ROM 30. A montage image is displayed on the first display unit 11 as a portrait image approximated at the first stage. That is, when the operator operates the image input key of the input switch unit 12 and the face image data of the portrait image target person input to the CPU 21 via the image data input unit 23 is stored in the input image memory 28, this face is stored. Each part (outline, hair, right eye, left eye, ...
・ Mouth) The part image most similar to each part image is the part image ROM based on the above image matching processing.
It is automatically read out from 31 and is combined and displayed on the first display unit 11.

【0042】そして、第1表示部11に対して似顔絵画
像対象人物の顔画像データに最も近似した似顔絵画像が
合成表示された状態で、その似顔絵画像に修正、変更を
加えたい場合には入力スイッチ部12の修正キーを操作
する。この処理はステップS152以降で実行される。
すなわち、ステップS152で入力スイッチ部12の修
正キーがオンしたか否かを判別する。これは、次の段階
として最初のモンタージュ画を修正する場合に操作され
るものである。修正キーがオンしていればステップS1
54に進み、一方、修正キーがオンしていなければ、こ
の段階で十分なモンタージュ画が作成できたと判断し、
ステップS168に進んで登録キーがオンしたか否かを
判別することになる。
When it is desired to correct or change the portrait image while the portrait image most approximate to the face image data of the portrait image target person is displayed on the first display unit 11, the input switch is pressed. The correction key of the section 12 is operated. This process is executed after step S152.
That is, it is determined whether or not the correction key of the input switch unit 12 is turned on in step S152. This is what will be manipulated when modifying the first montage as the next step. If the correction key is on, step S1
54. On the other hand, if the correction key is not turned on, it is determined that a sufficient montage image can be created at this stage,
In step S168, it is determined whether the registration key is turned on.

【0043】なお、第1表示部11には上記似顔絵画像
が表示されているが、修正キーを操作した場合、その似
顔絵画像中の修正対象となるパーツ名(輪郭、髪、右
目、左目、・・・口)を表示するようにしてもよい。そ
の場合、例えば「輪郭」に初期設定し、修正キーを操作
する毎に「髪」→「右目」→「左目」→・・・・という
ように変更表示する。ステップS154では部位キーが
オンしたか否かを判別する。これは、修正部位を判断す
るものである。部位キーがオンしていなければステップ
S168にジャンプする。部位キーがオンしている場合
はステップS156に進んで選択された部位に対応する
部位のパーツにカーソルを表示する。これにより、オペ
レータは第1表示部11の画面上で修正部位の指定を確
認することができる。次いで、ステップS158で入力
スイッチ部12の選択キー(△▽キー)がオンしたか否
かを判別する。選択キーがオンしていればステップS1
60に進んで次順位のパーツをパーツ画像ROM30か
ら読み出し、今示されているパーツに変えて表示する。
これにより、いままでとは違った形状のパーツ画像が選
択された部位の位置に表示される。
Although the above-mentioned portrait image is displayed on the first display portion 11, when the correction key is operated, the name of the part (contour, hair, right eye, left eye, ... .. (mouth) may be displayed. In that case, for example, the contour is initially set, and each time the correction key is operated, the display is changed to "hair" → "right eye" → "left eye" → ... In step S154, it is determined whether or not the part key is turned on. This is to determine the corrected portion. If the part key is not turned on, the process jumps to step S168. If the part key is turned on, the process advances to step S156 to display the cursor on the part of the part corresponding to the selected part. Thereby, the operator can confirm the designation of the corrected portion on the screen of the first display unit 11. Next, in step S158, it is determined whether or not the selection key (Δ ▽ key) of the input switch unit 12 is turned on. If the selection key is on, step S1
Proceeding to step 60, the next-ranked part is read out from the part image ROM 30 and is displayed in place of the part currently shown.
As a result, a differently shaped part image is displayed at the position of the selected part.

【0044】ここで、例えば部位キーを押して修正対象
となるパーツ「鼻」を選択表示させた際に、パーツ画像
選択キー(アップ用の△キー)を操作すると、パーツ画
像ROM30の複数の鼻パーツ画像に対応した順位レジ
スタに格納される画像照合順位に基づき、第2順位の鼻
パーツ画像が指定されて読み出され、現表示似顔絵画像
における第1順位の鼻パーツ画像に入れ替わり合成表示
される。この場合、上記修正対象として指定されたパー
ツ画像は、パーツ画像選択キー(アップ用の△キー)を
操作する毎に、次の順位のパーツ画像に交換修正され、
また、パーツ画像選択キー(ダウン用の△キー)を操作
する毎に、前の順位のパーツ画像に交換修正される。一
方、選択キーがオンしていなければステップS160を
ジャンプしてステップS162に進む。このときは、選
択された部位のパーツ画像形状は変化しない。
Here, for example, when the part image nose to be corrected is selected and displayed by pressing the part key and the part image selection key (up key) is operated, a plurality of nose parts in the part image ROM 30 are selected. Based on the image collation order stored in the order register corresponding to the image, the nose part image of the second order is designated and read out, and is replaced with the nose part image of the first order in the currently displayed portrait image to be synthesized and displayed. In this case, the part image designated as the correction target is replaced and corrected with the part image of the next rank every time the part image selection key (△ key for up) is operated.
Also, every time the parts image selection key (down key for down) is operated, the parts image of the previous order is replaced and corrected. On the other hand, if the selection key is not turned on, the process jumps to step S160 and proceeds to step S162. At this time, the shape of the part image of the selected part does not change.

【0045】次いで、ステップS162で入力スイッチ
部12の位置修正キーがオンしたか否かを判別する。位
置修正キーがオンしていればステップS164に進んで
パーツ表示位置を移動する。次いで、ステップS166
でワークRAM32の対応部位のエリアに記憶されてい
る座標を変更する。これにより、例えば部位として
「鼻」が選択されている場合、「鼻」の位置が移動して
第1表示部11に表示される。その後、ステップS16
8に進む。一方、位置修正キーがオンしていなければス
テップS164、ステップS166をジャンプしてステ
ップS168に進む。ステップS168では入力スイッ
チ部12の登録キーがオンしたか否かを判別する。登録
キーがオンしていなければステップS154に戻って同
様のループを繰り返す。例えば、「鼻」以外のパーツに
ついて、必要に応じてその形状や位置の修正を行う。そ
して、修正が終了し登録キーをオンすると、ステップS
170に進んでワークRAM32に修正画像を記録す
る。その後、最初のステップS100にリターンする。
Then, in step S162, it is determined whether or not the position correction key of the input switch section 12 is turned on. If the position correction key is turned on, the process proceeds to step S164 to move the part display position. Then, step S166.
The coordinates stored in the area of the corresponding portion of the work RAM 32 are changed with. Thereby, for example, when “nose” is selected as the part, the position of “nose” is moved and displayed on the first display unit 11. Then, step S16
Go to 8. On the other hand, if the position correction key is not turned on, the process skips steps S164 and S166 and proceeds to step S168. In step S168, it is determined whether or not the registration key of the input switch unit 12 is turned on. If the registration key is not turned on, the process returns to step S154 and the same loop is repeated. For example, the shape and position of parts other than the "nose" are corrected as necessary. When the correction is completed and the registration key is turned on, step S
Proceeding to 170, the corrected image is recorded in the work RAM 32. Then, the process returns to the first step S100.

【0046】このように、第1表示部11に表示された
似顔絵画像に対し、オペレータにより任意の修正対象パ
ーツを指定するとともに、そのパーツ画像を所望のパー
ツ画像に入れ替えたり、その位置を移動したりして似顔
絵画像を修正した状態で、登録キーを操作すると、現表
示状態にある似顔絵画像を構成する各パーツ画像の番号
が似顔絵画像データとしてワークRAM32に書き込ま
れて登録される。したがって、以後は個人データを指定
することにより、ワークRAM32から似顔絵画像デー
タを読み出して第1表示部11に表示させることができ
る。その場合、例えば正面の似顔絵画像データを読み出
すと、図10(A)に示すようなモンタージュ画が得ら
れる。また、顔の向きを変えて右側面の似顔絵画像デー
タを読み出すと、図10(B)に示すようなモンタージ
ュ画が得られる。また、ワークRAM32に似顔絵画像
データが登録された後、印刷キーを操作すると、登録さ
れている似顔絵画像データに従って対応する各似顔絵画
像パーツ画像がパーツ画像ROM30から読み出され、
これら似顔絵画像パーツ画像の組み合せによる似顔絵画
像データが印刷駆動部25に送出される。このため、こ
の似顔絵画像データに対応した似顔絵画像が印刷部26
によりラベルテープ4に印刷されることになる。
As described above, the operator designates an arbitrary part to be corrected with respect to the portrait image displayed on the first display section 11 and replaces the part image with a desired part image or moves the position. For example, when the registration key is operated with the portrait image corrected, the numbers of the respective part images forming the portrait image in the current display state are written and registered in the work RAM 32 as portrait image data. Therefore, thereafter, by designating the personal data, the portrait image data can be read from the work RAM 32 and displayed on the first display unit 11. In that case, for example, when the front face portrait image data is read, a montage image as shown in FIG. 10A is obtained. When the face orientation is changed and the portrait image data on the right side is read, a montage image as shown in FIG. 10B is obtained. Further, when the print key is operated after the portrait image data is registered in the work RAM 32, each corresponding portrait image parts image is read from the parts image ROM 30 in accordance with the registered portrait image data,
The portrait image data obtained by combining these portrait image part images is sent to the print drive unit 25. Therefore, the portrait image corresponding to this portrait image data is printed by the printing unit 26.
Thus, the label tape 4 is printed.

【0047】このように本実施例では、CCDカメラ部
2により顔の画像データを撮像入力して読み取り、読み
取った顔画像データを一旦入力画像メモリ28に記憶
し、記憶した顔画像データから顔の各部位毎に部分画像
を抽出し、抽出した部分画像の向きデータ、各部位毎の
位置データをワークRAM32に記憶し、また、パーツ
画像ROM30に予め顔の各部を髪、目、鼻、口等の部
位に分けて、各部位毎に複数種類のパーツ画像を記憶し
ておき、ワークRAM32に記憶しておいて部分画像に
対応するパーツデータと、パーツ画像ROM30に記憶
した顔の各部位毎の複数種類のパーツ画像とを比較照合
し、その一致度数の順位付けを行うとともに、それぞれ
の位置データに対応して組み合わせるマッチング処理を
各部位毎に繰り返すことにより、CCDカメラ部2の撮
像画像に対して理論上最も近似した似顔絵画像を合成表
示することが行われる。したがって、入力された顔の撮
像画像(実物の顔)に対応する似顔絵画像を作成する際
に、各パーツ画像の選択操作に手間がかかることがな
く、実物により近似した似顔絵画像を容易に作成するこ
とができる。
As described above, in this embodiment, the image data of the face is picked up and read by the CCD camera unit 2, the read face image data is temporarily stored in the input image memory 28, and the face image data is stored from the stored face image data. A partial image is extracted for each part, the orientation data of the extracted partial image and the position data for each part are stored in the work RAM 32, and each part of the face is previously stored in the parts image ROM 30 such as hair, eyes, nose, mouth, etc. A plurality of types of part images are stored separately for each part, and the part data corresponding to the partial image stored in the work RAM 32 and each part of the face stored in the part image ROM 30 are stored. It compares and collates multiple types of parts images, ranks the matching frequencies, and repeats the matching process for combining each position data for each part. And by, it is performed to synthesize displaying the portrait image that best theoretical approximate the captured image of the CCD camera unit 2. Therefore, when creating a portrait image corresponding to the input captured image of the face (actual face), it does not take time and effort to select each part image, and a portrait image more closely resembling the actual one can be easily created. be able to.

【0048】次に、図11〜図16は本発明に係る顔画
像作成装置および顔画像用データ記憶装置の第2実施例
を示す図である。図11は本発明を電子手帳に適用した
場合における電子手帳の正面図である。図11におい
て、この電子手帳51は一対の本体51a、51bをそ
れぞれ左右に開いた状態を示している。電子手帳51の
本体51bの上部には第1実施例と同様にCCDカメラ
部(入力画像データ読取手段)52が配置されている。
また、電子手帳51の本体51bにおけるCCDカメラ
部52の下側には第2表示部53、データ入力キー54
が順次配置されている。第2表示部53およびデータ入
力キー54の内容は第1実施例の場合と同様である。な
お、第2表示部53にはCCDカメラ部2で撮像した顔
画像52aが図示されている。電子手帳51の本体51
bの下方には図示は略しているが、第1実施例の場合と
同様にラベルテープを印刷可能な印刷部が内蔵されてい
る。
Next, FIGS. 11 to 16 are views showing a second embodiment of the face image forming apparatus and the face image data storage apparatus according to the present invention. FIG. 11 is a front view of an electronic notebook when the present invention is applied to the electronic notebook. In FIG. 11, the electronic notebook 51 shows a state in which the pair of main bodies 51a and 51b are opened to the left and right respectively. A CCD camera section (input image data reading means) 52 is arranged above the main body 51b of the electronic notebook 51 as in the first embodiment.
A second display section 53 and a data input key 54 are provided below the CCD camera section 52 in the main body 51b of the electronic notebook 51.
Are arranged in sequence. The contents of the second display portion 53 and the data input key 54 are the same as in the case of the first embodiment. The second display section 53 shows the face image 52a captured by the CCD camera section 2. Main body 51 of electronic notebook 51
Although not shown in the figure below b, a printing unit capable of printing a label tape is built in as in the case of the first embodiment.

【0049】一方、電子手帳51の本体51aには上部
側から第1表示部61、入力スイッチ部62、オン/オ
フキー63が配置されている。第1表示部61およびオ
ン/オフキー63の内容は第1実施例の場合と同様であ
る。なお、第1表示部61には画像処理中の顔画像61
aが図示されている。入力スイッチ部62は電子手帳5
1によって人物の似顔絵画像を作成する場合に必要な各
種の操作を行うためのもので、具体的には「個人」、
「スタート」、「画像入力」、「表示」、「終了」の5
つのキーがある。なお、これらのキーは、例えば薄いシ
ートタイプのキースイッチが用いられる。各キーの内、
「個人」、「画像入力」、「表示」、「終了」の機能は
第1実施例と同様である。「スタート」キーは時間経過
に従って動く動画像を開始させるときの操作用のスイッ
チである。第2実施例の顔画像作成装置の構成を示すブ
ロック図は前記実施例と同様であ、図示を略している
が、CPUは動く顔画像を時間の経過に従って顔の向
き、顔の各部位毎のパーツ番号、位置データなどの形で
順番に登録しておくことにより、再生時には登録済みの
各パーツ番号等のデータに基づいて予め用意されている
パーツ画像を組み合せて顔画像として復元するような処
理を行う。また、パーツ画像ROMは前記実施例と同様
に図3で示すような内容で各部位のパーツ画像を記憶し
ている。
On the other hand, on the main body 51a of the electronic notebook 51, a first display portion 61, an input switch portion 62, and an on / off key 63 are arranged from the upper side. The contents of the first display portion 61 and the on / off key 63 are the same as in the first embodiment. It should be noted that the first display unit 61 displays on the face image 61 during image processing.
a is shown. The input switch section 62 is the electronic notebook 5
1 is for performing various operations necessary for creating a portrait image of a person, specifically, "personal",
"Start", "Image input", "Display", "End" 5
There are two keys. For these keys, for example, thin sheet type key switches are used. Of each key,
The functions of "individual", "image input", "display" and "end" are the same as in the first embodiment. The "start" key is an operation switch for starting a moving image that moves over time. Although the block diagram showing the configuration of the face image creating apparatus of the second embodiment is similar to that of the above embodiment and is not shown in the figure, the CPU shows moving face images for each face orientation and each face part over time. By sequentially registering in the form of part numbers, position data, etc., it is possible to reconstruct a face image by combining the part images prepared in advance based on the registered part number data etc. Perform processing. Further, the parts image ROM stores the parts image of each part with the contents as shown in FIG. 3 as in the above embodiment.

【0050】次に、作用を説明する。まず、電子手帳5
1の本体51a、51bをそれぞれ左右に開いてオン/
オフキー63を押すと、電子手帳51に電源が供給さ
れ、動作が開始する。以後は後述のプログラムを実行す
ることにより、個人データの入力や似顔絵画像作成処理
が行われる。図12は本実施例の電子手帳51を使用し
た似顔絵画像作成処理のプログラムを示すフローチャー
トである。このプログラムがスタートすると、まずステ
ップS200で表示スイッチがオンしているか否かを判
別する。表示スイッチとは、入力スイッチ部62におけ
る表示キーのことで、表示スイッチがオンしていると、
第1表示部61が作動して画像を表示可能になり、ステ
ップS202に進み、既に作成された似顔絵画像を選択
して表示する処理を行う。また、表示スイッチがオンし
ていなければステップS204に分岐し、実際の人物画
像から似顔絵画像を作成する処理を実行する。 A.似顔絵画像選択処理のルーチン 最初に、似顔絵画像選択処理のルーチンから説明する。
ステップS202で検索データが入力されたか否かを判
別する。検索データとは作成された似顔絵画像を選択す
るためのデータであり、例えば個人データがある。検索
データが入力されていなければステップS200に戻
り、検索データが入力ていると、ステップS206に進
んで検索データによりワークRAMにおける個人データ
の中から対応するデータを検索して第1表示部61に表
示する。
Next, the operation will be described. First, electronic notebook 5
1 main body 51a, 51b open to the left and right respectively on /
When the off key 63 is pressed, power is supplied to the electronic notebook 51 and the operation starts. After that, by executing the program described later, the personal data is input and the portrait image creation process is performed. FIG. 12 is a flow chart showing a program for portrait image creation processing using the electronic notebook 51 of this embodiment. When this program starts, it is first determined in step S200 whether the display switch is on. The display switch is a display key in the input switch section 62. When the display switch is on,
The first display unit 61 is activated to be able to display an image, and the process proceeds to step S202 to perform the process of selecting and displaying the portrait image that has already been created. If the display switch is not turned on, the process branches to step S204, and a process of creating a portrait image from an actual person image is executed. A. Routine of portrait image selection processing First, the routine of portrait image selection processing will be described.
In step S202, it is determined whether search data has been input. The search data is data for selecting the created portrait image, and is, for example, personal data. If search data has not been input, the process returns to step S200, and if search data has been input, the process proceeds to step S206 and the corresponding data is searched from the personal data in the work RAM by the search data and displayed on the first display unit 61. indicate.

【0051】ここで、図13はワークRAMの記憶例を
示すもので、例えば人物の個人データに対応して1人ず
つの顔の特徴が、顔の撮像時の経過時間(つまり、最初
に撮像を開始してからの経過時間)T1〜Tn、各経過
時間T1〜Tnに対応するそれぞれの顔画像(A)、顔
画像(B)〜顔画像(N)、顔の各部位毎のパーツ画像
番号、各部位の位置データ(パーツデータ)をパラメー
タとしてそれぞれ所定のエリアに格納されている。ま
た、この場合、撮像時の経過時間T1〜Tnに対応して
輪郭、髪、目、・・・等のパーツ画像番号が、例えばそ
れぞれ[50]、[02]、[50]、・・・というよ
うにして所定のエリアに格納されているとともに、輪
郭、髪、目、・・・等のパーツの位置データがそれぞれ
例えば[x1、y1]、[x2、y2]、[x3、y
3]、・・・・というようにして所定のエリアに格納さ
れている。[x1、y1]、[x2、y2]、[x3、
y3]、・・・・という各値は、画面上の位置を指定す
る座標値であり、位置の修正に応じた絶対位置からの差
分データである。したがって、位置の修正がない場合に
は座標値が[0、0]となる。
Here, FIG. 13 shows an example of the storage of the work RAM. For example, the facial features of each person corresponding to the personal data of the person are the elapsed time at the time of photographing the face (that is, the first photographing). T1 to Tn, each face image (A) corresponding to each elapsed time T1 to Tn, face image (B) to face image (N), and a part image for each part of the face The number and the position data (parts data) of each part are stored as parameters in predetermined areas. Further, in this case, the part image numbers such as contour, hair, eyes, ... Corresponding to the elapsed times T1 to Tn at the time of imaging are, for example, [50], [02], [50] ,. Thus, the position data of parts such as contours, hairs, eyes, ... Are stored in a predetermined area in this way, for example, [x1, y1], [x2, y2], [x3, y
3], ..., And stored in a predetermined area. [X1, y1], [x2, y2], [x3,
Each value of y3], ... Therefore, when the position is not corrected, the coordinate value is [0,0].

【0052】そして、例えば経過時間T1に対応する顔
画像(A)についての各部位毎のパーツ画像番号および
各部位の位置データを有する顔の部位としての各パーツ
画像をそれぞれ組み合せて合成することにより、1つの
モンタージュ画が作成される。したがって、入力された
検索データが個人データである場合には、該当する個人
データを照合し、一致する人物のものが選択されて第1
表示部61に表示されることになる。例えば、個人デー
タとしての氏名:甲住所:○○電話番号:○○血液型:
○趣味:○○の何れかが入力されると、該当する人物と
して図13の第1番目のエリアに格納されている甲なる
人物の個人データが選択されて第1表示部61に表示さ
れる。
Then, for example, by combining and synthesizing each part image as a face part having the part image number of each part of the face image (A) corresponding to the elapsed time T1 and the position data of each part, One montage picture is created. Therefore, if the input search data is personal data, the corresponding personal data is collated and the matching person's data is selected.
It will be displayed on the display unit 61. For example, the name as personal data: Address A: Phone number: ○ Blood type:
○ Hobby: When any of ○○ is input, the personal data of the person A who is stored in the first area of FIG. 13 is selected and displayed on the first display unit 61 as the corresponding person. .

【0053】次いで、ステップS208で顔の撮像時の
経過時間(つまり、最初に撮像を開始してからの経過時
間)を格納するCPU21内のレジスタTを"0"にクリ
アするとともに、フラグKを"1"にセットする。フラグ
Kは個人データが入力された場合にセットされ、終了キ
ーが押された場合にリセットされるものである。次い
で、ステップS210で検索された個人データに対応す
る顔画像(モンタージュ画:すなわち、似顔絵画像)の
記憶されているワークRAMのエリアの中の指定された
顔画像データを読み出して第1表示部61に表示する。
これにより、個人データを基に既に作成された似顔絵画
像の中から1つがピックアップされて表示される。例え
ば、個人データとして上記のように人物甲に関連するデ
ータが入力された場合には、図13に示す人物甲に対応
する撮像時の経過時間、顔画像、顔の各部位毎のパーツ
画像番号、各部位の位置データ(パーツデータ)を基に
した1つの似顔絵画像が画像として表示される。したが
って、人物甲に対応する似顔絵画像は撮像時の経過時間
や顔の向き等に応じて複数のものがあるが、その中の1
つが選択されて表示されることになる。次いで、ステッ
プS212で終了スイッチ(終了キー)がオンしたか否
かを判別し、終了スイッチがオンしていなければステッ
プS200に戻って同様のループを繰り返する。そし
て、最終的に検索データに対応する所望の似顔絵画像を
第1表示部61に表示させる。検索データに対応する所
望の似顔絵画像が第1表示部61に表示されると、ステ
ップS214に進んでフラグKを"0"にリセットし、ス
テップS200に戻る。
Next, in step S208, the register T in the CPU 21 which stores the elapsed time during the image pickup of the face (that is, the elapsed time after the first image pickup is started) is cleared to "0", and the flag K is set. Set to "1". The flag K is set when personal data is input, and reset when the end key is pressed. Next, the designated face image data in the area of the work RAM in which the face image (montage image: that is, a portrait image) corresponding to the personal data retrieved in step S210 is stored is read out, and the first display unit 61 is read. To display.
As a result, one of the portrait images already created based on the personal data is picked up and displayed. For example, when the data relating to the human instep as described above is input as the personal data, the elapsed time at the time of imaging corresponding to the instep, the face image, and the part image number for each part of the face are input. , One portrait image based on the position data (parts data) of each part is displayed as an image. Therefore, there are a plurality of portrait images corresponding to the human instep depending on the elapsed time at the time of image capturing, the face direction, etc.
Will be selected and displayed. Next, in step S212, it is determined whether or not the end switch (end key) is turned on. If the end switch is not turned on, the process returns to step S200 and the same loop is repeated. Finally, the desired portrait image corresponding to the search data is displayed on the first display unit 61. When the desired portrait image corresponding to the search data is displayed on the first display unit 61, the process proceeds to step S214, the flag K is reset to "0", and the process returns to step S200.

【0054】B.似顔絵画像作成処理のルーチンステッ
プS200から分岐してステップS204に進み、この
ステップS204でイメージデータを入力する。すなわ
ち、入力スイッチ部62の画像入力キーをオンすること
より、似顔絵画像の対象としてCCDカメラ部52で撮
像したオペレータの顔画像データがビデオ信号としてイ
メージデータ入力部23に供給される。これにより、イ
メージデータ入力部に供給された1フィールド分のビデ
オ信号がY/C分離部23aからA/D変換部23bを
介して1画面分のデジタル画像データに変換される。次
いで、ステップS216でイメージデータ補正を行う。
これにより、デジタル画像データに変換された1画面分
の顔画像データに対して、その背景部分に存在する余分
な画像データが消去されて補正される。次いで、ステッ
プS218で入力イメージデータをCPU21から入力
画像メモリ28に対して転送して入力画像メモリ28に
記憶するとともに、第2表示部53に表示する。これに
より、CCDカメラ部52によって撮像されたオペレー
タの顔画像が第2表示部53に表示されることになる。
B. From the routine step S200 of the portrait image creating process, the process branches from step S200 to step S204, and the image data is input in step S204. That is, by turning on the image input key of the input switch unit 62, the face image data of the operator captured by the CCD camera unit 52 as a portrait image target is supplied to the image data input unit 23 as a video signal. As a result, the video signal for one field supplied to the image data input section is converted from the Y / C separation section 23a to digital image data for one screen through the A / D conversion section 23b. Next, in step S216, image data correction is performed.
As a result, with respect to the one-screen face image data converted into digital image data, the extra image data existing in the background portion is erased and corrected. Next, in step S218, the input image data is transferred from the CPU 21 to the input image memory 28, stored in the input image memory 28, and displayed on the second display unit 53. As a result, the face image of the operator captured by the CCD camera unit 52 is displayed on the second display unit 53.

【0055】次いで、ステップS220で入力スイッチ
部62のスタートキー(スタートスイッチ)がオンした
か否かを判別する。スタートキーがオンしていればステ
ップS222でフラグPを"1"にセットする。フラグP
は撮像されたオペレータの顔画像を取り込む動作を開始
させるためのものである。また、同ステップS222で
撮像時の経過時間を格納するCPU21内のレジスタT
を"0"にクリアする。その後、ステップS224に進
む。一方、ステップS220でスタートキーがオンして
いなければステップS222をジャンプしてステップS
224に進む。
Next, in step S220, it is determined whether or not the start key (start switch) of the input switch section 62 is turned on. If the start key is on, the flag P is set to "1" in step S222. Flag P
Is for starting the operation of capturing the imaged face image of the operator. Further, in the same step S222, the register T in the CPU 21 that stores the elapsed time at the time of imaging is stored.
Is cleared to "0". Then, it progresses to step S224. On the other hand, if the start key is not turned on in step S220, step S222 is jumped to step S222.
Proceed to 224.

【0056】ステップS224では撮像時の経過時間T
が予め定められた最大値(max)になったか否かを判
別する。最大値(max)は顔の撮像時の経過時間を所
定の値に規制するもので、例えば最初に撮像を開始して
からの最終的な経過時間Tnに対応する値に設定され
る。ステップS224で撮像時の経過時間Tが最大値
(max)に等しくなければステップS100に戻って
同様のループを繰り返す。これにより、CCDカメラ部
52で撮像したオペレータの顔画像データが一定時間間
隔でビデオ信号としてイメージデータ入力部23に供給
され、1画面分のデジタル画像データに変換された後、
補正されて入力画像メモリ28に記憶され、その間の画
像は第2表示部53に表示される。そして、ステップS
224で撮像時の経過時間Tが最大値(max)に等し
くなると、ステップS226に進んでフラグPを"0"に
クリアし、ステップS200に戻る。これにより、CC
Dカメラ部52で撮像したオペレータの顔画像データの
取り込みが終了する。
In step S224, the elapsed time T during image pickup is
Is determined to be a predetermined maximum value (max) or not. The maximum value (max) regulates the elapsed time at the time of imaging the face to a predetermined value, and is set to a value corresponding to the final elapsed time Tn after the first imaging is started, for example. If the elapsed time T at the time of imaging is not equal to the maximum value (max) in step S224, the process returns to step S100 and the same loop is repeated. As a result, the operator's face image data captured by the CCD camera unit 52 is supplied to the image data input unit 23 as a video signal at regular time intervals and converted into digital image data for one screen.
The corrected image is stored in the input image memory 28, and the image in the meantime is displayed on the second display section 53. And step S
When the elapsed time T at the time of imaging becomes equal to the maximum value (max) in 224, the process proceeds to step S226, the flag P is cleared to "0", and the process returns to step S200. This allows CC
The capture of the operator's face image data captured by the D camera unit 52 ends.

【0057】図14はインターラプト1処理のプログラ
ムを示すフローチャートである。このプログラムは時間
経過に従って動くモンタージュ画像を表示するもので、
割り込みにより一定時間毎に繰り返される。この割り込
みルーチンがスタートすると、まずステップS250で
フラグKが"1"にセットされているか否かを判別する。
フラグKは個人データが入力された場合にセットされ、
終了キーが押された場合にリセットされるものであるか
ら、個人データが入力されていればK=1となってステ
ップS252に進み、終了キーが押されていればK=0
となって今回のルーチンを終了する。ステップS252
では画像表示の経過時間Tを[1]だけインクリメント
する。次いで、ステップS254でワークRAM32内
の指定された個人データに対応するエリア内の経過時間
を検索する。例えば、個人データとして人物甲に関連す
るデータが入力された場合には、図13に示す人物甲に
ついてエリア内の経過時間を検索する。ワークRAM3
2には図13に示すような各データが格納されており、
個人データとして人物甲に関連するデータが入力されれ
ば、今回は人物甲についてエリア内の経過時間T1〜T
nの項目を検索することになる。
FIG. 14 is a flow chart showing a program for the interrupt 1 processing. This program displays montage images that move over time,
It is repeated at regular intervals by interruption. When this interrupt routine starts, it is first determined in step S250 whether or not the flag K is set to "1".
Flag K is set when personal data is entered,
Since it is reset when the end key is pressed, if personal data is input, K = 1 and the process proceeds to step S252, and if the end key is pressed, K = 0.
And this routine is finished. Step S252
Then, the elapsed time T of image display is incremented by [1]. Then, in step S254, the elapsed time in the area corresponding to the specified personal data in the work RAM 32 is searched. For example, when data related to the person A is input as personal data, the elapsed time in the area is searched for the person A shown in FIG. Work RAM3
2 stores each data as shown in FIG. 13,
If the data related to the person A is input as personal data, this time, the elapsed time T1 to T
n items will be searched.

【0058】次いで、ステップS256で画像表示の経
過時間Tと同一の経過時間(すなわち、T1〜Tn)が
あるか否かを判別する。つまり、画像表示の経過時間T
がT1〜Tnの何れかに等しいか否かを判別する。画像
表示の経過時間TがT1〜Tnの何れかに等しければス
テップS258で対応する顔画像データを指定する。例
えば、画像表示の経過時間TがT1に等しいときは、図
13に示す人物甲についてのエリア内の経過時間T1に
対応する顔画像データが指定され、CPU21によって
取り出されて表示駆動部27あるいは印刷駆動部25に
送られる。これにより、人物甲についての経過時間T1
に対応する似顔絵画像が第2表示部63に表示される。
また、必要に応じて人物甲についての経過時間T1に対
応する似顔絵画像を印刷することもできる。ステップS
258を経ると、ステップS260に進む。また、ステ
ップS256で画像表示の経過時間TがT1〜Tnの何
れにも等しくなければステップS258をジャンプして
ステップS260に進む。
Then, in step S256, it is determined whether or not there is the same elapsed time (that is, T1 to Tn) as the elapsed time T of image display. That is, the elapsed time T of image display
Is equal to any of T1 to Tn. If the elapsed time T of image display is equal to any of T1 to Tn, the corresponding face image data is designated in step S258. For example, when the elapsed time T of image display is equal to T1, the face image data corresponding to the elapsed time T1 in the area of the person A shown in FIG. It is sent to the drive unit 25. As a result, the elapsed time T1 for the person A
The portrait image corresponding to is displayed on the second display unit 63.
Further, a portrait image corresponding to the elapsed time T1 of the person A can be printed if necessary. Step S
After 258, the process proceeds to step S260. If the elapsed time T of image display is not equal to any of T1 to Tn in step S256, the process jumps to step S258 and proceeds to step S260.

【0059】ステップS260では画像表示の経過時間
Tが予め定められた最大値(max)になったか否かを
判別する。最大値(max)は画像表示の経過時間を所
定の値に規制するもので、例えば図13に示す最終的な
経過時間Tnに対応する値に設定される。ステップS2
60で画像表示の経過時間Tが最大値(max)に等し
くなければ今回のルーチンを終了し、次回の割り込みタ
イミングを待ってルーチンを繰り返す。これにより、次
回のルーチンでは経過時間T2に対応する顔画像データ
が指定され、CPU21によって取り出されて表示駆動
部27あるいは印刷駆動部25に送られることになる。
そして、ステップS260で画像表示の経過時間Tが最
大値(max)に等しくなると、ステップS262に進
んでTを"0"に戻し、今回のルーチンを終了し、次回の
割り込みタイミングを待つ。したがって、例えば個人デ
ータとして[氏名:甲]に関連するデータを入力した場
合には、図13に示す人物甲についてエリア内の経過時
間T1〜Tnが順次検索され、各経過時間T1〜Tnに
対応する画像データが次々に指定されて取り出され、人
物甲に対応する似顔絵画像が順次第2表示部63に表示
される。また、必要に応じて人物甲についての経過時間
T1〜Tnに対応する似顔絵画像を順次印刷することも
できる。
In step S260, it is determined whether the elapsed time T of image display has reached a predetermined maximum value (max). The maximum value (max) regulates the elapsed time of image display to a predetermined value, and is set to a value corresponding to the final elapsed time Tn shown in FIG. 13, for example. Step S2
If the elapsed time T of image display is not equal to the maximum value (max) at 60, the routine of this time is ended, the routine is repeated waiting for the next interrupt timing. As a result, in the next routine, the face image data corresponding to the elapsed time T2 is designated, taken out by the CPU 21, and sent to the display drive unit 27 or the print drive unit 25.
Then, when the elapsed time T of image display becomes equal to the maximum value (max) in step S260, the process proceeds to step S262, T is returned to "0", the routine of this time is ended, and the next interrupt timing is awaited. Therefore, for example, when the data related to [Name: A] is input as the personal data, the elapsed times T1 to Tn in the area are sequentially searched for the person A shown in FIG. 13 and corresponding to the respective elapsed times T1 to Tn. The image data to be designated is sequentially designated and taken out, and the portrait images corresponding to the person's instep are sequentially displayed on the second display section 63. Further, the portrait images corresponding to the elapsed times T1 to Tn of the human instep can be sequentially printed as needed.

【0060】図15はインターラプト2処理のプログラ
ムを示すフローチャートである。このプログラムは時間
経過に従って動くモンタージュ画像を作成するもので、
割り込みにより一定時間毎に繰り返される。この割り込
みルーチンがスタートすると、まずステップS300で
フラグPが"1"にセットされているか否かを判別する。
フラグPは撮像されたオペレータの顔画像を取り込む動
作を開始させるためのものであるから、P=0のときは
今回のルーチンを終了し、次回の割り込みタイミングを
待つ。一方、P=1のときはステップS302に進んで
顔画像のパーツ画像に対応して今回のタイマー時間T
(すなわち、今回の計測値)をワークRAM32の所定
エリアにストアする。タイマー時間Tは図13に示すエ
リア内の経過時間T1〜Tnに合せるために、本割り込
みルーチンの実行毎にその経過時間を計測するためのも
のである。
FIG. 15 is a flow chart showing a program for the interrupt 2 processing. This program creates montage images that move over time,
It is repeated at regular intervals by interruption. When this interrupt routine starts, it is first determined in step S300 whether or not the flag P is set to "1".
Since the flag P is for starting the operation of capturing the face image of the operator who has been imaged, when P = 0, this routine is ended and the next interrupt timing is awaited. On the other hand, when P = 1, the process advances to step S302 to correspond to the part image of the face image and the current timer time T
(That is, the measured value of this time) is stored in a predetermined area of the work RAM 32. The timer time T is to measure the elapsed time each time the interrupt routine is executed in order to match the elapsed times T1 to Tn in the area shown in FIG.

【0061】次いで、ステップS303でタイマー時間
Tを[1]だけインクリメントする。インクリメントす
る値[1]は、例えば本割り込みルーチンの繰り返し時
間に対応する値である。これにより、最初のルーチンで
はT=[1]となり、エリア内の経過時間T1に対応す
る顔画像を作成する処理が行われる。次いで、ステップ
S304で顔の部位を指定するポインタNを[1]にす
る。次いで、ステップS306で第1表示部61に表示
されたイメージデータの中でN番目の部位を指定する。
したがって、最初はポインタN=[1]に対応して顔の
輪郭から指定され、以後、後述のステップS320でポ
インタNがインクリメントされることにより、髪型、
目、・・・というように指定されていく。次いで、ステ
ップS308でパーツ画像ROM30からN番目の部位
のパーツ画像および特定座標(位置データの座標)を読
み出す。
Next, in step S303, the timer time T is incremented by [1]. The incremented value [1] is, for example, a value corresponding to the repetition time of this interrupt routine. As a result, in the first routine, T = [1], and the process of creating a face image corresponding to the elapsed time T1 in the area is performed. Next, in step S304, the pointer N designating the face part is set to [1]. Next, in step S306, the Nth part in the image data displayed on the first display unit 61 is designated.
Therefore, at first, the hair contour is designated by the contour of the face corresponding to the pointer N = [1], and thereafter, the pointer N is incremented in step S320 to be described.
The eyes are designated as ... Next, in step S308, the part image and specific coordinates (coordinates of position data) of the N-th part are read from the part image ROM 30.

【0062】最初のルーチンではポインタN=[1]に
対応して顔の輪郭に対して、図13に示すようなパーツ
画像番号(例えば、[50])および位置データ(例え
ば、[x1、y1])が読み出される。次いで、ステッ
プS310では指定されたイメージデータの部位での特
定座標に対応する座標を検出する。これにより、撮像さ
れたオペレータの顔画像に対して、今回のポインタN=
[1]によって指定された輪郭という部位の座標が検出
される。次いで、ステップS312でパーツ画像とイメ
ージデータの部位との座標を合せてからその一致ドット
数をカウントする。これにより、今回のポインタN=
[1]のルーチンでは図13のエリアから読み出した輪
郭のパーツ画像とイメージデータの輪郭の画像とが一致
している部分のドット数がカウントされる。
In the first routine, the part image number (for example, [50]) and position data (for example, [x1, y1] as shown in FIG. 13 corresponding to the pointer N = [1] for the contour of the face. ]) Is read. Next, in step S310, the coordinates corresponding to the specific coordinates in the designated part of the image data are detected. As a result, the current pointer N =
The coordinates of the portion called the contour designated by [1] are detected. Next, in step S312, the coordinates of the part image and the part of the image data are matched, and the number of matching dots is counted. As a result, the current pointer N =
In the routine [1], the number of dots in the portion where the contour part image read from the area of FIG. 13 and the contour image of the image data match is counted.

【0063】次いで、ステップS314で一致ドット数
と座標の差分をワークRAM32にストアする。これに
より、今回のポインタN=[1]のルーチンでは輪郭の
パーツ画像とイメージデータの輪郭の画像との一致ドッ
ト数および輪郭のパーツ画像とイメージデータの各位置
の違いに相当する座標の差分がワークRAM32にスト
アされる。次いで、ステップS316で一致ドット数の
多いパーツ画像の番号(NO.)をワークRAM32に
ストアする。これにより、今回のポインタN=[1]の
ルーチンではイメージデータの輪郭の画像に対して最も
似ている輪郭のパーツ画像番号がワークRAM32にス
トアされ、似顔絵画像を作成する際の輪郭という部位の
パーツ画像が選択されたことになる。
Then, in step S314, the difference between the number of coincident dots and the coordinates is stored in the work RAM 32. As a result, in the routine of the pointer N = [1] this time, the number of coincident dots between the contour part image and the contour image of the image data and the difference in coordinates corresponding to the difference between each position of the contour part image and the image data are determined. It is stored in the work RAM 32. Next, in step S316, the number (NO.) Of the part image having a large number of matching dots is stored in the work RAM 32. As a result, in the routine of the pointer N = [1] this time, the part image number of the contour most similar to the contour image of the image data is stored in the work RAM 32, and the portion called the contour when creating the portrait image is stored. The part image has been selected.

【0064】次いで、ステップS318で全部位の指定
を終了したか否かを判別する。終了していなければ、ス
テップS320に進んでポインタNを[1]だけインク
リメントし、ステップS306に戻り、同様のループを
繰り返す。したがって、次のループでは、N=[2]と
なって髪型という部位が指定され、上記同様にして髪型
の画像に対して最も似ている髪型のパーツ画像番号がワ
ークRAM32にストアされ、似顔絵画像を作成する際
の髪型という部位のパーツ画像を選択する処理が行われ
る。以下同様にして、N=[3]の目、・・・というよ
うにして顔の全部の部位の画像に対して最も似ている部
位のパーツ画像番号がワークRAM32にストアされ、
似顔絵画像を作成する際の全ての部位のパーツ画像を選
択する処理が行われる。
Next, in step S318, it is determined whether or not the designation of all parts has been completed. If not completed, the process proceeds to step S320, the pointer N is incremented by [1], the process returns to step S306, and the same loop is repeated. Therefore, in the next loop, N = [2] is set and the part called the hairstyle is specified. In the same manner as above, the part image number of the hairstyle most similar to the hairstyle image is stored in the work RAM 32, and the portrait image is displayed. A process of selecting a part image of a part called a hairstyle when creating is performed. Similarly, the part image numbers of the parts most similar to the images of all the parts of the face are stored in the work RAM 32 in the same manner as N = [3] eyes, ...
The process of selecting the part images of all the parts when creating the portrait image is performed.

【0065】そして、全ての部位のパーツ画像の選択が
終了すると、ステップS318の判別結果がYESとな
り、割り込みルーチンを終了し、次回の割り込みタイミ
ングを待つ。そして、次回の割り込みルーチンではステ
ップS302で顔画像のパーツ画像に対応してT=
[2]となり、エリア内の経過時間T2に対応する顔画
像を作成する処理が行われる。以後同様にして割り込み
ルーチンの実行毎にT=[3]、T=[4]、・・・T
=[n]という順で、エリア内の経過時間T2、T3、
T4、・・・Tnに対応する各顔画像を作成する処理が
行われる。このように第2実施例では、オペレータの動
く顔画像を撮像し、時間の経過に従って顔の向き、顔の
各部位毎のパーツ番号、位置データなどの形で順番に登
録することが行われる。そして、再生時には登録済みの
各パーツ番号等のデータに基づいて予め用意されている
パーツ画像を組み合せて顔画像として復元される。した
がって、いわゆ動くモンタージュが再現することができ
る。
When the selection of the part images of all the parts is completed, the determination result of step S318 is YES, the interrupt routine is ended, and the next interrupt timing is waited for. Then, in the next interruption routine, in step S302, T = corresponding to the part image of the face image.
[2] is reached, and the processing for creating a face image corresponding to the elapsed time T2 in the area is performed. Thereafter, similarly, each time the interrupt routine is executed, T = [3], T = [4], ... T
= [N] in this order, the elapsed time T2, T3 in the area,
A process of creating each face image corresponding to T4, ... Tn is performed. As described above, in the second embodiment, the moving face image of the operator is captured and sequentially registered in the form of the face orientation, the part number of each part of the face, the position data, etc. as time passes. Then, at the time of reproduction, a part image prepared in advance based on the data such as registered part numbers is combined to be restored as a face image. Therefore, Iwayu moving montage can be reproduced.

【0066】例えば、図16(A)に示すように、撮像
開始から経過時間T1のときオペレータの動く顔画像
が、例えば正面の画像として撮像され、撮像画像に対す
るそのときの顔の向き、顔の各部位毎のパーツ番号、位
置データなどが求められて、経過時間T1とともに登録
される。同様に、撮像開始から経過時間T2のときはオ
ペレータの動く顔画像が、例えば正面の画像として撮像
され、撮像画像に対するそのときの顔の向き、顔の各部
位毎のパーツ番号、位置データなどが求められて、経過
時間T2とともに登録される。また、経過時間T3のと
きはオペレータの動く顔画像が、例えば正面の画像とし
て撮像され、撮像画像に対するそのときの顔の向き、顔
の各部位毎のパーツ番号、位置データなどが求められ
て、経過時間T3とともに登録される。なお、オペレー
タが横を向いたときには、例えば側面の画像として撮像
され、撮像画像に対するそのときの顔の向き、顔の各部
位毎のパーツ番号、位置データなどが同様にして求めら
れ、そのときの経過時間Txとともに登録される。
For example, as shown in FIG. 16 (A), a moving face image of an operator is captured as a front image, for example, as a front image at a time T1 from the start of image capturing, and the orientation of the face and the face at that time with respect to the captured image. The part number, position data, etc. for each part are obtained and registered together with the elapsed time T1. Similarly, when the elapsed time T2 has elapsed from the start of imaging, a moving face image of the operator is captured, for example, as a front image, and the orientation of the face at that time with respect to the captured image, the part number of each part of the face, position data, and the like are displayed. It is obtained and registered together with the elapsed time T2. Further, at the elapsed time T3, a moving face image of the operator is captured, for example, as a front image, and the orientation of the face at that time with respect to the captured image, the part number of each part of the face, position data, and the like are obtained. It is registered together with the elapsed time T3. When the operator turns sideways, for example, it is captured as a side image, and the face orientation at that time with respect to the captured image, the part number for each part of the face, position data, etc. are obtained in the same manner. It is registered together with the elapsed time Tx.

【0067】一方、モンタージュ画像の再生時には、最
初に撮像開始からの経過時間がT1のときに対応する登
録済みの顔の向き、顔の各部位毎のパーツ番号、位置デ
ータなどがワークRAM32の対応するエリアから読み
出されてパーツ画像が組み合わされ、16図(A)に示
すような正面のモンタージュ画像として復元される。以
後同様にして、経過時間T2のときに対応する登録済み
の顔の向き、顔の各部位毎のパーツ番号、位置データな
どがワークRAM32の対応するエリアから読み出され
てパーツ画像が組み合わされ、16図(B)に示すよう
な正面のモンタージュ画像として復元される。また、経
過時間T3のときには、対応する登録済みの顔の向き、
顔の各部位毎のパーツ番号、位置データなどがワークR
AM32の対応するエリアから読み出されてパーツ画像
が組み合わされ、16図(C)に示すような正面のモン
タージュ画像として復元される。したがって、時間経過
に従って登録済みの各パーツ番号等のデータに基づいて
予め用意されているパーツ画像を組み合せることで、オ
ペレータの動く顔画像が復元され、いわゆる動くモンタ
ージュ画像を再現することができる。
On the other hand, when the montage image is reproduced, the orientation of the registered face corresponding to the elapsed time from the start of image capturing for the first time T1 is corresponded to the work RAM 32 such as the part number of each part of the face and the position data. The parts images are read out from the area to be combined, and the parts images are combined to be restored as a front montage image as shown in FIG. Thereafter, similarly, the registered face orientation corresponding to the elapsed time T2, the part number of each part of the face, the position data, etc. are read from the corresponding area of the work RAM 32 and the part images are combined, It is restored as a front montage image as shown in FIG. When the elapsed time is T3, the corresponding registered face orientation,
The work number such as the part number and position data for each face part
The parts images are read out from the corresponding areas of the AM 32, combined, and restored as a front montage image as shown in FIG. Therefore, the moving face image of the operator is restored by combining the parts images prepared in advance based on the data such as the registered part numbers and the like over time, and a so-called moving montage image can be reproduced.

【0068】このように、本実施例による顔画像作成装
置は、顔の画像データを読み取る入力画像データ読取手
段と、この入力画像データ読取手段により読み取られた
顔画像データから顔の各部位毎に部分画像を抽出して記
憶するとともに、少なくとも抽出した部分画像の各部位
毎の位置データを記憶するパーツデータ記憶手段と、顔
の各部位毎に複数種類のパーツ画像を記憶するパーツ画
像記憶手段と、前記パーツデータ記憶手段に記憶された
各部位毎の部分画像と、前記パーツ画像記憶手段に記憶
された顔の各部位毎の複数種類のパーツ画像とをそれぞ
れ比較するデータ比較手段と、このデータ比較手段によ
る比較結果に基づいて前記パーツ画像記憶手段に記憶さ
れた各部位毎のパーツ画像をパーツデータ記憶手段に記
憶された位置データに対応して組み合せることにより、
顔画像を作成する画像合成手段と、を備えたことを特徴
とする。
As described above, the face image forming apparatus according to the present embodiment reads the input image data reading means for reading the image data of the face and the face image data read by the input image data reading means for each part of the face. Part data storage means for extracting and storing partial images, and at least position data for each part of the extracted partial image, and part image storage means for storing a plurality of types of part images for each part of the face Data comparison means for comparing the partial image of each part stored in the part data storage means with a plurality of types of part images of each part of the face stored in the part image storage means, and this data Based on the comparison result by the comparison means, the part image for each part stored in the part image storage means is stored in the position data storage means. By combining in response to,
And an image synthesizing unit that creates a face image.

【0069】また、好ましい態様として、前記入力画像
データ読取手段は、顔画像データを読み取る時点の時間
を計測する時間計測手段を備え、前記パーツデータ記憶
手段は、前記入力画像データ読取手段で読み取られた顔
画像データから顔の各部位毎に部分画像を抽出してその
部分画像を記憶するとき、前記時間計測手段により計測
された顔画像データを読み取る時点の時間を合せて記憶
するようにしてもよい。また、前記顔画像作成装置は、
前記画像合成手段によって作成された顔画像を表示、又
は印刷する手段を、さらに有するようにしてもよい。
As a preferred mode, the input image data reading means includes a time measuring means for measuring the time at which the face image data is read, and the part data storing means is read by the input image data reading means. When a partial image is extracted for each part of the face from the face image data and the partial image is stored, the time at which the face image data measured by the time measuring means is read may be stored together. Good. In addition, the face image creation device,
You may make it further have a means to display or print the face image produced by the said image synthesizing means.

【0070】また、別な実施例による顔画像用データ記
憶装置は、入力された顔の画像データを記憶する顔画像
データ記憶手段と、顔の各部位毎に当該部位を表す複数
種類のパーツ画像と当該部位を記憶するパーツ画像記憶
手段と、このパーツ画像記憶手段に記憶されている各パ
ーツ画像と前記顔画像データ記憶手段に記憶されている
画像データを構成する各部分画像とを各部位毎に比較す
る比較手段と、この比較手段による比較の結果、前記各
パーツ画像と前記各部分画像とが対応する場合、この対
応する各パーツ画像を指定するためのパーツ画像指定用
データを記憶するパーツ画像指定用データ記憶手段と、
を備えたことを特徴とする。好ましい態様として、前記
パーツ画像指定用データ記憶手段に記憶されている各パ
ーツ画像指定用データを読み出し、この読み出された各
パーツ画像指定用データに基づいて前記パーツ画像記憶
手段に記憶されている各パーツ画像を読み出して合成す
る合成手段と、この合成手段により合成された各パーツ
画像からなる顔の画像を表示する表示手段と、を備える
ようにしてもよい。
Further, a face image data storage device according to another embodiment is a face image data storage means for storing input face image data, and a plurality of types of part images representing each part of the face. And a part image storage unit for storing the part, each part image stored in the part image storage unit, and each partial image forming the image data stored in the face image data storage unit for each part. And a part storing the part image designation data for designating each corresponding part image when the respective part images correspond to the respective partial images as a result of the comparison by the comparing means. Image designation data storage means,
It is characterized by having. As a preferred mode, each part image designating data stored in the part image designating data storage means is read out and stored in the part image storing means based on the read out part image designating data. It is also possible to provide a synthesizing means for reading out and synthesizing the respective part images, and a display means for displaying a face image composed of the respective part images synthesized by the synthesizing means.

【0071】また、別な実施例による顔画像用データ記
憶装置は、順次入力された顔の画像データを、当該顔の
画像が入力された時間を表す時間データとともに記憶す
る顔画像データ記憶手段と、顔の各部位毎に当該部位を
表す複数種類のパーツ画像と当該部位を記憶するパーツ
画像記憶手段と、このパーツ画像記憶手段に記憶されて
いる各パーツ画像と前記顔画像データ記憶手段に記憶さ
れている画像データを構成する各部分画像とを各部位毎
に比較する比較手段と、この比較手段による比較の結
果、前記各パーツ画像と前記各部分画像とが対応する場
合、この対応する各パーツ画像を指定するためのパーツ
画像指定用データを、前記時間データとともに記憶する
パーツ画像指定用データ記憶手段と、を備えたことを特
徴とする。好ましい態様として、前記パーツ画像指定用
データ記憶手段に記憶されている各パーツ画像指定用デ
ータおよび時間データを読み出し、この読み出された各
パーツ画像指定用データに基づいて前記パーツ画像記憶
手段に記憶されている各パーツ画像を、読み出された時
間データで示される時間に従って順次読み出して合成す
る合成手段と、この合成手段により順次合成された各パ
ーツ画像からなる顔の画像を表示する表示手段と、を備
えるようにしてもよい。
Further, a face image data storage device according to another embodiment includes face image data storage means for storing sequentially input face image data together with time data indicating the time when the face image was input. , A plurality of types of part images representing each part of the face and a part image storage unit that stores the part, and each part image stored in the part image storage unit and the face image data storage unit Comparing means for comparing each partial image constituting the image data being processed for each part, and as a result of the comparison by this comparing means, when the respective part images correspond to the respective partial images, the corresponding respective And a part image designation data storage unit for storing the part image designation data for designating a part image together with the time data. As a preferred aspect, each part image designating data and time data stored in the part image designating data storage means are read out and stored in the part image storage means based on the read out each part image designating data. A synthesizing means for sequentially reading and synthesizing each of the part images being displayed in accordance with the time indicated by the read time data; and a display means for displaying a face image composed of the respective part images sequentially synthesized by the synthesizing means. , May be provided.

【0072】このような構成を有する本実施例によれ
ば、入力画像データ読取手段(例えば、CCDカメラ
部)により顔の画像データを入力して読み取り、読み取
った顔画像データから顔の各部位毎に部分画像を抽出し
て記憶し、少なくとも抽出した部分画像の各部位毎の位
置データはパーツデータ記憶手段に記憶される。一方、
パーツ画像記憶手段には顔の各部が髪、目、鼻、口等の
部位に分けられ、各部位毎に複数種類のパーツ画像が記
憶されており、このパーツデータ記憶手段に記憶された
部分画像に対応するパーツデータと、パーツ画像記憶手
段に記憶された顔の各部位毎の複数種類のパーツ画像と
が比較手段によって比較され、この比較結果に応じてパ
ーツ画像記憶手段に記憶された各部位毎のパーツ画像が
パーツデータ記憶手段に記憶された位置データに対応し
て組み合わされて顔画像が作成される。したがって、入
力された顔画像(実物の顔)に対応する似顔絵画像を作
成する際に、各パーツ画像の選択操作に手間がかかるこ
とがなく、実物により近似した似顔絵画像を容易に作成
することが可能になる。また、別な実施例では、動く顔
画像を時間の経過に従って、例えば顔の向き、顔の各部
位毎のパーツ番号、位置データなどの形で順番に登録し
ておくことにより、再生時には登録済みの各パーツ番
号、位置等のデータに基づいて予め用意されているパー
ツ画像を組み合せて顔画像として復元される。したがっ
て、いわゆる動くモンタージュ画のが再現が可能とな
る。
According to this embodiment having such a configuration, the image data of the face is input and read by the input image data reading means (for example, the CCD camera section), and each face part is read from the read face image data. The partial image is extracted and stored in, and at least the position data for each part of the extracted partial image is stored in the parts data storage means. on the other hand,
Each part of the face is divided into parts such as hair, eyes, nose, and mouth in the parts image storage means, and a plurality of types of parts images are stored for each part. The partial images stored in the parts data storage means. And the plurality of types of parts images for each part of the face stored in the parts image storage means are compared by the comparison means, and each part stored in the parts image storage means according to the comparison result. The face image is created by combining the part images of each of the parts corresponding to the position data stored in the part data storage means. Therefore, when creating a portrait image corresponding to the input face image (actual face), it does not take time and effort to select each part image, and it is possible to easily create a portrait image that is closer to the actual product. It will be possible. In another embodiment, the moving face image is registered in order as time passes, for example, the orientation of the face, the part number of each part of the face, the position data, and the like are registered in order. The face images are restored by combining the part images prepared in advance based on the data such as the respective part numbers and positions. Therefore, a so-called moving montage picture can be reproduced.

【0073】さらに、別な実施例では、入力された顔の
画像データをそのまま記憶するのではなく、その入力さ
れた顔画像データの代りに当該顔の画像データと対応す
る各パーツ画像を指定するためのパーツ画像指定用デー
タ(例えば、各パーツ画像番号又は各位置データ)を記
憶することが行われる。したがって、入力された顔画像
と極めて似ている顔を表示する際に使用されるデータの
記載容量が少なくなる。さらに、別な実施例では、極め
て少ない記憶容量のパーツ画像指定用データを用いて入
力された顔画像と極めて似ている顔を表示することが行
われる。さらに、別な実施例では、順次入力された顔の
画像データをそのまま記憶するのではなく、その入力さ
れた顔画像データの代りに当該顔の画像データと対応す
る各パーツ画像(例えば、各パーツ画像番号又は各位置
データ)を、当該顔の画像が入力された時間を表す時間
データとともに記憶することが行われる。したがって、
順次入力された顔画像と極めて似ている顔を時間の経過
に従って表示する際に使用されるデータの記載容量が極
めて少なくなる。さらに、別な実施例では、極めて少な
い記憶容量のパーツ画像指定用データおよび時間データ
を用いて、順次入力された顔画像と極めて似ている顔を
時間の経過に従って表示することが行われる。
Further, in another embodiment, the input face image data is not stored as it is, but instead of the input face image data, each part image corresponding to the face image data is designated. The part image designation data (for example, each part image number or each position data) is stored. Therefore, the description capacity of the data used when displaying a face very similar to the input face image is reduced. Further, in another embodiment, a face very similar to the face image input using the part image designation data having an extremely small storage capacity is displayed. Furthermore, in another embodiment, instead of storing the face image data sequentially input as they are, instead of the input face image data, each part image (for example, each part) corresponding to the face image data is stored. The image number or each position data) is stored together with the time data representing the time when the image of the face is input. Therefore,
The description capacity of the data used when displaying faces that are very similar to the sequentially input face images over time becomes extremely small. Furthermore, in another embodiment, the face image very similar to the sequentially input face images is displayed over time by using the part image designating data and the time data having an extremely small storage capacity.

【0074】本実施例によれば、入力画像データ読取手
段により顔の画像データを撮像入力して読み取り、読み
取った顔画像データから顔の各部位毎に部分画像を抽出
して記憶し、少なくとも抽出した部分画像の各部位毎の
位置データをパーツデータ記憶手段に記憶し、また、パ
ーツ画像記憶手段に予め顔の各部を髪、目、鼻、口等の
部位に分けて、各部位毎に複数種類のパーツ画像を記憶
しておき、パーツデータ記憶手段に記憶しておいて部分
画像に対応するパーツデータと、パーツ画像記憶手段に
記憶している顔の各部位毎の複数種類のパーツ画像とを
比較照合し、その比較結果に応じてパーツ画像記憶手段
に記憶された各部位毎のパーツ画像をパーツデータ記憶
手段に記憶された位置データに対応して組み合わせて顔
画像を作成しているので、入力された顔画像(実物の
顔)に対応する似顔絵画像を作成する際に、各パーツ画
像の選択操作に手間がかかることがなく、実物により近
似した似顔絵画像を容易に作成することができる。ま
た、別な実施例によれば、動く顔画像を時間の経過に従
って、例えば顔の向き、顔の各部位毎のパーツ番号、位
置データなどの形で順番に登録しておくことにより、再
生時には登録済みの各パーツ番号、位置データ等に基づ
いて予め用意されているパーツ画像を組み合せて顔画像
として復元することができ、いわゆる動くモンタージュ
画を容易に再現することができる。
According to the present embodiment, the image data of the face is picked up and read by the input image data reading means, the partial image is extracted and stored for each part of the face from the read face image data, and at least extracted. The position data of each part of the partial image is stored in the part data storage means, and each part of the face is divided into parts such as hair, eyes, nose, and mouth in advance in the part image storage means, and a plurality of parts are stored for each part. Various types of part images are stored, the part data corresponding to the partial image is stored in the part data storage unit, and a plurality of types of part images for each part of the face stored in the part image storage unit are stored. Are compared and collated, and in accordance with the comparison result, the part image for each part stored in the part image storage means is combined in correspondence with the position data stored in the part data storage means to create a face image. Therefore, when creating a portrait image corresponding to the input face image (real face), it does not take time and effort to select each part image, and it is easy to create a portrait image that is closer to the actual product. it can. According to another embodiment, moving face images are sequentially registered in the form of, for example, the orientation of the face, the part number of each part of the face, the position data, etc., in accordance with the passage of time. Part images prepared in advance based on registered part numbers, position data, etc. can be combined and restored as a face image, and so-called moving montage images can be easily reproduced.

【0075】さらに、別な実施例によれば、入力された
顔の画像データをそのまま記憶するのではなく、その入
力された顔画像データの代りに当該顔の画像データと対
応する各パーツ画像を指定するためのパーツ画像指定用
データ(例えば、上記実施例では各パーツ画像番号又は
各位置データ)を記憶するようにしているので、入力さ
れた顔画像と極めて似ている顔を表示する際に使用され
るデータの記載容量を極めて少ないものにすることがで
きる。請求項5記載の発明によれば、極めて少ない記憶
容量のパーツ画像指定用データを用いて入力された顔画
像と極めて似ている顔を表示することができる。さら
に、別な実施例によれば、順次入力された顔の画像デー
タをそのまま記憶するのではなく、その入力された顔画
像データの代りに当該顔の画像データと対応する各パー
ツ画像(例えば、上記実施例では各パーツ画像番号又は
各位置データ)を、当該顔の画像が入力された時間を表
す時間データとともに記憶するようにしているので、順
次入力された顔画像と極めて似ている顔を時間の経過に
従って表示する際に使用されるデータの記載容量を極め
て少ないものとすることができる。さらに、別な実施例
によれば、極めて少ない記憶容量のパーツ画像指定用デ
ータおよび時間データを用いて、順次入力された顔画像
と極めて似ている顔を時間の経過に従って表示すること
ができる。
Further, according to another embodiment, the input face image data is not stored as it is, but instead of the input face image data, each part image corresponding to the face image data is stored. Since the part image designation data for designating (for example, each part image number or each position data in the above embodiment) is stored, when displaying a face very similar to the input face image. The description capacity of the data used can be made extremely small. According to the invention of claim 5, it is possible to display a face very similar to the face image input using the part image designation data having an extremely small storage capacity. Further, according to another embodiment, instead of storing the face image data sequentially input as they are, instead of the input face image data, each part image corresponding to the face image data (for example, In the above embodiment, each part image number or each position data) is stored together with the time data representing the time when the face image is input. The description capacity of data used when displaying over time can be made extremely small. Further, according to another embodiment, it is possible to display a face very similar to a sequentially input face image with the lapse of time by using the part image designating data and the time data having an extremely small storage capacity.

【0076】[0076]

【発明の効果】本発明によれば、顔画像(例えば、実物
の顔画像)に対応する似顔絵画像を作成するにあたり、
似顔絵画像の対象となる顔画像の各部位の画像部分に対
応する各パーツ画像をそれぞれ自動的に配置し、この配
置された各パーツ画像の組み合わせで第1の似顔絵画像
を作成し、その後に、この第1の似顔絵画像の各パーツ
画像のうちの、少なくとも一つのパーツ画像を他のパー
ツ画像に置き換え、この置き換えられたパーツ画像と置
き換えられなかったパーツ画像との組み合わせで、第2
の似顔絵画像を作成することとしている。一方で、この
作成された第2の似顔絵画像と当該第2の似顔絵画像の
作成のために照合された前記顔画像に対応する個人に関
するデータとを対応付けて表示するように制御してい
る。よって、従来の場合と異なり、各パーツ画像の選択
操作に手間がかかることがなく、実物の顔に、より近似
した似顔絵画像を容易かつ迅速に作成することができる
ばかりでなく、作成された第2の似顔絵画像と当該第2
の似顔絵画像の作成のために照合された前記顔画像に対
応する個人に関するデータ(例えば、氏名、住所、電話
番号、年齢)とを対応付けて表示することができ第2
の似顔絵画像がどのような似顔絵画像であり、その似顔
絵画像の対象者がどのような個人に関するデータであっ
たかを迅速かつ確実に確認することができる
According to the present invention, in creating a portrait image corresponding to a face image (for example, a real face image),
Each part image corresponding to the image part of each part of the face image that is the target of the portrait image is automatically arranged, and a first portrait image is created by combining the arranged part images, and thereafter, At least one part image of each part image of the first portrait image is replaced with another part image, and the second part image is combined with the replaced part image and the part image that has not been replaced.
It is supposed to create a portrait image of. On the other hand, this
Of the created second portrait image and the second portrait image
For the individual corresponding to the face image matched for creation,
The data to be displayed is associated and displayed.
It Therefore, unlike the conventional case, it does not take time and effort to select each part image, and it is not only possible to easily and quickly create a caricature image that more closely resembles a real face, but also the first created image . 2 portrait images and the second
Of the face images matched to create the caricature image of
Data about the responding individual (eg name, address, phone)
Number, age) can be displayed in association with each other .
What kind of caricature image is a caricature image, and its caricature
What kind of person is the target of the pictorial image?
It is possible to quickly and surely confirm whether or not it is .

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る顔画像作成装置および顔画像作成
方法を適用した電子手帳の第1実施例の正面図である。
FIG. 1 is a front view of a first embodiment of an electronic notebook to which a face image creating apparatus and a face image creating method according to the present invention are applied.

【図2】同実施例の顔画像作成装置の構成を示すブロッ
ク図である。
FIG. 2 is a block diagram showing a configuration of a face image creating apparatus of the embodiment.

【図3】同実施例のパーツ画像ROMに記憶されている
顔の各部位のパーツ画像の一例を示す図である。
FIG. 3 is a diagram showing an example of a part image of each part of the face stored in a part image ROM of the embodiment.

【図4】同実施例のパーツ画像の照合一致ドット数およ
び順位番号を示す図である。
FIG. 4 is a diagram showing a matching match dot number and a rank number of a part image of the embodiment.

【図5】同実施例の個人データの入力・登録処理を行う
処理プログラムを示すフローチャートである。
FIG. 5 is a flow chart showing a processing program for inputting / registering personal data according to the embodiment.

【図6】同実施例の似顔絵画像作成処理のプログラムの
一部を示すフローチャートである。
FIG. 6 is a flowchart showing a part of a program for portrait image creation processing of the embodiment.

【図7】同実施例の似顔絵画像作成処理のプログラムの
一部を示すフローチャートである。
FIG. 7 is a flowchart showing a part of a program for portrait image creation processing of the embodiment.

【図8】同実施例のワークRAMの記憶内容の一例を示
す図である。
FIG. 8 is a diagram showing an example of stored contents of a work RAM of the same embodiment.

【図9】同実施例の顔画像の一例を示す図である。FIG. 9 is a diagram showing an example of a face image of the same embodiment.

【図10】同実施例の顔画像の一例を示す図である。FIG. 10 is a diagram showing an example of a face image of the same embodiment.

【図11】本発明に係る顔画像作成装置および顔画像作
成方法を適用した電子手帳の第2実施例の正面図であ
る。
FIG. 11 is a front view of a second embodiment of an electronic notebook to which the face image creating device and the face image creating method according to the present invention are applied.

【図12】同実施例の似顔絵画像作成処理のプログラム
を示すフローチャートである。
FIG. 12 is a flowchart showing a program of portrait image creation processing of the embodiment.

【図13】同実施例のワークRAMの記憶内容の一例を
示す図である。
FIG. 13 is a diagram showing an example of stored contents of a work RAM of the same embodiment.

【図14】同実施例のインターラプト1処理のプログラ
ムを示すフローチャートである。
FIG. 14 is a flowchart showing a program for interrupt 1 processing of the same embodiment.

【図15】同実施例のインターラプト2処理のプログラ
ムを示すフローチャートである。
FIG. 15 is a flowchart showing a program for an interrupt 2 process of the same embodiment.

【図16】同実施例の顔画像の一例を示す図である。FIG. 16 is a diagram showing an example of a face image of the embodiment.

【符号の説明】[Explanation of symbols]

1、51 電子手帳 2、52 CCDカメラ部(顔画像取得手段) 3、53 第2表示部 4 データ入力キー 11 第1表示部 12 入力スイッチ部 13 オン/オフキー 14 部位キー 21 CPU 21 キー入力部 23 イメージデータ入力部(顔画像取得手段) 24 画像マッチング部(照合手段) 26 印刷部 28 入力画像メモリ(顔画像記憶手段) 29 基本位置メモリ 30 パーツ画像ROM(パーツ記憶手段、第2の記憶
手段) 31 ROM 32 ワークRAM(パーツ記憶手段、第1の記憶手
段)
1, 51 Electronic notebook 2, 52 CCD camera section (face image acquisition means) 3, 53 Second display section 4 Data input key 11 First display section 12 Input switch section 13 On / off key 14 Site key 21 CPU 21 Key input section 23 Image Data Input Unit (Face Image Acquisition Unit) 24 Image Matching Unit (Verification Unit) 26 Printing Unit 28 Input Image Memory (Face Image Storage Unit) 29 Basic Position Memory 30 Parts Image ROM (Parts Storage Unit, Second Storage Unit) ) 31 ROM 32 Work RAM (parts storage means, first storage means)

フロントページの続き (56)参考文献 特開 平5−28237(JP,A) 塩野充 武田哲 村山智彦,顔画像か らの似顔絵作成システム,テレビジョン 学会誌,日本,社団法人テレビジョン学 会,1988年12月20日,Vol.42 N o.12,p1380−1386 (58)調査した分野(Int.Cl.7,DB名) G06T 11/60 - 13/00 G06F 17/30 Continuation of the front page (56) Reference JP-A-5-28237 (JP, A) Mitsuo Shiono, Satoshi Takeda, Tomohiko Murayama, portrait drawing system from facial images, Journal of the Television Society of Japan, Japan Television Society, December 20, 1988, Vol. 42 No. 12, p1380-1386 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 11/60-13/00 G06F 17/30

Claims (16)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 顔画像を記憶する顔画像記憶手段と、この顔画像記憶手段に記憶されている顔画像に対応する
個人に関するデータを記憶する個人データ記憶手段と、 顔を構成する髪,目,鼻,口等の各部位毎に複数種類の
パーツ画像を記憶しているパーツ画像記憶手段と、 このパーツ画像記憶手段に記憶されている複数種類のパ
ーツ画像と前記顔画像記憶手段に記憶されている顔画像
の各部位の画像部分とを各部位毎に照合する照合手段
と、 この照合手段による照合結果に応じて、前記パーツ画像
記憶手段に記憶されている各部位毎のパーツ画像を組み
合せて、前記顔画像に対応した第1の似顔絵画像を作成
する第1の似顔絵作成手段と、 この第1の似顔絵作成手段により作成された第1の似顔
絵画像を構成する各パーツ画像のうちの少なくとも一部
のパーツ画像を前記パーツ画像記憶手段に記憶されてい
る他のパーツ画像と置き換え、この置き換えられた他の
パーツ画像と置き換えられていないパーツ画像とを組み
合せて、第2の似顔絵画像を作成する第2の似顔絵作成
手段と、この第2の似顔絵作成手段により作成された第2の似顔
絵画像と当該第2の似顔絵画像の作成のために照合され
た前記顔画像に対応する個人に関するデータとを対応付
けて表示するように制御する表示制御手段と、 を具備したことを特徴とする似顔絵作成装置。
1. A face image storage unit for storing a face image, and a face image stored in the face image storage unit.
Personal data storage means for storing data relating to an individual, parts image storage means for storing a plurality of types of parts images for each part of the face such as hair, eyes, nose, mouth, etc., and this parts image storage means Collating means for collating a plurality of types of part images stored in the face image with the image portion of each part of the face image stored in the face image storing means, and a collating means according to the collating result by the collating means. A first portrait creation unit that creates a first portrait image corresponding to the face image by combining the part images for each part stored in the parts image storage unit; and the first portrait creation unit. Replace at least a part of the part images of each of the part images forming the first portrait image created by the above with another part image stored in the part image storage means, and perform the replacement. It was combined with the part image that have not been replaced by other parts image, and the second portrait creation means for creating a second portrait image, a second portrait created by the second image editing means
Matched to create the picture image and the second portrait image
Corresponds with the data related to the individual corresponding to the face image
And a display control means for controlling so that the portrait is displayed .
【請求項2】 顔画像を記憶する顔画像記憶手段と、この顔画像記憶手段に記憶されている顔画像に対応する
個人に関するデータを記憶する個人データ記憶手段と、 顔の各部を構成する髪,目,鼻,口等の各部位毎に形状
の異なる複数種類のパーツ画像を記憶しているパーツ画
像記憶手段と、 前記顔画像記憶手段に記憶された顔画像のうちの、少な
くとも目、鼻、口に対応した部分画像と、この少なくと
も目、鼻、口の部位と同じ部位における、前記パーツ画
像記憶手段に記憶された複数種類のパーツ画像とを照合
し、その一致度を判断する照合手段と、 この照合手段による照合の結果、前記複数種類のパーツ
画像のうち、最も一致度の高いパーツ画像を各部位毎に
前記パーツ画像記憶手段から読み出し、この読み出され
た各部位毎のパーツ画像を組み合せて、前記顔画像に対
応した似顔絵画像を作成する第1の似顔絵作成手段と、 この第1の似顔絵作成手段により作成された第1の似顔
絵画像を構成する各パーツ画像のうちの、少なくとも一
部のパーツ画像を前記パーツ画像記憶手段に記憶されて
いる他のパーツ画像と置き換え、この置き換えられた他
のパーツ画像と置き換えられていないパーツ画像とを組
み合せて、第2の似顔絵画像を作成する第2の似顔絵作
成手段と、この第2の似顔絵作成手段により作成された第2の似顔
絵画像と当該第2の似顔絵画像の作成のために照合され
た前記顔画像に対応する個人に関するデータとを対応付
けて表示するように制御する表示制御手段と、 を具備したことを特徴とする似顔絵作成装置。
2. A face image storing means for storing a face image and a face image stored in the face image storing means.
Personal data storage means for storing data relating to an individual, and parts image storage means for storing a plurality of types of parts images having different shapes for each part such as hair, eyes, nose, mouth, etc., which constitute each part of the face, Of the face images stored in the face image storage means, at least partial images corresponding to the eyes, nose, and mouth, and at least the same parts of the eyes, nose, and mouth are stored in the parts image storage means. The matching means for matching the plurality of types of part images and determining the degree of matching, and the result of the matching by the matching means, the part image having the highest degree of matching among the plurality of types of part images First portrait drawing means for creating a portrait image corresponding to the face image by combining the read part images of each part, which is read from the part image storage means, and the first portrait image Of each part image forming the first portrait image created by the creating means, at least a part of the part images is replaced with another part image stored in the part image storing means, and the replaced part image is replaced. by combining the part images that have not been replaced by part image, and the second portrait creation means for creating a second portrait image, a second portrait created by the second image editing means
Matched to create the picture image and the second portrait image
Corresponds with the data related to the individual corresponding to the face image
And a display control means for controlling so that the portrait is displayed .
【請求項3】 顔画像を記憶する顔画像記憶手段と、この顔画像記憶手段に記憶されている顔画像に対応する
個人に関するデータを記憶する個人データ記憶手段と、 前記 顔画像記憶手段に記憶された顔画像から顔の各部位
毎に画像部分を抽出して記憶するとともに、この抽出し
た画像部分の各部位毎の位置データを記憶する第1の記
憶手段と、 顔の各部位毎に複数種類のパーツ画像を記憶している第
2の記憶手段と、 この第2の記憶手段に記憶されている複数種類のパーツ
画像と前記顔画像記憶手段に記憶されている顔画像の各
部位の画像部分とを各部位毎に照合する照合手段と、 この照合手段による照合結果に基づいて、前記第2の記
憶手段に記憶された各部位毎のパーツ画像を前記第1の
記憶手段に記憶された位置データに対応した位置にそれ
ぞれ配置し、この配置された各部位毎のパーツ画像を組
み合せて、前記顔画像に対応した似顔絵画像を作成する
第1の似顔絵作成手段と、 この第1の似顔絵作成手段により作成された第1の似顔
絵画像を構成する各パーツ画像のうちの、少なくとも一
部のパーツ画像を前記パーツ画像記憶手段に記憶されて
いる他のパーツ画像と置き換え、この置き換えられた他
のパーツ画像と置き換えられていないパーツ画像とを組
み合せて、第2の似顔絵画像を作成する第2の似顔絵作
成手段と、この第2の似顔絵作成手段により作成された第2の似顔
絵画像と当該第2の似顔絵画像の作成のために照合され
た前記顔画像に対応する個人に関するデータとを対応付
けて表示するように制御する表示制御手段と、 を備えたことを特徴とする顔画像作成装置。
3. A face image storing means for storing a face image and a face image stored in the face image storing means.
And personal data storing means for storing data relating to individual stores the face image storing unit image portions extracted and from the stored face images for each face part in, for each site of this extracted image portion First storage means for storing position data, second storage means for storing a plurality of types of parts images for each part of the face, and a plurality of types of parts stored in the second storage means A collation unit that collates the image with the image portion of each part of the face image stored in the face image storage unit, and stores the collation unit in the second storage unit based on the collation result by the collation unit. The parts images of the respective parts thus arranged are respectively arranged at the positions corresponding to the position data stored in the first storage means, and the parts images of the respective parts thus arranged are combined to correspond to the face image. Caricature image And at least a part of the part images constituting each of the first portrait images created by the first portrait image creating means in the part image storage means. Second portrait creation means for creating a second portrait image by replacing the stored other part image and combining the replaced other part image and the non-replaced part image . Second portrait created by the portrait creation means
Matched to create the picture image and the second portrait image
Corresponds with the data related to the individual corresponding to the face image
And a display control means for controlling so that the face image is created.
【請求項4】 顔画像を記憶する顔画像記憶手段と、 この顔画像記憶手段に記憶されている顔画像に対応する
個人に関するデータを記憶する個人データ記憶手段と、 顔の構成要素を表わすパーツ画像を各部位毎に複数記憶
しているパーツ記憶手段と、 似顔絵画像の対象となる顔画像から顔の各部位を表わす
画像部分を抽出する抽出手段と、 この抽出手段により抽出された画像部分と前記パーツ記
憶手段に記憶されているパーツ画像とを各部位毎に照合
し,前記パーツ記憶手段に記憶されている複数のパーツ
画像のうち、前記抽出手段により抽出された画像部分に
最も近似するパーツ画像を選択する選択手段と、 この選択手段により選択されたパーツ画像を、各部位毎
に、前記抽出された画像部分に対応する位置に表示させ
るように前記パーツ画像の表示位置を調整する表示位置
調整手段と、 この表示位置調整手段により表示された各部位毎のパー
ツ画像の組み合わせからなる第1の似顔絵画像を表示さ
せる第1の表示制御手段と、 この第1の表示制御手段の制御により表示された第1の
似顔絵画像を構成する各パーツ画像のうちの、少なくと
も一部のパーツ画像を前記パーツ画像記憶手段に記憶さ
れている他のパーツ画像と置き換え、この置き換えられ
た他のパーツ画像と置き換えられていないパーツ画像と
を組み合せて、第2の似顔絵画像を作成する第2の似顔
絵作成手段と、この第2の似顔絵作成手段により作成された第2の似顔
絵画像と当該第2の似顔絵画像の作成のために照合され
た前記顔画像に対応する個人に関するデータとを対応付
けて表示するように制御する表示制御手段と、 を備えたことを特徴とする顔画像作成装置。
4. A face image storage means for storing a face image and a face image stored in the face image storage means.
Personal data storage means for storing data related to an individual, parts storage means for storing a plurality of parts images representing face components for each part, and each part of a face from a face image targeted for a portrait image Extraction means for extracting an image portion, and the image portion extracted by this extraction means and the part image stored in the parts storage means are collated for each part, and a plurality of parts stored in the parts storage means are collated. Of the part images, a selecting means for selecting a part image that is closest to the image portion extracted by the extracting means, and a part image selected by the selecting means, for each part, in the extracted image portion. Display position adjusting means for adjusting the display position of the parts image so that the parts image is displayed at a corresponding position, and parts for each part displayed by the display position adjusting means At least one of first display control means for displaying a first portrait image composed of a combination of images, and at least part images constituting the first portrait image displayed by the control of the first display control means. A part of the part image is replaced with another part image stored in the part image storage means, and the replaced other part image and the part image not replaced are combined to create a second portrait image. a second composite picture editing means, the second portrait created by the second image editing means
Matched to create the picture image and the second portrait image
Corresponds with the data related to the individual corresponding to the face image
And a display control means for controlling so that the face image is created.
【請求項5】 顔画像を記憶する顔画像記憶手段と、この顔画像記憶手段に記憶されている顔画像に対応する
個人に関するデータを記憶する個人データ記憶手段と、 顔の各部を構成する髪,目,鼻,口等の各部位毎に形状
の異なる複数種類のパーツ画像を記憶しているパーツ画
像記憶手段と、 前記顔画像記憶手段に記憶された顔画像のなかから少な
くとも目、鼻、口に対応した画像部分を各部位毎に個別
に抽出する個別抽出手段と、 この個別抽出手段により抽出された少なくとも目、鼻、
口に対応した画像部分と前記パーツ画像記憶手段に記憶
された複数種類のパーツ画像とを各部位毎に照合する照
合手段と、 この照合手段による照合の結果、各部位毎の一致度の高
いパーツ画像を各部位毎に前記パーツ画像記憶手段から
読み出しこの読み出された各部位毎のパーツ画像を組み
合せて、前記顔画像に対応した似顔絵画像を作成する第
1の似顔絵作成手段と、 この第1の似顔絵作成手段により作成された第1の似顔
絵画像を構成する各パーツ画像のうちの、少なくとも一
部のパーツ画像を前記パーツ画像記憶手段に記憶されて
いる他のパーツ画像と置き換え、この置き換えられた他
のパーツ画像と置き換えられていないパーツ画像とを組
み合せて、第2の似顔絵画像を作成する第2の似顔絵作
成手段と、この第2の似顔絵作成手段により作成された第2の似顔
絵画像と当該第2の似顔絵画像の作成のために照合され
た前記顔画像に対応する個人に関するデータとを対応付
けて表示するように制御する表示制御手段と、 を備えたことを特徴とする顔画像作成装置。
5. A face image storage means for storing a face image, and a face image stored in the face image storage means.
Personal data storage means for storing data relating to an individual, and parts image storage means for storing a plurality of types of parts images having different shapes for each part such as hair, eyes, nose, mouth, etc., which constitute each part of the face, Individual extraction means for individually extracting image portions corresponding to at least eyes, nose, and mouth from the face images stored in the face image storage means for each part, and at least eyes extracted by the individual extraction means, nose,
Collating means for collating the image portion corresponding to the mouth with a plurality of types of part images stored in the part image storage means for each part, and as a result of collation by this collating means, parts having a high degree of coincidence for each part An image is read from the part image storage means for each part, and the read part images for each part are combined to create a portrait image corresponding to the face image. Of at least a part of the part images constituting the first portrait image created by the portrait image creating means, the other part images stored in the part image storing means are replaced with each other. and in combination with other parts images that have not been replaced by part image, and the second portrait creation means for creating a second portrait image, the second image editing hand Second portrait created by
Matched to create the picture image and the second portrait image
Corresponds with the data related to the individual corresponding to the face image
And a display control means for controlling so that the face image is created.
【請求項6】 請求項1から5のいずれかに記載の似顔
絵作成装置において、 前記顔画像および前記似顔絵画像のうちの少なくとも一
方を表示出力又は印刷出力する出力手段を更に備えたこ
とを特徴とする顔画像作成装置。
6. The portrait creation device according to claim 1, further comprising output means for displaying or printing out at least one of the face image and the portrait image. Face image creation device.
【請求項7】 請求項1から5のいずれかに記載の顔画
像作成装置において、 前記顔画像を取得する画像取得手段を備えており、 前記顔画像記憶手段は、前記画像取得手段により取得さ
れた顔画像を記憶する記憶手段を備えていることを特徴
とする顔画像作成装置。
7. The face image creation device according to claim 1, further comprising an image acquisition unit that acquires the face image, wherein the face image storage unit is acquired by the image acquisition unit. A face image creating apparatus, comprising: a storage unit that stores the face image.
【請求項8】 請求項7に記載の顔画像作成装置におい
て、 前記画像取得手段は、CCDカメラ、ビデオカメラ、イ
メージスキャナ、電子スチルカメラおよび他の装置のい
ずれかであることを特徴とする顔画像作成装置
8. The face image creating apparatus according to claim 7, wherein the image acquiring unit is any one of a CCD camera, a video camera, an image scanner, an electronic still camera, and another device. Image creation device
【請求項9】 顔画像を記憶する顔画像記憶手段と顔を
構成する髪,目,鼻,口等の各部位毎に複数種類のパー
ツ画像を記憶しているパーツ画像記憶手段とをアクセス
し、このパーツ画像記憶手段に記憶されている複数種類
のパーツ画像と前記顔画像記憶手段に記憶されている顔
画像の各部位の画像部分とを各部位毎に照合する照合ス
テップと、 この照合ステップによる照合結果に応じて、前記パーツ
画像記憶手段に記憶されている各部位毎のパーツ画像を
組み合せて、前記顔画像に対応した第1の似顔絵画像を
作成する第1の似顔絵作成ステップと、 この第1の似顔絵作成ステップにより作成された第1の
似顔絵画像を構成する各パーツ画像のうちの、少なくと
も一部のパーツ画像を前記パーツ画像記憶手段に記憶さ
れている他のパーツ画像と置き換え、この置き換えられ
た他のパーツ画像と置き換えられていないパーツ画像と
を組み合せて、第2の似顔絵画像を作成する第2の似顔
絵作成ステップと、この第2の似顔絵作成ステップにより作成された第2の
似顔絵画像と当該第2の似顔絵画像の作成のために照合
された前記顔画像に対応する個人に関するデータとを対
応付けて表示するように制御する表示制御ステップと、 を具備したことを特徴とする似顔絵作成制御方法。
9. A face image storage means for storing a face image and a parts image storage means for storing a plurality of types of parts images for each part of the face such as hair, eyes, nose, mouth, etc. are accessed. A collating step of collating the plural types of part images stored in the part image storage means with the image portion of each part of the face image stored in the face image storage means for each part; A first portrait creation step of creating a first portrait image corresponding to the face image by combining the part images for each part stored in the part image storage means according to the matching result by Another part image in which at least a part of the part images constituting the first portrait image created by the first portrait drawing step is stored in the part image storage means. And replacing, by combining the part images that have not been replaced by the replaced other part image, and the second composite picture editing step of creating a second portrait image, created by the second image editing step Second
Collate to create a portrait image and the second portrait image
The data related to the individual corresponding to the face image
And a display control step of performing control so that the portrait is displayed corresponding to the portrait creation control method.
【請求項10】 顔画像を記憶する顔画像記憶手段と顔
の各部を構成する髪,目,鼻,口等の各部位毎に形状の
異なる複数種類のパーツ画像を記憶しているパーツ画像
記憶手段とアクセスし、前記顔画像記憶手段に記憶され
た顔画像のうちの、少なくとも目、鼻、口に対応した画
像部分と、この少なくとも目、鼻、口の部位と同じ部位
における、前記パーツ画像記憶手段に記憶された複数種
類のパーツ画像とを照合し、その一致度を判断する照合
ステップと、 この照合ステップによる照合の結果、前記複数種類のパ
ーツ画像のうち、最も一致度の高いパーツ画像を各部位
毎に前記パーツ画像記憶手段から読み出し、この読み出
された各部位毎のパーツ画像を組み合せて、前記顔画像
に対応した似顔絵画像を作成する第1の似顔絵作成ステ
ップと、 この第1の似顔絵作成ステップにより作成された第1の
似顔絵画像を構成する各パーツ画像のうちの、少なくと
も一部のパーツ画像を前記パーツ画像記憶手段に記憶さ
れている他のパーツ画像と置き換え、この置き換えられ
た他のパーツ画像と置き換えられていないパーツ画像と
を組み合せて、第2の似顔絵画像を作成する第2の似顔
絵作成ステップと、この第2の似顔絵作成ステップにより作成された第2の
似顔絵画像と当該第2の似顔絵画像の作成のために照合
された前記顔画像に対応する個人に関するデータとを対
応付けて表示するように制御する表示制御ステップと、 を具備したことを特徴とする似顔絵作成制御方法。
10. A face image storage means for storing a face image and a part image storage for storing a plurality of types of parts images having different shapes for respective parts such as hair, eyes, nose, mouth, etc. which constitute each part of the face. Means, and of the face image stored in the face image storage means, at least an image portion corresponding to the eyes, nose, and mouth, and the part image at least at the same portions as the eyes, nose, and mouth. A collation step of collating a plurality of types of part images stored in the storage means and determining the degree of coincidence, and a result of the collation by this collating step, the part image having the highest degree of coincidence among the plurality of types of part images. Is read from the part image storage means for each part, and the read part images for each part are combined to create a portrait image corresponding to the face image. Replacing at least some of the part images of each of the part images forming the first portrait image created by the first portrait creating step with another part image stored in the part image storage means. , A second portrait drawing step of creating a second portrait image by combining the replaced other part image and the non-replaced part image, and the second portrait drawing step created by the second portrait drawing step . of
Collate to create a portrait image and the second portrait image
The data related to the individual corresponding to the face image
And a display control step of performing control so that the portrait is displayed corresponding to the portrait creation control method.
【請求項11】 顔画像記憶手段に記憶された顔画像か
ら顔の各部位毎に画像部分を抽出して記憶するととも
に、この抽出した画像部分の各部位毎の位置データを記
憶する第1の記憶手段と、顔の各部位毎に複数種類のパ
ーツ画像を記憶している第2の記憶手段とをアクセス
し、この第2の記憶手段に記憶されている複数種類のパ
ーツ画像と前記顔画像記憶手段に記憶されている顔画像
の各部位の画像部分とを各部位毎に照合する照合ステッ
プと、 この照合ステップによる照合結果に基づいて、前記第2
の記憶手段に記憶された各部位毎のパーツ画像を前記第
1の記憶手段に記憶された位置データに対応した位置に
それぞれ配置し、この配置された各部位毎のパーツ画像
を組み合せて、前記顔画像に対応した似顔絵画像を作成
する第1の似顔絵作成ステップと、 この第1の似顔絵作成ステップにより作成された第1の
似顔絵画像を構成する各パーツ画像のうちの、少なくと
も一部のパーツ画像を前記パーツ画像記憶手段に記憶さ
れている他のパーツ画像と置き換え、この置き換えられ
た他のパーツ画像と置き換えられていないパーツ画像と
を組み合せて、第2の似顔絵画像を作成する第2の似顔
絵作成ステップと、この第2の似顔絵作成ステップにより作成された第2の
似顔絵画像と当該第2の似顔絵画像の作成のために照合
された前記顔画像に対応する個人に関するデータとを対
応付けて表示するように制御する表示制御ステップと、 を備えたことを特徴とする顔画像作成制御方法。
11. A first part for extracting and storing an image part for each part of the face from the face image stored in the face image storing means, and storing position data for each part of the extracted image part. The storage means and the second storage means that stores a plurality of types of part images for each part of the face are accessed, and the plurality of types of part images and the face image stored in the second storage means are accessed. The collation step of collating the image portion of each part of the face image stored in the storage means for each part, and the second step based on the collation result of this collating step.
The part images for each part stored in the storage means are respectively arranged at positions corresponding to the position data stored in the first storage means, and the part images for each arranged part are combined, A first portrait drawing step of creating a portrait image corresponding to a face image, and at least a part image of each of the part images constituting the first portrait image created by the first portrait drawing step Is replaced with another part image stored in the part image storage means, and the replaced other part image and the non-replaced part image are combined to create a second portrait image. The creation step and the second portrait created by the second portrait creation step
Collate to create a portrait image and the second portrait image
The data related to the individual corresponding to the face image
A face image creation control method , comprising: a display control step of controlling the display according to the response .
【請求項12】 似顔絵画像の対象となる顔画像から顔
の各部位を表わす画像部分を抽出する抽出ステップと、 この抽出ステップにより抽出された画像部分とパーツ記
憶手段に記憶されている顔画像用の複数のパーツ画像と
を各部位毎に照合し,前記パーツ記憶手段に記憶されて
いる複数のパーツ画像のうち、前記抽出ステップにより
抽出された画像部分に最も近似するパーツ画像を選択す
る選択ステップと、 この選択ステップにより選択されたパーツ画像を、各部
位毎に、前記抽出された画像部分に対応する位置に表示
させるように前記パーツ画像の表示位置を調整する表示
位置調整ステップと、 この表示位置調整ステップにより表示された各部位毎の
パーツ画像の組み合わせからなる第1の似顔絵画像を表
示させる第1の表示制御ステップと、 この第1の表示制御ステップの制御により表示された第
1の似顔絵画像を構成する各パーツ画像のうちの、少な
くとも一部のパーツ画像を前記パーツ画像記憶ステップ
に記憶されている他のパーツ画像と置き換え、この置き
換えられた他のパーツ画像と置き換えられていないパー
ツ画像とを組み合せて、第2の似顔絵画像を作成する第
2の似顔絵作成ステップと、この第2の似顔絵作成ステップにより作成された第2の
似顔絵画像と当該第2の似顔絵画像の作成のために照合
された前記顔画像に対応する個人に関するデータとを対
応付けて表示するように制御する表示制御ステップと、 を備えたことを特徴とする顔画像作成制御方法。
12. An extraction step of extracting an image portion representing each part of a face from a face image which is a target of a portrait image, and the image portion extracted by the extraction step and the face image stored in the parts storage means. A selection step of comparing each of the plurality of part images of each part with a part image most approximate to the image part extracted by the extraction step among the plurality of part images stored in the part storage means. And a display position adjusting step of adjusting the display position of the part image so that the part image selected by this selecting step is displayed at a position corresponding to the extracted image part for each part, A first display control step for displaying a first portrait image composed of a combination of parts images for each part displayed by the position adjusting step. And at least some of the part images constituting each of the first portrait images displayed by the control of the first display control step are stored in the part image storing step. replaced by part image, created by combining the part images that have not been replaced by the replaced other part image, and the second composite picture editing step of creating a second portrait image, this second portrait preparation step The second
Collate to create a portrait image and the second portrait image
The data related to the individual corresponding to the face image
A face image creation control method , comprising: a display control step of controlling the display according to the response .
【請求項13】 画像記憶手段に記憶された顔画像のな
かから少なくとも目、鼻、口に対応した画像部分を各部
位毎に個別に抽出する個別抽出ステップと、 この個別抽出ステップにより抽出された少なくとも目、
鼻、口に対応した画像部分とパーツ画像記憶手段に記憶
された複数種類のパーツ画像とを各部位毎に照合する照
合ステップと、 この照合ステップによる照合の結果、各部位毎の一致度
の高いパーツ画像を各部位毎に前記パーツ画像記憶手段
から読み出しこの読み出された各部位毎のパーツ画像を
組み合せて、前記顔画像に対応した似顔絵画像を作成す
る第1の似顔絵作成ステップと、 この第1の似顔絵作成ステップにより作成された第1の
似顔絵画像を構成する各パーツ画像のうちの、少なくと
も一部のパーツ画像を前記パーツ画像記憶手段に記憶さ
れている他のパーツ画像と置き換え、この置き換えられ
た他のパーツ画像と置き換えられていないパーツ画像と
を組み合せて、第2の似顔絵画像を作成する第2の似顔
絵作成ステップと、この第2の似顔絵作成ステップにより作成された第2の
似顔絵画像と当該第2の似顔絵画像の作成のために照合
された前記顔画像に対応する個人に関するデータとを対
応付けて表示するように制御する表示制御ステップと、 を備えたことを特徴とする顔画像作成制御方法。
13. An individual extraction step of individually extracting, for each part, an image portion corresponding to at least eyes, nose, and mouth from the face images stored in the image storage means, and the individual extraction step. At least the eyes,
A collation step of collating the image parts corresponding to the nose and mouth with a plurality of types of part images stored in the part image storage means for each part, and the result of the collation by this collating step is that the parts have a high degree of coincidence. A first portrait creation step of creating a portrait image corresponding to the face image by reading out a part image for each part from the part image storage means and combining the read part images for each part. At least a part of the part images constituting the first portrait image created by the first portrait creating step is replaced with another part image stored in the part image storage means, and this replacement is performed. It was a combination of the parts images that have not been replaced with other parts image, and the second of the portrait creating step of creating a second portrait image, this Second created by the second image editing step
Collate to create a portrait image and the second portrait image
The data related to the individual corresponding to the face image
A face image creation control method , comprising: a display control step of controlling the display according to the response .
【請求項14】 請求項9から13のいずれかに記載の
似顔絵作成制御方法において、 前記顔画像および前記似顔絵画像のうちの少なくとも一
方を表示出力又は印刷出力する出力ステップを更に備え
たことを特徴とする顔画像作成制御方法。
14. The portrait creation control method according to claim 9, further comprising an output step of displaying or printing out at least one of the face image and the portrait image. Face image creation control method.
【請求項15】 請求項9から13のいずれかに記載の
顔画像作成制御方法において、 前記顔画像を取得する画像取得ステップを備えており、 前記顔画像記憶手段は、前記画像取得ステップにより取
得された顔画像を記憶する記憶手段を備えていることを
特徴とする顔画像作成制御方法。
15. The face image creation control method according to claim 9, further comprising an image acquisition step of acquiring the face image, wherein the face image storage means acquires the image by the image acquisition step. A face image creation control method comprising: a storage unit that stores the generated face image.
【請求項16】 請求項15に記載の顔画像作成制御
法において、 前記画像取得ステップは、CCDカメラ、ビデオカメ
ラ、イメージスキャナ、電子スチルカメラおよび他の装
置のいずれかであることを特徴とする顔画像作成制御
法。
16. The face image creation control method according to claim 15, wherein the image acquisition step is any one of a CCD camera, a video camera, an image scanner, an electronic still camera and other devices. A facial image creation control method characterized by the following.
JP2000232606A 2000-08-01 2000-08-01 Face image creation device and face image creation control method Expired - Lifetime JP3478255B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000232606A JP3478255B2 (en) 2000-08-01 2000-08-01 Face image creation device and face image creation control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000232606A JP3478255B2 (en) 2000-08-01 2000-08-01 Face image creation device and face image creation control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP20986393A Division JP3477750B2 (en) 1993-08-02 1993-08-02 Face image creation device and face image creation method

Publications (2)

Publication Number Publication Date
JP2001076164A JP2001076164A (en) 2001-03-23
JP3478255B2 true JP3478255B2 (en) 2003-12-15

Family

ID=18725259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000232606A Expired - Lifetime JP3478255B2 (en) 2000-08-01 2000-08-01 Face image creation device and face image creation control method

Country Status (1)

Country Link
JP (1) JP3478255B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002351980A (en) * 2001-05-23 2002-12-06 Jeiko:Kk Treatment support system
JP3950802B2 (en) 2003-01-31 2007-08-01 株式会社エヌ・ティ・ティ・ドコモ Face information transmission system, face information transmission method, face information transmission program, and computer-readable recording medium
JP2011003057A (en) * 2009-06-19 2011-01-06 Casio Computer Co Ltd Image composition device, image specifying method, image composition method, and program
JP5350422B2 (en) * 2011-03-23 2013-11-27 株式会社スクウェア・エニックス Character creation device and character creation program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
塩野充 武田哲 村山智彦,顔画像からの似顔絵作成システム,テレビジョン学会誌,日本,社団法人テレビジョン学会,1988年12月20日,Vol.42 No.12,p1380−1386

Also Published As

Publication number Publication date
JP2001076164A (en) 2001-03-23

Similar Documents

Publication Publication Date Title
JP3334230B2 (en) Montage image display control device and montage image display control method
US8508578B2 (en) Image processor, image processing method, recording medium, computer program and semiconductor device
US7995106B2 (en) Imaging apparatus with human extraction and voice analysis and control method thereof
US7876320B2 (en) Face image synthesis method and face image synthesis apparatus
JP4793823B2 (en) Makeup assist device and eyebrow drawing assist device
JPH10255066A (en) Face image correcting method, makeup simulating method, makeup method, makeup supporting device, and foundation transfer film
JPH11503540A (en) Aesthetic imaging system
JP2005242566A (en) Image composition device and method
JP2009086703A (en) Image display device, image display method and image display program
EP2107529A2 (en) Storage medium storing image conversion programm and image conversion apparatus
JP3444148B2 (en) Eyebrow drawing method
JP3478255B2 (en) Face image creation device and face image creation control method
JP3477750B2 (en) Face image creation device and face image creation method
JPH06187410A (en) Montage generating device
US5572656A (en) Portrait drawing apparatus having image data input function
WO2005078659A1 (en) Face image processing system
JP2002223405A (en) Video recording and reproducing device, and video recording and reproducing program
JP2002298078A (en) Character display, its control method, record medium, and program
JP2000292852A (en) Face picture photographing device
JP2979717B2 (en) Caricature making device
JP4284447B2 (en) Morphing camera and morphing method
JP2001148018A (en) Device for classifying facial shape, and recording medium
JP2005260630A (en) Image composition by superposing images together to generate composite image
JP2005267455A (en) Image processing system, display device, and image processing method
JP2666738B2 (en) Face part data creation device and caricature creation device having face part data creation function

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081003

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091003

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091003

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101003

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 9