JPH0744725A - Face picture generation device and data storage device for face picture - Google Patents

Face picture generation device and data storage device for face picture

Info

Publication number
JPH0744725A
JPH0744725A JP20986393A JP20986393A JPH0744725A JP H0744725 A JPH0744725 A JP H0744725A JP 20986393 A JP20986393 A JP 20986393A JP 20986393 A JP20986393 A JP 20986393A JP H0744725 A JPH0744725 A JP H0744725A
Authority
JP
Japan
Prior art keywords
data
face
stored
pattern
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP20986393A
Other languages
Japanese (ja)
Other versions
JP3477750B2 (en
Inventor
Yoshiyuki Murata
嘉行 村田
Yoshito Yamaguchi
善登 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP20986393A priority Critical patent/JP3477750B2/en
Publication of JPH0744725A publication Critical patent/JPH0744725A/en
Application granted granted Critical
Publication of JP3477750B2 publication Critical patent/JP3477750B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To easily generate a face picture which is considerably similar to a inputted face picture without trouble for the selection operation of parts patterns by combining the parts patterns for respective parts by means of making them correspond to position data. CONSTITUTION:Partial pictures are extracted from face picture data which is read by a CCD camera part 2 for the respective parts of a face, and position data for the respective parts of the extracted partial pictures are stored in work RAM 32. Plural kinds of parts patterns are stored in parts pattern ROM 30 for the respective parts (hair, eyes, nose and mouth). Parts data corresponding to the partial pictures stored in RAM 32 are compared with the plural kinds of parts patterns for the respective parts of the face, which are stored in ROM 30, by a pattern matching part 24. The parts patterns for the respective parts, which are stored in ROM 30, are combined in accordance with position data, and the face picture is generated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、顔画像作成装置および
顔画像用データ記憶装置に係わり、詳しくは画像入力装
置(例えば、CCDカメラ)から顔画像を取り込み、取
り込んだ入力画像に基づいて人物の似顔絵を電子的に作
成する顔画像作成装置および顔画像作成処理に必要なデ
ータを記憶する顔画像用データ記憶装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a face image creating device and a face image data storage device, and more specifically, it captures a face image from an image input device (for example, a CCD camera) and, based on the captured input image, a person Image data storage device for electronically creating the above-mentioned portrait and a face image data storage device for storing data necessary for the face image creation processing.

【0002】[0002]

【従来の技術】従来、顔画像を作成するには、例えばマ
イクロコンピュータを用いた図形表示装置を使用してお
り、この装置では、顔を構成する各パーツ(例えば、
目、眉、口等)毎にパーツパターンを組み合せること
で、顔画像を作成している。具体的には、髪型、顔の輪
郭、目、眉、鼻、口等の各パーツをそれぞれ複数種類ビ
ットマップパターンとして記憶しているパーツメモリを
備え、この個々のパーツパターンをキー入力操作により
選択的に呼び出して表示部に合成表示させ、任意の似顔
絵を作成している。
2. Description of the Related Art Conventionally, in order to create a face image, for example, a graphic display device using a microcomputer is used. In this device, each part (eg,
A face image is created by combining part patterns for each eye, eyebrow, mouth, etc.). Specifically, it has a parts memory that stores each type of parts such as hairstyle, face outline, eyes, eyebrows, nose, mouth, etc. as a bitmap pattern, and selects each individual part pattern by key input operation. It is called up and is displayed on the display unit in a composite manner to create an arbitrary portrait.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
図形表示装置で顔画像を作成する場合、パーツメモリに
予め記憶されているパーツパターンの種類が少ないと、
実物と近似した似顔絵が作成できないという問題点があ
る。そのため、例えば上記パーツメモリにおける各パー
ツそれぞれのパターンの種類を多く持たせることで、実
物と近似した似顔絵を作成することができるようにする
ことも行われているが、あまりにパーツパターンの種類
が多くなると、各パーツパターンを選択するのに非常に
手間がかかったり、近似した複数パターンのうちの1つ
を適切なパターンとして判断するのが困難であった。
However, when the face image is created by the conventional graphic display device, if there are few kinds of part patterns stored in the parts memory in advance,
There is a problem that it is not possible to create a caricature that approximates the real thing. Therefore, for example, it is possible to create a caricature similar to the real thing by giving many types of patterns for each part in the above-mentioned part memory, but there are too many types of parts patterns. In that case, it is very troublesome to select each part pattern, and it is difficult to determine one of a plurality of approximated patterns as an appropriate pattern.

【0004】一方、本発明の出願人は近似した複数パタ
ーンのうちの1つを適切なパターンとして判断する技術
を先に提案しており、この技術では入力画像パターン
と、パーツメモリに予め記憶しておいた各部位毎の複数
種類のパーツパターンとを照合し、例えばパターン一致
度が最も高い各部位毎のパーツパターンを選択して組み
合せて合成することにより、実物と近似した似顔絵を作
成するようにしている。しかしながら、この方法でもパ
ーツパターンの位置データを使用することは全く行われ
ておらず、細かい位置の修正を行うことができず、より
実物に近似した似顔絵を作成することはできなかった。
仮に、この方法でより実物に近似した似顔絵を作成しよ
うとすると、同一のパーツパターンの形状だが位置のみ
異なったパーツパターンも必要となり、極めて多くのパ
ーツパターンを予め用意する必要があり、しかも多くの
パーツパターンから所望のものを選択するのに、莫大な
手間および時間を要することとなり、現実的でなかっ
た。
On the other hand, the applicant of the present invention has previously proposed a technique for judging one of a plurality of approximate patterns as an appropriate pattern. In this technique, an input image pattern and a part memory are stored in advance. By collating with multiple types of part patterns for each part, and selecting and combining the part patterns for each part with the highest pattern matching degree, for example, it is possible to create a caricature that approximates the real thing I have to. However, even in this method, the position data of the part pattern is not used at all, and it is not possible to correct the fine position, and it is not possible to create a caricature that more closely resembles the real thing.
If you try to create a caricature that more closely resembles the real thing by this method, you will also need part patterns that have the same shape but different positions, and it is necessary to prepare an extremely large number of parts patterns in advance. It takes an enormous amount of labor and time to select a desired one from the part patterns, which is not realistic.

【0005】そこで本発明は、パーツパターンの選択操
作に手間がかかることがなく、入力された顔画像と非常
に似ている顔画像を容易に作成することができる顔画像
作成装置を提供することを目的としている。また、本発
明は、実物の顔と非常に似ている顔の表示を、極めて少
ないデータ記憶量のもとで行うことができる顔画像用デ
ータ記憶装置を提供することを目的としている。
Therefore, the present invention provides a face image creating apparatus capable of easily creating a face image that is very similar to the input face image without the trouble of selecting parts patterns. It is an object. It is another object of the present invention to provide a face image data storage device capable of displaying a face very similar to a real face with a very small amount of data storage.

【0006】[0006]

【課題を解決するための手段】上記目的達成のため、本
発明による顔画像作成装置は、顔の画像データを読み取
る入力画像データ読取手段と、この入力画像データ読取
手段により読み取られた顔画像データから顔の各部位毎
に部分画像を抽出して記憶するとともに、少なくとも抽
出した部分画像の各部位毎の位置データを記憶するパー
ツデータ記憶手段と、顔の各部位毎に複数種類のパーツ
パターンを記憶するパーツパターン記憶手段と、前記パ
ーツデータ記憶手段に記憶された各部位毎の部分画像
と、前記パーツパターン記憶手段に記憶された顔の各部
位毎の複数種類のパーツパターンとをそれぞれ比較する
データ比較手段と、このデータ比較手段による比較結果
に基づいて前記パーツパターン記憶手段に記憶された各
部位毎のパーツパターンをパーツデータ記憶手段に記憶
された位置データに対応して組み合せることにより、顔
画像を作成するパターン合成手段と、を備えたことを特
徴とする。
To achieve the above object, a face image forming apparatus according to the present invention comprises an input image data reading means for reading face image data, and face image data read by the input image data reading means. Part data storage means for extracting and storing partial images for each part of the face, at least position data for each part of the extracted partial image, and a plurality of types of part patterns for each part of the face. The stored part pattern storage means, the partial image for each part stored in the part data storage means, and the plurality of types of part patterns for each part of the face stored in the part pattern storage means are respectively compared. Data comparing means and a part pattern for each part stored in the part pattern storing means based on the comparison result by the data comparing means. By combining corresponding to on to stored position data in the part data storage means, characterized in that and a pattern synthesizing means for creating a face image.

【0007】また、好ましい態様として、前記入力画像
データ読取手段は、顔画像データを読み取る時点の時間
を計測する時間計測手段を備え、前記パーツデータ記憶
手段は、前記入力画像データ読取手段で読み取られた顔
画像データから顔の各部位毎に部分画像を抽出してその
部分画像を記憶するとき、前記時間計測手段により計測
された顔画像データを読み取る時点の時間を合せて記憶
するようにしてもよい。また、前記顔画像作成装置は、
前記パターン合成手段によって作成された顔画像を表
示、又は印刷する手段を、さらに有するようにしてもよ
い。
In a preferred mode, the input image data reading means includes a time measuring means for measuring the time at which the face image data is read, and the part data storage means is read by the input image data reading means. When a partial image is extracted for each part of the face from the face image data and the partial image is stored, the time at which the face image data measured by the time measuring means is read may be stored together. Good. In addition, the face image creation device,
You may make it further have a means to display or print the face image produced by the said pattern synthesizing means.

【0008】上記目的達成のため、本発明による顔画像
用データ記憶装置は、入力された顔の画像データを記憶
する顔画像データ記憶手段と、顔の各部位毎に当該部位
を表す複数種類のパーツパターンと当該部位を記憶する
パーツパターン記憶手段と、このパーツパターン記憶手
段に記憶されている各パーツパターンと前記顔画像デー
タ記憶手段に記憶されている画像データを構成する各部
分画像とを各部位毎に比較する比較手段と、この比較手
段による比較の結果、前記各パーツパターンと前記各部
分画像とが対応する場合、この対応する各パーツパター
ンを指定するためのパーツパターン指定用データを記憶
するパーツパターン指定用データ記憶手段と、を備えた
ことを特徴とする。好ましい態様として、前記パーツパ
ターン指定用データ記憶手段に記憶されている各パーツ
パターン指定用データを読み出し、この読み出された各
パーツパターン指定用データに基づいて前記パーツパタ
ーン記憶手段に記憶されている各パーツパターンを読み
出して合成する合成手段と、この合成手段により合成さ
れた各パーツパターンからなる顔の画像を表示する表示
手段と、を備えるようにしてもよい。
To achieve the above object, a face image data storage device according to the present invention comprises a face image data storage means for storing input face image data, and a plurality of types of face parts representing each part. Each of the part pattern and the part pattern storage means for storing the part, each part pattern stored in the part pattern storage means, and each partial image forming the image data stored in the face image data storage means When comparing the part patterns and the partial images as a result of the comparison by the comparing means for each part, the part pattern designating data for designating the corresponding part patterns is stored. And a data storage unit for designating a part pattern to be used. As a preferred mode, each of the part pattern designation data stored in the part pattern designation data storage means is read out and stored in the part pattern storage means based on the read out each part pattern designation data. It may be provided with a synthesizing unit for reading out and synthesizing each part pattern, and a display unit for displaying an image of a face composed of each part pattern synthesized by the synthesizing unit.

【0009】請求項6記載の顔画像用データ記憶装置
は、順次入力された顔の画像データを、当該顔の画像が
入力された時間を表す時間データとともに記憶する顔画
像データ記憶手段と、顔の各部位毎に当該部位を表す複
数種類のパーツパターンと当該部位を記憶するパーツパ
ターン記憶手段と、このパーツパターン記憶手段に記憶
されている各パーツパターンと前記顔画像データ記憶手
段に記憶されている画像データを構成する各部分画像と
を各部位毎に比較する比較手段と、この比較手段による
比較の結果、前記各パーツパターンと前記各部分画像と
が対応する場合、この対応する各パーツパターンを指定
するためのパーツパターン指定用データを、前記時間デ
ータとともに記憶するパーツパターン指定用データ記憶
手段と、を備えたことを特徴とする。好ましい態様とし
て、前記パーツパターン指定用データ記憶手段に記憶さ
れている各パーツパターン指定用データおよび時間デー
タを読み出し、この読み出された各パーツパターン指定
用データに基づいて前記パーツパターン記憶手段に記憶
されている各パーツパターンを、読み出された時間デー
タで示される時間に従って順次読み出して合成する合成
手段と、この合成手段により順次合成された各パーツパ
ターンからなる顔の画像を表示する表示手段と、を備え
るようにしてもよい。
According to another aspect of the present invention, there is provided a face image data storage device, which stores face image data sequentially input, and face image data storage means for storing the face image data together with time data representing a time when the face image is input. For each part, a plurality of types of part patterns representing the part and part pattern storage means for storing the part, each part pattern stored in the part pattern storage means and the face image data storage means are stored. Comparing means for comparing each partial image forming the image data of each part with each part, and as a result of the comparison by the comparing means, if the part patterns correspond to the partial images, the corresponding part patterns And a part pattern designation data storage means for storing the part pattern designation data for designating the parts together with the time data. The features. In a preferred mode, each part pattern designating data and time data stored in the part pattern designating data storage means are read out and stored in the part pattern storage means based on the read out part pattern designating data. A synthesizing unit for sequentially reading and synthesizing each of the formed part patterns in accordance with the time indicated by the read time data; and a display unit for displaying a face image composed of the respective part patterns sequentially synthesized by the synthesizing unit. , May be provided.

【0010】[0010]

【作用】本発明では、入力画像データ読取手段(例え
ば、CCDカメラ部)により顔の画像データを入力して
読み取り、読み取った顔画像データから顔の各部位毎に
部分画像を抽出して記憶し、少なくとも抽出した部分画
像の各部位毎の位置データはパーツデータ記憶手段に記
憶される。一方、パーツパターン記憶手段には顔の各部
が髪、目、鼻、口等の部位に分けられ、各部位毎に複数
種類のパーツパターンが記憶されており、このパーツデ
ータ記憶手段に記憶された部分画像に対応するパーツデ
ータと、パーツパターン記憶手段に記憶された顔の各部
位毎の複数種類のパーツパターンとが比較手段によって
比較され、この比較結果に応じてパーツパターン記憶手
段に記憶された各部位毎のパーツパターンがパーツデー
タ記憶手段に記憶された位置データに対応して組み合わ
されて顔画像が作成される。したがって、入力された顔
画像(実物の顔)に対応する似顔絵を作成する際に、各
パーツパターンの選択操作に手間がかかることがなく、
実物により近似した似顔絵を容易に作成することが可能
になる。また、請求項2記載の発明では、動く顔画像を
時間の経過に従って、例えば顔の向き、顔の各部位毎の
パーツ番号、位置データなどの形で順番に登録しておく
ことにより、再生時には登録済みの各パーツ番号、位置
等のデータに基づいて予め用意されているパーツパター
ンを組み合せて顔画像として復元される。したがって、
いわゆる動くモンタージュ画のが再現が可能となる。
According to the present invention, the image data of the face is input and read by the input image data reading means (for example, CCD camera unit), and the partial image is extracted and stored for each part of the face from the read face image data. At least the position data for each part of the extracted partial image is stored in the part data storage means. On the other hand, each part of the face is divided into parts such as hair, eyes, nose, mouth, etc. in the part pattern storage means, and a plurality of types of part patterns are stored for each part and stored in this part data storage means. The part data corresponding to the partial image and a plurality of types of part patterns for each part of the face stored in the part pattern storage means are compared by the comparison means, and stored in the part pattern storage means according to the comparison result. A face image is created by combining the part patterns for each part in correspondence with the position data stored in the part data storage means. Therefore, when creating a caricature corresponding to the input face image (actual face), it does not take time and effort to select each part pattern,
It is possible to easily create a caricature that is closer to the real thing. According to the second aspect of the present invention, the moving face image is registered in order with the passage of time in the form of, for example, the orientation of the face, the part number of each part of the face, the position data, etc. A face image is reconstructed by combining parts patterns prepared in advance based on registered part numbers, positions, and other data. Therefore,
A so-called moving montage picture can be reproduced.

【0011】さらに、請求項4記載の発明では、入力さ
れた顔の画像データをそのまま記憶するのではなく、そ
の入力された顔画像データの代りに当該顔の画像データ
と対応する各パーツパターンを指定するためのパーツパ
ターン指定用データ(例えば、各パーツパターン番号又
は各位置データ)を記憶することが行われる。したがっ
て、入力された顔画像と極めて似ている顔を表示する際
に使用されるデータの記載容量が少なくなる。請求項5
記載の発明では、極めて少ない記憶容量のパーツパター
ン指定用データを用いて入力された顔画像と極めて似て
いる顔を表示することが行われる。請求項6記載の発明
では、順次入力された顔の画像データをそのまま記憶す
るのではなく、その入力された顔画像データの代りに当
該顔の画像データと対応する各パーツパターン(例え
ば、各パーツパターン番号又は各位置データ)を、当該
顔の画像が入力された時間を表す時間データとともに記
憶することが行われる。したがって、順次入力された顔
画像と極めて似ている顔を時間の経過に従って表示する
際に使用されるデータの記載容量が極めて少なくなる。
請求項7記載の発明では、極めて少ない記憶容量のパー
ツパターン指定用データおよび時間データを用いて、順
次入力された顔画像と極めて似ている顔を時間の経過に
従って表示することが行われる。
Further, in the invention according to claim 4, instead of storing the input face image data as it is, each part pattern corresponding to the face image data is replaced with the input face image data. Data for specifying a part pattern for specifying (for example, each part pattern number or each position data) is stored. Therefore, the description capacity of the data used when displaying a face very similar to the input face image is reduced. Claim 5
In the invention described above, a face very similar to the face image input using the data for designating a part pattern having an extremely small storage capacity is displayed. In the invention according to claim 6, instead of storing the sequentially input face image data as it is, instead of the input face image data, each part pattern (for example, each part) corresponding to the face image data is stored. The pattern number or each position data) is stored together with time data representing the time when the image of the face is input. Therefore, the description capacity of the data used when displaying faces that are very similar to the sequentially input face images over time becomes extremely small.
According to the seventh aspect of the present invention, the face very similar to the sequentially input face images is displayed with the lapse of time by using the part pattern designating data and the time data having an extremely small storage capacity.

【0012】[0012]

【実施例】以下、図面を参照して本発明の実施例につい
て説明する。図1は本発明に係る顔画像作成装置および
顔画像用データ記憶装置の第1実施例を示す図であり、
特に本発明を電子手帳に適用した場合における電子手帳
の正面図である。図1において、この電子手帳1は一対
の本体1a、1bをそれぞれ左右に開いた状態を示して
いる。電子手帳1の本体1bの上部にはCCDカメラ部
(入力画像データ読取手段)2が配置されている。CC
Dカメラ部2は電子手帳1のほぼ正面に存在するオペレ
ータ(操作者)の顔に向けられており、オペレータの顔
を撮像して画像データを生成し、その画像データを読み
取って本体1a、1bの内部にある後述の図2に示すY
/C分離部23aに出力する。すなわち、CCDカメラ
部2は内部に撮像部と、撮影画像を処理し画像データと
して読み取るデータ部とを有している。なお、入力画像
データ読取手段としては、CCDカメラに限らず、例え
ばビデオカメラ、イメージスキャナ、あるいは電子スチ
ルカメラ等を用いてもよい。また、他の装置からの画像
信号を利用するようにしてもよい。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a first embodiment of a face image creating apparatus and a face image data storage apparatus according to the present invention,
In particular, it is a front view of an electronic notebook when the present invention is applied to the electronic notebook. In FIG. 1, the electronic notebook 1 shows a state in which a pair of main bodies 1a and 1b are opened to the left and right respectively. A CCD camera unit (input image data reading means) 2 is arranged above the main body 1b of the electronic notebook 1. CC
The D camera unit 2 is aimed at the face of an operator (operator) existing almost in front of the electronic organizer 1, takes an image of the face of the operator to generate image data, and reads the image data to read the main body 1a, 1b. 2 inside the Y shown in FIG.
It outputs to the / C separation unit 23a. That is, the CCD camera unit 2 has an image pickup unit and a data unit that processes a captured image and reads it as image data. The input image data reading means is not limited to the CCD camera, but a video camera, an image scanner, an electronic still camera, or the like may be used. Alternatively, an image signal from another device may be used.

【0013】電子手帳1の本体1bにおけるCCDカメ
ラ部2の下側には第2表示部3、データ入力キー4が順
次配置されている。第2表示部3は、例えばLCD(液
晶表示装置)からなり、CCDカメラ部2で撮像した顔
画像2aを表示するもので、撮像した顔画像2aをその
ままの状態で表示することができるようになっている。
なお、第2表示部3はモノクロ画面を表示可能なLCD
でもよいし、あるいはカラー画面を表示可能なLCDで
あってもよい。データ入力キー4は電子手帳1の操作に
必要な各種のデータを入力するもので、例えば「1」、
「2」、・・・「9」、「0」からなる数字キー、
「−」、「+」、・・・等の演算キー、「A」、
「B」、・・・「Y」、「Z」からなるアルファベット
キーを有している。これらの数字キー、演算キー、アル
ファベットキーを用いて顔画像作成の対象者となる人物
についての各種データの入力を行ったり、あるいは画像
以外のデータの入力を行ったりする。
A second display portion 3 and a data input key 4 are sequentially arranged below the CCD camera portion 2 in the main body 1b of the electronic notebook 1. The second display unit 3 is composed of, for example, an LCD (liquid crystal display device), and displays the face image 2a captured by the CCD camera unit 2, so that the captured face image 2a can be displayed as it is. Has become.
The second display unit 3 is an LCD capable of displaying a monochrome screen.
Alternatively, it may be an LCD capable of displaying a color screen. The data input key 4 is for inputting various data necessary for operating the electronic notebook 1, for example, "1",
Numeric key consisting of "2", ... "9", "0",
Operation keys such as "-", "+", ..., "A",
It has alphabetic keys consisting of "B", ... "Y", "Z". By using these numerical keys, calculation keys, and alphabet keys, various data about a person who is a target person of face image creation is input, or data other than the image is input.

【0014】電子手帳1の本体1bの下方にはラベルテ
ープ4を印刷可能な印刷部(後述の図2参照)が内蔵さ
れており、図1の例では第1表示部11に表示した顔画
像11aをラベルテープ4に印刷して取り出す状態が図
示されている。ラベルテープ4は、その裏面側に粘着層
を介して剥離可能に設けられている剥離シートを剥がす
ことにより、粘着層の粘着作用により適当な箇所に顔画
像が印刷されたラベルテープ4を張り付けることが可能
なものである。また、ラベルテープ4には画像だけでな
く、文章も印刷可能である。なお、ラベルテープ4には
第1表示部11に表示した顔画像11aだけでなく、例
えば後述の第2表示部3に表示した画像も印刷して取り
出すことができるようになっている。印刷素材はラベル
テープでなく、普通紙であってもよい。
Below the main body 1b of the electronic notebook 1, a printing unit (see FIG. 2 described later) capable of printing the label tape 4 is built in. In the example of FIG. 1, the face image displayed on the first display unit 11 is displayed. The state where 11a is printed on the label tape 4 and taken out is illustrated. The label tape 4 is attached to the label tape 4 on which a face image is printed at an appropriate position by the adhesive action of the adhesive layer by peeling off the release sheet provided on the back side of the label tape so as to be removable via the adhesive layer. It is possible. Further, not only an image but also a sentence can be printed on the label tape 4. It should be noted that not only the face image 11a displayed on the first display unit 11 but also an image displayed on the second display unit 3 described later can be printed on the label tape 4 and taken out. The printing material may be plain paper instead of label tape.

【0015】一方、電子手帳1の本体1aには上部側か
ら第1表示部11、入力スイッチ部12、オン/オフキ
ー13、部位キー14が配置されている。第1表示部1
1は例えばLCDからなり、電子的に顔画像を作成する
段階で各種の画像や合成の顔画像を表示したり、必要な
データ(例えば、人物の氏名等のデータ)を表示したり
する。なお、第1表示部11はモノクロ画面を表示可能
なLCDでもよいし、あるいはカラー画面を表示可能な
LCDであってもよい。図1の例では人物の顔画像11
aおよび人物に関するデータとして氏名、住所、電話番
号、年齢が表示されている。これら以外の他のデータを
使用してもよいことは勿論である。入力スイッチ部12
は電子手帳1によって人物の顔画像を作成する場合に必
要な各種の操作を行うためのもので、具体的には以下の
キーがある。なお、以下のキーは、例えば薄いシートタ
イプのキースイッチが用いられる。 「マッチング」:CCDカメラ部2の読り取りデータと
して記憶された顔の部分画像に対応するパーツデータ
と、パーツパターンとして記憶された顔の各部位毎の複
数種類のパーツパターンとを比較してマッチングすると
きに操作するキー。 「表示」:第1表示部11に画像を表示させるときに操
作するキー。あるいは第2表示部3に画像を表示させる
ときに操作するようにしてもよい。 「印刷」:ラベルテープ4に画像や文章を印刷させると
きに操作するキー。
On the other hand, the main body 1a of the electronic notebook 1 is provided with a first display portion 11, an input switch portion 12, an on / off key 13, and a site key 14 from the upper side. First display unit 1
Reference numeral 1 denotes, for example, an LCD, which displays various images and a composite face image at the stage of electronically creating a face image, and displays necessary data (for example, data such as a person's name). The first display unit 11 may be an LCD capable of displaying a monochrome screen or an LCD capable of displaying a color screen. In the example of FIG. 1, a face image 11 of a person
The name, address, telephone number, and age are displayed as data relating to a and the person. Of course, data other than these may be used. Input switch unit 12
Is for performing various operations necessary for creating a face image of a person using the electronic notebook 1, and specifically, the following keys are provided. For the following keys, for example, thin sheet type key switches are used. "Matching": comparing the part data corresponding to the partial image of the face stored as the read data of the CCD camera unit 2 with the plurality of types of part patterns for each part of the face stored as the part pattern. Key to operate when matching. “Display”: a key operated when displaying an image on the first display unit 11. Alternatively, the operation may be performed when the image is displayed on the second display unit 3. “Print”: A key operated when printing an image or a sentence on the label tape 4.

【0016】「個人」:個人に関するデータ、例えば氏
名、住所、電話番号等の個人に関するデータを第1表示
部11に表示させるときに操作するキー。 「拡大」:第1表示部11に表示した顔画像の部位を拡
大するときに操作するキー。 「画像入力」:CCDカメラ部2で撮像した顔画像2a
を固定して表示するときに操作するキー。 「位置修正」:第1表示部11に表示した顔画像の部位
の位置を修正するときに操作するキー。 「修正」:第1表示部11に表示した顔画像を修正する
ときに操作する。 「△▽」:顔のパーツや複数のパーツの中から所望のパ
ターンを選択するとき等に操作する選択キーで、いわゆ
るインクリメント、デクリメントする操作を行うもの。
△はアップ用、▽はダウン用を表す。 「終了」:第1表示部11に表示した顔画像の処理を終
了するときに操作するキー。 「登録」:第1表示部11に表示した顔画像を登録する
ときに操作する。 「顔方向」:第1表示部11に表示した顔画像の向きを
変える(例えば、側面の顔を表示させる)ときに操作す
るキー。 オン/オフキー13は電子手帳1の電源をオン/オフす
るときに操作されるものである。部位キー14は顔の各
部位(例えば、髪、目、鼻、口等)を指定するときに操
作されるもので、各部位を模した図形タイプのキーを押
すことにより、所望の部位が指定される。なお、人物の
胴体、手、足等は単に図形表示されているのみで、スイ
ッチとしての機能は略されている。
"Individual": A key operated when displaying data relating to an individual, for example, data relating to an individual such as name, address, telephone number, etc., on the first display section 11. “Enlargement”: A key operated when enlarging the part of the face image displayed on the first display unit 11. "Image input": Face image 2a captured by the CCD camera unit 2
Key to operate when fixing and displaying. “Position correction”: a key operated when correcting the position of the part of the face image displayed on the first display unit 11. “Correction”: This is operated when correcting the face image displayed on the first display unit 11. "△ ▽": A selection key operated when selecting a desired pattern from a face part or a plurality of parts, for performing so-called increment / decrement operations.
△ indicates up, and ▽ indicates down. “End”: A key operated when ending the processing of the face image displayed on the first display unit 11. “Register”: Operates when registering the face image displayed on the first display unit 11. “Face direction”: A key operated when changing the direction of the face image displayed on the first display unit 11 (for example, displaying a side face). The on / off key 13 is operated when the power of the electronic notebook 1 is turned on / off. The part key 14 is operated when designating each part of the face (for example, hair, eyes, nose, mouth, etc.), and a desired part is designated by pressing a graphic type key imitating each part. To be done. It should be noted that the body, hands, feet, etc. of the person are merely displayed graphically, and the function as a switch is omitted.

【0017】次に、図2は電子手帳における顔画像作成
装置の構成を示すブロック図である。図2において、こ
の顔画像作成装置はCPU21、キー入力部22、イメ
ージデータ入力部23、パターンマッチング部24、印
刷駆動部25、印刷部26、表示駆動部27、入力画像
メモリ28、基本位置メモリ29、パーツパターンRO
M30、ROM31、ワークRAM32および前述した
第1表示部11、第2表示部3を含んで構成されてい
る。キー入力部22は図1に示すデータ入力キー4、入
力スイッチ部12、オン/オフキー13および部位キー
14を含んでおり、キー入力部22からのキー操作信号
はCPU21に入力される。CPU21はキー入力部2
2からのキー操作信号に基づきROM31に格納されて
いる似顔絵作成プログラムに従って回路各部の動作制御
を行うもので、CPU21にはキー入力部22、ROM
31の他に上記イメージデータ入力部23、パターンマ
ッチング部24、印刷駆動部25、表示駆動部27、入
力画像メモリ28、基本位置メモリ29、パーツパター
ンROM30、ROM31およびワークRAM32が接
続されている。CPU21はROM31とともに、デー
タ比較手段101、パターン合成手段102、時間計測
手段103を構成する。また、請求項4乃至7記載の発
明に対応するように、CPU21はROM31ととも
に、比較手段および合成手段としての機能を実現する。
Next, FIG. 2 is a block diagram showing the configuration of the face image creating apparatus in the electronic notebook. In FIG. 2, the face image creating apparatus includes a CPU 21, a key input unit 22, an image data input unit 23, a pattern matching unit 24, a print drive unit 25, a print unit 26, a display drive unit 27, an input image memory 28, and a basic position memory. 29, parts pattern RO
It is configured to include the M30, the ROM 31, the work RAM 32, and the first display unit 11 and the second display unit 3 described above. The key input unit 22 includes the data input key 4, the input switch unit 12, the on / off key 13 and the part key 14 shown in FIG. 1, and the key operation signal from the key input unit 22 is input to the CPU 21. CPU 21 is the key input unit 2
The CPU 21 controls the operation of each part of the circuit in accordance with the portrait creation program stored in the ROM 31 based on the key operation signal from the key input unit 22 and the ROM.
In addition to 31, the image data input unit 23, the pattern matching unit 24, the print driving unit 25, the display driving unit 27, the input image memory 28, the basic position memory 29, the part pattern ROM 30, the ROM 31, and the work RAM 32 are connected. The CPU 21 constitutes the data comparison means 101, the pattern synthesis means 102, and the time measurement means 103 together with the ROM 31. Further, the CPU 21 realizes the functions of the comparing unit and the synthesizing unit together with the ROM 31 so as to correspond to the inventions of claims 4 to 7.

【0018】イメージデータ入力部23はCCDカメラ
部2で撮像した似顔絵対象となる人物像の顔画像(例え
ば、図1に示す顔画像2a)がビデオ信号(1フィール
ド分)として入力されるもので、イメージデータ入力部
23はY/C分離部23aおよびA/D変換部23bに
よって構成される。Y/C分離部23aはCCDカメラ
部2からのビデオ信号に含まれる輝度信号Yと色差信号
Cから輝度信号Yのみを分離抽出するもので、Y/C分
離部23aからのビデオ信号はA/D変換部23bに供
給される。A/D変換部23bはY/C分離部23aか
ら供給される1フィールド分のビデオ輝度信号Yを予め
設定されたサンプリングクロックに同期して白黒2値の
デジタル信号に変換するもので、A/D変換部23bを
介してデジタルデータに変換された画像データは入力画
像メモリ28に転送されて記憶される。すなわち、入力
画像メモリ(顔画像データ記憶手段)28には似顔絵対
象人物として撮像された顔画像データがビットマップデ
ータとして記憶される。なお、入力画像メモリ28に記
憶される顔画像データは、その顔の「鼻」が存在する画
像領域を記憶領域の中央に設定して記憶される。
The image data input unit 23 is a unit for inputting a face image (for example, the face image 2a shown in FIG. 1) of a person who is a portrait image taken by the CCD camera unit 2 as a video signal (for one field). The image data input unit 23 includes a Y / C separation unit 23a and an A / D conversion unit 23b. The Y / C separation unit 23a separates and extracts only the luminance signal Y from the luminance signal Y and the color difference signal C included in the video signal from the CCD camera unit 2, and the video signal from the Y / C separation unit 23a is A / C. It is supplied to the D conversion unit 23b. The A / D conversion unit 23b converts the video luminance signal Y for one field supplied from the Y / C separation unit 23a into a monochrome binary digital signal in synchronization with a preset sampling clock. The image data converted into digital data via the D conversion unit 23b is transferred to and stored in the input image memory 28. That is, the input image memory (face image data storage means) 28 stores face image data taken as a portrait portrait person as bitmap data. The face image data stored in the input image memory 28 is stored by setting the image area in which the "nose" of the face exists in the center of the storage area.

【0019】基本位置メモリ29は入力画像メモリ28
における顔画像の基本的記憶位置を髪、眉、目、鼻、
口、耳等の部位毎に分割したアドレス値として記憶して
おり、基本位置メモリ29に記憶されたアドレス値に応
じて入力画像メモリ28に記憶された顔画像データを読
み出すことにより、似顔絵対象人物として撮像された顔
画像データが髪、眉、目、鼻、口、耳等の部位毎に読み
出される。パーツパターンROM(パーツパターン記憶
手段)30は顔の各部を髪、眉、目、鼻、口、耳等の部
位に分け、各部位毎に複数種類のパーツパターンを所定
の記憶位置に番号を付けてビットマップデータとして記
憶しており、パーツパターンROM30に記憶される各
部位毎のパーツパターンがそれぞれ1つずつ組み合され
ることにより、似顔絵パターンが構成される。
The basic position memory 29 is the input image memory 28.
The basic memory locations of face images in hair, eyebrows, eyes, nose,
The facial image data stored in the input image memory 28 according to the address value stored in the basic position memory 29 is stored as the address value divided for each part such as the mouth and the ear. The face image data captured as is read out for each part such as hair, eyebrows, eyes, nose, mouth, and ears. A parts pattern ROM (parts pattern storage means) 30 divides each part of the face into parts such as hair, eyebrows, eyes, nose, mouth, and ears, and assigns a plurality of kinds of part patterns to predetermined storage positions for each part. Are stored as bit map data, and a portrait pattern is formed by combining one part pattern for each part stored in the part pattern ROM 30.

【0020】ここで、パーツパターンROM30に記憶
されている顔の各部位のパーツパターンの一例は図3の
ように示される。図3において、顔の各部位としては、
正面用(A)、右側面用(B)、・・・斜め右側面用
(N)という具合に、顔の向きに対応して複数のパター
ンが設定されている。そして、各面用(A)〜(N)に
は顔の各部位が、例えば顔の輪郭、髪型、右目、・・・
・口というようにパターンに分けて複数種用意されてい
る。なお、顔の部位は図3に示した例に限らず、他に
も、図示は略しているが、例えば眉、鼻というものが用
意されている。また、この他の顔の部位を用意してもよ
い。
Here, an example of a part pattern of each part of the face stored in the part pattern ROM 30 is shown in FIG. In FIG. 3, as each part of the face,
A plurality of patterns are set corresponding to the direction of the face, such as front (A), right side (B), ... diagonal right side (N). Then, for each surface (A) to (N), each part of the face is, for example, the contour of the face, the hairstyle, the right eye, ...
-Multiple types are prepared by dividing into patterns such as mouth. The face part is not limited to the example shown in FIG. 3, but other parts such as eyebrows and nose are prepared, though not shown. Further, other face parts may be prepared.

【0021】一方、顔の各部位のパーツパターンとし
て、[01]、[02]、・・・・[50]というパー
ツパターン番号で示される複数種類(ここでは50種
類)のものが予め設けられ、それぞれ輪郭、髪型、右
目、・・・・両足に対応して用意され、格納されてい
る。また、各部位のパーツパターンのそれぞれに対し
て、その位置データが座標[x、y]として付けられ、
所定のエリアに格納されている。したがって、各部位は
複数のパーツパターンと、各パーツパターンの位置デー
タとを合せて有することになる。さらに、パーツパター
ンROM30には、各パーツ毎に複数種類備えられるパ
ーツパターン[01]〜[50]のそれぞれに対応して
入力画像メモリ28に記憶された顔画像データ対応部位
との照合一致ドット数を格納する一致度数レジスタと、
この一致度数レジスタに格納された一致ドット数の大き
い順に順位番号が格納される順位レジスタとが備えられ
ている。図4は一例として、顔の部位の1つである
「鼻」に対応するパーツパターンの格納状態で、特にそ
の照合一致ドット数および順位番号を示すものである。
On the other hand, as a part pattern of each part of the face, a plurality of kinds (here, 50 kinds) indicated by part pattern numbers [01], [02], ... [50] are provided in advance. , Contour, hairstyle, right eye, ... are prepared and stored for both feet. Further, the position data is attached as coordinates [x, y] to each part pattern of each part,
It is stored in a predetermined area. Therefore, each part has a plurality of part patterns together with position data of each part pattern. Further, in the part pattern ROM 30, the number of matching matching dots with the face image data corresponding portion stored in the input image memory 28 corresponding to each of the part patterns [01] to [50] provided in plural for each part. A match frequency register that stores
There is provided a rank register in which rank numbers are stored in descending order of the number of matching dots stored in the matching frequency register. FIG. 4 shows, as an example, a stored state of a part pattern corresponding to one of the face parts, that is, a "nose", in particular, the number of matching matching dots and the order number.

【0022】ワークRAM(パーツデータ記憶手段、パ
ーツパターン指定用データ記憶手段)32は入力画像メ
モリ28に記憶された顔画像データから顔の各部位毎に
部分画像を抽出し、抽出した部分画像の向きデータ、各
部位毎の位置データを記憶する。パターンマッチング部
24はワークRAM32に記憶された部分画像に対応す
るパーツデータと、パーツパターンROM31に記憶さ
れた顔の各部位毎の複数種類のパーツパターンとを順次
照合(比較)し、その画像一致点の数に相当する一致ド
ット数を求めるもので、顔画像データ各部位に対する複
数パーツパターンそれぞれの照合一致ドット数は、前述
した一致度数レジスタに格納されるとともに、その一致
度数の順位は前述した順位レジスタに格納される。
The work RAM (parts data storage means, parts pattern designation data storage means) 32 extracts a partial image for each part of the face from the face image data stored in the input image memory 28 and stores the extracted partial image. The orientation data and the position data for each part are stored. The pattern matching unit 24 sequentially collates (compares) the part data corresponding to the partial image stored in the work RAM 32 and a plurality of types of part patterns for each part of the face stored in the part pattern ROM 31, and the image matching is performed. The number of matching dots corresponding to the number of points is calculated. The number of matching matching dots for each of the plurality of part patterns for each part of the face image data is stored in the above-described matching frequency register, and the order of the matching frequencies is as described above. Stored in the rank register.

【0023】そして、パーツパターンROM30におけ
る各部位毎の複数のパーツパターンの全てに対して顔画
像データ各部位毎との一致ドット数およびその順位番号
が格納されると、各部位毎に第1順位のパーツパターン
が読み出され、それぞれの位置データに対応して合成表
示される。表示駆動部27はCPU21の出力に基づい
て第1表示部11および第2表示部3を駆動して処理画
像を表示させる。また、印刷駆動部25はCPU21の
出力に基づいて印刷部26を駆動し、印刷部26はラベ
ルテープ4に処理画像や文字等を印刷する。表示駆動部
27および第1表示部11は表示手段を構成する。
When the number of matching dots for each part of the face image data and its rank number are stored for all of the plurality of part patterns for each part in the part pattern ROM 30, the first rank is set for each part. The part patterns of are read out and combined and displayed corresponding to each position data. The display drive unit 27 drives the first display unit 11 and the second display unit 3 based on the output of the CPU 21 to display the processed image. Further, the print driving unit 25 drives the printing unit 26 based on the output of the CPU 21, and the printing unit 26 prints a processed image, characters, etc. on the label tape 4. The display drive unit 27 and the first display unit 11 form a display unit.

【0024】次に、作用を説明する。まず、電子手帳1
の本体1a、1bをそれぞれ左右に開いてオン/オフキ
ー13を押すと、電子手帳1に電源が供給され、動作が
開始する。以後は後述のプログラムを実行することによ
り、個人データの入力や似顔絵作成処理が行われる。図
5は本実施例の電子手帳1を使用して個人データの入力
・登録処理を行う場合の処理プログラムを示すフローチ
ャートである。本プログラムがスタートすると、まずス
テップS10で個人キーが押されているか否かを判別す
る。個人キーとは、入力スイッチ部12における「個
人」キーのことで、個人に関するデータ、例えば氏名、
住所、電話番号等の個人に関するデータを第1表示部1
1に表示させるときに操作されるものである。個人キー
が押されていなければステップS10に留り、個人キー
が押されると、ステップS12に進んで個人データが入
力されたか否かを判別する。
Next, the operation will be described. First, electronic notebook 1
When the main bodies 1a and 1b are opened to the left and right and the on / off key 13 is pressed, power is supplied to the electronic notebook 1 and the operation starts. After that, by executing the program described later, the personal data is input and the portrait creation process is performed. FIG. 5 is a flow chart showing a processing program when inputting / registering personal data using the electronic notebook 1 of this embodiment. When this program is started, it is first determined in step S10 whether or not the private key is pressed. The personal key is an “individual” key in the input switch unit 12, and is data relating to an individual, such as a name,
Data about an individual such as an address and a telephone number is displayed on the first display unit 1
It is operated when it is displayed on 1. If the individual key has not been pressed, the process stays in step S10. If the individual key has been pressed, the process proceeds to step S12, and it is determined whether or not the individual data has been input.

【0025】個人データはデータ入力キー4を用いて入
力され、例えば氏名、住所、電話番号等の個人に関する
データを入力することが可能である。この場合、個人デ
ータが入力されていなければステップS16にジャンプ
する。また、個人データが入力されていれば、ステップ
S14に進んで入力された個人データをワークRAM3
2に格納する。これにより、CPU21がワークRAM
32に格納された入力個人データを読み出して表示駆動
部27に出力し、表示駆動部27が第1表示部11を駆
動することにより、入力された個人データが第1表示部
11に表示される。次いで、ステップS16では登録キ
ーがオンしているか否かを判別し、オンしていなければ
ステップS12に戻ってステップS12〜ステップS1
6のループを繰り返す。ステップS16で登録キーがオ
ンすると、入力された個人データの登録処理を行って本
ルーチンを終了する。これにより、個人データがワーク
RAM32の所定の登録エリアに格納され、以後、登録
個人データとして取り出し可能になる。
The personal data is input by using the data input key 4, and it is possible to input personal data such as name, address and telephone number. In this case, if personal data has not been input, the process jumps to step S16. If the personal data is input, the process proceeds to step S14, and the input personal data is stored in the work RAM 3
Store in 2. As a result, the CPU 21 causes the work RAM to
The input personal data stored in 32 is read and output to the display drive unit 27, and the display drive unit 27 drives the first display unit 11, whereby the input personal data is displayed on the first display unit 11. . Next, in step S16, it is determined whether or not the registration key is turned on. If it is not turned on, the process returns to step S12 and steps S12 to S1.
Repeat the loop of 6. When the registration key is turned on in step S16, the input personal data is registered and the present routine is terminated. As a result, the personal data is stored in the predetermined registration area of the work RAM 32, and can be subsequently taken out as registered personal data.

【0026】図6、図7は似顔絵作成処理のプログラム
を示すフローチャートである。このプログラムがスター
トすると、まずステップS100で表示スイッチがオン
しているか否かを判別する。表示スイッチとは、入力ス
イッチ部12における表示キーのことで、表示スイッチ
がオンしていると、第1表示部11が作動して画像を表
示可能になり、ステップS102に進み、既に作成され
た似顔絵を選択して表示する処理を行う。また、表示ス
イッチがオンしていなければステップS104に分岐
し、実際の人物画像から似顔絵を作成する処理を実行す
る。 A.似顔絵選択処理のルーチン 最初に、似顔絵選択処理のルーチンから説明する。ステ
ップS102で検索データが入力されたか否かを判別す
る。検索データとは作成された似顔絵を選択するための
データであり、例えば個人データがある。検索データが
入力されていなければステップS100に戻り、検索デ
ータが入力ていると、ステップS106に進んで検索デ
ータによりワークRAM32における個人データの中か
ら対応するデータを検索して第1表示部11に表示す
る。
FIG. 6 and FIG. 7 are flowcharts showing a program for portrait creation processing. When this program starts, it is first determined in step S100 whether the display switch is on. The display switch is a display key in the input switch unit 12, and when the display switch is turned on, the first display unit 11 is activated to display an image, and the process proceeds to step S102 and is already created. A process of selecting and displaying a portrait is performed. If the display switch is not turned on, the process branches to step S104, and the process of creating a portrait from an actual person image is executed. A. Routine of portrait selection processing First, the routine of portrait selection processing will be described. In step S102, it is determined whether search data has been input. The search data is data for selecting the created portrait and is, for example, personal data. If search data has not been input, the process returns to step S100. If search data has been input, the process proceeds to step S106 and the corresponding data is searched from the personal data in the work RAM 32 by the search data and displayed on the first display unit 11. indicate.

【0027】ここで、図8はワークRAM32の記憶例
を示すもので、例えば人物の個人データに対応して1人
ずつの顔の特徴が顔の向き、顔の各部位毎のパーツパタ
ーン番号、各部位の位置データ(パーツデータ)をパラ
メータとしてそれぞれ所定のエリアに格納されている。
また、この場合、顔の向き(すなわち、正面、右側面、
・・・・斜右側面)に対応して輪郭、髪、右目、・・・
等のパーツパターン番号が、例えばそれぞれ[50]、
[02]、[50]、・・・というようにして所定のエ
リアに格納されているとともに、輪郭、髪、右目、・・
・等のパーツの位置データがそれぞれ例えば[x1、y
1]、[x2、y2]、[x3、y3]、・・・・とい
うようにして所定のエリアに格納されている。[x1、
y1]、[x2、y2]、[x3、y3]、・・・・と
いう各値は、画面上の位置を指定する座標値であり、位
置の修正に応じた絶対位置からの差分データである。な
お、位置の修正がない場合には座標値が[0、0]とな
る。
Here, FIG. 8 shows an example of the storage of the work RAM 32. For example, the facial features of each person correspond to the personal data of the person, the direction of the face, the part pattern number of each part of the face, The position data (parts data) of each part is stored in a predetermined area as a parameter.
Also, in this case, the face orientation (ie front, right side,
.... Contour, hair, right eye, ...
Part pattern numbers such as, for example, [50],
[02], [50], ... are stored in a predetermined area, and the outline, hair, right eye, ...
・ Position data of parts such as, for example, [x1, y
1], [x2, y2], [x3, y3], ..., And stored in a predetermined area. [X1,
The values y1], [x2, y2], [x3, y3], ... Are coordinate values that specify the position on the screen, and are difference data from the absolute position according to the position correction. . If the position is not corrected, the coordinate value is [0,0].

【0028】そして、例えば顔の向き(すなわち、正
面、右側面、・・・・斜右側面)に対応する顔画像につ
いての各部位毎のパーツパターン番号および各部位の位
置データをそれぞれ組み合せて合成することにより、1
つのモンタージュ画が作成される。したがって、入力さ
れた検索データが個人データである場合には、該当する
個人データを照合し、一致する人物のものが選択されて
第1表示部11に表示されることになる。例えば、個人
データとしての 氏名:甲 住所:○○ 電話番号:○○ 血液型:○ 趣味:○○ の何れかが入力されると、該当する人物として図8の第
1番目のエリアに格納されている人物の個人データが選
択されて第1表示部11に表示される。なお、個人デー
タとしては、甲という人物の例の他に、以下のような人
物のデータが格納されている。また、この他の人物デー
タを格納してもよい。 氏名:乙 住所:○○ 電話番号:○○ 血液型:○ 趣味:○○
Then, for example, a part pattern number for each part and a position data of each part of the face image corresponding to the orientation of the face (that is, the front surface, the right side surface, ..., the oblique right side surface) are combined and synthesized. By doing 1
Two montage pictures are created. Therefore, when the input search data is personal data, the corresponding personal data is collated, and the matching personal data is selected and displayed on the first display unit 11. For example, if one of the following is entered as personal data: Name: Party address: XX Phone number: XX Blood type: XX Hobbies: XX is stored as the corresponding person in the first area of FIG. The personal data of the person being selected is selected and displayed on the first display unit 11. As personal data, in addition to the example of the person A, the following person data is stored. Further, other person data may be stored. Name: Otsu Address: ○○ Phone number: ○○ Blood type: ○ Hobbies: ○○

【0029】次いで、ステップS108で検索された個
人データに対応するモンタージュ画(すなわち、似顔
絵)の記憶されているワークRAM32のエリアの中の
1つの顔画像データを読み出して第1表示部11に表示
する。これにより、個人データを基に既に作成された似
顔絵の中から1つがピックアップされて表示される。例
えば、個人データとして上記のように人物甲に関連する
データが入力された場合には、図8に示す人物甲に対応
する顔の向き、顔の各部位毎のパーツパターン番号、各
部位の位置データ(パーツデータ)を基にした1つの似
顔絵が表示される。したがって、人物甲に対応する似顔
絵は顔の向き等に応じて複数のものがあるが、その中の
1つが選択されて表示されることになる。
Next, one face image data in the area of the work RAM 32 in which the montage image (that is, a portrait) corresponding to the personal data retrieved in step S108 is stored is read out and displayed on the first display section 11. To do. As a result, one of the portraits already created based on the personal data is picked up and displayed. For example, when the data related to the human instep as described above is input as personal data, the orientation of the face corresponding to the instep shown in FIG. 8, the part pattern number for each part of the face, and the position of each part One portrait based on the data (parts data) is displayed. Therefore, although there are a plurality of portraits corresponding to the instep of the person depending on the direction of the face, etc., one of them is selected and displayed.

【0030】次いで、ステップS110で選択キー(△
▽キー)がオンしたか否かを判別する。選択キーがオン
していれば個人データは同じでも他の似顔絵が選択要求
されていると判断し、ステップS112でワークRAM
32のエリアの中の他の顔画像データを選択する。その
後、ステップS108に戻り、同様のループを繰り返
す。これにより、例えば個人データとして上記のように
人物甲に関連するデータが入力されている場合には、人
物甲に対応する他の似顔絵が選択されて第1表示部11
に表示される。
Then, in step S110, the selection key (Δ
Determine whether or not the ▽ key) is turned on. If the selection key is on, it is determined that another portrait is requested even if the personal data is the same, and in step S112 the work RAM is selected.
Other face image data in the area 32 is selected. Then, the process returns to step S108 and the same loop is repeated. Thereby, for example, when the data related to the person A is input as the personal data as described above, another portrait corresponding to the person A is selected and the first display unit 11 is selected.
Is displayed in.

【0031】このとき、人物甲についての似顔絵で検索
データに対応する所望のものが第1表示部11に表示さ
れない場合には、さらに選択キー(△▽キー)を操作す
る(例えば、△キーの操作で似顔絵をインクリメント的
に選択したり、あるいは▽キーの操作で似顔絵をデクリ
メント的に選択したりする)。次いで、ステップS11
4に進み、終了スイッチ(終了キー)がオンしたか否か
を判別し、終了スイッチがオンしていなければステップ
S110に戻って同様のループを繰り返する。そして、
最終的に検索データに対応する所望の似顔絵を第1表示
部11に表示させる。検索データに対応する所望の似顔
絵が第1表示部11に表示された後、ステップS114
に進んで終了スイッチがオンされていることが検出され
れば、似顔絵の選択処理を終了してステップS100に
戻る。
At this time, if the desired portrait corresponding to the retrieval data of the person's instep is not displayed on the first display section 11, the selection key (Δ ▽ key) is further operated (for example, of the Δ key. Incrementally select a portrait by operating, or decrement the portrait by operating the ▽ key). Then, step S11
In step 4, it is determined whether or not the end switch (end key) is turned on. If the end switch is not turned on, the process returns to step S110 and the same loop is repeated. And
Finally, the desired portrait corresponding to the search data is displayed on the first display unit 11. After the desired portrait corresponding to the search data is displayed on the first display unit 11, step S114
If it is detected that the end switch is turned on in step S100, the portrait selection process ends and the process returns to step S100.

【0032】B.似顔絵作成処理のルーチン ステップS100から分岐してステップS104に進
み、このステップS104でイメージデータを入力す
る。すなわち、入力スイッチ部12の画像入力キーをオ
ンすることより、似顔絵の対象としてCCDカメラ部2
で撮像したオペレータの顔画像データがビデオ信号とし
てイメージデータ入力部23に供給される。これによ
り、イメージデータ入力部23に供給された1フィール
ド分のビデオ信号がY/C分離部23aからA/D変換
部23bを介して1画面分のデジタル画像データに変換
される。次いで、ステップS116でイメージデータ補
正を行う。これは、デジタル画像データに変換された1
画面分の顔画像データに対して、その背景部分に存在す
る余分な画像データを消去して補正するものである。次
いで、ステップS118で入力イメージデータをCPU
21から入力画像メモリ28に対して転送して入力画像
メモリ28に記憶するとともに、第2表示部3に表示す
る。これにより、CCDカメラ部2によって撮像された
オペレータの顔画像が第2表示部3に表示されることに
なる。第2表示部3に表示される入力画像は、例えば図
9(A)に示すようなものになる。
B. Routine of portrait creation process The process branches from step S100 to step S104, and image data is input in step S104. That is, by turning on the image input key of the input switch unit 12, the CCD camera unit 2 is set as a portrait target.
The face image data of the operator imaged in is supplied to the image data input unit 23 as a video signal. As a result, the video signal for one field supplied to the image data input unit 23 is converted from the Y / C separation unit 23a to the digital image data for one screen through the A / D conversion unit 23b. Next, in step S116, image data correction is performed. This is 1 converted to digital image data
With respect to the face image data for the screen, extra image data existing in the background portion is erased and corrected. Then, in step S118, the input image data is processed by the CPU.
21 is transferred to the input image memory 28, stored in the input image memory 28, and displayed on the second display unit 3. As a result, the face image of the operator captured by the CCD camera unit 2 is displayed on the second display unit 3. The input image displayed on the second display unit 3 is as shown in FIG. 9 (A), for example.

【0033】次いで、ステップS120で顔方向が入力
されたか否かを判別する。これは、入力スイッチ部12
の顔方向キーがオンしたかどうかで判断する。顔方向キ
ーがオンしていなければステップS100に戻り、顔方
向キーがオンした場合には続くステップS122に進ん
で、対応する個人データの顔画像を記憶するワークRA
M32のエリアを指定する。これにより、そのとき顔方
向に応じた顔画像データがワークRAM32に記憶され
る。例えば、正面の顔方向を撮像し、この方向でOKの
ときは、図9(A)に示すような正面方向の顔が入力画
像としてワークRAM32に記憶される。
Next, in step S120, it is determined whether or not the face direction has been input. This is the input switch unit 12
Judgment is made based on whether or not the face direction key of is turned on. If the face direction key is not turned on, the process returns to step S100. If the face direction key is turned on, the process proceeds to step S122, and the work RA for storing the face image of the corresponding personal data.
Specify the M32 area. As a result, the face image data corresponding to the face direction at that time is stored in the work RAM 32. For example, when the face direction in the front is imaged, and when the direction is OK, the face in the front direction as shown in FIG. 9A is stored in the work RAM 32 as an input image.

【0034】次いで、図7に移り、ステップS124で
入力スイッチ部12の部位キーがオンしたか否かを判別
し、部位キーがオンしていればステップS126で選択
された部位に対応する入力イメージデータにカーソルを
表示する。例えば、図9(B)に示すように部位キーが
オンして「鼻」を指定しているときは、「鼻」の部位に
第2表示部3上でカーソルCが表示される。一方、部位
キーがオンしていなければステップS126をジャンプ
してステップS128に進む。このように、撮像した顔
画像から顔の各部位を部分画像として抽出し、後述のよ
うに抽出した部分画像の向きデータ、各部位毎の位置デ
ータをパーツパターンROM30に予め格納されている
パーツパターンと比較照合することで、撮像画像に対し
て近似した似顔絵パターンが各部位毎の組み合わせによ
って合成表示されることになる。
Next, moving to FIG. 7, it is determined in step S124 whether or not the part key of the input switch unit 12 is turned on. If the part key is turned on, the input image corresponding to the part selected in step S126 is input. Display the cursor on the data. For example, as shown in FIG. 9B, when the part key is turned on and "nose" is designated, the cursor C is displayed on the second display unit 3 at the part "nose". On the other hand, if the region key is not turned on, the process jumps to step S126 and proceeds to step S128. In this way, each part of the face is extracted as a partial image from the captured face image, and the orientation data of the extracted partial image and the position data of each part are stored in the part pattern ROM 30 in advance as described below. By comparing and collating with, the similar portrait pattern to the captured image is combined and displayed by the combination for each part.

【0035】次いで、ステップS128で入力スイッチ
部12の位置修正キーがオンしたか否かを判別する。こ
れは、第2表示部3上でカーソルCによって表示された
部位の位置を修正するかどうかを判断するものである。
位置修正キーがオンしていればステップS130でカー
ソルの表示位置を移動する。これにより、例えば図9
(B)に示すように部位キーがオンして「鼻」を指定し
ているとき、「鼻」を指定しているカーソルの表示位置
が移動し、「鼻」が画面上でわずかに別の場所に移動す
る。一方、位置修正キーがオンしていなければステップ
S130をジャンプしてステップS132に進む。
Then, in step S128, it is determined whether or not the position correction key of the input switch section 12 is turned on. This is to determine whether to correct the position of the part displayed by the cursor C on the second display unit 3.
If the position correction key is on, the display position of the cursor is moved in step S130. As a result, for example, as shown in FIG.
As shown in (B), when the body part key is turned on and the "nose" is designated, the display position of the cursor designating the "nose" moves, and the "nose" is slightly different on the screen. Move to a place. On the other hand, if the position correction key is not turned on, the process jumps to step S130 and proceeds to step S132.

【0036】ステップS132では入力スイッチ部12
の拡大キーがオンしたか否かを判別する。これは、第2
表示部3上でカーソルCによって表示された部位の大き
さを拡大するかどうかを判断するものである。拡大キー
がオンしていればステップS136でカーソルCで指定
された部位を拡大して表示する。これにより、例えば図
9(C)に示すように部位キーがオンして「鼻」を指定
しているとき、「鼻」が所定の倍率で拡大されて拡大画
像Kとして画面上に表示される。このように指定の部位
を拡大して表示することにより、拡大した部位の修正が
容易により、結果的に部位の特徴を出しながらより実物
に近い似顔絵(モンタージュ画)を作成することが可能
になる。一方、拡大キーがオンしていなければステップ
S134をジャンプしてステップS136に進む。ステ
ップS136では入力スイッチ部12のマッチングキー
がオンしたか否かを判別する。これは、第2表示部3上
でカーソルCによって表示された撮像画像中の部位と、
予めパーツパターンROM30に格納されているパーツ
パターンとを比較照合し、その一致度数の順位付けを行
うもので、マッチング処理を各部位毎に繰り返すことに
より、撮像画像に対して理論上最も近似した似顔絵パタ
ーンを合成表示することが可能になる。
In step S132, the input switch unit 12
It is determined whether or not the enlargement key of is turned on. This is the second
It is to determine whether to enlarge the size of the part displayed by the cursor C on the display unit 3. If the enlargement key is turned on, the part designated by the cursor C is enlarged and displayed in step S136. As a result, for example, as shown in FIG. 9C, when the region key is turned on and the "nose" is designated, the "nose" is enlarged at a predetermined magnification and displayed as an enlarged image K on the screen. . By enlarging and displaying the designated part in this way, it is easy to correct the enlarged part, and as a result, it is possible to create a portrait (montage image) closer to the real thing while showing the characteristics of the part. . On the other hand, if the enlargement key is not turned on, the process jumps to step S134 and proceeds to step S136. In step S136, it is determined whether or not the matching key of the input switch section 12 is turned on. This is a part in the captured image displayed by the cursor C on the second display unit 3,
The parts pattern stored in the parts pattern ROM 30 is compared and collated in advance, and the matching frequency is ranked. By repeating the matching process for each part, a portrait that is theoretically the closest to the captured image. It becomes possible to synthesize and display the pattern.

【0037】マッチングキーがオンしていればステップ
S138でパーツパターンROM30からカーソルCで
指定された部位のパターンを読み出す。例えば、図9
(B)に示すように部位キーがオンして「鼻」を指定し
ていれば、パーツパターンROM30から「鼻」という
パーツのパターンを読み出す。次いで、ステップS14
0で読み出されたパターンと、カーソルで指定された部
位の画像の一致ドット数をカウントする。例えば、部位
キーがオンして「鼻」を指定していれば、入力画像メモ
リ28から読み出された撮像画像における「鼻」の画像
データと、パーツパターンROM30から読み出された
「鼻」の第1パーツパターンとが照合され、その画像パ
ターンの一致点に相当する一致ドット数がカウントされ
る。例えば、図3の例では「鼻」のパーツパターンとし
て、[01]、[02]、・・・・[50]というよう
に50種類が予め用意されているから、第1パーツパタ
ーンとしては[01]というパルスパターン番号で指定
されるものが読み出されて撮像画像における「鼻」の画
像データと照合される。この画像データ中の「鼻」画像
データと、予め登録された「鼻」の第1パーツパターン
との照合一致ドット数は、「鼻」の第1パーツパターン
に対応するパーツパターンROM30内の一致度数レジ
スタに格納される。
If the matching key is turned on, the pattern of the portion designated by the cursor C is read from the parts pattern ROM 30 in step S138. For example, in FIG.
As shown in (B), if the part key is turned on and "nose" is specified, the pattern of the part "nose" is read from the part pattern ROM 30. Then, step S14
The number of matching dots in the pattern read with 0 and the image of the portion designated by the cursor is counted. For example, if the part key is turned on and "nose" is specified, the image data of the "nose" in the captured image read from the input image memory 28 and the "nose" read from the part pattern ROM 30 will be displayed. The first part pattern is collated, and the number of matching dots corresponding to the matching point of the image pattern is counted. For example, in the example of FIG. 3, 50 types such as [01], [02], ... [50] are prepared in advance as the "nose" part pattern, so that the first part pattern is [ 01] specified by the pulse pattern number is read out and collated with the image data of the “nose” in the captured image. The matching match dot number between the “nose” image data in this image data and the first part pattern of the “nose” registered in advance is the matching frequency in the part pattern ROM 30 corresponding to the first part pattern of the “nose”. Stored in register.

【0038】次いで、ステップS142で照合対象とな
る次のパターン(例えば、「鼻」の第2パーツパター
ン)があるか否かを判別する。次のパターンがある場合
にはステップS138に戻ってパーツパターンROM3
0から次の(第2の)「鼻」のパーツパターン(第2パ
ーツパターン)を読み出し、その後、ステップS140
で同様にして読み出された第2パーツパターンと、カー
ソルで指定された部位の画像の一致ドット数をカウント
する。例えば、「鼻」のパーツパターンを照合中であれ
ば、第2パーツパターンとしては[02]というパルス
パターン番号で指定されるものが読み出されて撮像画像
における「鼻」の画像データと照合される。この画像デ
ータ中の「鼻」画像データと、予め登録された「鼻」の
第2パーツパターンとの照合一致ドット数は、「鼻」の
第2パーツパターンに対応するパーツパターンROM3
0内の一致度数レジスタに格納される。
Next, in step S142, it is determined whether or not there is the next pattern to be matched (for example, the second part pattern of "nose"). If there is a next pattern, the process returns to step S138 and the parts pattern ROM 3
The next (second) "nose" part pattern (second part pattern) is read from 0, and then step S140
In the same manner, the number of matching dots in the image of the part designated by the cursor and the second part pattern read in the same manner is counted. For example, if the “nose” part pattern is being collated, the second part pattern designated by the pulse pattern number [02] is read out and collated with the image data of the “nose” in the captured image. It The number of matching match dots of the “nose” image data in this image data and the second part pattern of the “nose” registered in advance is the part pattern ROM 3 corresponding to the second part pattern of the “nose”.
It is stored in the match frequency register within 0.

【0039】同様にして、ステップS138〜ステップ
S142のループを繰り返すことにより、似顔絵対象と
して入力画像メモリ28に記憶された顔画像中の「鼻」
の画像データと、パーツパターンROM30に予め登録
されている「鼻」パーツの各パーツパターンとの照合処
理が順次繰り返され、それぞれの照合一致ドット数が各
パーツパターンに対応する一致度数レジスタに格納され
ていく。そして、全ての「鼻」のパーツパターンとの照
合処理が終了すると、ステップS142において次のパ
ターン無しと判断されて、判別結果がNOとなり、ステ
ップS144に分岐する。ステップS144では一致ド
ット数の多さにより、各パターンの順位付けを行う。す
なわち、各パーツパターンに対応して一致度数レジスタ
に格納された「鼻」画像データとの照合一致ドット数に
基づき、その一致度数の高い順から順位番号が付され、
それぞれの対応する順位レジスタに格納される。例え
ば、顔の部位の1つである「鼻」に対応するパーツパタ
ーンについては、図4に示すように、その照合一致ドッ
ト数および順位番号が格納される。この場合、照合一致
ドット数=[25]が順位=[1]で、以下、照合一致
ドット数=[20]が順位=[2]、・・・・という具
合に一致度数の高い順から順位番号が付されて対応する
順位レジスタに格納されている。
Similarly, by repeating the loop of steps S138 to S142, the "nose" in the face image stored in the input image memory 28 as the portrait image object.
The image data and the matching process of each part pattern of the "nose" part registered in advance in the part pattern ROM 30 are sequentially repeated, and the respective matching match dot numbers are stored in the matching frequency register corresponding to each part pattern. To go. When the matching process with all "nose" part patterns is completed, it is determined in step S142 that there is no next pattern, the determination result is NO, and the process branches to step S144. In step S144, the patterns are ranked according to the number of matching dots. That is, based on the number of matching matching dots with the “nose” image data stored in the matching frequency register corresponding to each part pattern, a rank number is assigned from the highest matching frequency,
It is stored in the corresponding rank register. For example, as for the part pattern corresponding to "nose" which is one of the face parts, the number of matching matching dots and the order number are stored as shown in FIG. In this case, the number of matching match dots = [25] is the rank = [1], and the number of matching match dots = [20] is the rank = [2], and so on. They are numbered and stored in the corresponding rank registers.

【0040】次いで、ステップS146に進み、指定さ
れている部位の座標をワークRAM32の対応部位エリ
アに記憶する。次いで、ステップS148で全部位につ
いて上記のようなマッチングおよび順位付け処理が終了
したか否かを判別する。以上は、一例として顔の部位の
1つである「鼻」に対応するパーツパターンについての
マッチングおよび順位付け処理であり、「鼻」が終了す
ると、次は「口」に移り、「口」画像データに対する全
ての「口」パーツパターンとのマッチング処理およびそ
の一致度数の順位付け処理が実行される。そして、全部
位についてマッチング処理およびその一致度数の順位付
け処理が終了していなければステップS124に戻って
上記ループを繰り返す。全部位について上記のようなマ
ッチング処理およびその一致度数の順位付け処理が終了
すると、ステップS150に進む。このようにして、各
部位についてそれぞれマッチング処理およびその一致度
数の順位付け処理が全て繰り返されることにより、入力
画像メモリ28に記憶された顔画像データの全ての部位
の画像データに対して、パーツパターンROM30に記
憶された全パーツパターンが各部位毎に照合され、その
一致度数に対する順位付けが行われることになる。
Next, in step S146, the coordinates of the designated part are stored in the corresponding part area of the work RAM 32. Next, in step S148, it is determined whether or not the above matching and ranking processing has been completed for all the parts. The above is the matching and ranking process for the part pattern corresponding to "nose" which is one of the face parts as an example. When the "nose" is finished, the process moves to the "mouth" and the "mouth" image is displayed. The matching process for all the "mouth" part patterns for the data and the ranking process of the matching frequency are executed. If the matching process and the matching frequency ranking process have not been completed for all parts, the process returns to step S124 to repeat the above loop. When the matching process and the matching frequency ranking process as described above are completed for all parts, the process proceeds to step S150. In this way, the matching process and the matching frequency ranking process are all repeated for each part, so that the part pattern is added to the image data of all parts of the face image data stored in the input image memory 28. All the part patterns stored in the ROM 30 are collated for each part, and the matching frequency is ranked.

【0041】ステップS150では最高順位のパーツパ
ターンによりモンタージュ画を第1表示部11に表示す
る。すなわち、パーツパターンROM30の各パーツそ
れぞれの順位レジスタに対し、各パーツパターンの顔画
像データとの照合順位が格納されると、そのそれぞれの
パーツ(輪郭、髪、右目、・・・口)における最高順位
のパーツパターンがパーツパターンROM30より読み
出され、入力画像メモリ28に記憶された顔画像データ
の全ての部位の画像データに対して、パーツパターンR
OM30に記憶された顔画像データに対して、まず最初
の段階で近似した似顔絵パターンとしてモンタージュ画
が第1表示部11に表示される。すなわち、オペレータ
が入力スイッチ部12の画像入力キーを操作してイメー
ジデータ入力部23を介してCPU21に入力された似
顔絵対象人物の顔画像データが入力画像メモリ28に記
憶されると、この顔画像データに構成する各部位(輪
郭、髪、右目、左目、・・・口)それぞれの画像データ
パターンに最も類似したパーツパターンが上記のパター
ンマッチング処理に基づきパーツパターンROM31よ
り自動的に読み出され、第1表示部11に合成されて表
示される。
In step S150, the montage image is displayed on the first display unit 11 according to the highest-ranked part pattern. That is, when the order register of the face image data of each part pattern is stored in the order register of each part of the part pattern ROM 30, the highest of each part (contour, hair, right eye, ... mouth) is stored. The part patterns of the order are read from the part pattern ROM 30, and the part pattern R is applied to the image data of all the parts of the face image data stored in the input image memory 28.
With respect to the face image data stored in the OM 30, the montage image is displayed on the first display unit 11 as a portrait pattern approximated at the first stage. That is, when the operator operates the image input key of the input switch unit 12 to store the face image data of the portrait person, which is input to the CPU 21 via the image data input unit 23, in the input image memory 28, the face image is stored. The part pattern most similar to the image data pattern of each part (outline, hair, right eye, left eye, ... Mouth) that constitutes the data is automatically read from the part pattern ROM 31 based on the above pattern matching processing. The composite image is displayed on the first display unit 11.

【0042】そして、第1表示部11に対して似顔絵対
象人物の顔画像データに最も近似した似顔絵パターンが
合成表示された状態で、その似顔絵パターンに修正、変
更を加えたい場合には入力スイッチ部12の修正キーを
操作する。この処理はステップS152以降で実行され
る。すなわち、ステップS152で入力スイッチ部12
の修正キーがオンしたか否かを判別する。これは、次の
段階として最初のモンタージュ画を修正する場合に操作
されるものである。修正キーがオンしていればステップ
S154に進み、一方、修正キーがオンしていなけれ
ば、この段階で十分なモンタージュ画が作成できたと判
断し、ステップS168に進んで登録キーがオンしたか
否かを判別することになる。
When it is desired to correct or change the portrait pattern while the portrait pattern that is the closest to the face image data of the portrait person is displayed on the first display unit 11, the input switch unit is used. Operate the 12 correction key. This process is executed after step S152. That is, in step S152, the input switch unit 12
It is determined whether or not the correction key of is turned on. This is what will be manipulated when modifying the first montage as the next step. If the correction key is on, the process proceeds to step S154. On the other hand, if the correction key is not on, it is determined that a sufficient montage image can be created at this stage, and the process proceeds to step S168 to determine whether the registration key is on. Will be determined.

【0043】なお、第1表示部11には上記似顔絵パタ
ーンが表示されているが、修正キーを操作した場合、そ
の似顔絵パターン中の修正対象となるパーツ名(輪郭、
髪、右目、左目、・・・口)を表示するようにしてもよ
い。その場合、例えば「輪郭」に初期設定し、修正キー
を操作する毎に「髪」→「右目」→「左目」→・・・・
というように変更表示する。ステップS154では部位
キーがオンしたか否かを判別する。これは、修正部位を
判断するものである。部位キーがオンしていなければス
テップS168にジャンプする。部位キーがオンしてい
る場合はステップS156に進んで選択された部位に対
応する部位のパーツにカーソルを表示する。これによ
り、オペレータは第1表示部11の画面上で修正部位の
指定を確認することができる。次いで、ステップS15
8で入力スイッチ部12の選択キー(△▽キー)がオン
したか否かを判別する。選択キーがオンしていればステ
ップS160に進んで次順位のパーツをパーツパターン
ROM30から読み出し、今示されているパーツに変え
て表示する。これにより、いままでとは違った形状のパ
ーツパターンが選択された部位の位置に表示される。
Although the above-described portrait pattern is displayed on the first display section 11, when the correction key is operated, the name of the part (contour,
Hair, right eye, left eye, ... mouth) may be displayed. In that case, for example, the initial setting is "outline", and every time the correction key is operated, "hair" → "right eye" → "left eye" → ...
Change and display. In step S154, it is determined whether or not the part key is turned on. This is to determine the corrected portion. If the part key is not turned on, the process jumps to step S168. If the part key is turned on, the process advances to step S156 to display the cursor on the part of the part corresponding to the selected part. Thereby, the operator can confirm the designation of the corrected portion on the screen of the first display unit 11. Then, step S15
At 8, it is determined whether or not the selection key (Δ ▽ key) of the input switch section 12 is turned on. If the selection key is on, the process proceeds to step S160 to read the next-ranked part from the part pattern ROM 30 and display it in place of the part currently shown. As a result, a part pattern having a shape different from that of the past is displayed at the position of the selected portion.

【0044】ここで、例えば部位キーを押して修正対象
となるパーツ「鼻」を選択表示させた際に、パターン選
択キー(アップ用の△キー)を操作すると、パーツパタ
ーンROM30の複数の鼻パーツパターンに対応した順
位レジスタに格納されるパターン照合順位に基づき、第
2順位の鼻パーツパターンが指定されて読み出され、現
表示似顔絵パターンにおける第1順位の鼻パーツパター
ンに入れ替わり合成表示される。この場合、上記修正対
象として指定されたパーツパターンは、パターン選択キ
ー(アップ用の△キー)を操作する毎に、次の順位のパ
ーツパターンに交換修正され、また、パターン選択キー
(ダウン用の△キー)を操作する毎に、前の順位のパー
ツパターンに交換修正される。一方、選択キーがオンし
ていなければステップS160をジャンプしてステップ
S162に進む。このときは、選択された部位のパーツ
パターン形状は変化しない。
Here, for example, when the pattern selection key (up key) is operated when the part "nose" to be corrected is selected and displayed by pressing the part key, a plurality of nose part patterns in the part pattern ROM 30 are selected. Based on the pattern matching order stored in the order register corresponding to, the second-order nose part pattern is designated and read out, and is replaced with the first-order nose part pattern in the currently displayed portrait pattern to be synthesized and displayed. In this case, the part pattern designated as the above-mentioned correction target is replaced and corrected with the part pattern of the next rank every time the pattern selection key (up key) is operated, and the pattern selection key (down Each time the (△ key) is operated, the parts pattern of the previous rank is replaced and corrected. On the other hand, if the selection key is not turned on, the process jumps to step S160 and proceeds to step S162. At this time, the shape of the part pattern of the selected portion does not change.

【0045】次いで、ステップS162で入力スイッチ
部12の位置修正キーがオンしたか否かを判別する。位
置修正キーがオンしていればステップS164に進んで
パーツ表示位置を移動する。次いで、ステップS166
でワークRAM32の対応部位のエリアに記憶されてい
る座標を変更する。これにより、例えば部位として
「鼻」が選択されている場合、「鼻」の位置が移動して
第1表示部11に表示される。その後、ステップS16
8に進む。一方、位置修正キーがオンしていなければス
テップS164、ステップS166をジャンプしてステ
ップS168に進む。ステップS168では入力スイッ
チ部12の登録キーがオンしたか否かを判別する。登録
キーがオンしていなければステップS154に戻って同
様のループを繰り返す。例えば、「鼻」以外のパーツに
ついて、必要に応じてその形状や位置の修正を行う。そ
して、修正が終了し登録キーをオンすると、ステップS
170に進んでワークRAM32に修正画像を記録す
る。その後、最初のステップS100にリターンする。
Then, in step S162, it is determined whether or not the position correction key of the input switch section 12 is turned on. If the position correction key is turned on, the process proceeds to step S164 to move the part display position. Then, step S166.
The coordinates stored in the area of the corresponding portion of the work RAM 32 are changed with. Thereby, for example, when “nose” is selected as the part, the position of “nose” is moved and displayed on the first display unit 11. Then, step S16
Go to 8. On the other hand, if the position correction key is not turned on, the process skips steps S164 and S166 and proceeds to step S168. In step S168, it is determined whether or not the registration key of the input switch unit 12 is turned on. If the registration key is not turned on, the process returns to step S154 and the same loop is repeated. For example, the shape and position of parts other than the "nose" are corrected as necessary. When the correction is completed and the registration key is turned on, step S
Proceeding to 170, the corrected image is recorded in the work RAM 32. Then, the process returns to the first step S100.

【0046】このように、第1表示部11に表示された
似顔絵パターンに対し、オペレータにより任意の修正対
象パーツを指定するとともに、そのパーツパターンを所
望のパターンに入れ替えたり、その位置を移動したりし
て似顔絵パターンを修正した状態で、登録キーを操作す
ると、現表示状態にある似顔絵パターンを構成する各パ
ーツパターンの番号が似顔絵データとしてワークRAM
32に書き込まれて登録される。したがって、以後は個
人データを指定することにより、ワークRAM32から
似顔絵データを読み出して第1表示部11に表示させる
ことができる。その場合、例えば正面の似顔絵データを
読み出すと、図10(A)に示すようなモンタージュ画
が得られる。また、顔の向きを変えて右側面の似顔絵デ
ータを読み出すと、図10(B)に示すようなモンター
ジュ画が得られる。また、ワークRAM32に似顔絵デ
ータが登録された後、印刷キーを操作すると、登録され
ている似顔絵データに従って対応する各似顔絵パーツパ
ターンがパーツパターンROM30から読み出され、こ
れら似顔絵パーツパターンの組み合せによる似顔絵画像
データが印刷駆動部25に送出される。このため、この
似顔絵画像データに対応した似顔絵画像が印刷部26に
よりラベルテープ4に印刷されることになる。
As described above, with respect to the portrait pattern displayed on the first display section 11, the operator designates an arbitrary part to be corrected, replaces the part pattern with a desired pattern, and moves its position. Then, when the registration key is operated with the portrait pattern corrected, the number of each part pattern forming the portrait pattern in the current display state is stored in the work RAM as portrait data.
It is written in 32 and registered. Therefore, thereafter, by designating the personal data, the portrait data can be read from the work RAM 32 and displayed on the first display unit 11. In that case, for example, when the front face portrait data is read, a montage image as shown in FIG. 10A is obtained. When the face orientation is changed and the portrait data on the right side is read out, a montage image as shown in FIG. 10B is obtained. When the print key is operated after the portrait data is registered in the work RAM 32, the corresponding portrait part patterns corresponding to the registered portrait data are read out from the part pattern ROM 30, and the portrait image obtained by combining these portrait part patterns. The data is sent to the print drive unit 25. Therefore, the portrait image corresponding to the portrait image data is printed on the label tape 4 by the printing unit 26.

【0047】このように本実施例では、CCDカメラ部
2により顔の画像データを撮像入力して読み取り、読み
取った顔画像データを一旦入力画像メモリ28に記憶
し、記憶した顔画像データから顔の各部位毎に部分画像
を抽出し、抽出した部分画像の向きデータ、各部位毎の
位置データをワークRAM32に記憶し、また、パーツ
パターンROM30に予め顔の各部を髪、目、鼻、口等
の部位に分けて、各部位毎に複数種類のパーツパターン
を記憶しておき、ワークRAM32に記憶しておいて部
分画像に対応するパーツデータと、パーツパターンRO
M30に記憶した顔の各部位毎の複数種類のパーツパタ
ーンとを比較照合し、その一致度数の順位付けを行うと
ともに、それぞれの位置データに対応して組み合わせる
マッチング処理を各部位毎に繰り返すことにより、CC
Dカメラ部2の撮像画像に対して理論上最も近似した似
顔絵パターンを合成表示することが行われる。したがっ
て、入力された顔の撮像画像(実物の顔)に対応する似
顔絵を作成する際に、各パーツパターンの選択操作に手
間がかかることがなく、実物により近似した似顔絵を容
易に作成することができる。
As described above, in this embodiment, the image data of the face is picked up and read by the CCD camera unit 2, the read face image data is temporarily stored in the input image memory 28, and the face image data is stored from the stored face image data. A partial image is extracted for each part, the orientation data of the extracted partial image and the position data for each part are stored in the work RAM 32, and each part of the face is previously stored in the parts pattern ROM 30 such as hair, eyes, nose, mouth, etc. The plurality of types of part patterns are stored for each part, and the part data corresponding to the partial image and the part pattern RO are stored in the work RAM 32.
By comparing and collating a plurality of types of part patterns for each part of the face stored in M30, ranking the matching frequency, and repeating the matching process for combining each position data for each part. , CC
The theoretically most similar portrait pattern is synthetically displayed on the image captured by the D camera unit 2. Therefore, when creating a portrait corresponding to the captured image of the input face (real face), it does not take time and effort to select each part pattern, and it is easy to create a portrait similar to the real one. it can.

【0048】次に、図11〜図16は本発明に係る顔画
像作成装置および顔画像用データ記憶装置の第2実施例
を示す図である。図11は本発明を電子手帳に適用した
場合における電子手帳の正面図である。図11におい
て、この電子手帳51は一対の本体51a、51bをそ
れぞれ左右に開いた状態を示している。電子手帳51の
本体51bの上部には第1実施例と同様にCCDカメラ
部(入力画像データ読取手段)52が配置されている。
また、電子手帳51の本体51bにおけるCCDカメラ
部52の下側には第2表示部53、データ入力キー54
が順次配置されている。第2表示部53およびデータ入
力キー54の内容は第1実施例の場合と同様である。な
お、第2表示部53にはCCDカメラ部2で撮像した顔
画像52aが図示されている。電子手帳51の本体51
bの下方には図示は略しているが、第1実施例の場合と
同様にラベルテープを印刷可能な印刷部が内蔵されてい
る。
Next, FIGS. 11 to 16 are views showing a second embodiment of the face image forming apparatus and the face image data storage apparatus according to the present invention. FIG. 11 is a front view of an electronic notebook when the present invention is applied to the electronic notebook. In FIG. 11, the electronic notebook 51 shows a state in which the pair of main bodies 51a and 51b are opened to the left and right respectively. A CCD camera section (input image data reading means) 52 is arranged above the main body 51b of the electronic notebook 51 as in the first embodiment.
A second display section 53 and a data input key 54 are provided below the CCD camera section 52 in the main body 51b of the electronic notebook 51.
Are arranged in sequence. The contents of the second display portion 53 and the data input key 54 are the same as in the case of the first embodiment. The second display section 53 shows the face image 52a captured by the CCD camera section 2. Main body 51 of electronic notebook 51
Although not shown in the figure below b, a printing unit capable of printing a label tape is built in as in the case of the first embodiment.

【0049】一方、電子手帳51の本体51aには上部
側から第1表示部61、入力スイッチ部62、オン/オ
フキー63が配置されている。第1表示部61およびオ
ン/オフキー63の内容は第1実施例の場合と同様であ
る。なお、第1表示部61には画像処理中の顔画像61
aが図示されている。入力スイッチ部62は電子手帳5
1によって人物の似顔絵を作成する場合に必要な各種の
操作を行うためのもので、具体的には「個人」、「スタ
ート」、「画像入力」、「表示」、「終了」の5つのキ
ーがある。なお、これらのキーは、例えば薄いシートタ
イプのキースイッチが用いられる。各キーの内、「個
人」、「画像入力」、「表示」、「終了」の機能は第1
実施例と同様である。「スタート」キーは時間経過に従
って動く動画像を開始させるときの操作用のスイッチで
ある。第2実施例の顔画像作成装置の構成を示すブロッ
ク図は前記実施例と同様であ、図示を略しているが、C
PUは動く顔画像を時間の経過に従って顔の向き、顔の
各部位毎のパーツ番号、位置データなどの形で順番に登
録しておくことにより、再生時には登録済みの各パーツ
番号等のデータに基づいて予め用意されているパーツパ
ターンを組み合せて顔画像として復元するような処理を
行う。また、パーツパターンROMは前記実施例と同様
に図3で示すような内容で各部位のパーツパターンを記
憶している。
On the other hand, on the main body 51a of the electronic notebook 51, a first display portion 61, an input switch portion 62, and an on / off key 63 are arranged from the upper side. The contents of the first display portion 61 and the on / off key 63 are the same as in the first embodiment. It should be noted that the first display unit 61 displays on the face image 61 during image processing.
a is shown. The input switch section 62 is the electronic notebook 5
This is for performing various operations required to create a portrait of a person by 1. Specifically, there are five keys of "individual", "start", "image input", "display", and "end". There is. For these keys, for example, thin sheet type key switches are used. Of the keys, the "personal", "image input", "display", and "end" functions are the first
It is similar to the embodiment. The "start" key is an operation switch for starting a moving image that moves over time. The block diagram showing the configuration of the face image creating apparatus of the second embodiment is the same as that of the above embodiment, and although not shown, C
The PU registers moving face images in order in the form of face orientation, part numbers for each part of the face, position data, etc., over time, so that the data of each registered part number, etc. can be recorded during playback. Based on this, processing is performed such that part patterns prepared in advance are combined to restore a face image. Further, the part pattern ROM stores the part pattern of each part with the contents as shown in FIG.

【0050】次に、作用を説明する。まず、電子手帳5
1の本体51a、51bをそれぞれ左右に開いてオン/
オフキー63を押すと、電子手帳51に電源が供給さ
れ、動作が開始する。以後は後述のプログラムを実行す
ることにより、個人データの入力や似顔絵作成処理が行
われる。図12は本実施例の電子手帳51を使用した似
顔絵作成処理のプログラムを示すフローチャートであ
る。このプログラムがスタートすると、まずステップS
200で表示スイッチがオンしているか否かを判別す
る。表示スイッチとは、入力スイッチ部62における表
示キーのことで、表示スイッチがオンしていると、第1
表示部61が作動して画像を表示可能になり、ステップ
S202に進み、既に作成された似顔絵を選択して表示
する処理を行う。また、表示スイッチがオンしていなけ
ればステップS204に分岐し、実際の人物画像から似
顔絵を作成する処理を実行する。 A.似顔絵選択処理のルーチン 最初に、似顔絵選択処理のルーチンから説明する。ステ
ップS202で検索データが入力されたか否かを判別す
る。検索データとは作成された似顔絵を選択するための
データであり、例えば個人データがある。検索データが
入力されていなければステップS200に戻り、検索デ
ータが入力ていると、ステップS206に進んで検索デ
ータによりワークRAMにおける個人データの中から対
応するデータを検索して第1表示部61に表示する。
Next, the operation will be described. First, electronic notebook 5
1 main body 51a, 51b open to the left and right respectively on /
When the off key 63 is pressed, power is supplied to the electronic notebook 51 and the operation starts. After that, by executing the program described later, the personal data is input and the portrait creation process is performed. FIG. 12 is a flow chart showing a program for portrait creation processing using the electronic notebook 51 of this embodiment. When this program starts, first step S
At 200, it is determined whether or not the display switch is turned on. The display switch is a display key in the input switch section 62, and when the display switch is on, the first
The display unit 61 is activated to be able to display an image, and the process proceeds to step S202 to perform a process of selecting and displaying a portrait that has already been created. If the display switch is not turned on, the process branches to step S204, and a process of creating a portrait from an actual person image is executed. A. Routine of portrait selection processing First, the routine of portrait selection processing will be described. In step S202, it is determined whether search data has been input. The search data is data for selecting the created portrait and is, for example, personal data. If search data has not been input, the process returns to step S200, and if search data has been input, the process proceeds to step S206 and the corresponding data is searched from the personal data in the work RAM by the search data and displayed on the first display unit 61. indicate.

【0051】ここで、図13はワークRAMの記憶例を
示すもので、例えば人物の個人データに対応して1人ず
つの顔の特徴が、顔の撮像時の経過時間(つまり、最初
に撮像を開始してからの経過時間)T1〜Tn、各経過
時間T1〜Tnに対応するそれぞれの顔画像(A)、顔
画像(B)〜顔画像(N)、顔の各部位毎のパーツパタ
ーン番号、各部位の位置データ(パーツデータ)をパラ
メータとしてそれぞれ所定のエリアに格納されている。
また、この場合、撮像時の経過時間T1〜Tnに対応し
て輪郭、髪、目、・・・等のパーツパターン番号が、例
えばそれぞれ[50]、[02]、[50]、・・・と
いうようにして所定のエリアに格納されているととも
に、輪郭、髪、目、・・・等のパーツの位置データがそ
れぞれ例えば[x1、y1]、[x2、y2]、[x
3、y3]、・・・・というようにして所定のエリアに
格納されている。[x1、y1]、[x2、y2]、
[x3、y3]、・・・・という各値は、画面上の位置
を指定する座標値であり、位置の修正に応じた絶対位置
からの差分データである。したがって、位置の修正がな
い場合には座標値が[0、0]となる。
Here, FIG. 13 shows an example of the storage of the work RAM. For example, the facial features of each person corresponding to the personal data of the person are the elapsed time at the time of photographing the face (that is, the first photographing). T1 to Tn, each face image (A) corresponding to each elapsed time T1 to Tn, face image (B) to face image (N), and a part pattern for each part of the face The number and the position data (parts data) of each part are stored as parameters in predetermined areas.
Further, in this case, the part pattern numbers such as contour, hair, eyes, ... Corresponding to the elapsed times T1 to Tn at the time of imaging are, for example, [50], [02], [50] ,. Thus, the position data of parts such as contours, hairs, eyes, etc. are stored in a predetermined area, for example, [x1, y1], [x2, y2], [x
3, y3], ..., And stored in a predetermined area. [X1, y1], [x2, y2],
The values [x3, y3], ... Are coordinate values that specify the position on the screen, and are difference data from the absolute position according to the correction of the position. Therefore, when the position is not corrected, the coordinate value is [0,0].

【0052】そして、例えば経過時間T1に対応する顔
画像(A)についての各部位毎のパーツパターン番号お
よび各部位の位置データを有する顔の部位としての各パ
ーツパターンをそれぞれ組み合せて合成することによ
り、1つのモンタージュ画が作成される。したがって、
入力された検索データが個人データである場合には、該
当する個人データを照合し、一致する人物のものが選択
されて第1表示部61に表示されることになる。例え
ば、個人データとしての 氏名:甲 住所:○○ 電話番号:○○ 血液型:○ 趣味:○○ の何れかが入力されると、該当する人物として図13の
第1番目のエリアに格納されている甲なる人物の個人デ
ータが選択されて第1表示部61に表示される。
Then, for example, by combining and synthesizing each part pattern as a face part having the part pattern number of each part and the position data of each part in the face image (A) corresponding to the elapsed time T1. One montage picture is created. Therefore,
If the input search data is personal data, the corresponding personal data is collated, and the matching personal data is selected and displayed on the first display unit 61. For example, if one of the following is entered as personal data: Name: Party address: ○○ Phone number: ○○ Blood type: ○ Hobbies: ○○, it is stored as the corresponding person in the first area of FIG. The personal data of the person who is instep is selected and displayed on the first display unit 61.

【0053】次いで、ステップS208で顔の撮像時の
経過時間(つまり、最初に撮像を開始してからの経過時
間)を格納するCPU21内のレジスタTを“0”にク
リアするとともに、フラグKを“1”にセットする。フ
ラグKは個人データが入力された場合にセットされ、終
了キーが押された場合にリセットされるものである。次
いで、ステップS210で検索された個人データに対応
する顔画像(モンタージュ画:すなわち、似顔絵)の記
憶されているワークRAMのエリアの中の指定された顔
画像データを読み出して第1表示部61に表示する。こ
れにより、個人データを基に既に作成された似顔絵の中
から1つがピックアップされて表示される。例えば、個
人データとして上記のように人物甲に関連するデータが
入力された場合には、図13に示す人物甲に対応する撮
像時の経過時間、顔画像、顔の各部位毎のパーツパター
ン番号、各部位の位置データ(パーツデータ)を基にし
た1つの似顔絵が画像として表示される。したがって、
人物甲に対応する似顔絵は撮像時の経過時間や顔の向き
等に応じて複数のものがあるが、その中の1つが選択さ
れて表示されることになる。次いで、ステップS212
で終了スイッチ(終了キー)がオンしたか否かを判別
し、終了スイッチがオンしていなければステップS20
0に戻って同様のループを繰り返する。そして、最終的
に検索データに対応する所望の似顔絵を第1表示部61
に表示させる。検索データに対応する所望の似顔絵が第
1表示部61に表示されると、ステップS214に進ん
でフラグKを“0”にリセットし、ステップS200に
戻る。
Then, in step S208, the register T in the CPU 21 which stores the elapsed time during the image pickup of the face (that is, the elapsed time after the first image pickup is started) is cleared to "0", and the flag K is set. Set to "1". The flag K is set when personal data is input, and reset when the end key is pressed. Then, the designated face image data in the area of the work RAM in which the face image (montage image: portrait) corresponding to the personal data retrieved in step S210 is stored is read out on the first display unit 61. indicate. As a result, one of the portraits already created based on the personal data is picked up and displayed. For example, when the data related to the human instep as described above is input as the personal data, the elapsed time at the time of imaging corresponding to the instep, the face image, and the part pattern number for each part of the face shown in FIG. , One portrait based on the position data (parts data) of each part is displayed as an image. Therefore,
There are a plurality of portraits corresponding to the instep of the person depending on the elapsed time at the time of image capturing, the orientation of the face, etc., and one of them is selected and displayed. Then, step S212
In step S20, it is determined whether or not the end switch (end key) is turned on, and if the end switch is not turned on.
Return to 0 and repeat the same loop. Then, finally, a desired portrait corresponding to the search data is displayed on the first display unit 61.
To display. When the desired portrait corresponding to the search data is displayed on the first display unit 61, the process proceeds to step S214, the flag K is reset to "0", and the process returns to step S200.

【0054】B.似顔絵作成処理のルーチン ステップS200から分岐してステップS204に進
み、このステップS204でイメージデータを入力す
る。すなわち、入力スイッチ部62の画像入力キーをオ
ンすることより、似顔絵の対象としてCCDカメラ部5
2で撮像したオペレータの顔画像データがビデオ信号と
してイメージデータ入力部23に供給される。これによ
り、イメージデータ入力部に供給された1フィールド分
のビデオ信号がY/C分離部23aからA/D変換部2
3bを介して1画面分のデジタル画像データに変換され
る。次いで、ステップS216でイメージデータ補正を
行う。これにより、デジタル画像データに変換された1
画面分の顔画像データに対して、その背景部分に存在す
る余分な画像データが消去されて補正される。次いで、
ステップS218で入力イメージデータをCPU21か
ら入力画像メモリ28に対して転送して入力画像メモリ
28に記憶するとともに、第2表示部53に表示する。
これにより、CCDカメラ部52によって撮像されたオ
ペレータの顔画像が第2表示部53に表示されることに
なる。
B. Routine of portrait creation process The process branches from step S200 to step S204, and image data is input in step S204. That is, by turning on the image input key of the input switch section 62, the CCD camera section 5 is selected as a portrait object.
The face image data of the operator captured in 2 is supplied to the image data input unit 23 as a video signal. As a result, the video signal for one field supplied to the image data input section is transferred from the Y / C separation section 23a to the A / D conversion section 2.
It is converted into digital image data for one screen via 3b. Next, in step S216, image data correction is performed. By this, 1 converted to digital image data
Excessive image data existing in the background portion of the face image data for the screen is deleted and corrected. Then
In step S218, the input image data is transferred from the CPU 21 to the input image memory 28, stored in the input image memory 28, and displayed on the second display section 53.
As a result, the face image of the operator captured by the CCD camera unit 52 is displayed on the second display unit 53.

【0055】次いで、ステップS220で入力スイッチ
部62のスタートキー(スタートスイッチ)がオンした
か否かを判別する。スタートキーがオンしていればステ
ップS222でフラグPを“1”にセットする。フラグ
Pは撮像されたオペレータの顔画像を取り込む動作を開
始させるためのものである。また、同ステップS222
で撮像時の経過時間を格納するCPU21内のレジスタ
Tを“0”にクリアする。その後、ステップS224に
進む。一方、ステップS220でスタートキーがオンし
ていなければステップS222をジャンプしてステップ
S224に進む。
Next, in step S220, it is determined whether or not the start key (start switch) of the input switch section 62 is turned on. If the start key is on, the flag P is set to "1" in step S222. The flag P is for starting the operation of capturing the imaged face image of the operator. In addition, the same step S222
Then, the register T in the CPU 21 that stores the elapsed time during image capturing is cleared to "0". Then, it progresses to step S224. On the other hand, if the start key is not turned on in step S220, step S222 is skipped and the process proceeds to step S224.

【0056】ステップS224では撮像時の経過時間T
が予め定められた最大値(max)になったか否かを判
別する。最大値(max)は顔の撮像時の経過時間を所
定の値に規制するもので、例えば最初に撮像を開始して
からの最終的な経過時間Tnに対応する値に設定され
る。ステップS224で撮像時の経過時間Tが最大値
(max)に等しくなければステップS100に戻って
同様のループを繰り返す。これにより、CCDカメラ部
52で撮像したオペレータの顔画像データが一定時間間
隔でビデオ信号としてイメージデータ入力部23に供給
され、1画面分のデジタル画像データに変換された後、
補正されて入力画像メモリ28に記憶され、その間の画
像は第2表示部53に表示される。そして、ステップS
224で撮像時の経過時間Tが最大値(max)に等し
くなると、ステップS226に進んでフラグPを“0”
にクリアし、ステップS200に戻る。これにより、C
CDカメラ部52で撮像したオペレータの顔画像データ
の取り込みが終了する。
In step S224, the elapsed time T during image pickup is
Is determined to be a predetermined maximum value (max) or not. The maximum value (max) regulates the elapsed time at the time of imaging the face to a predetermined value, and is set to a value corresponding to the final elapsed time Tn after the first imaging is started, for example. If the elapsed time T at the time of imaging is not equal to the maximum value (max) in step S224, the process returns to step S100 and the same loop is repeated. As a result, the operator's face image data captured by the CCD camera unit 52 is supplied to the image data input unit 23 as a video signal at regular time intervals and converted into digital image data for one screen.
The corrected image is stored in the input image memory 28, and the image in the meantime is displayed on the second display section 53. And step S
When the elapsed time T at the time of imaging becomes equal to the maximum value (max) in 224, the process proceeds to step S226 and the flag P is set to "0".
And the process returns to step S200. This gives C
The capture of the operator's face image data captured by the CD camera unit 52 is completed.

【0057】図14はインターラプト1処理のプログラ
ムを示すフローチャートである。このプログラムは時間
経過に従って動くモンタージュ画像を表示するもので、
割り込みにより一定時間毎に繰り返される。この割り込
みルーチンがスタートすると、まずステップS250で
フラグKが“1”にセットされているか否かを判別す
る。フラグKは個人データが入力された場合にセットさ
れ、終了キーが押された場合にリセットされるものであ
るから、個人データが入力されていればK=1となって
ステップS252に進み、終了キーが押されていればK
=0となって今回のルーチンを終了する。ステップS2
52では画像表示の経過時間Tを[1]だけインクリメ
ントする。次いで、ステップS254でワークRAM3
2内の指定された個人データに対応するエリア内の経過
時間を検索する。例えば、個人データとして人物甲に関
連するデータが入力された場合には、図13に示す人物
甲についてエリア内の経過時間を検索する。ワークRA
M32には図13に示すような各データが格納されてお
り、個人データとして人物甲に関連するデータが入力さ
れれば、今回は人物甲についてエリア内の経過時間T1
〜Tnの項目を検索することになる。
FIG. 14 is a flow chart showing a program for the interrupt 1 processing. This program displays montage images that move over time,
It is repeated at regular intervals by interruption. When this interrupt routine starts, it is first determined in step S250 whether or not the flag K is set to "1". The flag K is set when personal data is input and is reset when the end key is pressed. Therefore, if personal data is input, K = 1 and the process proceeds to step S252 and ends. K if key is pressed
= 0 and the routine of this time is ended. Step S2
At 52, the elapsed time T of image display is incremented by [1]. Next, in step S254, the work RAM 3
The elapsed time in the area corresponding to the designated personal data in 2 is searched. For example, when data related to the person A is input as personal data, the elapsed time in the area is searched for the person A shown in FIG. Work RA
Each data as shown in FIG. 13 is stored in M32. If the data relating to the person A is input as personal data, this time, the elapsed time T1 in the area for the person A is T1.
The item of ~ Tn will be searched.

【0058】次いで、ステップS256で画像表示の経
過時間Tと同一の経過時間(すなわち、T1〜Tn)が
あるか否かを判別する。つまり、画像表示の経過時間T
がT1〜Tnの何れかに等しいか否かを判別する。画像
表示の経過時間TがT1〜Tnの何れかに等しければス
テップS258で対応する顔画像データを指定する。例
えば、画像表示の経過時間TがT1に等しいときは、図
13に示す人物甲についてのエリア内の経過時間T1に
対応する顔画像データが指定され、CPU21によって
取り出されて表示駆動部27あるいは印刷駆動部25に
送られる。これにより、人物甲についての経過時間T1
に対応する似顔絵が第2表示部63に表示される。ま
た、必要に応じて人物甲についての経過時間T1に対応
する似顔絵を印刷することもできる。ステップS258
を経ると、ステップS260に進む。また、ステップS
256で画像表示の経過時間TがT1〜Tnの何れにも
等しくなければステップS258をジャンプしてステッ
プS260に進む。
Then, in step S256, it is determined whether or not there is the same elapsed time (that is, T1 to Tn) as the elapsed time T of image display. That is, the elapsed time T of image display
Is equal to any of T1 to Tn. If the elapsed time T of image display is equal to any of T1 to Tn, the corresponding face image data is designated in step S258. For example, when the elapsed time T of image display is equal to T1, the face image data corresponding to the elapsed time T1 in the area of the person A shown in FIG. It is sent to the drive unit 25. As a result, the elapsed time T1 for the person A
The portrait corresponding to is displayed on the second display unit 63. In addition, a portrait corresponding to the elapsed time T1 of the person A can be printed if necessary. Step S258
After that, the process proceeds to step S260. Also, step S
If the elapsed time T of image display is not equal to any of T1 to Tn in 256, step S258 is skipped and the process proceeds to step S260.

【0059】ステップS260では画像表示の経過時間
Tが予め定められた最大値(max)になったか否かを
判別する。最大値(max)は画像表示の経過時間を所
定の値に規制するもので、例えば図13に示す最終的な
経過時間Tnに対応する値に設定される。ステップS2
60で画像表示の経過時間Tが最大値(max)に等し
くなければ今回のルーチンを終了し、次回の割り込みタ
イミングを待ってルーチンを繰り返す。これにより、次
回のルーチンでは経過時間T2に対応する顔画像データ
が指定され、CPU21によって取り出されて表示駆動
部27あるいは印刷駆動部25に送られることになる。
そして、ステップS260で画像表示の経過時間Tが最
大値(max)に等しくなると、ステップS262に進
んでTを“0”に戻し、今回のルーチンを終了し、次回
の割り込みタイミングを待つ。したがって、例えば個人
データとして[氏名:甲]に関連するデータを入力した
場合には、図13に示す人物甲についてエリア内の経過
時間T1〜Tnが順次検索され、各経過時間T1〜Tn
に対応する画像データが次々に指定されて取り出され、
人物甲に対応する似顔絵が順次第2表示部63に表示さ
れる。また、必要に応じて人物甲についての経過時間T
1〜Tnに対応する似顔絵を順次印刷することもでき
る。
In step S260, it is determined whether the elapsed time T of image display has reached a predetermined maximum value (max). The maximum value (max) regulates the elapsed time of image display to a predetermined value, and is set to a value corresponding to the final elapsed time Tn shown in FIG. 13, for example. Step S2
If the elapsed time T of image display is not equal to the maximum value (max) at 60, the routine of this time is ended, the routine is repeated waiting for the next interrupt timing. As a result, in the next routine, the face image data corresponding to the elapsed time T2 is designated, taken out by the CPU 21, and sent to the display drive unit 27 or the print drive unit 25.
Then, when the elapsed time T of image display becomes equal to the maximum value (max) in step S260, the process proceeds to step S262, T is returned to "0", the routine of this time is ended, and the next interrupt timing is waited. Therefore, for example, when the data related to [name: A] is input as personal data, the elapsed times T1 to Tn in the area are sequentially searched for the person A shown in FIG. 13, and the respective elapsed times T1 to Tn are searched.
Image data corresponding to are specified one after another and taken out,
The portraits corresponding to the human instep are sequentially displayed on the second display unit 63. Also, if necessary, the elapsed time T for the person A
It is also possible to sequentially print portraits corresponding to 1 to Tn.

【0060】図15はインターラプト2処理のプログラ
ムを示すフローチャートである。このプログラムは時間
経過に従って動くモンタージュ画像を作成するもので、
割り込みにより一定時間毎に繰り返される。この割り込
みルーチンがスタートすると、まずステップS300で
フラグPが“1”にセットされているか否かを判別す
る。フラグPは撮像されたオペレータの顔画像を取り込
む動作を開始させるためのものであるから、P=0のと
きは今回のルーチンを終了し、次回の割り込みタイミン
グを待つ。一方、P=1のときはステップS302に進
んで顔画像のパーツパターンに対応して今回のタイマー
時間T(すなわち、今回の計測値)をワークRAM32
の所定エリアにストアする。タイマー時間Tは図13に
示すエリア内の経過時間T1〜Tnに合せるために、本
割り込みルーチンの実行毎にその経過時間を計測するた
めのものである。
FIG. 15 is a flow chart showing a program for the interrupt 2 processing. This program creates montage images that move over time,
It is repeated at regular intervals by interruption. When this interrupt routine starts, it is first determined in step S300 whether the flag P is set to "1". Since the flag P is for starting the operation of capturing the face image of the operator who has been imaged, when P = 0, this routine is ended and the next interrupt timing is awaited. On the other hand, when P = 1, the process proceeds to step S302, and the current timer time T (that is, the current measured value) is set to the work RAM 32 in correspondence with the part pattern of the face image.
Store in a predetermined area. The timer time T is to measure the elapsed time each time the interrupt routine is executed in order to match the elapsed times T1 to Tn in the area shown in FIG.

【0061】次いで、ステップS303でタイマー時間
Tを[1]だけインクリメントする。インクリメントす
る値[1]は、例えば本割り込みルーチンの繰り返し時
間に対応する値である。これにより、最初のルーチンで
はT=[1]となり、エリア内の経過時間T1に対応す
る顔画像を作成する処理が行われる。次いで、ステップ
S304で顔の部位を指定するポインタNを[1]にす
る。次いで、ステップS306で第1表示部61に表示
されたイメージデータの中でN番目の部位を指定する。
したがって、最初はポインタN=[1]に対応して顔の
輪郭から指定され、以後、後述のステップS320でポ
インタNがインクリメントされることにより、髪型、
目、・・・というように指定されていく。次いで、ステ
ップS308でパーツパターンROM30からN番目の
部位パターンおよび特定座標(位置データの座標)を読
み出す。
Next, in step S303, the timer time T is incremented by [1]. The incremented value [1] is, for example, a value corresponding to the repetition time of this interrupt routine. As a result, in the first routine, T = [1], and the process of creating a face image corresponding to the elapsed time T1 in the area is performed. Next, in step S304, the pointer N designating the face part is set to [1]. Next, in step S306, the Nth part in the image data displayed on the first display unit 61 is designated.
Therefore, at first, the hair contour is designated by the contour of the face corresponding to the pointer N = [1], and thereafter, the pointer N is incremented in step S320 to be described.
The eyes are designated as ... Next, in step S308, the Nth part pattern and specific coordinates (coordinates of position data) are read from the parts pattern ROM 30.

【0062】最初のルーチンではポインタN=[1]に
対応して顔の輪郭に対して、図13に示すようなパーツ
パターン番号(例えば、[50])および位置データ
(例えば、[x1、y1])が読み出される。次いで、
ステップS310では指定されたイメージデータの部位
での特定座標に対応する座標を検出する。これにより、
撮像されたオペレータの顔画像に対して、今回のポイン
タN=[1]によって指定された輪郭という部位の座標
が検出される。次いで、ステップS312でパーツパタ
ーンとイメージデータの部位との座標を合せてからその
一致ドット数をカウントする。これにより、今回のポイ
ンタN=[1]のルーチンでは図13のエリアから読み
出した輪郭のパーツパターンとイメージデータの輪郭の
画像とが一致している部分のドット数がカウントされ
る。
In the first routine, the part pattern number (eg, [50]) and position data (eg, [x1, y1] as shown in FIG. 13 corresponding to the pointer N = [1] are set for the contour of the face. ]) Is read. Then
In step S310, the coordinates corresponding to the specific coordinates in the designated part of the image data are detected. This allows
The coordinates of the part called the contour designated by the current pointer N = [1] is detected in the captured face image of the operator. Next, in step S312, the coordinates of the part pattern and the part of the image data are matched, and the number of matching dots is counted. As a result, in the present routine of pointer N = [1], the number of dots in the portion where the contour part pattern read from the area of FIG. 13 and the contour image of the image data match is counted.

【0063】次いで、ステップS314で一致ドット数
と座標の差分をワークRAM32にストアする。これに
より、今回のポインタN=[1]のルーチンでは輪郭の
パーツパターンとイメージデータの輪郭の画像との一致
ドット数および輪郭のパーツパターンとイメージデータ
の各位置の違いに相当する座標の差分がワークRAM3
2にストアされる。次いで、ステップS316で一致ド
ット数の多いパーツパターンの番号(NO.)をワーク
RAM32にストアする。これにより、今回のポインタ
N=[1]のルーチンではイメージデータの輪郭の画像
に対して最も似ている輪郭のパーツパターン番号がワー
クRAM32にストアされ、似顔絵を作成する際の輪郭
という部位のパーツパターンが選択されたことになる。
Then, in step S314, the difference between the number of coincident dots and the coordinates is stored in the work RAM 32. As a result, in the routine of the pointer N = [1] this time, the number of coincident dots between the contour part pattern and the contour image of the image data and the difference in coordinates corresponding to the difference between each position of the contour part pattern and the image data are calculated. Work RAM3
Stored in 2. Next, in step S316, the number (NO.) Of the part pattern having a large number of matching dots is stored in the work RAM 32. As a result, in the routine of the pointer N = [1] this time, the part pattern number of the contour most similar to the contour image of the image data is stored in the work RAM 32, and the part of the portion called the contour when the portrait is created. The pattern has been selected.

【0064】次いで、ステップS318で全部位の指定
を終了したか否かを判別する。終了していなければ、ス
テップS320に進んでポインタNを[1]だけインク
リメントし、ステップS306に戻り、同様のループを
繰り返す。したがって、次のループでは、N=[2]と
なって髪型という部位が指定され、上記同様にして髪型
の画像に対して最も似ている髪型のパーツパターン番号
がワークRAM32にストアされ、似顔絵を作成する際
の髪型という部位のパーツパターンを選択する処理が行
われる。以下同様にして、N=[3]の目、・・・とい
うようにして顔の全部の部位の画像に対して最も似てい
る部位のパーツパターン番号がワークRAM32にスト
アされ、似顔絵を作成する際の全ての部位のパーツパタ
ーンを選択する処理が行われる。
Next, in step S318, it is determined whether or not the designation of all parts has been completed. If not completed, the process proceeds to step S320, the pointer N is incremented by [1], the process returns to step S306, and the same loop is repeated. Therefore, in the next loop, N = [2] is set and the part called the hairstyle is designated. In the same manner as above, the part pattern number of the hairstyle most similar to the hairstyle image is stored in the work RAM 32, and the portrait is drawn. A process of selecting a part pattern of a part called a hairstyle at the time of creating is performed. In the same manner, the part pattern number of the part most similar to the image of all parts of the face is stored in the work RAM 32 in the same manner as N = [3] eyes, ..., And a portrait is created. The process of selecting the part patterns of all the parts at that time is performed.

【0065】そして、全ての部位のパーツパターンの選
択が終了すると、ステップS318の判別結果がYES
となり、割り込みルーチンを終了し、次回の割り込みタ
イミングを待つ。そして、次回の割り込みルーチンでは
ステップS302で顔画像のパーツパターンに対応して
T=[2]となり、エリア内の経過時間T2に対応する
顔画像を作成する処理が行われる。以後同様にして割り
込みルーチンの実行毎にT=[3]、T=[4]、・・
・T=[n]という順で、エリア内の経過時間T2、T
3、T4、・・・Tnに対応する各顔画像を作成する処
理が行われる。このように第2実施例では、オペレータ
の動く顔画像を撮像し、時間の経過に従って顔の向き、
顔の各部位毎のパーツ番号、位置データなどの形で順番
に登録することが行われる。そして、再生時には登録済
みの各パーツ番号等のデータに基づいて予め用意されて
いるパーツパターンを組み合せて顔画像として復元され
る。したがって、いわゆ動くモンタージュが再現するこ
とができる。
When the selection of the part patterns for all the parts is completed, the determination result of step S318 is YES.
Then, the interrupt routine is terminated and the next interrupt timing is waited for. Then, in the next interrupt routine, T = [2] corresponding to the part pattern of the face image in step S302, and a process of creating a face image corresponding to the elapsed time T2 in the area is performed. Thereafter, similarly, each time the interrupt routine is executed, T = [3], T = [4], ...
・ Elapsed time T2, T in the area in the order of T = [n]
A process of creating each face image corresponding to 3, T4, ... Tn is performed. As described above, in the second embodiment, a moving face image of the operator is captured, and the orientation of the face according to the passage of time,
Registration is performed in order in the form of part numbers and position data for each part of the face. Then, at the time of reproduction, a part pattern prepared in advance based on the registered data such as each part number is combined and restored as a face image. Therefore, Iwayu moving montage can be reproduced.

【0066】例えば、図16(A)に示すように、撮像
開始から経過時間T1のときオペレータの動く顔画像
が、例えば正面の画像として撮像され、撮像画像に対す
るそのときの顔の向き、顔の各部位毎のパーツ番号、位
置データなどが求められて、経過時間T1とともに登録
される。同様に、撮像開始から経過時間T2のときはオ
ペレータの動く顔画像が、例えば正面の画像として撮像
され、撮像画像に対するそのときの顔の向き、顔の各部
位毎のパーツ番号、位置データなどが求められて、経過
時間T2とともに登録される。また、経過時間T3のと
きはオペレータの動く顔画像が、例えば正面の画像とし
て撮像され、撮像画像に対するそのときの顔の向き、顔
の各部位毎のパーツ番号、位置データなどが求められ
て、経過時間T3とともに登録される。なお、オペレー
タが横を向いたときには、例えば側面の画像として撮像
され、撮像画像に対するそのときの顔の向き、顔の各部
位毎のパーツ番号、位置データなどが同様にして求めら
れ、そのときの経過時間Txとともに登録される。
For example, as shown in FIG. 16 (A), a moving face image of an operator is captured as a front image, for example, as a front image at a time T1 from the start of image capturing, and the orientation of the face and the face at that time with respect to the captured image. The part number, position data, etc. for each part are obtained and registered together with the elapsed time T1. Similarly, when the elapsed time T2 has elapsed from the start of imaging, a moving face image of the operator is captured, for example, as a front image, and the orientation of the face at that time with respect to the captured image, the part number of each part of the face, position data, and the like are displayed. It is obtained and registered together with the elapsed time T2. Further, at the elapsed time T3, a moving face image of the operator is captured, for example, as a front image, and the orientation of the face at that time with respect to the captured image, the part number of each part of the face, position data, and the like are obtained. It is registered together with the elapsed time T3. When the operator turns sideways, for example, it is captured as a side image, and the face orientation at that time with respect to the captured image, the part number for each part of the face, position data, etc. are obtained in the same manner. It is registered together with the elapsed time Tx.

【0067】一方、モンタージュ画像の再生時には、最
初に撮像開始からの経過時間がT1のときに対応する登
録済みの顔の向き、顔の各部位毎のパーツ番号、位置デ
ータなどがワークRAM32の対応するエリアから読み
出されてパーツパターンが組み合わされ、16図(A)
に示すような正面のモンタージュ画像として復元され
る。以後同様にして、経過時間T2のときに対応する登
録済みの顔の向き、顔の各部位毎のパーツ番号、位置デ
ータなどがワークRAM32の対応するエリアから読み
出されてパーツパターンが組み合わされ、16図(B)
に示すような正面のモンタージュ画像として復元され
る。また、経過時間T3のときには、対応する登録済み
の顔の向き、顔の各部位毎のパーツ番号、位置データな
どがワークRAM32の対応するエリアから読み出され
てパーツパターンが組み合わされ、16図(C)に示す
ような正面のモンタージュ画像として復元される。した
がって、時間経過に従って登録済みの各パーツ番号等の
データに基づいて予め用意されているパーツパターンを
組み合せることで、オペレータの動く顔画像が復元さ
れ、いわゆる動くモンタージュ画像を再現することがで
きる。
On the other hand, at the time of reproducing the montage image, the orientation of the registered face corresponding to the elapsed time from the start of image capturing for the first time T1 is corresponded to the work RAM 32 with the part number of each face part and the position data. Figure 16 (A)
It is restored as a front montage image as shown in. Thereafter, in the same manner, the registered face orientation corresponding to the elapsed time T2, the part number of each part of the face, the position data, etc. are read from the corresponding area of the work RAM 32 and the part patterns are combined, Figure 16 (B)
It is restored as a front montage image as shown in. Further, at the elapsed time T3, the corresponding registered face orientation, the part number of each part of the face, the position data, etc. are read from the corresponding area of the work RAM 32 and the part patterns are combined, as shown in FIG. It is restored as a front montage image as shown in C). Therefore, the moving face image of the operator is restored by combining the parts patterns prepared in advance based on the data of each registered part number and the like over time, and a so-called moving montage image can be reproduced.

【0068】[0068]

【発明の効果】本発明によれば、入力画像データ読取手
段により顔の画像データを撮像入力して読み取り、読み
取った顔画像データから顔の各部位毎に部分画像を抽出
して記憶し、少なくとも抽出した部分画像の各部位毎の
位置データをパーツデータ記憶手段に記憶し、また、パ
ーツパターン記憶手段に予め顔の各部を髪、目、鼻、口
等の部位に分けて、各部位毎に複数種類のパーツパター
ンを記憶しておき、パーツデータ記憶手段に記憶してお
いて部分画像に対応するパーツデータと、パーツパター
ン記憶手段に記憶している顔の各部位毎の複数種類のパ
ーツパターンとを比較照合し、その比較結果に応じてパ
ーツパターン記憶手段に記憶された各部位毎のパーツパ
ターンをパーツデータ記憶手段に記憶された位置データ
に対応して組み合わせて顔画像を作成しているので、入
力された顔画像(実物の顔)に対応する似顔絵を作成す
る際に、各パーツパターンの選択操作に手間がかかるこ
とがなく、実物により近似した似顔絵を容易に作成する
ことができる。また、請求項2記載の発明によれば、動
く顔画像を時間の経過に従って、例えば顔の向き、顔の
各部位毎のパーツ番号、位置データなどの形で順番に登
録しておくことにより、再生時には登録済みの各パーツ
番号、位置データ等に基づいて予め用意されているパー
ツパターンを組み合せて顔画像として復元することがで
き、いわゆる動くモンタージュ画を容易に再現すること
ができる。
According to the present invention, the image data of the face is picked up and read by the input image data reading means, and the partial image is extracted and stored for each part of the face from the read face image data. Position data for each part of the extracted partial image is stored in the part data storage means, and each part of the face is divided into parts such as hair, eyes, nose, and mouth in the part pattern storage means in advance, and each part is stored. A plurality of types of part patterns are stored, and part data corresponding to a partial image is stored in the part data storage means, and a plurality of types of part patterns for each part of the face stored in the part pattern storage means. Are compared and collated, and the part pattern for each part stored in the part pattern storage means is combined according to the comparison result in correspondence with the position data stored in the part data storage means. Since the face image is created by using it, when creating a portrait corresponding to the input face image (real face), it does not take time and effort to select each part pattern, and it is more similar to the actual face. Can be created easily. According to the invention of claim 2, the moving face image is sequentially registered in the form of, for example, the orientation of the face, the part number of each part of the face, the position data, etc. with the passage of time. At the time of reproduction, a part image prepared in advance based on each registered part number, position data, etc. can be combined and restored as a face image, and a so-called moving montage image can be easily reproduced.

【0069】さらに、請求項4記載の発明によれば、入
力された顔の画像データをそのまま記憶するのではな
く、その入力された顔画像データの代りに当該顔の画像
データと対応する各パーツパターンを指定するためのパ
ーツパターン指定用データ(例えば、上記実施例では各
パーツパターン番号又は各位置データ)を記憶するよう
にしているので、入力された顔画像と極めて似ている顔
を表示する際に使用されるデータの記載容量を極めて少
ないものにすることができる。請求項5記載の発明によ
れば、極めて少ない記憶容量のパーツパターン指定用デ
ータを用いて入力された顔画像と極めて似ている顔を表
示することができる。請求項6記載の発明によれば、順
次入力された顔の画像データをそのまま記憶するのでは
なく、その入力された顔画像データの代りに当該顔の画
像データと対応する各パーツパターン(例えば、上記実
施例では各パーツパターン番号又は各位置データ)を、
当該顔の画像が入力された時間を表す時間データととも
に記憶するようにしているので、順次入力された顔画像
と極めて似ている顔を時間の経過に従って表示する際に
使用されるデータの記載容量を極めて少ないものとする
ことができる。請求項7記載の発明によれば、極めて少
ない記憶容量のパーツパターン指定用データおよび時間
データを用いて、順次入力された顔画像と極めて似てい
る顔を時間の経過に従って表示することができる。
Further, according to the invention described in claim 4, instead of storing the input face image data as it is, each part corresponding to the face image data is replaced with the input face image data. Since the part pattern designation data for designating the pattern (for example, each part pattern number or each position data in the above embodiment) is stored, a face very similar to the input face image is displayed. The description capacity of the data used at that time can be made extremely small. According to the invention described in claim 5, it is possible to display a face very similar to the face image input using the data for designating a part pattern having an extremely small storage capacity. According to the invention of claim 6, instead of storing the sequentially input face image data as it is, instead of the input face image data, each part pattern corresponding to the face image data (for example, In the above embodiment, each part pattern number or each position data)
Since the face image is stored together with time data indicating the input time, the description capacity of the data used when displaying a face that is very similar to the sequentially input face images over time Can be extremely small. According to the invention described in claim 7, it is possible to display a face very similar to the sequentially input face images with the lapse of time by using the part pattern designating data and the time data having an extremely small storage capacity.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る顔画像作成装置および顔画像用デ
ータ記憶装置を適用した電子手帳の第1実施例の正面図
である。
FIG. 1 is a front view of a first embodiment of an electronic notebook to which a face image creation device and a face image data storage device according to the present invention are applied.

【図2】同実施例の顔画像作成装置の構成を示すブロッ
ク図である。
FIG. 2 is a block diagram showing a configuration of a face image creating apparatus of the embodiment.

【図3】同実施例のパーツパターンROMに記憶されて
いる顔の各部位のパーツパターンの一例を示す図であ
る。
FIG. 3 is a diagram showing an example of a part pattern of each part of a face stored in a part pattern ROM of the embodiment.

【図4】同実施例のパーツパターンの照合一致ドット数
および順位番号を示す図である。
FIG. 4 is a diagram showing a matching match dot number and a rank number of a part pattern of the embodiment.

【図5】同実施例の個人データの入力・登録処理を行う
処理プログラムを示すフローチャートである。
FIG. 5 is a flow chart showing a processing program for inputting / registering personal data according to the embodiment.

【図6】同実施例の似顔絵作成処理のプログラムの一部
を示すフローチャートである。
FIG. 6 is a flowchart showing a part of a program for portrait creation processing of the embodiment.

【図7】同実施例の似顔絵作成処理のプログラムの一部
を示すフローチャートである。
FIG. 7 is a flowchart showing a part of a program for portrait creation processing of the embodiment.

【図8】同実施例のワークRAMの記憶内容の一例を示
す図である。
FIG. 8 is a diagram showing an example of stored contents of a work RAM of the same embodiment.

【図9】同実施例の顔画像の一例を示す図である。FIG. 9 is a diagram showing an example of a face image of the same embodiment.

【図10】同実施例の顔画像の一例を示す図である。FIG. 10 is a diagram showing an example of a face image of the same embodiment.

【図11】本発明に係る顔画像作成装置および顔画像用
データ記憶装置を適用した電子手帳の第2実施例の正面
図である。
FIG. 11 is a front view of a second embodiment of an electronic notebook to which the face image creation device and the face image data storage device according to the present invention are applied.

【図12】同実施例の似顔絵作成処理のプログラムを示
すフローチャートである。
FIG. 12 is a flowchart showing a program for portrait creation processing according to the embodiment.

【図13】同実施例のワークRAMの記憶内容の一例を
示す図である。
FIG. 13 is a diagram showing an example of stored contents of a work RAM of the same embodiment.

【図14】同実施例のインターラプト1処理のプログラ
ムを示すフローチャートである。
FIG. 14 is a flowchart showing a program for interrupt 1 processing of the same embodiment.

【図15】同実施例のインターラプト2処理のプログラ
ムを示すフローチャートである。
FIG. 15 is a flowchart showing a program for an interrupt 2 process of the same embodiment.

【図16】同実施例の顔画像の一例を示す図である。FIG. 16 is a diagram showing an example of a face image of the embodiment.

【符号の説明】[Explanation of symbols]

1、51 電子手帳 2、52 CCDカメラ部(入力画像データ読取手段) 3、53 第2表示部 4 データ入力キー 11 第1表示部 12 入力スイッチ部 13 オン/オフキー 14 部位キー 21 CPU 21 キー入力部 23 イメージデータ入力部 24 パターンマッチング部 26 印刷部 28 入力画像メモリ(顔画像データ記憶手段) 29 基本位置メモリ 30 パーツパターンROM(パーツパターン記憶手
段) 31 ROM 32 ワークRAM(パーツデータ記憶手段、パーツパ
ターン指定用データ記憶手段) 101 データ比較手段 102 パターン合成手段 103 時間計測手段
1, 51 Electronic notebook 2, 52 CCD camera section (input image data reading means) 3, 53 Second display section 4 Data input key 11 First display section 12 Input switch section 13 On / off key 14 Site key 21 CPU 21 Key input Part 23 Image data input part 24 Pattern matching part 26 Printing part 28 Input image memory (face image data storage means) 29 Basic position memory 30 Parts pattern ROM (parts pattern storage means) 31 ROM 32 Work RAM (parts data storage means, parts (Data storage means for pattern designation) 101 Data comparison means 102 Pattern synthesis means 103 Time measurement means

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 顔の画像データを読み取る入力画像デー
タ読取手段と、 この入力画像データ読取手段により読み取られた顔画像
データから顔の各部位毎に部分画像を抽出して記憶する
とともに、少なくとも抽出した部分画像の各部位毎の位
置データを記憶するパーツデータ記憶手段と、 顔の各部位毎に複数種類のパーツパターンを記憶するパ
ーツパターン記憶手段と、 前記パーツデータ記憶手段に記憶された各部位毎の部分
画像と、前記パーツパターン記憶手段に記憶された顔の
各部位毎の複数種類のパーツパターンとをそれぞれ比較
するデータ比較手段と、 このデータ比較手段による比較結果に基づいて前記パー
ツパターン記憶手段に記憶された各部位毎のパーツパタ
ーンをパーツデータ記憶手段に記憶された位置データに
対応して組み合せることにより、顔画像を作成するパタ
ーン合成手段と、を備えたことを特徴とする顔画像作成
装置。
1. Input image data reading means for reading image data of a face, and partial images are extracted and stored for each part of the face from the face image data read by the input image data reading means, and at least extracted. Part data storage means for storing position data for each part of the partial image, part pattern storage means for storing a plurality of types of part patterns for each part of the face, and each part stored in the part data storage means Data comparison means for respectively comparing the partial image for each of the plurality of types of part patterns for each part of the face stored in the part pattern storage means, and the part pattern storage based on the comparison result by the data comparison means. The part pattern for each part stored in the means is assembled in correspondence with the position data stored in the part data storage means. By the face image creation device being characterized in that and a pattern synthesizing means for creating a face image.
【請求項2】 前記入力画像データ読取手段は、顔画像
データを読み取る時点の時間を計測する時間計測手段を
備え、 前記パーツデータ記憶手段は、前記入力画像データ読取
手段で読み取られた顔画像データから顔の各部位毎に部
分画像を抽出してその部分画像を記憶するとき、前記時
間計測手段により計測された顔画像データを読み取る時
点の時間を合せて記憶することを特徴とする請求項1記
載の顔画像作成装置。
2. The input image data reading means includes a time measuring means for measuring a time when the face image data is read, and the part data storing means includes face image data read by the input image data reading means. 2. When extracting a partial image for each part of the face from the above and storing the partial image, the time at which the face image data measured by the time measuring means is read is stored together. The described face image creation device.
【請求項3】 前記顔画像作成装置は、前記パターン合
成手段によって作成された顔画像を表示、又は印刷する
手段を、さらに有することを特徴とする請求項1又は2
記載の顔画像作成装置。
3. The face image creating apparatus further comprises means for displaying or printing the face image created by the pattern synthesizing means.
The described face image creation device.
【請求項4】 入力された顔の画像データを記憶する顔
画像データ記憶手段と、 顔の各部位毎に当該部位を表す複数種類のパーツパター
ンと当該部位を記憶するパーツパターン記憶手段と、 このパーツパターン記憶手段に記憶されている各パーツ
パターンと前記顔画像データ記憶手段に記憶されている
画像データを構成する各部分画像とを各部位毎に比較す
る比較手段と、 この比較手段による比較の結果、前記各パーツパターン
と前記各部分画像とが対応する場合、この対応する各パ
ーツパターンを指定するためのパーツパターン指定用デ
ータを記憶するパーツパターン指定用データ記憶手段
と、を備えたことを特徴とする顔画像用データ記憶装
置。
4. A face image data storage means for storing input image data of a face, a plurality of types of part patterns representing the relevant part for each part of the face, and a part pattern storage means for storing the part. Comparison means for comparing each part pattern stored in the part pattern storage means with each partial image forming the image data stored in the face image data storage means for each part, and comparison by the comparison means As a result, when the respective part patterns correspond to the respective partial images, a part pattern specifying data storage means for storing the part pattern specifying data for specifying the corresponding respective part patterns is provided. Characteristic face image data storage device.
【請求項5】 前記パーツパターン指定用データ記憶手
段に記憶されている各パーツパターン指定用データを読
み出し、この読み出された各パーツパターン指定用デー
タに基づいて前記パーツパターン記憶手段に記憶されて
いる各パーツパターンを読み出して合成する合成手段
と、 この合成手段により合成された各パーツパターンからな
る顔の画像を表示する表示手段と、を備えたことを特徴
とする請求項4記載の顔画像用データ記憶装置。
5. The part pattern designation data stored in the part pattern designation data storage means is read out and stored in the part pattern storage means based on the read out part pattern designation data. 5. The face image according to claim 4, further comprising a synthesizing unit for reading and synthesizing each of the existing part patterns, and a display unit for displaying an image of a face composed of the respective part patterns synthesized by the synthesizing unit. Data storage device.
【請求項6】 順次入力された顔の画像データを、当該
顔の画像が入力された時間を表す時間データとともに記
憶する顔画像データ記憶手段と、 顔の各部位毎に当該部位を表す複数種類のパーツパター
ンと当該部位を記憶するパーツパターン記憶手段と、 このパーツパターン記憶手段に記憶されている各パーツ
パターンと前記顔画像データ記憶手段に記憶されている
画像データを構成する各部分画像とを各部位毎に比較す
る比較手段と、 この比較手段による比較の結果、前記各パーツパターン
と前記各部分画像とが対応する場合、この対応する各パ
ーツパターンを指定するためのパーツパターン指定用デ
ータを、前記時間データとともに記憶するパーツパター
ン指定用データ記憶手段と、を備えたことを特徴とする
顔画像用データ記憶装置。
6. Face image data storage means for storing sequentially input face image data together with time data representing the time when the face image was input; and a plurality of types representing the relevant part for each part of the face. Of the part pattern and the part pattern storage means for storing the part, each part pattern stored in the part pattern storage means, and each partial image forming the image data stored in the face image data storage means. When comparing the part patterns and the partial images as a result of the comparison by the comparing means for each part, the part pattern designating data for designating the corresponding part patterns is provided. A face image data storage device, comprising: a part pattern designation data storage unit that stores the time data together with the time data.
【請求項7】 前記パーツパターン指定用データ記憶手
段に記憶されている各パーツパターン指定用データおよ
び時間データを読み出し、この読み出された各パーツパ
ターン指定用データに基づいて前記パーツパターン記憶
手段に記憶されている各パーツパターンを、読み出され
た時間データで示される時間に従って順次読み出して合
成する合成手段と、 この合成手段により順次合成された各パーツパターンか
らなる顔の画像を表示する表示手段と、を備えたことを
特徴とする請求項6記載の顔画像用データ記憶装置。
7. The part pattern designating data and time data stored in the part pattern designating data storage means are read out and stored in the part pattern storing means on the basis of the read out part pattern designating data. A synthesizing means for sequentially reading and synthesizing the stored respective part patterns in accordance with the time indicated by the read time data, and a display means for displaying a face image composed of the respective part patterns sequentially synthesized by the synthesizing means. 7. The face image data storage device according to claim 6, further comprising:
JP20986393A 1993-08-02 1993-08-02 Face image creation device and face image creation method Expired - Lifetime JP3477750B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20986393A JP3477750B2 (en) 1993-08-02 1993-08-02 Face image creation device and face image creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20986393A JP3477750B2 (en) 1993-08-02 1993-08-02 Face image creation device and face image creation method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2000232606A Division JP3478255B2 (en) 2000-08-01 2000-08-01 Face image creation device and face image creation control method

Publications (2)

Publication Number Publication Date
JPH0744725A true JPH0744725A (en) 1995-02-14
JP3477750B2 JP3477750B2 (en) 2003-12-10

Family

ID=16579878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20986393A Expired - Lifetime JP3477750B2 (en) 1993-08-02 1993-08-02 Face image creation device and face image creation method

Country Status (1)

Country Link
JP (1) JP3477750B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000011144A (en) * 1998-06-18 2000-01-14 Shiseido Co Ltd Eyebrow deformation system
JP2008519547A (en) * 2004-11-05 2008-06-05 インターグラフ ソフトウェアー テクノロジーズ カンパニー How to generate composite images
JP2014048767A (en) * 2012-08-30 2014-03-17 Casio Comput Co Ltd Image generating device, image generating method, and program
JP2016126510A (en) * 2014-12-26 2016-07-11 カシオ計算機株式会社 Image generation apparatus, image generation method, and program
US11769349B2 (en) 2020-07-29 2023-09-26 Nec Corporation Information processing system, data accumulation apparatus, data generation apparatus, information processing method, data accumulation method, data generation method, recording medium and database

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000011144A (en) * 1998-06-18 2000-01-14 Shiseido Co Ltd Eyebrow deformation system
JP2008519547A (en) * 2004-11-05 2008-06-05 インターグラフ ソフトウェアー テクノロジーズ カンパニー How to generate composite images
JP4767258B2 (en) * 2004-11-05 2011-09-07 インターグラフ ソフトウェアー テクノロジーズ カンパニー How to generate composite images
JP2014048767A (en) * 2012-08-30 2014-03-17 Casio Comput Co Ltd Image generating device, image generating method, and program
JP2016126510A (en) * 2014-12-26 2016-07-11 カシオ計算機株式会社 Image generation apparatus, image generation method, and program
US11769349B2 (en) 2020-07-29 2023-09-26 Nec Corporation Information processing system, data accumulation apparatus, data generation apparatus, information processing method, data accumulation method, data generation method, recording medium and database

Also Published As

Publication number Publication date
JP3477750B2 (en) 2003-12-10

Similar Documents

Publication Publication Date Title
EP1507386B1 (en) Image pickup device and image synthesizing method
CN100468454C (en) Imaging apparatus and image processing method therefor
US5568599A (en) Electronic montage creation device
EP2544073B1 (en) Image processing device, image processing method, recording medium, computer program, and semiconductor device
US20020030834A1 (en) Image modification apparatus and method
KR20040029258A (en) Image editing method, image editing apparatus, program for implementing image editing method and recording medium recording program
US8643679B2 (en) Storage medium storing image conversion program and image conversion apparatus
JP3444148B2 (en) Eyebrow drawing method
JP3477750B2 (en) Face image creation device and face image creation method
JP3478255B2 (en) Face image creation device and face image creation control method
JPH0727725Y2 (en) Image editing equipment
JP5966657B2 (en) Image generating apparatus, image generating method, and program
US5572656A (en) Portrait drawing apparatus having image data input function
JP3728884B2 (en) Image processing apparatus and method, image composition apparatus, and recording medium
JP3945524B2 (en) Key signal generation apparatus and method, image composition apparatus, and recording medium
WO2005078659A1 (en) Face image processing system
JP4363153B2 (en) Imaging apparatus, image processing method thereof, and program
JPH05165932A (en) Method and system for editing image
JP2000196956A (en) Device and method for synthesizing picture
JP2002298078A (en) Character display, its control method, record medium, and program
JP2002024846A (en) Device and method for displaying digital photograph and recording medium
JP2000292852A (en) Face picture photographing device
JPH05242204A (en) Method for generating and displaying virtual completion picture of building and its periphery
JP3760510B2 (en) Information processing device
JP2005122319A (en) Photographing device, its image processing method, and program

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 5

Free format text: PAYMENT UNTIL: 20081003

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081003

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 6

Free format text: PAYMENT UNTIL: 20091003

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091003

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20101003

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20121003