JP3477750B2 - Face image creation device and face image creation method - Google Patents

Face image creation device and face image creation method

Info

Publication number
JP3477750B2
JP3477750B2 JP20986393A JP20986393A JP3477750B2 JP 3477750 B2 JP3477750 B2 JP 3477750B2 JP 20986393 A JP20986393 A JP 20986393A JP 20986393 A JP20986393 A JP 20986393A JP 3477750 B2 JP3477750 B2 JP 3477750B2
Authority
JP
Japan
Prior art keywords
image
face
data
stored
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP20986393A
Other languages
Japanese (ja)
Other versions
JPH0744725A (en
Inventor
嘉行 村田
善登 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP20986393A priority Critical patent/JP3477750B2/en
Publication of JPH0744725A publication Critical patent/JPH0744725A/en
Application granted granted Critical
Publication of JP3477750B2 publication Critical patent/JP3477750B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、顔画像作成装置および
顔画像作成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a face image forming apparatus and
A method for creating a face image .

【0002】[0002]

【従来の技術】従来、顔画像を作成するには、例えばマ
イクロコンピュータを用いた図形表示装置を使用してお
り、この装置では、顔を構成する各パーツ(例えば、
目、眉、口等の部位)毎にその部位を表すパーツ画像で
あるパーツパターンを組み合せることで、顔画像を作成
している。具体的には、髪型、顔の輪郭、目、眉、鼻、
口等の各パーツをそれぞれ複数種類ビットマップパター
ンとして記憶しているパーツメモリを備え、この個々の
パーツパターンをキー入力操作により選択的に呼び出し
て表示部に合成表示させ、任意の似顔絵画像を作成して
いる。
2. Description of the Related Art Conventionally, a graphic display device using, for example, a microcomputer is used to create a face image. In this device, each part (eg,
With parts images that represent each part ( eye, eyebrow, mouth, etc.)
A face image is created by combining certain part patterns. Specifically, hairstyle, face contour, eyes, eyebrows, nose,
Equipped with a part memory that stores each part of the mouth etc. as multiple kinds of bitmap patterns, and selectively call these individual part patterns by key input operation to synthesize and display on the display unit and create any portrait image is doing.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
図形表示装置で顔画像を作成する場合、パーツメモリに
予め記憶されているパーツパターンの種類が少ないと、
実物の顔と近似した似顔絵が作成できないという問題点
がある。そのため、例えば上記パーツメモリにおける各
パーツそれぞれのパターンの種類を多く持たせること
で、実物の顔と近似した似顔絵を作成することができる
ようにすることも行われているが、あまりにパーツパタ
ーンの種類が多くなると、各パーツパターンを選択する
のに非常に手間がかかったり、近似した複数のパーツパ
ターンのうちの1つを適切なパーツパターンとして判断
するのが困難であった。
However, when the face image is created by the conventional graphic display device, if there are few kinds of part patterns stored in the parts memory in advance,
There is a problem that it is not possible to create a caricature that approximates a real face . Therefore, for example, it is also possible to create a caricature similar to the actual face by giving many types of patterns for each part in the above-mentioned part memory, but the types of part patterns are too large. As the number of parts increases, it takes a lot of time to select each part pattern, and it is difficult to determine one of a plurality of approximated part patterns as an appropriate part pattern.

【0004】一方、本発明の出願人は近似した複数のパ
ーツパターンのうちの1つを適切なパーツパターンとし
て判断する技術を先に提案しており、この技術では入力
画像の各部分画像と、パーツメモリに予め記憶しておい
た各部位毎の複数種類のパーツパターンとを照合し、例
えばパターン一致度が最も高い各部位毎のパーツパター
ンを選択して組み合せて合成することにより、実物の顔
と近似した似顔絵を作成するようにしている。しかしな
がら、この方法でもパーツパターンの位置データを使用
することは全く行われておらず、細かい位置の修正を行
うことができず、より実物の顔に近似した似顔絵を作成
することはできなかった。仮に、この方法でより実物の
に近似した似顔絵を作成しようとすると、同一のパー
ツパターンの形状だが位置のみ異なったパーツパターン
も必要となり、極めて多くのパーツパターンを予め用意
する必要があり、しかも多くのパーツパターンから所望
のものを選択するのに、莫大な手間および時間を要する
こととなり、現実的でなかった。
On the other hand, the applicant of the present invention has previously proposed a technique for judging one of a plurality of approximated part patterns as an appropriate part pattern. In this technique, each partial image of the input image and By comparing multiple types of part patterns for each part stored in the parts memory in advance, and selecting and combining the part patterns for each part with the highest pattern matching degree, for example, the actual face I try to create a portrait similar to <br/>. However, even with this method, the position data of the part pattern is not used at all, and it is not possible to correct the fine position, and it is not possible to create a caricature that more closely resembles the actual face . If this method is used ,
If you try to create a caricature that approximates a face , you also need part patterns that have the same shape but different positions, and you need to prepare an extremely large number of part patterns in advance. It takes an enormous amount of labor and time to select, which is not realistic.

【0005】そこで本発明は、パーツパターンの選択操
作に手間がかかることがなく、取得された顔画像と非常
に似ている顔画像をパーツ画像の組み合わせで容易に作
成することができる顔画像作成装置および顔画像作成方
を提供することを目的としている。
Therefore, according to the present invention, it is possible to easily create a face image that is very similar to the acquired face image by combining the part images, without the trouble of selecting the part pattern. Device and facial image creation method
It is intended to provide the law .

【0006】[0006]

【課題を解決するための手段】上記目的達成のため、請
求項1の発明による顔画像作成装置は、次の手段を備え
たことを特徴とする。
To achieve the above object, a face image forming apparatus according to the invention of claim 1 comprises the following means.
It is characterized by that.

【0007】 すなわち、請求項の発明による顔画像
作成装置は、顔画像の再生に先立って、撮影された顔画
像から顔の各部位毎に部分画像を抽出し、この抽出した
部分画像と顔の各部位毎に予め記憶されている複数種類
のパーツ画像とを各部位毎にそれぞれ比較し、この比較
結果に基づいて、前記予め記憶されている各部位毎のパ
ーツ画像に対応するパーツ画像指定データと前記部分画
像の各部位毎の座標位置データとを対応付けて、時間の
経過に従って順次記憶部に記憶させる記憶制御手段と、
顔画像の再生時において、前記記憶部から、記憶されて
いる各パーツ画像指定データに対応するパーツ画像と当
該各パーツ画像指定データに対応付けて記憶されている
座標位置データとを時間の経過に従って順次読み出し、
この読み出された各パーツ画像指定データに対応した位
置に前記パーツ画像をそれぞれ配置してゆき、この配置
された各部位毎のパーツ画像を組み合せて作成された似
顔絵画像を順次表示部に表示させる表示制御手段と、を
備えていることを特徴とする。
That is, the face image creating apparatus according to the invention of claim 1 extracts a partial image for each part of the face from the photographed face image prior to the reproduction of the face image, and the extracted partial image and face A plurality of types of part images stored in advance for each part are compared for each part, and based on the comparison result, a part image corresponding to the part image for each part stored in advance is designated. A storage control unit that associates the data with the coordinate position data for each part of the partial image, and sequentially stores the data in the storage unit as time passes,
During reproduction of the face image, the part image corresponding to each stored part image designation data and the coordinate position data stored in association with each part image designation data are stored in the storage unit as time passes. Sequential reading,
The parts images are arranged at positions corresponding to the read out parts image designation data, and the portrait images created by combining the arranged part images of the respective parts are sequentially displayed on the display unit. And a display control means.

【0008】[0008]

【0009】[0009]

【0010】[0010]

【作用】請求項1の発明による顔画像作成装置では、
の作用を行う。
[Action] In the face image creation device according to a first aspect of the present invention, the following
To act.

【0011】 すなわち、請求項の発明による顔画像
作成装置では、記憶制御手段は、顔画像の再生に先立っ
て、撮影された顔画像から顔の各部位毎に部分画像を抽
出し、この抽出した部分画像と顔の各部位毎に予め記憶
されている複数種類のパーツ画像とを各部位毎にそれぞ
れ比較し、この比較結果に基づいて、前記予め記憶され
ている各部位毎のパーツ画像に対応するパーツ画像指定
データと前記部分画像の各部位毎の座標位置データとを
対応付けて、時間の経過に従って順次記憶部に記憶させ
る。表示制御手段は、顔画像の再生時において、前記記
憶部から、記憶されている各パーツ画像指定データに対
応するパーツ画像と当該各パーツ画像指定データに対応
付けて記憶されている座標位置データとを時間の経過に
従って順次読み出し、この読み出された各パーツ画像指
定データに対応した位置に前記パーツ画像をそれぞれ配
置してゆき、この配置された各部位毎のパーツ画像を組
み合せて作成された似顔絵画像を順次表示部に表示させ
る。また、請求項3の発明による顔画像作成方法でも、
請求項1の発明による顔画像作成装置の場合と同様な作
用を行う。
That is, in the face image creating apparatus according to the first aspect of the present invention, the storage control means extracts the partial image for each part of the face from the photographed face image prior to the reproduction of the face image, and this extraction is performed. The partial image and a plurality of types of parts images stored in advance for each part of the face are compared for each part, and based on the comparison result, the parts image for each part stored in advance is Corresponding parts image designation data and coordinate position data for each part of the partial image are associated with each other and sequentially stored in the storage unit as time passes. The display control means, at the time of reproducing the face image, the part image corresponding to each stored part image designation data and the coordinate position data stored in association with the respective part image designation data from the storage unit. Are sequentially read out with the passage of time, the parts images are arranged at the positions corresponding to the respective parts image designation data read out, and the portraits created by combining the parts images of the arranged parts The images are sequentially displayed on the display unit. Also, in the face image creating method according to the invention of claim 3,
The same operation as in the face image creating apparatus according to the first aspect of the invention is performed.

【0012】[0012]

【実施例】以下、図面を参照して本発明の実施例につい
て説明する。図1は本発明に係る顔画像作成装置および
顔画像作成方法の第1実施例を示す図であり、特に本発
明を電子手帳に適用した場合における電子手帳の正面図
である。図1において、この電子手帳1は一対の本体1
a、1bをそれぞれ左右に開いた状態を示している。電
子手帳1の本体1bの上部にはCCDカメラ部(顔画像
取得手段)2が配置されている。CCDカメラ部2は電
子手帳1のほぼ正面に存在するオペレータ(操作者)の
顔に向けられており、オペレータの顔を撮像して画像デ
ータを生成し、その画像データを読み取って本体1a、
1bの内部にある後述の図2に示すY/C分離部23a
に出力する。すなわち、CCDカメラ部2は内部に撮像
部と、撮影画像を処理し画像データとして読み取るデー
タ部とを有している。なお、顔画像取得手段としては、
CCDカメラに限らず、例えばビデオカメラ、イメージ
スキャナ、あるいは電子スチルカメラ等を用いてもよ
い。また、他の装置からの画像信号を利用するようにし
てもよい。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a face image creating apparatus according to the present invention and
It is a figure which shows 1st Example of the face image creation method , and is a front view of an electronic notebook especially when this invention is applied to an electronic notebook. In FIG. 1, the electronic notebook 1 is a pair of main bodies 1
It shows a state in which a and 1b are respectively opened to the left and right. The CCD camera unit ( face image) is provided on top of the main body 1b of the electronic notebook 1.
(Acquisition means ) 2 is arranged. The CCD camera unit 2 is directed to the face of an operator (operator) existing almost in front of the electronic notebook 1, and the operator's face is imaged to generate image data, and the image data is read to read the main body 1a,
A Y / C separation unit 23a shown in FIG.
Output to. That is, the CCD camera unit 2 has an image pickup unit and a data unit that processes a captured image and reads it as image data. As a face image acquisition means ,
Not limited to the CCD camera, for example, a video camera, an image scanner, an electronic still camera or the like may be used. Alternatively, an image signal from another device may be used.

【0013】電子手帳1の本体1bにおけるCCDカメ
ラ部2の下側には第2表示部3、データ入力キー4が順
次配置されている。第2表示部3は、例えばLCD(液
晶表示装置)からなり、CCDカメラ部2で撮像した顔
画像2aを表示するもので、撮像した顔画像2aをその
ままの状態で表示することができるようになっている。
なお、第2表示部3はモノクロ画面を表示可能なLCD
でもよいし、あるいはカラー画面を表示可能なLCDで
あってもよい。データ入力キー4は電子手帳1の操作に
必要な各種のデータを入力するもので、例えば「1」、
「2」、・・・「9」、「0」からなる数字キー、
「−」、「+」、・・・等の演算キー、「A」、
「B」、・・・「Y」、「Z」からなるアルファベット
キーを有している。これらの数字キー、演算キー、アル
ファベットキーを用いて顔画像作成の対象者となる人物
についての各種データの入力を行ったり、あるいは画像
以外のデータの入力を行ったりする。
A second display portion 3 and a data input key 4 are sequentially arranged below the CCD camera portion 2 in the main body 1b of the electronic notebook 1. The second display unit 3 is composed of, for example, an LCD (liquid crystal display device), and displays the face image 2a captured by the CCD camera unit 2, so that the captured face image 2a can be displayed as it is. Has become.
The second display unit 3 is an LCD capable of displaying a monochrome screen.
Alternatively, it may be an LCD capable of displaying a color screen. The data input key 4 is for inputting various data necessary for operating the electronic notebook 1, for example, "1",
Numeric key consisting of "2", ... "9", "0",
Operation keys such as "-", "+", ..., "A",
It has alphabetic keys consisting of "B", ... "Y", "Z". By using these numerical keys, calculation keys, and alphabet keys, various data about a person who is a target person of face image creation is input, or data other than the image is input.

【0014】電子手帳1の本体1bの下方にはラベルテ
ープ4を印刷可能な印刷部(後述の図2参照)が内蔵さ
れており、図1の例では第1表示部11に表示した顔画
像11aをラベルテープ4に印刷して取り出す状態が図
示されている。ラベルテープ4は、その裏面側に粘着層
を介して剥離可能に設けられている剥離シートを剥がす
ことにより、粘着層の粘着作用により適当な箇所に顔画
像が印刷されたラベルテープ4を張り付けることが可能
なものである。また、ラベルテープ4には画像だけでな
く、文章も印刷可能である。なお、ラベルテープ4には
第1表示部11に表示した顔画像11aだけでなく、例
えば後述の第2表示部3に表示した画像も印刷して取り
出すことができるようになっている。印刷素材はラベル
テープでなく、普通紙であってもよい。
Below the main body 1b of the electronic notebook 1, a printing unit (see FIG. 2 described later) capable of printing the label tape 4 is built in. In the example of FIG. 1, the face image displayed on the first display unit 11 is displayed. The state where 11a is printed on the label tape 4 and taken out is illustrated. The label tape 4 is attached to the label tape 4 on which a face image is printed at an appropriate position by the adhesive action of the adhesive layer by peeling off the release sheet provided on the back side of the label tape so as to be removable via the adhesive layer. It is possible. Further, not only an image but also a sentence can be printed on the label tape 4. It should be noted that not only the face image 11a displayed on the first display unit 11 but also an image displayed on the second display unit 3 described later can be printed on the label tape 4 and taken out. The printing material may be plain paper instead of label tape.

【0015】一方、電子手帳1の本体1aには上部側か
ら第1表示部11、入力スイッチ部12、オン/オフキ
ー13、部位キー14が配置されている。第1表示部1
1は例えばLCDからなり、電子的に顔画像を作成する
段階で各種の画像や合成の顔画像を表示したり、必要な
データ(例えば、人物の氏名等のデータ)を表示したり
する。なお、第1表示部11はモノクロ画面を表示可能
なLCDでもよいし、あるいはカラー画面を表示可能な
LCDであってもよい。図1の例では人物の顔画像11
aおよび人物に関するデータとして氏名、住所、電話番
号、年齢が表示されている。これら以外の他のデータを
使用してもよいことは勿論である。入力スイッチ部12
は電子手帳1によって人物の顔画像を作成する場合に必
要な各種の操作を行うためのもので、具体的には以下の
キーがある。なお、以下のキーは、例えば薄いシートタ
イプのキースイッチが用いられる。 「マッチング」:CCDカメラ部2の読り取りデータと
して記憶された顔の部分画像に対応する部分画像と、記
憶された顔の各部位毎の複数種類のパーツパターンとを
比較してマッチングするときに操作するキー。 「表示」:第1表示部11に画像を表示させるときに操
作するキー。あるいは第2表示部3に画像を表示させる
ときに操作するようにしてもよい。 「印刷」:ラベルテープ4に画像や文章を印刷させると
きに操作するキー。
On the other hand, the main body 1a of the electronic notebook 1 is provided with a first display portion 11, an input switch portion 12, an on / off key 13, and a site key 14 from the upper side. First display unit 1
Reference numeral 1 denotes, for example, an LCD, which displays various images and a composite face image at the stage of electronically creating a face image, and displays necessary data (for example, data such as a person's name). The first display unit 11 may be an LCD capable of displaying a monochrome screen or an LCD capable of displaying a color screen. In the example of FIG. 1, a face image 11 of a person
The name, address, telephone number, and age are displayed as data relating to a and the person. Of course, data other than these may be used. Input switch unit 12
Is for performing various operations necessary for creating a face image of a person using the electronic notebook 1, and specifically, the following keys are provided. For the following keys, for example, thin sheet type key switches are used. "Matching": When matching is performed by comparing a partial image corresponding to a partial image of the face stored as the read data of the CCD camera unit 2 with a plurality of types of part patterns for each stored face part. Key to operate. “Display”: a key operated when displaying an image on the first display unit 11. Alternatively, the operation may be performed when the image is displayed on the second display unit 3. “Print”: A key operated when printing an image or a sentence on the label tape 4.

【0016】「個人」:個人に関するデータ、例えば氏
名、住所、電話番号等の個人に関するデータを第1表示
部11に表示させるときに操作するキー。 「拡大」:第1表示部11に表示した顔画像の部位を拡
大するときに操作するキー。 「画像入力」:CCDカメラ部2で撮像した顔画像2a
を固定して表示するときに操作するキー。 「位置修正」:第1表示部11に表示した顔画像の部位
の位置を修正するときに操作するキー。 「修正」:第1表示部11に表示した顔画像を修正する
ときに操作する。 「△▽」:顔のパーツや複数のパーツの中から所望のパ
ーツパターンを選択するとき等に操作する選択キーで、
いわゆるインクリメント、デクリメントする操作を行う
もの。△はアップ用、▽はダウン用を表す。 「終了」:第1表示部11に表示した顔画像の処理を終
了するときに操作するキー。 「登録」:第1表示部11に表示した顔画像を登録する
ときに操作する。 「顔方向」:第1表示部11に表示した顔画像の向きを
変える(例えば、側面の顔を表示させる)ときに操作す
るキー。オン/オフキー13は電子手帳1の電源をオン
/オフするときに操作されるものである。部位キー14
は顔の各部位(例えば、髪、目、鼻、口等)を指定する
ときに操作されるもので、各部位を模した図形タイプの
キーを押すことにより、所望の部位が指定される。な
お、人物の胴体、手、足等は単に図形表示されているの
みで、スイッチとしての機能は略されている。
"Individual": A key operated when displaying data relating to an individual, for example, data relating to an individual such as name, address, telephone number, etc., on the first display section 11. “Enlargement”: A key operated when enlarging the part of the face image displayed on the first display unit 11. "Image input": Face image 2a captured by the CCD camera unit 2
Key to operate when fixing and displaying. “Position correction”: a key operated when correcting the position of the part of the face image displayed on the first display unit 11. “Correction”: This is operated when correcting the face image displayed on the first display unit 11. "△ ▽": A selection key operated when selecting a desired part pattern from face parts or multiple parts,
A so-called increment / decrement operation. △ indicates up, and ▽ indicates down. “End”: A key operated when ending the processing of the face image displayed on the first display unit 11. “Register”: Operates when registering the face image displayed on the first display unit 11. “Face direction”: A key operated when changing the direction of the face image displayed on the first display unit 11 (for example, displaying a side face). The on / off key 13 is operated when the power of the electronic notebook 1 is turned on / off. Part key 14
Is operated when designating each part of the face (for example, hair, eyes, nose, mouth, etc.), and a desired part is designated by pressing a graphic type key imitating each part. It should be noted that the body, hands, feet, etc. of the person are merely displayed graphically, and the function as a switch is omitted.

【0017】次に、図2は電子手帳における顔画像作成
装置の構成を示すブロック図である。図2において、こ
の顔画像作成装置はCPU21、キー入力部22、イメ
ージデータ入力部23、パターンマッチング部24、印
刷駆動部25、印刷部26、表示駆動部27、入力画像
メモリ28、基本位置メモリ29、パーツパターンRO
M30、ROM31、ワークRAM32および前述した
第1表示部11、第2表示部3を含んで構成されてい
る。キー入力部22は図1に示すデータ入力キー4、入
力スイッチ部12、オン/オフキー13および部位キー
14を含んでおり、キー入力部22からのキー操作信号
はCPU21に入力される。CPU21はキー入力部2
2からのキー操作信号に基づきROM31に格納されて
いる似顔絵作成プログラムに従って回路各部の動作制御
を行うもので、CPU21にはキー入力部22、ROM
31の他に上記イメージデータ入力部23、パターンマ
ッチング部24、印刷駆動部25、表示駆動部27、入
力画像メモリ28、基本位置メモリ29、パーツパター
ンROM30、ROM31およびワークRAM32が接
続されている。CPU21はROM31とともに、比較
手段101、作成手段102、時間計測手段103を構
成する。また、請求項2以下の発明に対応するように、
CPU21はROM31とともに、抽出手段、選択手
段、表示位置調整手段および表示制御手段としての機能
を実現する。
Next, FIG. 2 is a block diagram showing the configuration of the face image creating apparatus in the electronic notebook. In FIG. 2, the face image creating apparatus includes a CPU 21, a key input unit 22, an image data input unit 23, a pattern matching unit 24, a print drive unit 25, a print unit 26, a display drive unit 27, an input image memory 28, and a basic position memory. 29, parts pattern RO
It is configured to include the M30, the ROM 31, the work RAM 32, and the first display unit 11 and the second display unit 3 described above. The key input unit 22 includes the data input key 4, the input switch unit 12, the on / off key 13 and the part key 14 shown in FIG. 1, and the key operation signal from the key input unit 22 is input to the CPU 21. CPU 21 is the key input unit 2
The CPU 21 controls the operation of each part of the circuit in accordance with the portrait creation program stored in the ROM 31 based on the key operation signal from the key input unit 22 and the ROM.
In addition to 31, the image data input unit 23, the pattern matching unit 24, the print driving unit 25, the display driving unit 27, the input image memory 28, the basic position memory 29, the part pattern ROM 30, the ROM 31, and the work RAM 32 are connected. CPU21, together with ROM31, comparison
Means 101, creating means 102, and time measuring means 103 are configured. In addition, in order to correspond to the invention of claim 2 and below ,
CPU21, together with ROM31, extraction means, selection hand
The functions as a stage, a display position adjusting means, and a display control means are realized.

【0018】イメージデータ入力部23はCCDカメラ
部2で撮像した似顔絵対象となる人物像の顔画像(例え
ば、図1に示す顔画像2a)がビデオ信号(1フィール
ド分)として入力されるもので、イメージデータ入力部
23はY/C分離部23aおよびA/D変換部23bに
よって構成される。Y/C分離部23aはCCDカメラ
部2からのビデオ信号に含まれる輝度信号Yと色差信号
Cから輝度信号Yのみを分離抽出するもので、Y/C分
離部23aからのビデオ信号はA/D変換部23bに供
給される。A/D変換部23bはY/C分離部23aか
ら供給される1フィールド分のビデオ輝度信号Yを予め
設定されたサンプリングクロックに同期して白黒2値の
デジタル信号に変換するもので、A/D変換部23bを
介してデジタルデータに変換された画像データは入力画
像メモリ28に転送されて記憶される。すなわち、入力
画像メモリ(顔画像データ記憶手段)28には似顔絵対
象人物として撮像された顔画像データがビットマップデ
ータとして記憶される。なお、入力画像メモリ28に記
憶される顔画像データは、その顔の「鼻」が存在する画
像領域を記憶領域の中央に設定して記憶される。
The image data input unit 23 is a unit for inputting a face image (for example, the face image 2a shown in FIG. 1) of a person who is a portrait image taken by the CCD camera unit 2 as a video signal (for one field). The image data input unit 23 includes a Y / C separation unit 23a and an A / D conversion unit 23b. The Y / C separation unit 23a separates and extracts only the luminance signal Y from the luminance signal Y and the color difference signal C included in the video signal from the CCD camera unit 2, and the video signal from the Y / C separation unit 23a is A / C. It is supplied to the D conversion unit 23b. The A / D conversion unit 23b converts the video luminance signal Y for one field supplied from the Y / C separation unit 23a into a monochrome binary digital signal in synchronization with a preset sampling clock. The image data converted into digital data via the D conversion unit 23b is transferred to and stored in the input image memory 28. That is, the input image memory (face image data storage means) 28 stores face image data taken as a portrait portrait person as bitmap data. The face image data stored in the input image memory 28 is stored by setting the image area in which the "nose" of the face exists in the center of the storage area.

【0019】基本位置メモリ29は入力画像メモリ28
における顔画像の基本的記憶位置を髪、眉、目、鼻、
口、耳等の部位毎に分割したアドレス値として記憶して
おり、基本位置メモリ29に記憶されたアドレス値に応
じて入力画像メモリ28に記憶された顔画像データを読
み出すことにより、似顔絵対象人物として撮像された顔
画像データが髪、眉、目、鼻、口、耳等の部位毎に読み
出される。パーツパターンROM(パーツ記憶手段、第
2の記憶手段)30は顔の各部を髪、眉、目、鼻、口、
耳等の部位に分け、各部位毎に複数種類のパーツパター
ンを所定の記憶位置に番号を付けてビットマップデータ
として記憶しており、パーツパターンROM30に記憶
される各部位毎のパーツパターンがそれぞれ1つずつ組
み合されることにより、似顔絵画像が構成される。
The basic position memory 29 is the input image memory 28.
The basic memory locations of face images in hair, eyebrows, eyes, nose,
The facial image data stored in the input image memory 28 according to the address value stored in the basic position memory 29 is stored as the address value divided for each part such as the mouth and the ear. The face image data captured as is read out for each part such as hair, eyebrows, eyes, nose, mouth, and ears. Parts pattern ROM ( parts storage means, first
(2 storage means ) 30 includes various parts of the face such as hair, eyebrows, eyes, nose, mouth,
It divides into parts such as ears, and stores a plurality of types of part patterns for each part as bitmap data by assigning numbers to predetermined storage positions, and the part patterns for each part stored in the parts pattern ROM 30 are respectively stored. A portrait image is constructed by combining them one by one.

【0020】ここで、パーツパターンROM30に記憶
されている顔の各部位のパーツパターンの一例は図3の
ように示される。図3において、顔の各部位としては、
正面用(A)、右側面用(B)、・・・斜め右側面用
(N)という具合に、顔の向きに対応して複数のパーツ
パターンが設定されている。そして、各面用(A)〜
(N)には顔の各部位が、例えば顔の輪郭、髪型、右
目、・・・・口というようにパーツパターンに分けて複
数種用意されている。なお、顔の部位は図3に示した例
に限らず、他にも、図示は略しているが、例えば眉、鼻
というものが用意されている。また、この他の顔の部位
を用意してもよい。
Here, an example of a part pattern of each part of the face stored in the part pattern ROM 30 is shown in FIG. In FIG. 3, as each part of the face,
A plurality of part patterns are set corresponding to the orientation of the face, such as front (A), right side (B), ... diagonal right side (N). And for each surface (A)
In (N), each part of the face is divided into parts patterns such as the outline of the face, the hairstyle, the right eye, ... The face part is not limited to the example shown in FIG. 3, but other parts such as eyebrows and nose are prepared, though not shown. Further, other face parts may be prepared.

【0021】一方、顔の各部位のパーツパターンとし
て、[01]、[02]、・・・・[50]というパー
ツパターン番号で示される複数種類(ここでは50種
類)のものが予め設けられ、それぞれ輪郭、髪型、右
目、・・・・両足に対応して用意され、格納されてい
る。また、各部位のパーツパターンのそれぞれに対し
て、その位置データが座標[x、y]として付けられ、
所定のエリアに格納されている。したがって、各部位は
複数のパーツパターンと、各パーツパターンの位置デー
タとを合せて有することになる。さらに、パーツパター
ンROM30には、各パーツ毎に複数種類備えられるパ
ーツパターン[01]〜[50]のそれぞれに対応して
入力画像メモリ28に記憶された顔画像データ対応部位
との照合一致ドット数を格納する一致度数レジスタと、
この一致度数レジスタに格納された一致ドット数の大き
い順に順位番号が格納される順位レジスタとが備えられ
ている。図4は一例として、顔の部位の1つである
「鼻」に対応するパーツパターンの格納状態で、特にそ
の照合一致ドット数および順位番号を示すものである。
On the other hand, as a part pattern of each part of the face, a plurality of kinds (here, 50 kinds) indicated by part pattern numbers [01], [02], ... [50] are provided in advance. , Contour, hairstyle, right eye, ... are prepared and stored for both feet. Further, the position data is attached as coordinates [x, y] to each part pattern of each part,
It is stored in a predetermined area. Therefore, each part has a plurality of part patterns together with position data of each part pattern. Further, in the part pattern ROM 30, the number of matching matching dots with the face image data corresponding portion stored in the input image memory 28 corresponding to each of the part patterns [01] to [50] provided in plural for each part. A match frequency register that stores
There is provided a rank register in which rank numbers are stored in descending order of the number of matching dots stored in the matching frequency register. FIG. 4 shows, as an example, a stored state of a part pattern corresponding to one of the face parts, that is, a "nose", in particular, the number of matching matching dots and the order number.

【0022】ワークRAM(第1の記憶手段)32は入
力画像メモリ28に記憶された顔画像データから顔の各
部位毎に部分画像を抽出し、抽出した部分画像の向きデ
ータ、各部位毎の位置データを記憶する。パターンマッ
チング部24はワークRAM32に記憶された部分画像
に対応するパーツデータと、パーツパターンROM31
に記憶された顔の各部位毎の複数種類のパーツパターン
とを順次照合(比較)し、その画像一致点の数に相当す
る一致ドット数を求めるもので、顔画像データ各部位に
対する複数パーツパターンそれぞれの照合一致ドット数
は、前述した一致度数レジスタに格納されるとともに、
その一致度数の順位は前述した順位レジスタに格納され
る。
The work RAM ( first storage means ) 32 extracts a partial image for each part of the face from the face image data stored in the input image memory 28, the orientation data of the extracted partial image, and each part Store position data. The pattern matching unit 24 stores the part data corresponding to the partial image stored in the work RAM 32 and the part pattern ROM 31.
This is to sequentially compare (comparate) with a plurality of types of part patterns for each part of the face stored in, and find the number of matching dots corresponding to the number of image matching points. The number of matching matching dots is stored in the matching frequency register described above, and
The rank of the matching frequency is stored in the above-mentioned rank register.

【0023】そして、パーツパターンROM30におけ
る各部位毎の複数のパーツパターンの全てに対して顔画
像データ各部位毎との一致ドット数およびその順位番号
が格納されると、各部位毎に第1順位のパーツパターン
が読み出され、それぞれの位置データに対応して合成表
示される。表示駆動部27はCPU21の出力に基づい
て第1表示部11および第2表示部3を駆動して処理画
像を表示させる。また、印刷駆動部25(出力手段)
CPU21の出力に基づいて印刷部26を駆動し、印刷
部26はラベルテープ4に処理画像や文字等を印刷す
る。表示駆動部27および第1表示部11は表示手段を
構成する。
When the number of matching dots for each part of the face image data and its rank number are stored for all of the plurality of part patterns for each part in the part pattern ROM 30, the first rank is set for each part. The part patterns of are read out and combined and displayed corresponding to each position data. The display drive unit 27 drives the first display unit 11 and the second display unit 3 based on the output of the CPU 21 to display the processed image. Further, the print drive unit 25 (output means) drives the print unit 26 based on the output of the CPU 21, and the print unit 26 prints a processed image, characters, etc. on the label tape 4. The display drive unit 27 and the first display unit 11 form a display unit.

【0024】次に、作用を説明する。まず、電子手帳1
の本体1a、1bをそれぞれ左右に開いてオン/オフキ
ー13を押すと、電子手帳1に電源が供給され、動作が
開始する。以後は後述のプログラムを実行することによ
り、個人データの入力や似顔絵作成処理が行われる。図
5は本実施例の電子手帳1を使用して個人データの入力
・登録処理を行う場合の処理プログラムを示すフローチ
ャートである。本プログラムがスタートすると、まずス
テップS10で個人キーが押されているか否かを判別す
る。個人キーとは、入力スイッチ部12における「個
人」キーのことで、個人に関するデータ、例えば氏名、
住所、電話番号等の個人に関するデータを第1表示部1
1に表示させるときに操作されるものである。個人キー
が押されていなければステップS10に留り、個人キー
が押されると、ステップS12に進んで個人データが入
力されたか否かを判別する。
Next, the operation will be described. First, electronic notebook 1
When the main bodies 1a and 1b are opened to the left and right and the on / off key 13 is pressed, power is supplied to the electronic notebook 1 and the operation starts. After that, by executing the program described later, the personal data is input and the portrait creation process is performed. FIG. 5 is a flow chart showing a processing program when inputting / registering personal data using the electronic notebook 1 of this embodiment. When this program is started, it is first determined in step S10 whether or not the private key is pressed. The personal key is an “individual” key in the input switch unit 12, and is data relating to an individual, such as a name,
Data about an individual such as an address and a telephone number is displayed on the first display unit 1
It is operated when it is displayed on 1. If the individual key has not been pressed, the process stays in step S10. If the individual key has been pressed, the process proceeds to step S12, and it is determined whether or not the individual data has been input.

【0025】個人データはデータ入力キー4を用いて入
力され、例えば氏名、住所、電話番号等の個人に関する
データを入力することが可能である。この場合、個人デ
ータが入力されていなければステップS16にジャンプ
する。また、個人データが入力されていれば、ステップ
S14に進んで入力された個人データをワークRAM3
2に格納する。これにより、CPU21がワークRAM
32に格納された入力個人データを読み出して表示駆動
部27に出力し、表示駆動部27が第1表示部11を駆
動することにより、入力された個人データが第1表示部
11に表示される。次いで、ステップS16では登録キ
ーがオンしているか否かを判別し、オンしていなければ
ステップS12に戻ってステップS12〜ステップS1
6のループを繰り返す。ステップS16で登録キーがオ
ンすると、入力された個人データの登録処理を行って本
ルーチンを終了する。これにより、個人データがワーク
RAM32の所定の登録エリアに格納され、以後、登録
個人データとして取り出し可能になる。
The personal data is input by using the data input key 4, and it is possible to input personal data such as name, address and telephone number. In this case, if personal data has not been input, the process jumps to step S16. If the personal data is input, the process proceeds to step S14, and the input personal data is stored in the work RAM 3
Store in 2. As a result, the CPU 21 causes the work RAM to
The input personal data stored in 32 is read and output to the display drive unit 27, and the display drive unit 27 drives the first display unit 11, whereby the input personal data is displayed on the first display unit 11. . Next, in step S16, it is determined whether or not the registration key is turned on. If it is not turned on, the process returns to step S12 and steps S12 to S1.
Repeat the loop of 6. When the registration key is turned on in step S16, the input personal data is registered and the present routine is terminated. As a result, the personal data is stored in the predetermined registration area of the work RAM 32, and can be subsequently taken out as registered personal data.

【0026】図6、図7は似顔絵作成処理のプログラム
を示すフローチャートである。このプログラムがスター
トすると、まずステップS100で表示スイッチがオン
しているか否かを判別する。表示スイッチとは、入力ス
イッチ部12における表示キーのことで、表示スイッチ
がオンしていると、第1表示部11が作動して画像を表
示可能になり、ステップS102に進み、既に作成され
た似顔絵を選択して表示する処理を行う。また、表示ス
イッチがオンしていなければステップS104に分岐
し、実際の人物画像から似顔絵を作成する処理を実行す
る。 A.似顔絵選択処理のルーチン 最初に、似顔絵選択処理のルーチンから説明する。ステ
ップS102で検索データが入力されたか否かを判別す
る。検索データとは作成された似顔絵を選択するための
データであり、例えば個人データがある。検索データが
入力されていなければステップS100に戻り、検索デ
ータが入力ていると、ステップS106に進んで検索デ
ータによりワークRAM32における個人データの中か
ら対応するデータを検索して第1表示部11に表示す
る。
FIG. 6 and FIG. 7 are flowcharts showing a program for portrait creation processing. When this program starts, it is first determined in step S100 whether the display switch is on. The display switch is a display key in the input switch unit 12, and when the display switch is turned on, the first display unit 11 is activated to display an image, and the process proceeds to step S102 and is already created. A process of selecting and displaying a portrait is performed. If the display switch is not turned on, the process branches to step S104, and the process of creating a portrait from an actual person image is executed. A. Routine of portrait selection processing First, the routine of portrait selection processing will be described. In step S102, it is determined whether search data has been input. The search data is data for selecting the created portrait and is, for example, personal data. If search data has not been input, the process returns to step S100. If search data has been input, the process proceeds to step S106 and the corresponding data is searched from the personal data in the work RAM 32 by the search data and displayed on the first display unit 11. indicate.

【0027】ここで、図8はワークRAM32の記憶例
を示すもので、例えば人物の個人データに対応して1人
ずつの顔の特徴が顔の向き、顔の各部位毎のパーツパタ
ーン番号、各部位の位置データ(パーツデータ)をパラ
メータとしてそれぞれ所定のエリアに格納されている。
また、この場合、顔の向き(すなわち、正面、右側面、
・・・・斜右側面)に対応して輪郭、髪、右目、・・・
等のパーツパターン番号が、例えばそれぞれ[50]、
[02]、[50]、・・・というようにして所定のエ
リアに格納されているとともに、輪郭、髪、右目、・・
・等のパーツの位置データがそれぞれ例えば[x1、y
1]、[x2、y2]、[x3、y3]、・・・・とい
うようにして所定のエリアに格納されている。[x1、
y1]、[x2、y2]、[x3、y3]、・・・・と
いう各値は、画面上の位置を指定する座標値であり、位
置の修正に応じた絶対位置からの差分データである。な
お、位置の修正がない場合には座標値が[0、0]とな
る。
Here, FIG. 8 shows an example of the storage of the work RAM 32. For example, the facial features of each person correspond to the personal data of the person, the direction of the face, the part pattern number of each part of the face, The position data (parts data) of each part is stored in a predetermined area as a parameter.
Also, in this case, the face orientation (ie front, right side,
.... Contour, hair, right eye, ...
Part pattern numbers such as, for example, [50],
[02], [50], ... are stored in a predetermined area, and the outline, hair, right eye, ...
・ Position data of parts such as, for example, [x1, y
1], [x2, y2], [x3, y3], ..., And stored in a predetermined area. [X1,
The values y1], [x2, y2], [x3, y3], ... Are coordinate values that specify the position on the screen, and are difference data from the absolute position according to the position correction. . If the position is not corrected, the coordinate value is [0,0].

【0028】そして、例えば顔の向き(すなわち、正
面、右側面、・・・・斜右側面)に対応する顔画像につ
いての各部位毎のパーツパターン番号および各部位の位
置データをそれぞれ組み合せて合成することにより、1
つの似顔絵画像であるモンタージュ画像が作成される。
したがって、入力された検索データが個人データである
場合には、該当する個人データを照合し、一致する人物
のものが選択されて第1表示部11に表示されることに
なる。例えば、個人データとしての 氏名:甲 住所:○○ 電話番号:○○ 血液型:○ 趣味:○○ の何れかが入力されると、該当する人物として図8の第
1番目のエリアに格納されている人物の個人データが選
択されて第1表示部11に表示される。なお、個人デー
タとしては、甲という人物の例の他に、以下のような人
物のデータが格納されている。また、この他の人物デー
タを格納してもよい。 氏名:乙 住所:○○ 電話番号:○○ 血液型:○ 趣味:○○
Then, for example, a part pattern number for each part and a position data of each part of the face image corresponding to the orientation of the face (that is, the front, right side, ..., oblique right side) are combined and combined. By doing 1
A montage image that is one portrait image is created.
Therefore, when the input search data is personal data, the corresponding personal data is collated, and the matching personal data is selected and displayed on the first display unit 11. For example, if any of personal name: former address: ○○ telephone number: ○○ blood type: ○ hobby: ○○ is input, it is stored in the first area of FIG. 8 as the corresponding person. The personal data of the person being selected is selected and displayed on the first display unit 11. As personal data, in addition to the example of the person A, the following person data is stored. Further, other person data may be stored. Name: B Address: ○○ Phone number: ○○ Blood type: ○ Hobbies: ○○

【0029】次いで、ステップS108で検索された個
人データに対応するモンタージュ画像(すなわち、似顔
画像)の記憶されているワークRAM32のエリアの
中の1つの顔画像データを読み出して第1表示部11に
表示する。これにより、個人データを基に既に作成され
た似顔絵の中から1つがピックアップされて表示され
る。例えば、個人データとして上記のように人物甲に関
連するデータが入力された場合には、図8に示す人物甲
に対応する顔の向き、顔の各部位毎のパーツパターン番
号、各部位の位置データ(パーツデータ)を基にした1
つの似顔絵が表示される。したがって、人物甲に対応す
る似顔絵は顔の向き等に応じて複数のものがあるが、そ
の中の1つが選択されて表示されることになる。
Next, one face image data in the area of the work RAM 32 in which the montage image (that is, the portrait image ) corresponding to the personal data retrieved in step S108 is stored is read out on the first display section 11. indicate. As a result, one of the portraits already created based on the personal data is picked up and displayed. For example, when the data relating to the human instep as described above is input as personal data, the orientation of the face corresponding to the instep shown in FIG. 8, the part pattern number for each part of the face, and the position of each part 1 based on data (parts data)
Two caricatures are displayed. Therefore, although there are a plurality of portraits corresponding to the instep of the person depending on the direction of the face, etc., one of them is selected and displayed.

【0030】次いで、ステップS110で選択キー(△
▽キー)がオンしたか否かを判別する。選択キーがオン
していれば個人データは同じでも他の似顔絵が選択要求
されていると判断し、ステップS112でワークRAM
32のエリアの中の他の顔画像データを選択する。その
後、ステップS108に戻り、同様のループを繰り返
す。これにより、例えば個人データとして上記のように
人物甲に関連するデータが入力されている場合には、人
物甲に対応する他の似顔絵が選択されて第1表示部11
に表示される。
Then, in step S110, the selection key (Δ
Determine whether or not the ▽ key) is turned on. If the selection key is on, it is determined that another portrait is requested even if the personal data is the same, and in step S112 the work RAM is selected.
Other face image data in the area 32 is selected. Then, the process returns to step S108 and the same loop is repeated. Thereby, for example, when the data related to the person A is input as the personal data as described above, another portrait corresponding to the person A is selected and the first display unit 11 is selected.
Is displayed in.

【0031】このとき、人物甲についての似顔絵で検索
データに対応する所望のものが第1表示部11に表示さ
れない場合には、さらに選択キー(△▽キー)を操作す
る(例えば、△キーの操作で似顔絵をインクリメント的
に選択したり、あるいは▽キーの操作で似顔絵をデクリ
メント的に選択したりする)。次いで、ステップS11
4に進み、終了スイッチ(終了キー)がオンしたか否か
を判別し、終了スイッチがオンしていなければステップ
S110に戻って同様のループを繰り返する。そして、
最終的に検索データに対応する所望の似顔絵を第1表示
部11に表示させる。検索データに対応する所望の似顔
絵が第1表示部11に表示された後、ステップS114
に進んで終了スイッチがオンされていることが検出され
れば、似顔絵の選択処理を終了してステップS100に
戻る。
At this time, if the desired portrait corresponding to the retrieval data of the person's instep is not displayed on the first display section 11, the selection key (Δ ▽ key) is further operated (for example, of the Δ key. Incrementally select a portrait by operating, or decrement the portrait by operating the ▽ key). Then, step S11
In step 4, it is determined whether or not the end switch (end key) is turned on. If the end switch is not turned on, the process returns to step S110 and the same loop is repeated. And
Finally, the desired portrait corresponding to the search data is displayed on the first display unit 11. After the desired portrait corresponding to the search data is displayed on the first display unit 11, step S114
If it is detected that the end switch is turned on in step S100, the portrait selection process ends and the process returns to step S100.

【0032】B.似顔絵作成処理のルーチン ステップS100から分岐してステップS104に進
み、このステップS104でイメージデータを入力す
る。すなわち、入力スイッチ部12の画像入力キーをオ
ンすることより、似顔絵の対象としてCCDカメラ部2
で撮像したオペレータの顔画像データがビデオ信号とし
てイメージデータ入力部23に供給される。これによ
り、イメージデータ入力部23に供給された1フィール
ド分のビデオ信号がY/C分離部23aからA/D変換
部23bを介して1画面分のデジタル画像データに変換
される。次いで、ステップS116でイメージデータ補
正を行う。これは、デジタル画像データに変換された1
画面分の顔画像データに対して、その背景部分に存在す
る余分な画像データを消去して補正するものである。次
いで、ステップS118で入力イメージデータをCPU
21から入力画像メモリ28に対して転送して入力画像
メモリ28に記憶するとともに、第2表示部3に表示す
る。これにより、CCDカメラ部2によって撮像された
オペレータの顔画像が第2表示部3に表示されることに
なる。第2表示部3に表示される入力画像は、例えば図
9(A)に示すようなものになる。
B. The routine from the portrait creation process branches from step S100 to step S104, and image data is input in step S104. That is, by turning on the image input key of the input switch unit 12, the CCD camera unit 2 is set as a portrait target.
The face image data of the operator imaged in is supplied to the image data input unit 23 as a video signal. As a result, the video signal for one field supplied to the image data input unit 23 is converted from the Y / C separation unit 23a to the digital image data for one screen through the A / D conversion unit 23b. Next, in step S116, image data correction is performed. This is 1 converted to digital image data
With respect to the face image data for the screen, extra image data existing in the background portion is erased and corrected. Then, in step S118, the input image data is processed by the CPU.
21 is transferred to the input image memory 28, stored in the input image memory 28, and displayed on the second display unit 3. As a result, the face image of the operator captured by the CCD camera unit 2 is displayed on the second display unit 3. The input image displayed on the second display unit 3 is as shown in FIG. 9 (A), for example.

【0033】次いで、ステップS120で顔方向が入力
されたか否かを判別する。これは、入力スイッチ部12
の顔方向キーがオンしたかどうかで判断する。顔方向キ
ーがオンしていなければステップS100に戻り、顔方
向キーがオンした場合には続くステップS122に進ん
で、対応する個人データの顔画像を記憶するワークRA
M32のエリアを指定する。これにより、そのとき顔方
向に応じた顔画像データがワークRAM32に記憶され
る。例えば、正面の顔方向を撮像し、この方向でOKの
ときは、図9(A)に示すような正面方向の顔が入力画
像としてワークRAM32に記憶される。
Next, in step S120, it is determined whether or not the face direction has been input. This is the input switch unit 12
Judgment is made based on whether or not the face direction key of is turned on. If the face direction key is not turned on, the process returns to step S100. If the face direction key is turned on, the process proceeds to step S122, and the work RA for storing the face image of the corresponding personal data.
Specify the M32 area. As a result, the face image data corresponding to the face direction at that time is stored in the work RAM 32. For example, when the face direction in the front is imaged, and when the direction is OK, the face in the front direction as shown in FIG. 9A is stored in the work RAM 32 as an input image.

【0034】次いで、図7に移り、ステップS124で
入力スイッチ部12の部位キーがオンしたか否かを判別
し、部位キーがオンしていればステップS126で選択
された部位に対応する入力イメージデータにカーソルを
表示する。例えば、図9(B)に示すように部位キーが
オンして「鼻」を指定しているときは、「鼻」の部位に
第2表示部3上でカーソルCが表示される。一方、部位
キーがオンしていなければステップS126をジャンプ
してステップS128に進む。このように、撮像した顔
画像から顔の各部位を部分画像として抽出し、後述のよ
うに抽出した部分画像の向きデータ、各部位毎の位置デ
ータをパーツパターンROM30に予め格納されている
パーツパターンと比較照合することで、撮像画像に対し
て近似した似顔絵画像が各部位毎の組み合わせによって
合成表示されることになる。
Next, moving to FIG. 7, it is determined in step S124 whether or not the part key of the input switch unit 12 is turned on. If the part key is turned on, the input image corresponding to the part selected in step S126 is input. Display the cursor on the data. For example, as shown in FIG. 9B, when the part key is turned on and "nose" is designated, the cursor C is displayed on the second display unit 3 at the part "nose". On the other hand, if the region key is not turned on, the process jumps to step S126 and proceeds to step S128. In this way, each part of the face is extracted as a partial image from the captured face image, and the orientation data of the extracted partial image and the position data of each part are stored in the part pattern ROM 30 in advance as described below. By comparing and collating with, the similar portrait image to the captured image is combined and displayed by the combination for each part.

【0035】次いで、ステップS128で入力スイッチ
部12の位置修正キーがオンしたか否かを判別する。こ
れは、第2表示部3上でカーソルCによって表示された
部位の位置を修正するかどうかを判断するものである。
位置修正キーがオンしていればステップS130でカー
ソルの表示位置を移動する。これにより、例えば図9
(B)に示すように部位キーがオンして「鼻」を指定し
ているとき、「鼻」を指定しているカーソルの表示位置
が移動し、「鼻」が画面上でわずかに別の場所に移動す
る。一方、位置修正キーがオンしていなければステップ
S130をジャンプしてステップS132に進む。
Then, in step S128, it is determined whether or not the position correction key of the input switch section 12 is turned on. This is to determine whether to correct the position of the part displayed by the cursor C on the second display unit 3.
If the position correction key is on, the display position of the cursor is moved in step S130. As a result, for example, as shown in FIG.
As shown in (B), when the body part key is turned on and the "nose" is designated, the display position of the cursor designating the "nose" moves, and the "nose" is slightly different on the screen. Move to a place. On the other hand, if the position correction key is not turned on, the process jumps to step S130 and proceeds to step S132.

【0036】ステップS132では入力スイッチ部12
の拡大キーがオンしたか否かを判別する。これは、第2
表示部3上でカーソルCによって表示された部位の大き
さを拡大するかどうかを判断するものである。拡大キー
がオンしていればステップS136でカーソルCで指定
された部位を拡大して表示する。これにより、例えば図
9(C)に示すように部位キーがオンして「鼻」を指定
しているとき、「鼻」が所定の倍率で拡大されて拡大画
像Kとして画面上に表示される。このように指定の部位
を拡大して表示することにより、拡大した部位の修正が
容易により、結果的に部位の特徴を出しながらより実物
の顔に近い似顔絵画像(モンタージュ画像)を作成する
ことが可能になる。一方、拡大キーがオンしていなけれ
ばステップS134をジャンプしてステップS136に
進む。ステップS136では入力スイッチ部12のマッ
チングキーがオンしたか否かを判別する。これは、第2
表示部3上でカーソルCによって表示された撮像画像中
の部位と、予めパーツパターンROM30に格納されて
いるパーツパターンとを比較照合し、その一致度数の順
位付けを行うもので、マッチング処理を各部位毎に繰り
返すことにより、撮像画像に対して理論上最も近似した
似顔絵画像を合成表示することが可能になる。
In step S132, the input switch unit 12
It is determined whether or not the enlargement key of is turned on. This is the second
It is to determine whether to enlarge the size of the part displayed by the cursor C on the display unit 3. If the enlargement key is turned on, the part designated by the cursor C is enlarged and displayed in step S136. As a result, for example, as shown in FIG. 9C, when the region key is turned on and the "nose" is designated, the "nose" is enlarged at a predetermined magnification and displayed as an enlarged image K on the screen. . By enlarging and displaying the designated part in this way, it is easy to correct the enlarged part, and as a result, the characteristics of the part are displayed and the real part is displayed.
It becomes possible to create a caricature image (montage image ) that is close to the face . On the other hand, if the enlargement key is not turned on, the process jumps to step S134 and proceeds to step S136. In step S136, it is determined whether or not the matching key of the input switch section 12 is turned on. This is the second
The part in the captured image displayed by the cursor C on the display unit 3 is compared and collated with the part pattern stored in the part pattern ROM 30 in advance, and the matching frequency is ranked. By repeating the process for each part, it is possible to compositely display the portrait image that is theoretically closest to the captured image.

【0037】マッチングキーがオンしていればステップ
S138でパーツパターンROM30からカーソルCで
指定された部位のパーツパターンを読み出す。例えば、
図9(B)に示すように部位キーがオンして「鼻」を指
定していれば、パーツパターンROM30から「鼻」と
いうパーツのパーツパターンを読み出す。次いで、ステ
ップS140で読み出されたパーツパターンと、カーソ
ルで指定された部位の画像の一致ドット数をカウントす
る。例えば、部位キーがオンして「鼻」を指定していれ
ば、入力画像メモリ28から読み出された撮像画像にお
ける「鼻」の画像データと、パーツパターンROM30
から読み出された「鼻」の第1パーツパターンとが照合
され、その画像パーツパターンの一致点に相当する一致
ドット数がカウントされる。例えば、図3の例では
「鼻」のパーツパターンとして、[01]、[02]、
・・・・[50]というように50種類が予め用意され
ているから、第1パーツパターンとしては[01]とい
うパルスパターン番号で指定されるものが読み出されて
撮像画像における「鼻」の画像データと照合される。こ
の画像データ中の「鼻」画像データと、予め登録された
「鼻」の第1パーツパターンとの照合一致ドット数は、
「鼻」の第1パーツパターンに対応するパーツパターン
ROM30内の一致度数レジスタに格納される。
If the matching key is turned on, the part pattern of the portion designated by the cursor C is read from the part pattern ROM 30 in step S138. For example,
As shown in FIG. 9B, if the part key is turned on and "nose" is designated, the part pattern of the part "nose" is read from the part pattern ROM 30. Next, the number of matching dots in the image of the part pattern read in step S140 and the part designated by the cursor is counted. For example, if the part key is turned on and "nose" is specified, the image data of "nose" in the captured image read from the input image memory 28 and the part pattern ROM 30 are displayed.
The first part pattern of the "nose" read out from is matched, and the number of matching dots corresponding to the matching point of the image part pattern is counted. For example, in the example of FIG. 3, as the part pattern of “nose”, [01], [02],
... Since 50 types such as [50] are prepared in advance, the pattern designated by the pulse pattern number of [01] is read out as the first part pattern and the "nose" of the captured image Matched with image data. The number of matching matching dots between the “nose” image data in this image data and the first part pattern of the “nose” registered in advance is
It is stored in the matching frequency register in the part pattern ROM 30 corresponding to the first part pattern of "nose".

【0038】次いで、ステップS142で照合対象とな
る次のパーツパターン(例えば、「鼻」の第2パーツパ
ターン)があるか否かを判別する。次のパーツパターン
がある場合にはステップS138に戻ってパーツパター
ンROM30から次の(第2の)「鼻」のパーツパター
ン(第2パーツパターン)を読み出し、その後、ステッ
プS140で同様にして読み出された第2パーツパター
ンと、カーソルで指定された部位の画像の一致ドット数
をカウントする。例えば、「鼻」のパーツパターンを照
合中であれば、第2パーツパターンとしては[02]と
いうパルスパターン番号で指定されるものが読み出され
て撮像画像における「鼻」の画像データと照合される。
この画像データ中の「鼻」画像データと、予め登録され
た「鼻」の第2パーツパターンとの照合一致ドット数
は、「鼻」の第2パーツパターンに対応するパーツパタ
ーンROM30内の一致度数レジスタに格納される。
Next, in step S142, it is determined whether or not there is the next part pattern (for example, the second part pattern of "nose") to be compared. If there is a next part pattern, the process returns to step S138 to read the next (second) "nose" part pattern (second part pattern) from the part pattern ROM 30, and then similarly read in step S140. The number of matching dots in the image of the part designated by the cursor is counted with the created second part pattern. For example, if the “nose” part pattern is being collated, the second part pattern designated by the pulse pattern number [02] is read out and collated with the image data of the “nose” in the captured image. It
The matching match dot number between the “nose” image data in this image data and the second part pattern of the “nose” registered in advance is the matching frequency in the part pattern ROM 30 corresponding to the second part pattern of the “nose”. Stored in register.

【0039】同様にして、ステップS138〜ステップ
S142のループを繰り返すことにより、似顔絵対象と
して入力画像メモリ28に記憶された顔画像中の「鼻」
の画像データと、パーツパターンROM30に予め登録
されている「鼻」パーツの各パーツパターンとの照合処
理が順次繰り返され、それぞれの照合一致ドット数が各
パーツパターンに対応する一致度数レジスタに格納され
ていく。そして、全ての「鼻」のパーツパターンとの照
合処理が終了すると、ステップS142において次のパ
ーツパターン無しと判断されて、判別結果がNOとな
り、ステップS144に分岐する。ステップS144で
は一致ドット数の多さにより、各パーツパターンの順位
付けを行う。すなわち、各パーツパターンに対応して一
致度数レジスタに格納された「鼻」画像データとの照合
一致ドット数に基づき、その一致度数の高い順から順位
番号が付され、それぞれの対応する順位レジスタに格納
される。例えば、顔の部位の1つである「鼻」に対応す
るパーツパターンについては、図4に示すように、その
照合一致ドット数および順位番号が格納される。この場
合、照合一致ドット数=[25]が順位=[1]で、以
下、照合一致ドット数=[20]が順位=[2]、・・
・・という具合に一致度数の高い順から順位番号が付さ
れて対応する順位レジスタに格納されている。
Similarly, by repeating the loop of steps S138 to S142, the "nose" in the face image stored in the input image memory 28 as the portrait image object.
The image data and the matching process of each part pattern of the "nose" part registered in advance in the part pattern ROM 30 are sequentially repeated, and the number of matching match dots is stored in the matching frequency register corresponding to each part pattern. To go. When the matching process with all the "nose" part patterns is completed, it is determined in step S142 that there is no next part pattern, the determination result is NO, and the process branches to step S144. In step S144, the parts patterns are ranked according to the number of matching dots. That is, based on the number of matching matching dots with the “nose” image data stored in the matching frequency register corresponding to each part pattern, a ranking number is given from the highest matching frequency, and the corresponding ranking registers are assigned. Is stored. For example, as for the part pattern corresponding to "nose" which is one of the face parts, the number of matching matching dots and the order number are stored as shown in FIG. In this case, the number of matching match dots = [25] is the rank = [1], and the number of matching match dots = [20] is the rank = [2] ...
.., and so on, and are stored in the corresponding rank registers with the rank numbers assigned in descending order of matching frequency.

【0040】次いで、ステップS146に進み、指定さ
れている部位の座標をワークRAM32の対応部位エリ
アに記憶する。次いで、ステップS148で全部位につ
いて上記のようなマッチングおよび順位付け処理が終了
したか否かを判別する。以上は、一例として顔の部位の
1つである「鼻」に対応するパーツパターンについての
マッチングおよび順位付け処理であり、「鼻」が終了す
ると、次は「口」に移り、「口」画像データに対する全
ての「口」パーツパターンとのマッチング処理およびそ
の一致度数の順位付け処理が実行される。そして、全部
位についてマッチング処理およびその一致度数の順位付
け処理が終了していなければステップS124に戻って
上記ループを繰り返す。全部位について上記のようなマ
ッチング処理およびその一致度数の順位付け処理が終了
すると、ステップS150に進む。このようにして、各
部位についてそれぞれマッチング処理およびその一致度
数の順位付け処理が全て繰り返されることにより、入力
画像メモリ28に記憶された顔画像データの全ての部位
の画像データに対して、パーツパターンROM30に記
憶された全パーツパターンが各部位毎に照合され、その
一致度数に対する順位付けが行われることになる。
Next, in step S146, the coordinates of the designated part are stored in the corresponding part area of the work RAM 32. Next, in step S148, it is determined whether or not the above matching and ranking processing has been completed for all the parts. The above is the matching and ranking process for the part pattern corresponding to "nose" which is one of the face parts as an example. When the "nose" is finished, the process moves to the "mouth" and the "mouth" image is displayed. The matching process for all the "mouth" part patterns for the data and the ranking process of the matching frequency are executed. If the matching process and the matching frequency ranking process have not been completed for all parts, the process returns to step S124 to repeat the above loop. When the matching process and the matching frequency ranking process as described above are completed for all parts, the process proceeds to step S150. In this way, the matching process and the matching frequency ranking process are all repeated for each part, so that the part pattern is added to the image data of all parts of the face image data stored in the input image memory 28. All the part patterns stored in the ROM 30 are collated for each part, and the matching frequency is ranked.

【0041】ステップS150では最高順位のパーツパ
ターンによりモンタージュ画像である似顔絵画像を第1
表示部11に表示する。すなわち、パーツパターンRO
M30の各パーツそれぞれの順位レジスタに対し、各パ
ーツパターンの顔画像データとの照合順位が格納される
と、そのそれぞれのパーツ(輪郭、髪、右目、・・・
口)における最高順位のパーツパターンがパーツパター
ンROM30より読み出され、入力画像メモリ28に記
憶された顔画像データの全ての部位の画像データに対し
て、パーツパターンROM30に記憶された顔画像デー
タに対して、まず最初の段階で近似した似顔絵画像とし
てモンタージュ画像が第1表示部11に表示される。す
なわち、オペレータが入力スイッチ部12の画像入力キ
ーを操作してイメージデータ入力部23を介してCPU
21に入力された似顔絵対象人物の顔画像データが入力
画像メモリ28に記憶されると、この顔画像データに構
成する各部位(輪郭、髪、右目、左目、・・・口)それ
ぞれの画像データパターンに最も類似したパーツパター
ンが上記のパターンマッチング処理に基づきパーツパタ
ーンROM31より自動的に読み出され、第1表示部1
1に合成されて表示される。
In step S150, a portrait image , which is a montage image, is first created using the highest-ranking part pattern.
It is displayed on the display unit 11. That is, the part pattern RO
When the collation order of the face image data of each part pattern is stored in the order register of each part of M30, the respective parts (contour, hair, right eye, ...
The highest order part pattern in the mouth) is read from the part pattern ROM 30, and the image data of all parts of the face image data stored in the input image memory 28 is converted into the face image data stored in the part pattern ROM 30. On the other hand, a montage image is displayed on the first display unit 11 as a portrait image approximated at the first stage. That is, the operator operates the image input key of the input switch unit 12 to operate the CPU via the image data input unit 23.
When the face image data of the portrait person input to 21 is stored in the input image memory 28, the image data of each part (contour, hair, right eye, left eye, ... Mouth) included in the face image data is stored. The part pattern most similar to the pattern is automatically read from the part pattern ROM 31 based on the above pattern matching processing, and the first display unit 1
It is combined with 1 and displayed.

【0042】そして、第1表示部11に対して似顔絵対
象人物の顔画像データに最も近似した似顔絵画像が合成
表示された状態で、その似顔絵画像に修正、変更を加え
たい場合には入力スイッチ部12の修正キーを操作す
る。この処理はステップS152以降で実行される。す
なわち、ステップS152で入力スイッチ部12の修正
キーがオンしたか否かを判別する。これは、次の段階と
して最初のモンタージュ画像である似顔絵画像を修正す
る場合に操作されるものである。修正キーがオンしてい
ればステップS154に進み、一方、修正キーがオンし
ていなければ、この段階で十分なモンタージュ画像であ
る似顔絵画像が作成できたと判断し、ステップS168
に進んで登録キーがオンしたか否かを判別することにな
る。
When it is desired to correct or change the portrait image while the portrait image most approximate to the face image data of the portrait person is displayed on the first display unit 11, the input switch unit is selected. Operate the 12 correction key. This process is executed after step S152. That is, it is determined whether or not the correction key of the input switch unit 12 is turned on in step S152. This is operated in the case of correcting the portrait image which is the first montage image as the next step. If the correction key is turned on, the process proceeds to step S154, while if the correction key is not turned on, a sufficient montage image is obtained at this stage.
It is determined that a portrait image has been created, step S168
Then, it is judged whether the registration key is turned on or not.

【0043】なお、第1表示部11には上記似顔絵画像
が表示されているが、修正キーを操作した場合、その似
顔絵画像中の修正対象となるパーツ名(輪郭、髪、右
目、左目、・・・口)を表示するようにしてもよい。そ
の場合、例えば「輪郭」に初期設定し、修正キーを操作
する毎に「髪」→「右目」→「左目」→・・・・という
ように変更表示する。ステップS154では部位キーが
オンしたか否かを判別する。これは、修正部位を判断す
るものである。部位キーがオンしていなければステップ
S168にジャンプする。部位キーがオンしている場合
はステップS156に進んで選択された部位に対応する
部位のパーツにカーソルを表示する。これにより、オペ
レータは第1表示部11の画面上で修正部位の指定を確
認することができる。次いで、ステップS158で入力
スイッチ部12の選択キー(△▽キー)がオンしたか否
かを判別する。選択キーがオンしていればステップS1
60に進んで次順位のパーツをパーツパターンROM3
0から読み出し、今示されているパーツに変えて表示す
る。これにより、いままでとは違った形状のパーツパタ
ーンが選択された部位の位置に表示される。
Although the above-mentioned portrait image is displayed on the first display portion 11, when the correction key is operated, the name of the part (contour, hair, right eye, left eye, ... .. (mouth) may be displayed. In that case, for example, the contour is initially set, and each time the correction key is operated, the display is changed to "hair" → "right eye" → "left eye" → ... In step S154, it is determined whether or not the part key is turned on. This is to determine the corrected portion. If the part key is not turned on, the process jumps to step S168. If the part key is turned on, the process advances to step S156 to display the cursor on the part of the part corresponding to the selected part. Thereby, the operator can confirm the designation of the corrected portion on the screen of the first display unit 11. Next, in step S158, it is determined whether or not the selection key (Δ ▽ key) of the input switch unit 12 is turned on. If the selection key is on, step S1
Proceed to step 60, and move the next-order part to the part pattern ROM3.
It is read from 0 and displayed in place of the part shown. As a result, a part pattern having a shape different from that of the past is displayed at the position of the selected portion.

【0044】ここで、例えば部位キーを押して修正対象
となるパーツ「鼻」を選択表示させた際に、パターン選
択キー(アップ用の△キー)を操作すると、パーツパタ
ーンROM30の複数の鼻パーツパターンに対応した順
位レジスタに格納されるパーツパターン照合順位に基づ
き、第2順位の鼻パーツパターンが指定されて読み出さ
れ、現表示似顔絵画像における第1順位の鼻パーツパタ
ーンに入れ替わり合成表示される。この場合、上記修正
対象として指定されたパーツパターンは、パターン選択
キー(アップ用の△キー)を操作する毎に、次の順位の
パーツパターンに交換修正され、また、パターン選択キ
ー(ダウン用の△キー)を操作する毎に、前の順位のパ
ーツパターンに交換修正される。一方、選択キーがオン
していなければステップS160をジャンプしてステッ
プS162に進む。このときは、選択された部位のパー
ツパターン形状は変化しない。
Here, for example, when the pattern selection key (up key) is operated when the part "nose" to be corrected is selected and displayed by pressing the part key, a plurality of nose part patterns in the part pattern ROM 30 are selected. The second nose part pattern is designated and read out based on the part pattern matching order stored in the order register corresponding to, and is replaced with the first nose part pattern in the currently displayed portrait image to be synthesized and displayed. In this case, the part pattern designated as the above-mentioned correction target is replaced and corrected with the part pattern of the next rank every time the pattern selection key (up key) is operated, and the pattern selection key (down Each time the (△ key) is operated, the parts pattern of the previous rank is replaced and corrected. On the other hand, if the selection key is not turned on, the process jumps to step S160 and proceeds to step S162. At this time, the shape of the part pattern of the selected portion does not change.

【0045】次いで、ステップS162で入力スイッチ
部12の位置修正キーがオンしたか否かを判別する。位
置修正キーがオンしていればステップS164に進んで
パーツ表示位置を移動する。次いで、ステップS166
でワークRAM32の対応部位のエリアに記憶されてい
る座標を変更する。これにより、例えば部位として
「鼻」が選択されている場合、「鼻」の位置が移動して
第1表示部11に表示される。その後、ステップS16
8に進む。一方、位置修正キーがオンしていなければス
テップS164、ステップS166をジャンプしてステ
ップS168に進む。ステップS168では入力スイッ
チ部12の登録キーがオンしたか否かを判別する。登録
キーがオンしていなければステップS154に戻って同
様のループを繰り返す。例えば、「鼻」以外のパーツに
ついて、必要に応じてその形状や位置の修正を行う。そ
して、修正が終了し登録キーをオンすると、ステップS
170に進んでワークRAM32に修正画像を記録す
る。その後、最初のステップS100にリターンする。
Then, in step S162, it is determined whether or not the position correction key of the input switch section 12 is turned on. If the position correction key is turned on, the process proceeds to step S164 to move the part display position. Then, step S166.
The coordinates stored in the area of the corresponding portion of the work RAM 32 are changed with. Thereby, for example, when “nose” is selected as the part, the position of “nose” is moved and displayed on the first display unit 11. Then, step S16
Go to 8. On the other hand, if the position correction key is not turned on, the process skips steps S164 and S166 and proceeds to step S168. In step S168, it is determined whether or not the registration key of the input switch unit 12 is turned on. If the registration key is not turned on, the process returns to step S154 and the same loop is repeated. For example, the shape and position of parts other than the "nose" are corrected as necessary. When the correction is completed and the registration key is turned on, step S
Proceeding to 170, the corrected image is recorded in the work RAM 32. Then, the process returns to the first step S100.

【0046】このように、第1表示部11に表示された
似顔絵画像に対し、オペレータにより任意の修正対象パ
ーツを指定するとともに、そのパーツパターンを所望の
パーツパターンに入れ替えたり、その位置を移動したり
して似顔絵画像を修正した状態で、登録キーを操作する
と、現表示状態にある似顔絵画像を構成する各パーツパ
ターンの番号が似顔絵データとしてワークRAM32に
書き込まれて登録される。したがって、以後は個人デー
タを指定することにより、ワークRAM32から似顔絵
データを読み出して第1表示部11に表示させることが
できる。その場合、例えば正面の似顔絵データを読み出
すと、図10(A)に示すようなモンタージュ画像であ
る似顔絵画像が得られる。また、顔の向きを変えて右側
面の似顔絵データを読み出すと、図10(B)に示すよ
うなモンタージュ画像である似顔絵画像が得られる。ま
た、ワークRAM32に似顔絵データが登録された後、
印刷キーを操作すると、登録されている似顔絵データに
従って対応する各似顔絵パーツパターンがパーツパター
ンROM30から読み出され、これら似顔絵パーツパタ
ーンの組み合せによる似顔絵画像データが印刷駆動部2
5に送出される。このため、この似顔絵画像データに対
応した似顔絵画像が印刷部26によりラベルテープ4に
印刷されることになる。
As described above, the operator designates an arbitrary part to be corrected in the portrait image displayed on the first display section 11, and the part pattern is replaced with a desired part pattern or the position is moved. When the registration key is operated while the portrait image is corrected, the number of each part pattern forming the portrait image in the current display state is written in the work RAM 32 and registered. Therefore, thereafter, by designating the personal data, the portrait data can be read from the work RAM 32 and displayed on the first display unit 11. In that case, when the front face portrait data is read, for example, a montage image as shown in FIG.
A portrait image can be obtained. When the face orientation is changed and the portrait data on the right side is read , a portrait image as a montage image as shown in FIG. 10B is obtained. In addition, after the portrait data is registered in the work RAM 32,
When the print key is operated, the corresponding portrait part patterns corresponding to the registered portrait data are read out from the part pattern ROM 30, and the portrait image data obtained by combining these portrait part patterns is printed by the print drive unit 2.
5 is sent. Therefore, the portrait image corresponding to the portrait image data is printed on the label tape 4 by the printing unit 26.

【0047】このように本実施例では、CCDカメラ部
2により顔の画像データを撮像入力して読み取り、読み
取った顔画像データを一旦入力画像メモリ28に記憶
し、記憶した顔画像データから顔の各部位毎に部分画像
を抽出し、抽出した部分画像の向きデータ、各部位毎の
位置データをワークRAM32に記憶し、また、パーツ
パターンROM30に予め顔の各部を髪、目、鼻、口等
の部位に分けて、各部位毎に複数種類のパーツパターン
を記憶しておき、ワークRAM32に記憶しておいて部
分画像に対応するパーツデータと、パーツパターンRO
M30に記憶した顔の各部位毎の複数種類のパーツパタ
ーンとを比較照合し、その一致度数の順位付けを行うと
ともに、それぞれの位置データに対応して組み合わせる
マッチング処理を各部位毎に繰り返すことにより、CC
Dカメラ部2の撮像画像に対して理論上最も近似した似
顔絵画像を合成表示することが行われる。したがって、
入力された顔の撮像画像(実物の顔)に対応する似顔絵
画像を作成する際に、各パーツパターンの選択操作に手
間がかかることがなく、実物の顔により近似した似顔絵
を容易に作成することができる。
As described above, in this embodiment, the image data of the face is picked up and read by the CCD camera unit 2, the read face image data is temporarily stored in the input image memory 28, and the face image data is stored from the stored face image data. A partial image is extracted for each part, the orientation data of the extracted partial image and the position data for each part are stored in the work RAM 32, and each part of the face is previously stored in the parts pattern ROM 30 such as hair, eyes, nose, mouth, etc. The plurality of types of part patterns are stored for each part, and the part data corresponding to the partial image and the part pattern RO are stored in the work RAM 32.
By comparing and collating a plurality of types of part patterns for each part of the face stored in M30, ranking the matching frequency, and repeating the matching process for combining each position data for each part. , CC
The portrait image which is theoretically closest to the captured image of the D camera unit 2 is displayed in a composite manner. Therefore,
Caricature corresponding to the captured image of the input face (actual face)
When creating an image , it is possible to easily create a caricature that is closer to the actual face , without the trouble of selecting each part pattern.

【0048】次に、図11〜図16は本発明に係る顔画
像作成装置および顔画像用データ記憶装置の第2実施例
を示す図である。図11は本発明を電子手帳に適用した
場合における電子手帳の正面図である。図11におい
て、この電子手帳51は一対の本体51a、51bをそ
れぞれ左右に開いた状態を示している。電子手帳51の
本体51bの上部には第1実施例と同様にCCDカメラ
部(顔画像取得手段)52が配置されている。また、電
子手帳51の本体51bにおけるCCDカメラ部52の
下側には第2表示部53、データ入力キー54が順次配
置されている。第2表示部53およびデータ入力キー5
4の内容は第1実施例の場合と同様である。なお、第2
表示部53にはCCDカメラ部2で撮像した顔画像52
aが図示されている。電子手帳51の本体51bの下方
には図示は略しているが、第1実施例の場合と同様にラ
ベルテープを印刷可能な印刷部が内蔵されている。
Next, FIGS. 11 to 16 are views showing a second embodiment of the face image forming apparatus and the face image data storage apparatus according to the present invention. FIG. 11 is a front view of an electronic notebook when the present invention is applied to the electronic notebook. In FIG. 11, the electronic notebook 51 shows a state in which the pair of main bodies 51a and 51b are opened to the left and right respectively. A CCD camera section ( face image acquisition means ) 52 is arranged above the main body 51b of the electronic notebook 51 as in the first embodiment. A second display section 53 and a data input key 54 are sequentially arranged below the CCD camera section 52 in the main body 51b of the electronic notebook 51. Second display section 53 and data input key 5
The contents of 4 are the same as in the case of the first embodiment. The second
A face image 52 captured by the CCD camera unit 2 is displayed on the display unit 53.
a is shown. Although not shown, a printing unit capable of printing a label tape is built in below the main body 51b of the electronic notebook 51 as in the case of the first embodiment.

【0049】一方、電子手帳51の本体51aには上部
側から第1表示部61、入力スイッチ部62、オン/オ
フキー63が配置されている。第1表示部61およびオ
ン/オフキー63の内容は第1実施例の場合と同様であ
る。なお、第1表示部61には画像処理中の顔画像61
aが図示されている。入力スイッチ部62は電子手帳5
1によって人物の似顔絵を作成する場合に必要な各種の
操作を行うためのもので、具体的には「個人」、「スタ
ート」、「画像入力」、「表示」、「終了」の5つのキ
ーがある。なお、これらのキーは、例えば薄いシートタ
イプのキースイッチが用いられる。各キーの内、「個
人」、「画像入力」、「表示」、「終了」の機能は第1
実施例と同様である。「スタート」キーは時間経過に従
って動く動画像を開始させるときの操作用のスイッチで
ある。第2実施例の顔画像作成装置の構成を示すブロッ
ク図は前記実施例と同様であ、図示を略しているが、C
PUは動く顔画像を時間の経過に従って顔の向き、顔の
各部位毎のパーツ番号、位置データなどの形で順番に登
録しておくことにより、再生時には登録済みの各パーツ
番号等のデータに基づいて予め用意されているパーツパ
ターンを組み合せて顔画像として復元するような処理を
行う。また、パーツパターンROMは前記実施例と同様
に図3で示すような内容で各部位のパーツパターンを記
憶している。
On the other hand, on the main body 51a of the electronic notebook 51, a first display portion 61, an input switch portion 62, and an on / off key 63 are arranged from the upper side. The contents of the first display portion 61 and the on / off key 63 are the same as in the first embodiment. It should be noted that the first display unit 61 displays on the face image 61 during image processing.
a is shown. The input switch section 62 is the electronic notebook 5
This is for performing various operations required to create a portrait of a person by 1. Specifically, there are five keys of "individual", "start", "image input", "display", and "end". There is. For these keys, for example, thin sheet type key switches are used. Of the keys, the "personal", "image input", "display", and "end" functions are the first
It is similar to the embodiment. The "start" key is an operation switch for starting a moving image that moves over time. The block diagram showing the configuration of the face image creating apparatus of the second embodiment is the same as that of the above embodiment, and although not shown, C
The PU sequentially registers the moving face image in the form of the face orientation, the part number of each part of the face, the position data, etc. over time, so that the data of each registered part number, etc. can be recorded during playback. Based on this, processing is performed such that part patterns prepared in advance are combined to restore a face image. Further, the part pattern ROM stores the part pattern of each part with the contents as shown in FIG.

【0050】次に、作用を説明する。まず、電子手帳5
1の本体51a、51bをそれぞれ左右に開いてオン/
オフキー63を押すと、電子手帳51に電源が供給さ
れ、動作が開始する。以後は後述のプログラムを実行す
ることにより、個人データの入力や似顔絵作成処理が行
われる。図12は本実施例の電子手帳51を使用した似
顔絵作成処理のプログラムを示すフローチャートであ
る。このプログラムがスタートすると、まずステップS
200で表示スイッチがオンしているか否かを判別す
る。表示スイッチとは、入力スイッチ部62における表
示キーのことで、表示スイッチがオンしていると、第1
表示部61が作動して画像を表示可能になり、ステップ
S202に進み、既に作成された似顔絵を選択して表示
する処理を行う。また、表示スイッチがオンしていなけ
ればステップS204に分岐し、実際の人物画像から似
顔絵を作成する処理を実行する。 A.似顔絵選択処理のルーチン 最初に、似顔絵選択処理のルーチンから説明する。ステ
ップS202で検索データが入力されたか否かを判別す
る。検索データとは作成された似顔絵を選択するための
データであり、例えば個人データがある。検索データが
入力されていなければステップS200に戻り、検索デ
ータが入力ていると、ステップS206に進んで検索デ
ータによりワークRAMにおける個人データの中から対
応するデータを検索して第1表示部61に表示する。
Next, the operation will be described. First, electronic notebook 5
1 main body 51a, 51b open to the left and right respectively on /
When the off key 63 is pressed, power is supplied to the electronic notebook 51 and the operation starts. After that, by executing the program described later, the personal data is input and the portrait creation process is performed. FIG. 12 is a flow chart showing a program for portrait creation processing using the electronic notebook 51 of this embodiment. When this program starts, first step S
At 200, it is determined whether or not the display switch is turned on. The display switch is a display key in the input switch section 62, and when the display switch is on, the first
The display unit 61 is activated to be able to display an image, and the process proceeds to step S202 to perform a process of selecting and displaying a portrait that has already been created. If the display switch is not turned on, the process branches to step S204, and a process of creating a portrait from an actual person image is executed. A. Routine of portrait selection processing First, the routine of portrait selection processing will be described. In step S202, it is determined whether search data has been input. The search data is data for selecting the created portrait and is, for example, personal data. If search data has not been input, the process returns to step S200, and if search data has been input, the process proceeds to step S206 and the corresponding data is searched from the personal data in the work RAM by the search data and displayed on the first display unit 61. indicate.

【0051】ここで、図13はワークRAMの記憶例を
示すもので、例えば人物の個人データに対応して1人ず
つの顔の特徴が、顔の撮像時の経過時間(つまり、最初
に撮像を開始してからの経過時間)T1〜Tn、各経過
時間T1〜Tnに対応するそれぞれの顔画像(A)、顔
画像(B)〜顔画像(N)、顔の各部位毎のパーツパタ
ーン番号、各部位の位置データ(パーツデータ)をパラ
メータとしてそれぞれ所定のエリアに格納されている。
また、この場合、撮像時の経過時間T1〜Tnに対応し
て輪郭、髪、目、・・・等のパーツパターン番号が、例
えばそれぞれ[50]、[02]、[50]、・・・と
いうようにして所定のエリアに格納されているととも
に、輪郭、髪、目、・・・等のパーツの位置データがそ
れぞれ例えば[x1、y1]、[x2、y2]、[x
3、y3]、・・・・というようにして所定のエリアに
格納されている。[x1、y1]、[x2、y2]、
[x3、y3]、・・・・という各値は、画面上の位置
を指定する座標値であり、位置の修正に応じた絶対位置
からの差分データである。したがって、位置の修正がな
い場合には座標値が[0、0]となる。
Here, FIG. 13 shows an example of the storage of the work RAM. For example, the facial features of each person corresponding to the personal data of the person are the elapsed time at the time of photographing the face (that is, the first photographing). T1 to Tn, each face image (A) corresponding to each elapsed time T1 to Tn, face image (B) to face image (N), and a part pattern for each part of the face The number and the position data (parts data) of each part are stored as parameters in predetermined areas.
Further, in this case, the part pattern numbers such as contour, hair, eyes, ... Corresponding to the elapsed times T1 to Tn at the time of imaging are, for example, [50], [02], [50] ,. Thus, the position data of parts such as contours, hairs, eyes, etc. are stored in a predetermined area, for example, [x1, y1], [x2, y2], [x
3, y3], ..., And stored in a predetermined area. [X1, y1], [x2, y2],
The values [x3, y3], ... Are coordinate values that specify the position on the screen, and are difference data from the absolute position according to the correction of the position. Therefore, when the position is not corrected, the coordinate value is [0,0].

【0052】そして、例えば経過時間T1に対応する顔
画像(A)についての各部位毎のパーツパターン番号お
よび各部位の位置データを有する顔の部位としての各パ
ーツパターンをそれぞれ組み合せて合成することによ
り、1つのモンタージュ画像である似顔絵画像が作成さ
れる。したがって、入力された検索データが個人データ
である場合には、該当する個人データを照合し、一致す
る人物のものが選択されて第1表示部61に表示される
ことになる。例えば、個人データとしての 氏名:甲 住所:○○ 電話番号:○○ 血液型:○ 趣味:○○ の何れかが入力されると、該当する人物として図13の
第1番目のエリアに格納されている甲なる人物の個人デ
ータが選択されて第1表示部61に表示される。
Then, for example, by combining and synthesizing each part pattern as a face part having the part pattern number of each part of the face image (A) corresponding to the elapsed time T1 and the position data of each part, respectively. A portrait image, which is one montage image, is created. Therefore, when the input search data is personal data, the corresponding personal data is collated, and the matching personal data is selected and displayed on the first display unit 61. For example, if any of personal name: former address: ○○ telephone number: ○○ blood type: ○ hobby: ○○ is input, it is stored in the first area of FIG. 13 as the corresponding person. The personal data of the person who is instep is selected and displayed on the first display unit 61.

【0053】次いで、ステップS208で顔の撮像時の
経過時間(つまり、最初に撮像を開始してからの経過時
間)を格納するCPU21内のレジスタTを“0”にク
リアするとともに、フラグKを“1”にセットする。フ
ラグKは個人データが入力された場合にセットされ、終
了キーが押された場合にリセットされるものである。次
いで、ステップS210で検索された個人データに対応
する似顔絵画像(モンタージュ画像)の記憶されている
ワークRAMのエリアの中の指定された顔画像データを
読み出して第1表示部61に表示する。これにより、個
人データを基に既に作成された似顔絵の中から1つがピ
ックアップされて表示される。例えば、個人データとし
て上記のように人物甲に関連するデータが入力された場
合には、図13に示す人物甲に対応する撮像時の経過時
間、顔画像、顔の各部位毎のパーツパターン番号、各部
位の位置データ(パーツデータ)を基にした1つの似顔
絵が画像として表示される。したがって、人物甲に対応
する似顔絵は撮像時の経過時間や顔の向き等に応じて複
数のものがあるが、その中の1つが選択されて表示され
ることになる。次いで、ステップS212で終了スイッ
チ(終了キー)がオンしたか否かを判別し、終了スイッ
チがオンしていなければステップS200に戻って同様
のループを繰り返する。そして、最終的に検索データに
対応する所望の似顔絵を第1表示部61に表示させる。
検索データに対応する所望の似顔絵が第1表示部61に
表示されると、ステップS214に進んでフラグKを
“0”にリセットし、ステップS200に戻る。
Then, in step S208, the register T in the CPU 21 which stores the elapsed time during the image pickup of the face (that is, the elapsed time after the first image pickup is started) is cleared to "0", and the flag K is set. Set to "1". The flag K is set when personal data is input, and reset when the end key is pressed. Then, the designated face image data in the area of the work RAM in which the portrait image (montage image ) corresponding to the personal data retrieved in step S210 is stored is read out and displayed on the first display unit 61. As a result, one of the portraits already created based on the personal data is picked up and displayed. For example, when the data related to the human instep as described above is input as the personal data, the elapsed time at the time of imaging corresponding to the instep, the face image, and the part pattern number for each part of the face shown in FIG. , One portrait based on the position data (parts data) of each part is displayed as an image. Therefore, although there are a plurality of portraits corresponding to the person's instep according to the elapsed time at the time of image capturing, the direction of the face, etc., one of them is selected and displayed. Next, in step S212, it is determined whether or not the end switch (end key) is turned on. If the end switch is not turned on, the process returns to step S200 and the same loop is repeated. Then, finally, a desired portrait corresponding to the search data is displayed on the first display unit 61.
When the desired portrait corresponding to the search data is displayed on the first display unit 61, the process proceeds to step S214, the flag K is reset to "0", and the process returns to step S200.

【0054】B.似顔絵作成処理のルーチン ステップS200から分岐してステップS204に進
み、このステップS204でイメージデータを入力す
る。すなわち、入力スイッチ部62の画像入力キーをオ
ンすることより、似顔絵の対象としてCCDカメラ部5
2で撮像したオペレータの顔画像データがビデオ信号と
してイメージデータ入力部23に供給される。これによ
り、イメージデータ入力部に供給された1フィールド分
のビデオ信号がY/C分離部23aからA/D変換部2
3bを介して1画面分のデジタル画像データに変換され
る。次いで、ステップS216でイメージデータ補正を
行う。これにより、デジタル画像データに変換された1
画面分の顔画像データに対して、その背景部分に存在す
る余分な画像データが消去されて補正される。次いで、
ステップS218で入力イメージデータをCPU21か
ら入力画像メモリ28に対して転送して入力画像メモリ
28に記憶するとともに、第2表示部53に表示する。
これにより、CCDカメラ部52によって撮像されたオ
ペレータの顔画像が第2表示部53に表示されることに
なる。
B. The routine of the portrait creation process branches from step S200 and proceeds to step S204, where image data is input. That is, by turning on the image input key of the input switch section 62, the CCD camera section 5 is selected as a portrait object.
The face image data of the operator captured in 2 is supplied to the image data input unit 23 as a video signal. As a result, the video signal for one field supplied to the image data input section is transferred from the Y / C separation section 23a to the A / D conversion section 2.
It is converted into digital image data for one screen via 3b. Next, in step S216, image data correction is performed. By this, 1 converted to digital image data
Excessive image data existing in the background portion of the face image data for the screen is deleted and corrected. Then
In step S218, the input image data is transferred from the CPU 21 to the input image memory 28, stored in the input image memory 28, and displayed on the second display section 53.
As a result, the face image of the operator captured by the CCD camera unit 52 is displayed on the second display unit 53.

【0055】次いで、ステップS220で入力スイッチ
部62のスタートキー(スタートスイッチ)がオンした
か否かを判別する。スタートキーがオンしていればステ
ップS222でフラグPを“1”にセットする。フラグ
Pは撮像されたオペレータの顔画像を取り込む動作を開
始させるためのものである。また、同ステップS222
で撮像時の経過時間を格納するCPU21内のレジスタ
Tを“0”にクリアする。その後、ステップS224に
進む。一方、ステップS220でスタートキーがオンし
ていなければステップS222をジャンプしてステップ
S224に進む。
Next, in step S220, it is determined whether or not the start key (start switch) of the input switch section 62 is turned on. If the start key is on, the flag P is set to "1" in step S222. The flag P is for starting the operation of capturing the imaged face image of the operator. In addition, the same step S222
Then, the register T in the CPU 21 that stores the elapsed time during image capturing is cleared to "0". Then, it progresses to step S224. On the other hand, if the start key is not turned on in step S220, step S222 is skipped and the process proceeds to step S224.

【0056】ステップS224では撮像時の経過時間T
が予め定められた最大値(max)になったか否かを判
別する。最大値(max)は顔の撮像時の経過時間を所
定の値に規制するもので、例えば最初に撮像を開始して
からの最終的な経過時間Tnに対応する値に設定され
る。ステップS224で撮像時の経過時間Tが最大値
(max)に等しくなければステップS100に戻って
同様のループを繰り返す。これにより、CCDカメラ部
52で撮像したオペレータの顔画像データが一定時間間
隔でビデオ信号としてイメージデータ入力部23に供給
され、1画面分のデジタル画像データに変換された後、
補正されて入力画像メモリ28に記憶され、その間の画
像は第2表示部53に表示される。そして、ステップS
224で撮像時の経過時間Tが最大値(max)に等し
くなると、ステップS226に進んでフラグPを“0”
にクリアし、ステップS200に戻る。これにより、C
CDカメラ部52で撮像したオペレータの顔画像データ
の取り込みが終了する。
In step S224, the elapsed time T during image pickup is
Is determined to be a predetermined maximum value (max) or not. The maximum value (max) regulates the elapsed time at the time of imaging the face to a predetermined value, and is set to a value corresponding to the final elapsed time Tn after the first imaging is started, for example. If the elapsed time T at the time of imaging is not equal to the maximum value (max) in step S224, the process returns to step S100 and the same loop is repeated. As a result, the operator's face image data captured by the CCD camera unit 52 is supplied to the image data input unit 23 as a video signal at regular time intervals and converted into digital image data for one screen.
The corrected image is stored in the input image memory 28, and the image in the meantime is displayed on the second display section 53. And step S
When the elapsed time T at the time of imaging becomes equal to the maximum value (max) in 224, the process proceeds to step S226 and the flag P is set to "0".
And the process returns to step S200. This gives C
The capture of the operator's face image data captured by the CD camera unit 52 is completed.

【0057】図14はインターラプト1処理のプログラ
ムを示すフローチャートである。このプログラムは時間
経過に従って動くモンタージュ画像を表示するもので、
割り込みにより一定時間毎に繰り返される。この割り込
みルーチンがスタートすると、まずステップS250で
フラグKが“1”にセットされているか否かを判別す
る。フラグKは個人データが入力された場合にセットさ
れ、終了キーが押された場合にリセットされるものであ
るから、個人データが入力されていればK=1となって
ステップS252に進み、終了キーが押されていればK
=0となって今回のルーチンを終了する。ステップS2
52では画像表示の経過時間Tを[1]だけインクリメ
ントする。次いで、ステップS254でワークRAM3
2内の指定された個人データに対応するエリア内の経過
時間を検索する。例えば、個人データとして人物甲に関
連するデータが入力された場合には、図13に示す人物
甲についてエリア内の経過時間を検索する。ワークRA
M32には図13に示すような各データが格納されてお
り、個人データとして人物甲に関連するデータが入力さ
れれば、今回は人物甲についてエリア内の経過時間T1
〜Tnの項目を検索することになる。
FIG. 14 is a flow chart showing a program for the interrupt 1 processing. This program displays montage images that move over time,
It is repeated at regular intervals by interruption. When this interrupt routine starts, it is first determined in step S250 whether or not the flag K is set to "1". The flag K is set when personal data is input and is reset when the end key is pressed. Therefore, if personal data is input, K = 1 and the process proceeds to step S252 and ends. K if key is pressed
= 0 and the routine of this time is ended. Step S2
At 52, the elapsed time T of image display is incremented by [1]. Next, in step S254, the work RAM 3
The elapsed time in the area corresponding to the designated personal data in 2 is searched. For example, when data related to the person A is input as personal data, the elapsed time in the area is searched for the person A shown in FIG. Work RA
Each data as shown in FIG. 13 is stored in M32. If the data relating to the person A is input as personal data, this time, the elapsed time T1 in the area for the person A is T1.
The item of ~ Tn will be searched.

【0058】次いで、ステップS256で画像表示の経
過時間Tと同一の経過時間(すなわち、T1〜Tn)が
あるか否かを判別する。つまり、画像表示の経過時間T
がT1〜Tnの何れかに等しいか否かを判別する。画像
表示の経過時間TがT1〜Tnの何れかに等しければス
テップS258で対応する顔画像データを指定する。例
えば、画像表示の経過時間TがT1に等しいときは、図
13に示す人物甲についてのエリア内の経過時間T1に
対応する顔画像データが指定され、CPU21によって
取り出されて表示駆動部27あるいは印刷駆動部25に
送られる。これにより、人物甲についての経過時間T1
に対応する似顔絵が第2表示部63に表示される。ま
た、必要に応じて人物甲についての経過時間T1に対応
する似顔絵を印刷することもできる。ステップS258
を経ると、ステップS260に進む。また、ステップS
256で画像表示の経過時間TがT1〜Tnの何れにも
等しくなければステップS258をジャンプしてステッ
プS260に進む。
Then, in step S256, it is determined whether or not there is the same elapsed time (that is, T1 to Tn) as the elapsed time T of image display. That is, the elapsed time T of image display
Is equal to any of T1 to Tn. If the elapsed time T of image display is equal to any of T1 to Tn, the corresponding face image data is designated in step S258. For example, when the elapsed time T of image display is equal to T1, the face image data corresponding to the elapsed time T1 in the area of the person A shown in FIG. It is sent to the drive unit 25. As a result, the elapsed time T1 for the person A
The portrait corresponding to is displayed on the second display unit 63. In addition, a portrait corresponding to the elapsed time T1 of the person A can be printed if necessary. Step S258
After that, the process proceeds to step S260. Also, step S
If the elapsed time T of image display is not equal to any of T1 to Tn in 256, step S258 is skipped and the process proceeds to step S260.

【0059】ステップS260では画像表示の経過時間
Tが予め定められた最大値(max)になったか否かを
判別する。最大値(max)は画像表示の経過時間を所
定の値に規制するもので、例えば図13に示す最終的な
経過時間Tnに対応する値に設定される。ステップS2
60で画像表示の経過時間Tが最大値(max)に等し
くなければ今回のルーチンを終了し、次回の割り込みタ
イミングを待ってルーチンを繰り返す。これにより、次
回のルーチンでは経過時間T2に対応する顔画像データ
が指定され、CPU21によって取り出されて表示駆動
部27あるいは印刷駆動部25に送られることになる。
そして、ステップS260で画像表示の経過時間Tが最
大値(max)に等しくなると、ステップS262に進
んでTを“0”に戻し、今回のルーチンを終了し、次回
の割り込みタイミングを待つ。したがって、例えば個人
データとして[氏名:甲]に関連するデータを入力した
場合には、図13に示す人物甲についてエリア内の経過
時間T1〜Tnが順次検索され、各経過時間T1〜Tn
に対応する画像データが次々に指定されて取り出され、
人物甲に対応する似顔絵が順次第2表示部63に表示さ
れる。また、必要に応じて人物甲についての経過時間T
1〜Tnに対応する似顔絵を順次印刷することもでき
る。
In step S260, it is determined whether the elapsed time T of image display has reached a predetermined maximum value (max). The maximum value (max) regulates the elapsed time of image display to a predetermined value, and is set to a value corresponding to the final elapsed time Tn shown in FIG. 13, for example. Step S2
If the elapsed time T of image display is not equal to the maximum value (max) at 60, the routine of this time is ended, the routine is repeated waiting for the next interrupt timing. As a result, in the next routine, the face image data corresponding to the elapsed time T2 is designated, taken out by the CPU 21, and sent to the display drive unit 27 or the print drive unit 25.
Then, when the elapsed time T of image display becomes equal to the maximum value (max) in step S260, the process proceeds to step S262, T is returned to "0", the routine of this time is ended, and the next interrupt timing is waited. Therefore, for example, when the data related to [name: A] is input as personal data, the elapsed times T1 to Tn in the area are sequentially searched for the person A shown in FIG. 13, and the respective elapsed times T1 to Tn are searched.
Image data corresponding to are specified one after another and taken out,
The portraits corresponding to the human instep are sequentially displayed on the second display unit 63. Also, if necessary, the elapsed time T for the person A
It is also possible to sequentially print portraits corresponding to 1 to Tn.

【0060】図15はインターラプト2処理のプログラ
ムを示すフローチャートである。このプログラムは時間
経過に従って動くモンタージュ画像を作成するもので、
割り込みにより一定時間毎に繰り返される。この割り込
みルーチンがスタートすると、まずステップS300で
フラグPが“1”にセットされているか否かを判別す
る。フラグPは撮像されたオペレータの顔画像を取り込
む動作を開始させるためのものであるから、P=0のと
きは今回のルーチンを終了し、次回の割り込みタイミン
グを待つ。一方、P=1のときはステップS302に進
んで顔画像のパーツパターンに対応して今回のタイマー
時間T(すなわち、今回の計測値)をワークRAM32
の所定エリアにストアする。タイマー時間Tは図13に
示すエリア内の経過時間T1〜Tnに合せるために、本
割り込みルーチンの実行毎にその経過時間を計測するた
めのものである。
FIG. 15 is a flow chart showing a program for the interrupt 2 processing. This program creates montage images that move over time,
It is repeated at regular intervals by interruption. When this interrupt routine starts, it is first determined in step S300 whether the flag P is set to "1". Since the flag P is for starting the operation of capturing the face image of the operator who has been imaged, when P = 0, this routine is ended and the next interrupt timing is awaited. On the other hand, when P = 1, the process proceeds to step S302, and the current timer time T (that is, the current measured value) is set to the work RAM 32 in correspondence with the part pattern of the face image.
Store in a predetermined area. The timer time T is to measure the elapsed time each time the interrupt routine is executed in order to match the elapsed times T1 to Tn in the area shown in FIG.

【0061】次いで、ステップS303でタイマー時間
Tを[1]だけインクリメントする。インクリメントす
る値[1]は、例えば本割り込みルーチンの繰り返し時
間に対応する値である。これにより、最初のルーチンで
はT=[1]となり、エリア内の経過時間T1に対応す
る顔画像を作成する処理が行われる。次いで、ステップ
S304で顔の部位を指定するポインタNを[1]にす
る。次いで、ステップS306で第1表示部61に表示
されたイメージデータの中でN番目の部位を指定する。
したがって、最初はポインタN=[1]に対応して顔の
輪郭から指定され、以後、後述のステップS320でポ
インタNがインクリメントされることにより、髪型、
目、・・・というように指定されていく。次いで、ステ
ップS308でパーツパターンROM30からN番目の
部位パターンおよび特定座標(位置データの座標)を読
み出す。
Next, in step S303, the timer time T is incremented by [1]. The incremented value [1] is, for example, a value corresponding to the repetition time of this interrupt routine. As a result, in the first routine, T = [1], and the process of creating a face image corresponding to the elapsed time T1 in the area is performed. Next, in step S304, the pointer N designating the face part is set to [1]. Next, in step S306, the Nth part in the image data displayed on the first display unit 61 is designated.
Therefore, at first, the hair contour is designated by the contour of the face corresponding to the pointer N = [1], and thereafter, the pointer N is incremented in step S320 to be described.
The eyes are designated as ... Next, in step S308, the Nth part pattern and specific coordinates (coordinates of position data) are read from the parts pattern ROM 30.

【0062】最初のルーチンではポインタN=[1]に
対応して顔の輪郭に対して、図13に示すようなパーツ
パターン番号(例えば、[50])および位置データ
(例えば、[x1、y1])が読み出される。次いで、
ステップS310では指定されたイメージデータの部位
での特定座標に対応する座標を検出する。これにより、
撮像されたオペレータの顔画像に対して、今回のポイン
タN=[1]によって指定された輪郭という部位の座標
が検出される。次いで、ステップS312でパーツパタ
ーンとイメージデータの部位との座標を合せてからその
一致ドット数をカウントする。これにより、今回のポイ
ンタN=[1]のルーチンでは図13のエリアから読み
出した輪郭のパーツパターンとイメージデータの輪郭の
画像とが一致している部分のドット数がカウントされ
る。
In the first routine, the part pattern number (eg, [50]) and position data (eg, [x1, y1] as shown in FIG. 13 corresponding to the pointer N = [1] are set for the contour of the face. ]) Is read. Then
In step S310, the coordinates corresponding to the specific coordinates in the designated part of the image data are detected. This allows
The coordinates of the part called the contour designated by the current pointer N = [1] is detected in the captured face image of the operator. Next, in step S312, the coordinates of the part pattern and the part of the image data are matched, and the number of matching dots is counted. As a result, in the present routine of pointer N = [1], the number of dots in the portion where the contour part pattern read from the area of FIG. 13 and the contour image of the image data match is counted.

【0063】次いで、ステップS314で一致ドット数
と座標の差分をワークRAM32にストアする。これに
より、今回のポインタN=[1]のルーチンでは輪郭の
パーツパターンとイメージデータの輪郭の画像との一致
ドット数および輪郭のパーツパターンとイメージデータ
の各位置の違いに相当する座標の差分がワークRAM3
2にストアされる。次いで、ステップS316で一致ド
ット数の多いパーツパターンの番号(NO.)をワーク
RAM32にストアする。これにより、今回のポインタ
N=[1]のルーチンではイメージデータの輪郭の画像
に対して最も似ている輪郭のパーツパターン番号がワー
クRAM32にストアされ、似顔絵を作成する際の輪郭
という部位のパーツパターンが選択されたことになる。
Then, in step S314, the difference between the number of coincident dots and the coordinates is stored in the work RAM 32. As a result, in the routine of the pointer N = [1] this time, the number of coincident dots between the contour part pattern and the contour image of the image data and the difference in coordinates corresponding to the difference between each position of the contour part pattern and the image data are calculated. Work RAM3
Stored in 2. Next, in step S316, the number (NO.) Of the part pattern having a large number of matching dots is stored in the work RAM 32. As a result, in the routine of the pointer N = [1] this time, the part pattern number of the contour most similar to the contour image of the image data is stored in the work RAM 32, and the part of the portion called the contour when the portrait is created. The pattern has been selected.

【0064】次いで、ステップS318で全部位の指定
を終了したか否かを判別する。終了していなければ、ス
テップS320に進んでポインタNを[1]だけインク
リメントし、ステップS306に戻り、同様のループを
繰り返す。したがって、次のループでは、N=[2]と
なって髪型という部位が指定され、上記同様にして髪型
の画像に対して最も似ている髪型のパーツパターン番号
がワークRAM32にストアされ、似顔絵を作成する際
の髪型という部位のパーツパターンを選択する処理が行
われる。以下同様にして、N=[3]の目、・・・とい
うようにして顔の全部の部位の画像に対して最も似てい
る部位のパーツパターン番号がワークRAM32にスト
アされ、似顔絵を作成する際の全ての部位のパーツパタ
ーンを選択する処理が行われる。
Next, in step S318, it is determined whether or not the designation of all parts has been completed. If not completed, the process proceeds to step S320, the pointer N is incremented by [1], the process returns to step S306, and the same loop is repeated. Therefore, in the next loop, N = [2] is set and the part called the hairstyle is designated. In the same manner as above, the part pattern number of the hairstyle most similar to the hairstyle image is stored in the work RAM 32, and the portrait is drawn. A process of selecting a part pattern of a part called a hairstyle at the time of creating is performed. In the same manner, the part pattern number of the part most similar to the image of all parts of the face is stored in the work RAM 32 in the same manner as N = [3] eyes, ..., And a portrait is created. The process of selecting the part patterns of all the parts at that time is performed.

【0065】そして、全ての部位のパーツパターンの選
択が終了すると、ステップS318の判別結果がYES
となり、割り込みルーチンを終了し、次回の割り込みタ
イミングを待つ。そして、次回の割り込みルーチンでは
ステップS302で顔画像のパーツパターンに対応して
T=[2]となり、エリア内の経過時間T2に対応する
顔画像を作成する処理が行われる。以後同様にして割り
込みルーチンの実行毎にT=[3]、T=[4]、・・
・T=[n]という順で、エリア内の経過時間T2、T
3、T4、・・・Tnに対応する各顔画像を作成する処
理が行われる。このように第2実施例では、オペレータ
の動く顔画像を撮像し、時間の経過に従って顔の向き、
顔の各部位毎のパーツ番号、位置データなどの形で順番
に登録することが行われる。そして、再生時には登録済
みの各パーツ番号等のデータに基づいて予め用意されて
いるパーツパターンを組み合せて顔画像として復元され
る。したがって、いわゆ動くモンタージュ画像である似
顔絵画像が再現することができる。
When the selection of the part patterns for all the parts is completed, the determination result of step S318 is YES.
Then, the interrupt routine is terminated and the next interrupt timing is waited for. Then, in the next interrupt routine, T = [2] corresponding to the part pattern of the face image in step S302, and a process of creating a face image corresponding to the elapsed time T2 in the area is performed. Thereafter, similarly, each time the interrupt routine is executed, T = [3], T = [4], ...
・ Elapsed time T2, T in the area in the order of T = [n]
A process of creating each face image corresponding to 3, T4, ... Tn is performed. As described above, in the second embodiment, a moving face image of the operator is captured, and the orientation of the face according to the passage of time,
Registration is performed in order in the form of part numbers and position data for each part of the face. Then, at the time of reproduction, a part pattern prepared in advance based on the registered data such as each part number is combined and restored as a face image. Therefore, Iwayu moving montage image is similar
A face image can be reproduced.

【0066】例えば、図16(A)に示すように、撮像
開始から経過時間T1のときオペレータの動く顔画像
が、例えば正面の画像として撮像され、撮像画像に対す
るそのときの顔の向き、顔の各部位毎のパーツ番号、位
置データなどが求められて、経過時間T1とともに登録
される。同様に、撮像開始から経過時間T2のときはオ
ペレータの動く顔画像が、例えば正面の画像として撮像
され、撮像画像に対するそのときの顔の向き、顔の各部
位毎のパーツ番号、位置データなどが求められて、経過
時間T2とともに登録される。また、経過時間T3のと
きはオペレータの動く顔画像が、例えば正面の画像とし
て撮像され、撮像画像に対するそのときの顔の向き、顔
の各部位毎のパーツ番号、位置データなどが求められ
て、経過時間T3とともに登録される。なお、オペレー
タが横を向いたときには、例えば側面の画像として撮像
され、撮像画像に対するそのときの顔の向き、顔の各部
位毎のパーツ番号、位置データなどが同様にして求めら
れ、そのときの経過時間Txとともに登録される。
For example, as shown in FIG. 16 (A), a moving face image of an operator is captured as a front image, for example, as a front image at a time T1 from the start of image capturing, and the orientation of the face and the face at that time with respect to the captured image. The part number, position data, etc. for each part are obtained and registered together with the elapsed time T1. Similarly, when the elapsed time T2 has elapsed from the start of imaging, a moving face image of the operator is captured, for example, as a front image, and the orientation of the face at that time with respect to the captured image, the part number of each part of the face, position data, and the like are displayed. It is obtained and registered together with the elapsed time T2. Further, at the elapsed time T3, a moving face image of the operator is captured, for example, as a front image, and the orientation of the face at that time with respect to the captured image, the part number of each part of the face, position data, and the like are obtained. It is registered together with the elapsed time T3. When the operator turns sideways, for example, it is captured as a side image, and the face orientation at that time with respect to the captured image, the part number for each part of the face, position data, etc. are obtained in the same manner. It is registered together with the elapsed time Tx.

【0067】一方、モンタージュ画像の再生時には、最
初に撮像開始からの経過時間がT1のときに対応する登
録済みの顔の向き、顔の各部位毎のパーツ番号、位置デ
ータなどがワークRAM32の対応するエリアから読み
出されてパーツパターンが組み合わされ、16図(A)
に示すような正面のモンタージュ画像として復元され
る。以後同様にして、経過時間T2のときに対応する登
録済みの顔の向き、顔の各部位毎のパーツ番号、位置デ
ータなどがワークRAM32の対応するエリアから読み
出されてパーツパターンが組み合わされ、16図(B)
に示すような正面のモンタージュ画像として復元され
る。また、経過時間T3のときには、対応する登録済み
の顔の向き、顔の各部位毎のパーツ番号、位置データな
どがワークRAM32の対応するエリアから読み出され
てパーツパターンが組み合わされ、16図(C)に示す
ような正面のモンタージュ画像として復元される。した
がって、時間経過に従って登録済みの各パーツ番号等の
データに基づいて予め用意されているパーツパターンを
組み合せることで、オペレータの動く顔画像が復元さ
れ、いわゆる動くモンタージュ画像を再現することがで
きる。
On the other hand, at the time of reproducing the montage image, the orientation of the registered face corresponding to the elapsed time from the start of image capturing for the first time T1 is corresponded to the work RAM 32 with the part number of each face part and the position data. Figure 16 (A)
It is restored as a front montage image as shown in. Thereafter, in the same manner, the registered face orientation corresponding to the elapsed time T2, the part number of each part of the face, the position data, etc. are read from the corresponding area of the work RAM 32 and the part patterns are combined, Figure 16 (B)
It is restored as a front montage image as shown in. Further, at the elapsed time T3, the corresponding registered face orientation, the part number of each part of the face, the position data, etc. are read from the corresponding area of the work RAM 32 and the part patterns are combined, as shown in FIG. It is restored as a front montage image as shown in C). Therefore, the moving face image of the operator is restored by combining the parts patterns prepared in advance based on the data of each registered part number and the like over time, and a so-called moving montage image can be reproduced.

【0068】[0068]

【発明の効果】請求項1の発明によれば、顔画像の再生
に先立って、撮影された顔画像から顔の各部位毎に部分
画像を抽出し、この抽出した部分画像と顔の各部位毎に
予め記憶されている複数種類のパーツ画像とを各部位毎
にそれぞれ比較し、この比較結果に基づいて、前記予め
記憶されている各部位毎のパーツ画像に対応するパーツ
画像指定データと前記部分画像の各部位毎の座標位置デ
ータとを対応付けて、時間の経過に従って順次記憶部に
記憶させることができる。一方、顔画像の再生時におい
ては、前記記憶部から、記憶されている各パーツ画像指
定データに対応するパーツ画像と当該各パーツ画像指定
データに対応付けて記憶されている座標位置データとを
時間の経過に従って順次読み出し、この読み出された各
パーツ画像指定データに対応した位置に前記パーツ画像
をそれぞれ配置してゆき、この配置された各部位毎のパ
ーツ画像を組み合せて作成された似顔絵画像を順次表示
部に表示させることができる。このため、時間の経過に
従って動く似顔絵画像または動くモンタージュ画像を表
示させることができる。
According to the invention of claim 1 , reproduction of a face image
Prior to the above, a partial image is extracted from the photographed face image for each part of the face, and the extracted partial image and a plurality of types of parts images stored in advance for each part of the face are extracted for each part. Based on the comparison result, the part image designation data corresponding to the part image of each part stored in advance and the coordinate position data of each part of the partial image are associated with each other based on the result of the comparison. It can be sequentially stored in the storage unit as time passes. On the other hand, when playing face images
For each part image finger stored in the storage unit,
Sequentially reads out the coordinate position data stored in association with the part image and the respective part image designation data corresponding to Teide over data over time, corresponding to the read out each part image specified data is located It is possible to sequentially display the portrait images, which are created by combining the parts images of the respective parts thus arranged, on the display unit. Therefore, over time
Therefore, it displays moving caricature images or moving montage images.
Can be shown .

【0069】 また、請求項の発明によれば、請求項
1の発明の場合と同様、顔画像の再生に先立って、撮影
された顔画像から顔の各部位毎に部分画像を抽出し、こ
の抽出した部分画像と顔の各部位毎に予め記憶されてい
る複数種類のパーツ画像とを各部位毎にそれぞれ比較
し、この比較結果に基づいて、前記予め記憶されている
各部位毎のパーツ画像に対応するパーツ画像指定データ
と前記部分画像の各部位毎の座標位置データとを対応付
けて、時間の経過に従って順次記憶部に記憶させること
ができる。一方、顔画像の再生時においては、前記記憶
部から、記憶されている各パーツ画像指定データに対応
するパーツ画像と当該各パーツ画像指定データに対応付
けて記憶されている座標位置データとを時間の経過に従
って順次読み出し、この読み出された各パーツ画像指定
データに対応した位置に前記パーツ画像をそれぞれ配置
してゆき、この配置された各部位毎のパーツ画像を組み
合せて作成された似顔絵画像を順次表示部に表示させる
ことができる。このため、時間の経過に従って動く似顔
絵画像または動くモンタージュ画像を表示させることが
できる。
Further, according to the invention of claim 3, claim
As in the case of the first aspect of the invention , prior to the reproduction of the face image, a partial image is extracted for each part of the face from the captured face image, and the extracted partial image and each part of the face are stored in advance. A plurality of types of part images are compared for each part, and based on the comparison result, part image designation data corresponding to the part image for each part stored in advance and each part of the partial image. It can be stored in the storage unit in sequence as time passes in association with the coordinate position data of. On the other hand, at the time of reproducing the face image, the storage unit stores the part image corresponding to each stored part image designation data and the coordinate position data stored in association with each part image designation data. Are sequentially read out according to the progress of, and the parts images are arranged at the positions corresponding to the respective read out parts image designation data, and the portrait image created by combining the parts images of the arranged parts is created. It can be sequentially displayed on the display unit. Therefore, it is possible to display a portrait image or a montage image that moves over time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る顔画像作成装置および顔画像作成
方法を適用した電子手帳の第1実施例の正面図である。
FIG. 1 is a face image creation device and face image creation according to the present invention.
It is a front view of the 1st example of the electronic organizer to which the method is applied.

【図2】同実施例の顔画像作成装置の構成を示すブロッ
ク図である。
FIG. 2 is a block diagram showing a configuration of a face image creating apparatus of the embodiment.

【図3】同実施例のパーツパターンROMに記憶されて
いる顔の各部位のパーツパターンの一例を示す図であ
る。
FIG. 3 is a diagram showing an example of a part pattern of each part of a face stored in a part pattern ROM of the embodiment.

【図4】同実施例のパーツパターンの照合一致ドット数
および順位番号を示す図である。
FIG. 4 is a diagram showing a matching match dot number and a rank number of a part pattern of the embodiment.

【図5】同実施例の個人データの入力・登録処理を行う
処理プログラムを示すフローチャートである。
FIG. 5 is a flow chart showing a processing program for inputting / registering personal data according to the embodiment.

【図6】同実施例の似顔絵作成処理のプログラムの一部
を示すフローチャートである。
FIG. 6 is a flowchart showing a part of a program for portrait creation processing of the embodiment.

【図7】同実施例の似顔絵作成処理のプログラムの一部
を示すフローチャートである。
FIG. 7 is a flowchart showing a part of a program for portrait creation processing of the embodiment.

【図8】同実施例のワークRAMの記憶内容の一例を示
す図である。
FIG. 8 is a diagram showing an example of stored contents of a work RAM of the same embodiment.

【図9】同実施例の顔画像の一例を示す図である。FIG. 9 is a diagram showing an example of a face image of the same embodiment.

【図10】同実施例の顔画像の一例を示す図である。FIG. 10 is a diagram showing an example of a face image of the same embodiment.

【図11】本発明に係る顔画像作成装置および顔画像作
成方法を適用した電子手帳の第2実施例の正面図であ
る。
FIG. 11 is a face image creation device and face image creation according to the present invention.
It is a front view of the 2nd example of the electronic organizer to which the composition method is applied.

【図12】同実施例の似顔絵作成処理のプログラムを示
すフローチャートである。
FIG. 12 is a flowchart showing a program for portrait creation processing according to the embodiment.

【図13】同実施例のワークRAMの記憶内容の一例を
示す図である。
FIG. 13 is a diagram showing an example of stored contents of a work RAM of the same embodiment.

【図14】同実施例のインターラプト1処理のプログラ
ムを示すフローチャートである。
FIG. 14 is a flowchart showing a program for interrupt 1 processing of the same embodiment.

【図15】同実施例のインターラプト2処理のプログラ
ムを示すフローチャートである。
FIG. 15 is a flowchart showing a program for an interrupt 2 process of the same embodiment.

【図16】同実施例の顔画像の一例を示す図である。FIG. 16 is a diagram showing an example of a face image of the embodiment.

【符号の説明】[Explanation of symbols]

1、51 電子手帳 2、52 CCDカメラ部(顔画像取得手段) 3、53 第2表示部 4 データ入力キー 11 第1表示部 12 入力スイッチ部 13 オン/オフキー 14 部位キー 21 CPU 21 キー入力部 23 イメージデータ入力部 24 パターンマッチング部 26 印刷部 28 入力画像メモリ(顔画像データ記憶手段) 29 基本位置メモリ 30 パーツパターンROM(パーツ記憶手段、第2の
記憶手段) 31 ROM 32 ワークRAM(パーツ記憶手段、第1の記憶手
) 101 比較手段 102 作成手段
1,51 electronic notebook 2, 52 CCD camera section (Face image acquisition means) 3,53 Second display 4 Data input key 11 First display 12 Input switch section 13 ON / OFF key 14 part keys 21 CPU 21 Key input section 23 Image data input section 24 Pattern matching section 26 Printing Department 28 Input Image Memory (Face Image Data Storage Means) 29 Basic position memory 30 parts pattern ROM (Parts storage means, second
Means of storage) 31 ROM 32 work RAM (Parts storage means, first memory hand
Step) 101Comparison means 102Means of creation

フロントページの続き (56)参考文献 特開 平2−68666(JP,A) 塩野充 武田哲 村山智彦,顔画像か らの似顔絵作成システム,テレビジョン 学会誌,日本,社団法人テレビジョン学 会,1988年12月20日,Vol.42 N o.12,p1380−1386 (58)調査した分野(Int.Cl.7,DB名) G06T 11/60 - 13/00 Continuation of the front page (56) References JP-A-2-68666 (JP, A) Mitsuo Shiono, Satoshi Takeda, Tomohiko Murayama, portrait drawing system from facial images, Journal of the Television Society of Japan, Japan Television Society, December 20, 1988, Vol. 42 No. 12, p1380-1386 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 11/60-13/00

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 顔画像の再生に先立って、撮影された顔
画像から顔の各部位毎に部分画像を抽出し、この抽出し
た部分画像と顔の各部位毎に予め記憶されている複数種
類のパーツ画像とを各部位毎にそれぞれ比較し、この比
較結果に基づいて、前記予め記憶されている各部位毎の
パーツ画像に対応するパーツ画像指定データと前記部分
画像の各部位毎の座標位置データとを対応付けて、時間
の経過に従って順次記憶部に記憶させる記憶制御手段
と、 顔画像の再生時において、前記記憶部から、記憶されて
いる各パーツ画像指定データに対応するパーツ画像と当
該各パーツ画像指定データに対応付けて記憶されている
座標位置データとを時間の経過に従って順次読み出し、
この読み出された各パーツ画像指定データに対応した位
置に前記パーツ画像をそれぞれ配置してゆき、この配置
された各部位毎のパーツ画像を組み合せて作成された似
顔絵画像を順次表示部に表示させる表示制御手段と、 を備えていることを特徴とする顔画像作成装置。
1. A partial image is extracted from the photographed face image for each part of the face prior to reproduction of the face image, and the extracted partial image and a plurality of types stored in advance for each part of the face. Part images are compared for each part, and based on the comparison result, part image designation data corresponding to the part image for each part stored in advance and coordinate positions for each part of the partial image. Storage control means for associating data with each other and sequentially storing it in a storage unit as time passes, and a part image corresponding to each stored part image designation data stored in the storage unit at the time of reproduction of a face image. Coordinate position data stored in association with each part image designation data is sequentially read out as time passes,
The parts images are arranged at positions corresponding to the read out parts image designation data, and the portrait images created by combining the arranged part images of the respective parts are sequentially displayed on the display unit. A face image creation apparatus comprising: a display control unit.
【請求項2】 前記顔画像は、CCDカメラ、ビデオカ
メラ、イメージスキャナ、電子スチルカメラおよび他の
装置のいずれかから取得した顔画像であることを特徴と
する請求項1に記載の顔画像作成装置。
2. The face image creation according to claim 1, wherein the face image is a face image acquired from any one of a CCD camera, a video camera, an image scanner, an electronic still camera, and another device. apparatus.
【請求項3】 顔画像の再生に先立って、撮影された顔
画像から顔の各部位毎に部分画像を抽出し、この抽出し
た部分画像と顔の各部位毎に予め記憶されている複数種
類のパーツ画像とを各部位毎にそれぞれ比較し、この比
較結果に基づいて、前記予め記憶されている各部位毎の
パーツ画像に対応するパーツ画像指定データと前記部分
画像の各部位毎の座標位置データとを対応付けて、時間
の経過に従って順次記憶部に記憶させる記憶制御ステッ
プと、 顔画像の再生時において、前記記憶部から、記憶されて
いる各パーツ画像指定データに対応するパーツ画像と当
該各パーツ画像指定データに対応付けて記憶されている
座標位置データとを時間の経過に従って順次読み出し、
この読み出された各パーツ画像指定データに対応した位
置に前記パーツ画像をそれぞれ配置してゆき、この配置
された各部位毎のパーツ画像を組み合せて作成された似
顔絵画像を順次表示部に表示させる表示制御ステップ
と、 を備えていることを特徴とする顔画像作成方法。
3. A partial image is extracted from the photographed face image for each part of the face prior to the reproduction of the face image, and a plurality of types are stored in advance for each of the extracted partial image and each part of the face. Part images are compared for each part, and based on the comparison result, part image designation data corresponding to the part image for each part stored in advance and coordinate positions for each part of the partial image. A storage control step of associating the data with each other and sequentially storing the data in the storage unit according to the passage of time; and a part image corresponding to each stored part image designation data stored in the storage unit when the face image is reproduced. Coordinate position data stored in association with each part image designation data is sequentially read out as time passes,
The parts images are arranged at positions corresponding to the read out parts image designation data, and the portrait images created by combining the arranged part images of the respective parts are sequentially displayed on the display unit. A face image creation method comprising: a display control step .
【請求項4】 前記顔画像は、CCDカメラ、ビデオカ
メラ、イメージスキャナ、電子スチルカメラおよび他の
装置のいずれかから取得した顔画像であることを特徴と
する請求項3に記載の顔画像作成方法。
4. The face image creation according to claim 3, wherein the face image is a face image acquired from any one of a CCD camera, a video camera, an image scanner, an electronic still camera, and another device. Method.
JP20986393A 1993-08-02 1993-08-02 Face image creation device and face image creation method Expired - Lifetime JP3477750B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20986393A JP3477750B2 (en) 1993-08-02 1993-08-02 Face image creation device and face image creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20986393A JP3477750B2 (en) 1993-08-02 1993-08-02 Face image creation device and face image creation method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2000232606A Division JP3478255B2 (en) 2000-08-01 2000-08-01 Face image creation device and face image creation control method

Publications (2)

Publication Number Publication Date
JPH0744725A JPH0744725A (en) 1995-02-14
JP3477750B2 true JP3477750B2 (en) 2003-12-10

Family

ID=16579878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20986393A Expired - Lifetime JP3477750B2 (en) 1993-08-02 1993-08-02 Face image creation device and face image creation method

Country Status (1)

Country Link
JP (1) JP3477750B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3773657B2 (en) * 1998-06-18 2006-05-10 株式会社資生堂 Eyebrow deformation system
US7668402B2 (en) * 2004-11-05 2010-02-23 Intergraph Technologies Company Method for generating a composite image
JP2014048767A (en) * 2012-08-30 2014-03-17 Casio Comput Co Ltd Image generating device, image generating method, and program
JP2016126510A (en) * 2014-12-26 2016-07-11 カシオ計算機株式会社 Image generation apparatus, image generation method, and program
WO2022024272A1 (en) 2020-07-29 2022-02-03 日本電気株式会社 Information processing system, data accumulation device, data generation device, information processing method, data accumulation method, data generation method, recording medium, and database

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
塩野充 武田哲 村山智彦,顔画像からの似顔絵作成システム,テレビジョン学会誌,日本,社団法人テレビジョン学会,1988年12月20日,Vol.42 No.12,p1380−1386

Also Published As

Publication number Publication date
JPH0744725A (en) 1995-02-14

Similar Documents

Publication Publication Date Title
US8112712B2 (en) Image editing method, image editing apparatus, program for implementing image editing method, and recording medium recording program
US8508578B2 (en) Image processor, image processing method, recording medium, computer program and semiconductor device
JP3912834B2 (en) Face image correction method, makeup simulation method, makeup method, makeup support apparatus, and foundation transfer film
US7486310B2 (en) Imaging apparatus and image processing method therefor
US6621938B1 (en) Image capture apparatus and method
JPH11503540A (en) Aesthetic imaging system
JP2003244581A (en) Image printing equipment and method, program and printing medium unit
JP2009086703A (en) Image display device, image display method and image display program
JP3444148B2 (en) Eyebrow drawing method
JPH11331693A (en) Method for processing picture and its device
EP2107529A2 (en) Storage medium storing image conversion programm and image conversion apparatus
JP3477750B2 (en) Face image creation device and face image creation method
JP3478255B2 (en) Face image creation device and face image creation control method
US5572656A (en) Portrait drawing apparatus having image data input function
WO2005078659A1 (en) Face image processing system
JP2000196956A (en) Device and method for synthesizing picture
JP2002298078A (en) Character display, its control method, record medium, and program
JPH0823871B2 (en) Make-up simulation system
JP2979717B2 (en) Caricature making device
JP4284447B2 (en) Morphing camera and morphing method
JPH0896111A (en) Device and method for hair style composition
JP2666738B2 (en) Face part data creation device and caricature creation device having face part data creation function
JP3076428B2 (en) 3D shape modeling method
JPH02100768A (en) Illustration producing device
JP2004110728A (en) Portrait creating system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081003

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081003

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091003

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091003

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101003

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 9