JPH06111083A - Video id photosystem - Google Patents

Video id photosystem

Info

Publication number
JPH06111083A
JPH06111083A JP4282163A JP28216392A JPH06111083A JP H06111083 A JPH06111083 A JP H06111083A JP 4282163 A JP4282163 A JP 4282163A JP 28216392 A JP28216392 A JP 28216392A JP H06111083 A JPH06111083 A JP H06111083A
Authority
JP
Japan
Prior art keywords
image
data
character
card
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4282163A
Other languages
Japanese (ja)
Inventor
Junichi Ishibashi
純一 石橋
Toshiyuki Ebihara
利行 海老原
Gen Horie
原 堀江
Shinji Goto
伸二 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP4282163A priority Critical patent/JPH06111083A/en
Publication of JPH06111083A publication Critical patent/JPH06111083A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Input (AREA)

Abstract

PURPOSE:To provide a system for ID card issuance with easy operation and high efficiency. CONSTITUTION:This system is comprised of a photographic means 101 which converts by photographing a face image to image data(GDT), an image data base(DB) 106 which preserves the GDT as a face image data base under correspondence with an ID number(IDN), an input means 112 which inputs the ID list of a person scheduled to be photographed or printed, a second data base(DB) 107 which retrieves by holding the IDN and name information in accordance with the IDN, a means 109 which obtains the name information from the DB 107 based on the IDN list and displays it on a display part 111, a control means 109 provided with a first control function to preserve the GDT obtained at the photographic means 101 in the DB 106 under correspondence with the IDN selected on the IDN list in a photographic mode, and an image processing function to perform image synthesis with an ID card base image by reading out the GDT in accordance with the IDN and character data in sequence of the list in a print mode, and to obtain the ID card image, and a print means 115 which prints an obtained ID card image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はIDカードを作成するた
めのビデオIDフォトシステムに関するものである。
FIELD OF THE INVENTION This invention relates to a video ID photo system for making ID cards.

【0002】[0002]

【従来の技術】文字、数値情報に比べて、画像情報は情
報量が大きなものとなるために記憶容量の制限や、処理
時間等の関係で制約が多く、従って、その利用が限られ
ていた。しかしながら、近年においては画像情報機器の
進歩、発展に伴ってその制約が取り除かれつつある。
2. Description of the Related Art Image information has a large amount of information as compared with character and numerical information, so that there are many restrictions on the storage capacity, processing time, etc., and therefore its use is limited. . However, in recent years, such restrictions have been removed with the progress and development of image information devices.

【0003】ところで、画像が重要な役割を果たす分野
の一つにID(識別)分野がある。特に個人識別の分野
においては、古くから顔写真の重要性が認知されていて
銀鉛写真、インスタント写真などIDの目的で使用して
きた経緯がある。
By the way, one of the fields in which an image plays an important role is an ID (identification) field. Particularly in the field of personal identification, the importance of facial photographs has long been recognized, and there is a history of using them for ID purposes such as silver lead photographs and instant photographs.

【0004】ところが、このような印画紙の情報では、
そのプリントそのもののみにしか情報は存在せず、電子
ファイルにしたり、加工したり、また複製することもで
きず、その応用できる用途が極めて限られたものとなっ
ていた。
However, in the information of such printing paper,
The information exists only in the print itself, and it cannot be converted into an electronic file, processed, or duplicated, and its application is extremely limited.

【0005】このような不具合を除くために、顔写真の
情報を電気信号に変換して扱うことが知られている。例
えば、図39は特開昭63‐316275号公報から引
用したものである。
In order to eliminate such a problem, it is known to convert facial photograph information into an electric signal and handle it. For example, FIG. 39 is cited from Japanese Patent Laid-Open No. 63-316275.

【0006】同図はIDカード作成装置を示しており、
この装置では被写体1をカラーTVカメラ2で撮像し、
これによって得られた画像信号をA/D変換回路3によ
ってディジタル多階調信号に変換して、フレームメモリ
4に一時的に記録する。
FIG. 1 shows an ID card producing device,
In this device, the subject 1 is imaged by the color TV camera 2,
The image signal thus obtained is converted into a digital multi-gradation signal by the A / D conversion circuit 3 and temporarily recorded in the frame memory 4.

【0007】同図はIDカード作成装置を示しており、
この装置では被写体1をカラーTVカメラ2で撮像し、
これによって得られた画像信号をA/D変換回路3によ
ってディジタル多階調信号に変換して、フレームメモリ
4に一時的に記録する。
FIG. 1 shows an ID card producing device,
In this device, the subject 1 is imaged by the color TV camera 2,
The image signal thus obtained is converted into a digital multi-gradation signal by the A / D conversion circuit 3 and temporarily recorded in the frame memory 4.

【0008】5は画信号処理回路で、フルカラービデオ
プリンタに適用されている色材の不正分光吸収要素によ
る色の濁りを除去するための演算などを行うものであ
る。6は装置全体の動作を制御するコントローラ、7は
入力用キーボード、8はフルカラービデオプリンタ部を
示している。
Reference numeral 5 denotes an image signal processing circuit, which performs calculations for removing color turbidity due to an incorrect spectral absorption element of a color material applied to a full-color video printer. 6 is a controller for controlling the operation of the entire apparatus, 7 is an input keyboard, and 8 is a full-color video printer unit.

【0009】キーボード7を操作し、これによってコン
トローラ6でグラフィックス画像や文字画像を発生さ
せ、フレームメモリ4に格納されていた被写体1の人物
画像と合成編集してIDカードの画面を作り、アナログ
変換してTV画像信号にしてからCRTに表示させ、こ
れによって光学像に変換し、これを光学系でカラー印画
紙に結像させ、露光させる。そして、この露光させた印
画紙を現像してプリントアウトさせる。
The keyboard 7 is operated, whereby the controller 6 generates a graphic image or a character image, which is combined with the human image of the subject 1 stored in the frame memory 4 and edited to create a screen of an ID card. After being converted into a TV image signal, it is displayed on a CRT and converted into an optical image, which is imaged on a color photographic paper by an optical system and exposed. Then, the exposed printing paper is developed and printed out.

【0010】このシステムによれば、被写体像を加工し
て文字情報などと共に編集してプリントでき、被写体像
を含む必要情報を1枚のカードにプリントしたかたちで
のIDカードとすることができる。
According to this system, a subject image can be processed, edited and printed together with character information, and the necessary information including the subject image can be printed on one card to form an ID card.

【0011】ところで、顔写真を利用する他の例では、
企業、学校などの団体において所属するメンバーの情報
を管理するためのデータベースがある。このようなデー
タベースシステムの1例として、図40に示すものが知
られている。
By the way, in another example of using a face photograph,
There is a database for managing the information of members who belong to organizations such as companies and schools. As an example of such a database system, the one shown in FIG. 40 is known.

【0012】この装置によれば、スチルビデオレックプ
レーヤ、ビデオカメラやスチルビデオカメラ、ビデオプ
レゼンテーションカメラなどのビデオ撮像装置10から
得られる画像信号をイメージプロセッサ11を介して取
り込んで、モニタ12に表示し、また、データファイル
13に記録して後に検索して表示したり、ビデオプリン
タ14でプリントアウトすることができる。
According to this apparatus, an image signal obtained from a video image pickup apparatus 10 such as a still video recording player, a video camera, a still video camera or a video presentation camera is taken in via an image processor 11 and displayed on a monitor 12. Also, it can be recorded in the data file 13 for later retrieval and display, or can be printed out by the video printer 14.

【0013】このように、ID画像を得るために、カラ
ービデオカメラやスチルビデオカメラなどを用いて1人
1人撮影し、顔画像データベースとして記録保存してい
た。
As described above, in order to obtain an ID image, each person is photographed by using a color video camera, a still video camera or the like, and is recorded and stored as a face image database.

【0014】その時、人物撮影と同時にIDナンバーを
キー入力し、画像データファイル名としてそのIDナン
バーを用いて記録している。
At that time, an ID number is keyed in at the same time as the person is photographed, and the ID number is recorded as the image data file name.

【0015】また、IDカード用のプリントは、カード
地画像データを予めフレームメモリに転送しておき、1
人1人個人別にIDナンバーを入力することによって、
そのナンバーのファイル名を持った各人の顔画像データ
を、顔画像データベースから読み出し、IDカードの所
定の顔画像部にあてがうように転送して1枚の顔画像入
りIDカードの画像を作成した後、フレームメモリ上の
データをビデオ信号にしてビデオプリンタに転送しプリ
ント出力している。
Further, in the print for the ID card, the card image data is transferred to the frame memory in advance, and 1
By entering the ID number for each person,
The face image data of each person having the file name of the number is read from the face image database and transferred so as to be applied to the predetermined face image portion of the ID card to create an image of one face image-containing ID card. After that, the data in the frame memory is converted into a video signal, transferred to a video printer, and printed out.

【0016】[0016]

【発明が解決しようとする課題】企業や学校など多人数
ベースの撮影を行うとき、前もって撮影予定者が決まっ
ているにもかかわらず、撮影時、1人1人被撮影者のI
Dナンバーを入力したり氏名を入力した後に撮影してい
たので、撮影操作が煩雑で時間もかかったりする不具合
や、入力ミスによって、誤って既に入力されていた別の
人のデータの上に記録されたりすることがある。また、
誤ったIDナンバーや氏名で入力したために誤ったファ
イル名として記録される危険もあり、このような場合、
記録した情報がわからなくなり、利用を困難にすると云
った不具合がある。
When a large number of people, such as a company or a school, are to be photographed, even though the person to be photographed is decided in advance, the I of each person to be photographed
Since I was shooting after I entered the D number and name, I recorded it on the data of another person who was already entered by mistake due to a trouble that the shooting operation was complicated and took time, and an input error. It may be done. Also,
There is a risk that it will be recorded as an incorrect file name because you entered with an incorrect ID number or name. In such a case,
There is a problem that it becomes difficult to use because the recorded information is unknown.

【0017】また、IDカード発行のためのプリントの
際にも、発行しようとする1人々々のIDナンバーをオ
ペレータが手操作で入力して行っていた。しかし、1人
当りのプリント処理時間は数十秒程度、要することか
ら、多人数のカードを発行しようとする場合、その作業
に掛かりっきりにならざるを得ず、作業が大変である。
Also, when printing for issuing an ID card, the operator manually inputs the ID numbers of the people who are to issue the ID card. However, since the print processing time for each person is about several tens of seconds, when issuing a card for a large number of people, the work has to be completed and the work is difficult.

【0018】本発明はこのような事情に鑑みて成された
ものであり、その目的とするところは、情報の入力ミス
を防止できると共に、IDカードの発行を手間をかける
ことなく短時間で行うことができるようにした操作簡便
にして高能率なビデオIDフォトシステムを提供するこ
とにある。
The present invention has been made in view of such circumstances, and an object thereof is to prevent an input error of information and to issue an ID card in a short time without trouble. (EN) It is possible to provide a video ID photo system which enables a simple operation and is highly efficient.

【0019】[0019]

【課題を解決するための手段】上記目的を達成するた
め、本発明は次のように構成する。すなわち、顔画像を
撮影して画像データに変換する顔画像撮影手段と、この
画像データを顔画像データベースとしてIDナンバーと
の対応のもとに保存する画像データベースと、撮影また
はプリント予定者のIDナンバーリストを入力する入力
手段と、IDナンバーとこのIDナンバーに該当する氏
名情報とを保持し、検索する第2のデータベースと、上
記IDナンバーリストに基づいて第2のデータベースか
ら氏名情報を得、表示部に表示する手段と、撮影モ−ド
時に上記顔画像撮影手段から得られた画像データを上記
IDナンバーリスト上での選択したIDナンバーに対応
させて上記画像データベースに保存する第1の制御機能
およびプリントモ−ド時に上記IDナンバーのリスト順
に当該IDナンバー対応の画像データと文字データを読
出してIDカード下地画像と共に画像合成してIDカー
ド画像を得る画像処理機能とを有する制御手段と、この
制御手段により合成されたIDカード画像をプリント出
力するプリント手段とより構成した。
In order to achieve the above object, the present invention is configured as follows. That is, a face image capturing means that captures a face image and converts it into image data, an image database that stores this image data as a face image database in correspondence with an ID number, and an ID number of a person who plans to capture or print. A second database for holding and inputting a list, an ID number and name information corresponding to this ID number, and obtaining and displaying name information from the second database based on the above ID number list And a first control function for storing the image data obtained from the face image photographing means in the photographing mode in the image database in association with the selected ID number on the ID number list. In print mode, the image data and character data corresponding to the ID number are listed in the order of the ID numbers listed above. Out control means and an image processing function to obtain an ID card image by image synthesis with the ID card base image, and more configuration and printing means for outputting printing the ID card image combined by the control means.

【0020】[0020]

【作用】このような構成の本システムは、IDナンバー
とこのIDナンバーに該当する氏名情報とを保持し、検
索する第2のデータベースがある。そして、入力手段を
操作して予め、IDナンバーによる予定者リストを作成
して入力しておくと、第2のデータベースはこのIDナ
ンバーに該当する氏名情報とを検索し、表示部はこれを
表示する。従って、表示部に表示された予定者リストの
中から、撮影したい人を指定することができ、この指定
を行ってその人の顔画像を顔画像撮影手段により撮影す
ると、その顔画像は画像データに変換され、制御手段は
IDナンバーとの対応のもとにこの顔画像の画像データ
を画像データベースに保存させる。
The present system having such a structure has a second database which holds and retrieves the ID number and the name information corresponding to this ID number. Then, when the input means is operated to previously create and input the prospective person list by the ID number, the second database searches for the name information corresponding to this ID number, and the display unit displays it. To do. Therefore, the person who wants to photograph can be designated from the list of prospective persons displayed on the display unit, and when this designation is performed and the face image of that person is photographed by the face image photographing means, the face image is image data. And the control means stores the image data of this face image in the image database in correspondence with the ID number.

【0021】プリントするときは、IDナンバーによる
予定者リストを与えることにより、第2のデータベース
はこのIDナンバーに該当する氏名情報とを検索し、こ
れらを文字情報として制御手段に与える。制御手段はI
Dナンバーのリスト順に当該IDナンバー対応の画像デ
ータを読出し、文字データと共にIDカード下地画像に
画像合成してIDカード画像を得ると云った処理を順次
行う。プリント手段は、この制御手段により合成された
IDカード画像を順次プリント出力する。
When printing, a list of prospective persons by ID number is given, so that the second database searches the name information corresponding to this ID number and gives them as character information to the control means. The control means is I
The image data corresponding to the ID number is read in the order of the D number, and the process of obtaining the ID card image by performing image composition on the ID card base image together with the character data is sequentially performed. The printing means sequentially prints out the ID card images synthesized by the control means.

【0022】このように、撮影予定者のIDナンバーリ
ストデータ作成し、そのIDナンバーリストに従って順
に、顔画像を撮影してゆくことにより、IDナンバーと
の対応のもとに、個人々々の画像をデータベースに収集
でき、また、IDカード発行予定者のIDナンバーリス
トデータ作成して与えると、そのIDナンバーリストに
従って順に対応する顔画像とIDナンバーおよび個人名
を含むIDカード画像を作成し、プリントするので、情
報の入力ミスを防止できると共に、IDカードの発行を
手間をかけることなく短時間で行うことができるように
なる等、操作簡便にして高能率なビデオIDフォトシス
テムを提供できる。
In this way, the ID number list data of the person who is going to be photographed is created, and the face images are photographed in order according to the ID number list. Can be collected in a database, and when the ID number list data of the prospective ID card issuer is created and given, an ID card image including the corresponding face image, ID number and individual name is created in accordance with the ID number list and printed. As a result, it is possible to provide a highly efficient video ID photo system that is simple in operation, such as preventing input mistakes of information and being able to issue an ID card in a short time without any trouble.

【0023】[0023]

【実施例】以下、本発明の実施例について、図面を参照
して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0024】始めに、本発明を適用する装置の全体的な
構成例を示す。
First, an example of the overall configuration of an apparatus to which the present invention is applied will be shown.

【0025】(全体的な構成例)本発明システムの全体
的な構成は図1の如きである。すなわち、図1におい
て、101はカラービデオカメラ、102はA/D変換
器、103はフレームメモリ、104はD/A変換器、
105は画像表示部、106は顔画像データベースとな
る画像データベース、107は文字データベース、10
8はフォーマットデータ付カード画像メモリである。1
09はプロセッサであり、コントローラ109a,画像
処理部109b,検索処理部109c,リスト処理部1
09d,レイアウト処理部109eを有する。111は
文字表示部、112はキーボード、114は2値画像メ
モリ、115はビデオプリンタである。
(Overall Configuration Example) The overall configuration of the system of the present invention is as shown in FIG. That is, in FIG. 1, 101 is a color video camera, 102 is an A / D converter, 103 is a frame memory, 104 is a D / A converter,
Reference numeral 105 is an image display unit, 106 is an image database serving as a face image database, 107 is a character database, 10
Reference numeral 8 is a card image memory with format data. 1
A processor 09 includes a controller 109a, an image processing unit 109b, a search processing unit 109c, and a list processing unit 1.
09d, the layout processing unit 109e. Reference numeral 111 is a character display unit, 112 is a keyboard, 114 is a binary image memory, and 115 is a video printer.

【0026】これらのうち、カラービデオカメラ101
は人物の上半身を撮影して画像信号を得るためのもので
あり、A/D変換器102はこのカラービデオカメラ1
01からの出力信号である画像のアナログ信号RGBを
ディジタル信号に変換するためのものである。
Of these, the color video camera 101
Is for capturing the image of the upper half of the person, and the A / D converter 102 is the color video camera 1.
This is for converting the analog signal RGB of the image, which is the output signal from 01, into a digital signal.

【0027】フレームメモリ103はこのA/D変換器
102の出力する信号データをフレーム画像として一時
記憶するためのものであり、D/A変換器104はこの
フレームメモリ103から出力されるディジタル信号を
アナログのビデオ信号に変換して出力するためのもので
ある。
The frame memory 103 is for temporarily storing the signal data output from the A / D converter 102 as a frame image, and the D / A converter 104 stores the digital signal output from the frame memory 103. It is for converting into an analog video signal and outputting.

【0028】また、画像表示部105はこのD/A変換
器104の出力信号を受けて、例えば、NTSC信号に
変換する機能を含み、画像として可視化表示するための
ものである。
The image display unit 105 has a function of receiving the output signal of the D / A converter 104 and converting it into an NTSC signal, for visualizing and displaying as an image.

【0029】また、画像データベース106はフレーム
メモリ103に記録されている人物の顔画像データを記
録し、画像データベースとして保存し、読み出すことが
可能な顔画像用のデータベースであり、文字データベー
ス107はIDナンバーや氏名、所属、性別、生年月
日、入社年月日等の文字データをデータファイルとして
保持するものであり、フォーマットデータ付カード画像
メモリ108はIDカードのベース画像としての画像デ
ータを保持するためのものである。
The image database 106 is a face image database in which the face image data of a person recorded in the frame memory 103 can be recorded and saved as an image database, and the character database 107 can be read. Character data such as number, name, affiliation, gender, date of birth, date of employment is held as a data file, and the card image memory with format data 108 holds image data as a base image of the ID card. It is for.

【0030】プロセッサ109は本発明装置の制御の中
枢を担うものであり、各種制御を司るコントローラ10
9aの制御のもとに、本発明を実現する各種制御や処理
を実施する。このプロセッサ109における画像処理部
109bは詳細は後述する各実施例に委ねるが、文字画
像作成処理機能、画像切出し処理機能、画像合成処理機
能、縮小一覧処理機能、顔色変換処理機能、顔色抽出処
理機能等を有している。また、プロセッサ109におけ
る検索処理部109cは各種データベース106〜10
8より検索を行って必要なデータを抽出するものであ
り、リスト処理部109dはリストに従った必要な処理
を行う機能部であり、レイアウト処理部109eは必要
なレイアウト処理を行う機能部である。
The processor 109 plays a central role in controlling the apparatus of the present invention, and is a controller 10 that controls various controls.
Under the control of 9a, various controls and processes for implementing the present invention are executed. The details of the image processing unit 109b in the processor 109 will be described later in each embodiment. However, a character image creation processing function, an image cutout processing function, an image combination processing function, a reduction list processing function, a face color conversion processing function, a face color extraction processing function. And so on. Further, the search processing unit 109c in the processor 109 uses various databases 106 to 10
8, the list processing unit 109d is a functional unit that performs necessary processing according to the list, and the layout processing unit 109e is a functional unit that performs necessary layout processing. .

【0031】文字表示部111はプロセッサ109から
出力される文字データを受けてこれを例えばNTSC信
号に変換する機能を含み、文字画像として可視化するた
めのものであり、キーボード112は操作者が撮影予定
者のIDナンバーデータをシステムに入力したり、シス
テムコントロールのための指示入力を行うために用い
る。
The character display unit 111 has a function of receiving the character data output from the processor 109 and converting the character data into, for example, an NTSC signal, and is used for visualizing as a character image. It is used to input the ID number data of a person into the system and to input instructions for system control.

【0032】また、ビデオプリンタ115は、D/A変
換器104より出力された画像をシートにカラープリン
トして出力するためのものである。
The video printer 115 is also for color-printing the image output from the D / A converter 104 on a sheet and outputting it.

【0033】本装置は大別すると撮影機能、検索機能、
プリント機能に分けられる。プロセッサ109の機能で
ある画像処理部109bの機能は本発明において重要な
機能であり、他にも種々の機能を持たせてあるが、基本
的には文字画像作成処理機能、画像切出し処理機能、画
像合成処理機能、縮小一覧画像作成処理機能、顔色変換
処理機能、顔色抽出処理機能の6大機能を備えている。
This apparatus is roughly classified into a photographing function, a search function,
It can be divided into print functions. The function of the image processing unit 109b, which is the function of the processor 109, is an important function in the present invention, and various other functions are provided, but basically, a character image creation processing function, an image cutout processing function, The image synthesis processing function, the reduced list image creation processing function, the facial color conversion processing function, and the facial color extraction processing function are provided.

【0034】本発明装置においては、データベースを活
用して使い勝手の良いシステムを実現するが、顔画像デ
ータは(顔)画像データベースメモリ106に、また、
人事情報データは文字データベースメモリ107に、ま
た、プリントするときに必要なIDカード下地画像デー
タや文字、顔画像のレイアウトフォーマットデータはフ
ォーマット付カード画像データメモリ108に保持して
おり、これらはハードディスクや光磁気ディスクなどの
外部メモリに記録保存し、読み出し可能としてある。
In the device of the present invention, a database is utilized to realize a convenient system, but face image data is stored in the (face) image database memory 106, and
The personnel information data is stored in the character database memory 107, and the ID card base image data, characters, and face image layout format data necessary for printing are stored in the formatted card image data memory 108. It can be recorded and stored in an external memory such as a magneto-optical disk and can be read out.

【0035】プロセッサ109における検索処理部10
9cの機能により、データベースを利用してIDナンバ
ーから氏名を検索したり、各人事情報項目から複数人ま
たは1人の人のID顔画像を検索したりすることができ
る。プロセッサ109の機能より、文字表示部111に
は検索キーワードの条件リストや検索した結果の氏名を
はじめとする情報やリスト処理時のIDナンバーと氏名
を表示することができ、検索や照合等を容易にしてい
る。
Search processor 10 in processor 109
With the function of 9c, it is possible to search the name from the ID number using the database and to search the ID face images of a plurality of people or one person from each personnel information item. By the function of the processor 109, the character display unit 111 can display the condition list of the search keyword, the information including the name of the search result, and the ID number and the name at the time of the list processing, which facilitates the search and the matching. I have to.

【0036】プロセッサ109のリスト処理部109d
を設けたことにより、リストによる撮影や、リストによ
るプリント処理を行うことができる用になり、作業の自
動化や作業の省力化に寄与することができる。また、レ
イアウト対応処理部109eを設けたことにより、ID
カードイメージを作成するにあたり、文字・顔画の任意
のレイアウトに対応するレイアウトを容易に行うことが
できるようにしており、作業性改善の一翼を担ってい
る。
List processing unit 109d of processor 109
By providing the list, it is possible to perform shooting by the list and print processing by the list, which can contribute to automation of the work and labor saving of the work. Further, by providing the layout correspondence processing unit 109e, the ID
When creating a card image, it is possible to easily perform layouts that correspond to the desired layout of characters and face drawings, which is one of the factors that contribute to improving workability.

【0037】2値画像メモリ114はプリント時にID
カードイメージ内の文字フォント展開処理に用いるため
のメモリである。
The binary image memory 114 has an ID for printing.
This is a memory used for character font expansion processing in the card image.

【0038】詳細は以下の実施例で詳しく述べるが、本
システムにおいては、「通常の撮影」、「通常のプリン
ト」、「リストに基づく撮影」、「リストに基づくプリ
ント処理」、「顔色を自然な色合いで保存およびプリン
トするための顔色変換処理」、「検索のための入力操作
を容易にするためのキーワード複写機能」、「必要な情
報を容易にピックアップして利用できるようにする縮小
一覧画像表示」、「IDカードのプリントに際して、プ
リント画像の画像データを迅速に生成できる処理機
能」、「文字品位の良いIDカード用画像データの作成
機能」などの各機能を実現する。
Details will be described in detail in the following embodiments. In this system, "normal photographing", "normal printing", "list-based photographing", "list-based print processing", and "complex face color" Face color conversion processing for saving and printing in various colors "," Keyword copying function for facilitating input operation for search "," Reduced list image that makes it easy to pick up and use necessary information " Each function such as "display", "a processing function capable of quickly generating image data of a print image at the time of printing an ID card", and "a function of creating image data for an ID card with good character quality" is realized.

【0039】次に撮影(画像のファイリング)を説明す
る。 (第1実施例)図2は図1の構成のうち、撮影を行う場
合に必要な要素を抽出して示したブロック図であり、図
1のブロック図に対し、点線に書き替わっている要素を
除く、ブロックがここで必要とするブロックである。ま
た、図3は109dのリスト処理部を詳細に示した図で
ある。
Next, photographing (file filing) will be described. (First Embodiment) FIG. 2 is a block diagram showing, in the configuration of FIG. 1, the elements necessary for photographing, which are shown in broken lines in the block diagram of FIG. Blocks are the blocks required here, except for. Further, FIG. 3 is a diagram showing in detail the list processing unit 109d.

【0040】すなわち、101は人物の上半身を撮影す
るためのカラービデオカメラ、102はカラービデオカ
メラ101からの出力信号である画像のアナログ信号R
GBをディジタル信号に変換するA/D変換器、103
はこのA/D変換器102の出力する信号データをフレ
ーム画像として一時記憶するためのフレームメモリ、1
04はこのフレームメモリ103から出力されるディジ
タル信号をアナログのビデオ信号に変換して出力するた
めのD/A変換器、105はこのD/A変換器104の
出力信号を受けて、例えば、NTSC信号に変換する機
能を含み、画像にして可視化するための画像表示部(T
Vモニタ、カラー液晶ディスプレイなど)である。
That is, 101 is a color video camera for photographing the upper half of a person, and 102 is an analog signal R of an image which is an output signal from the color video camera 101.
A / D converter for converting GB into a digital signal, 103
Is a frame memory for temporarily storing the signal data output from the A / D converter 102 as a frame image, 1
Reference numeral 04 denotes a D / A converter for converting a digital signal output from the frame memory 103 into an analog video signal and outputting the analog video signal. Reference numeral 105 denotes an output signal of the D / A converter 104. An image display unit (T which has a function of converting into a signal, and which is visualized as an image.
V monitor, color liquid crystal display, etc.).

【0041】また、106はフレームメモリ103に記
録されている人物の顔画像データを記録し、画像データ
ベースとして保存し、読み出すことが可能な顔画像デー
タベースである。109dのリスト処理部は次の3部に
分けられ、109d1はリスト処理を行うリスト処理制
御部、109d2は撮影予定者のIDナンバーデータを
順序付けて記憶するリストメモリ部、109d3はこの
リストメモリ部109d2のデータをファイルとして記
録退避し、何時でも読み出して使用できるリストデータ
ファイルメモリである。
Reference numeral 106 denotes a face image database in which the face image data of the person recorded in the frame memory 103 is recorded and can be stored and read out as an image database. The list processing unit 109d is divided into the following three units: 109d1 is a list processing control unit that performs list processing, 109d2 is a list memory unit that stores ID number data of prospective photographers in order, and 109d3 is this list memory unit 109d2. This is a list data file memory that can save and save the data of as a file, and read and use it at any time.

【0042】107はデータベースであり、個人情報で
あるIDナンバー、氏名、所属名、役職名、生年月日な
どの情報を文字データベースとして保存し、読み出して
検索したり抽出して利用することが可能なデータベース
である。
Reference numeral 107 denotes a database, which stores personal information such as ID number, name, affiliation name, job title, and date of birth as a character database, which can be read out for retrieval or extraction for use. Database.

【0043】110はデータベース109から読み出さ
れた氏名文字の情報の表示色を変えて、顔画像撮影更新
者であるか新規撮影者であるかを操作者が目視区別でき
るように表示コントロールする表示変換部、111はそ
の文字データを受けて例えばNTSC信号に変換する機
能を含み、文字画像として可視化するための文字表示
部、112は操作者が撮影予定者のIDナンバーデータ
をシステムに入力するときに用いたり、システムコント
ロールするための指示入力に用いるキーボードである。
Reference numeral 110 is a display for changing the display color of the information of the name and character read from the database 109 so that the operator can visually distinguish whether the person is a facial image photograph updater or a new photographer. A conversion unit 111 includes a function of receiving the character data and converting it into, for example, an NTSC signal, and a character display unit 112 for visualizing it as a character image, and 112 when an operator inputs ID number data of a person who is going to shoot into the system. It is a keyboard used for inputting instructions to control the system.

【0044】また、プロセッサ109はリスト作業機能
や氏名表示コントロール、画像データ転送撮影支援コン
トロールなどシステム全体の制御や演算処理などを行う
ものである。それらを図のように接続した構成にしてい
る。
Further, the processor 109 performs control of the entire system such as a list work function, name display control, image data transfer photographing support control, and arithmetic processing. They are connected as shown in the figure.

【0045】次に動作について説明する。Next, the operation will be described.

【0046】先ず基本的な撮影である「通常の撮影」に
ついて説明する。
First, "normal shooting", which is a basic shooting, will be described.

【0047】カラービデオカメラ101によって人物の
顔を含んだ上半身を撮影する。カメラは前もってホワイ
トバランス調整や、レンズの絞り調整や、ピント調整を
しておく。カラービデオカメラ101から出力されたア
ナログビデオ信号RGBはA/D変換器102にてディ
ジタル信号に変換され、フレームメモリ103に順次書
き込まれる。フレームメモリ103に書き込まれたディ
ジタルデータはビデオ信号として出力できるように同期
がとられながら、順次読み出される。
The color video camera 101 photographs the upper body including the face of a person. Adjust the white balance, lens aperture, and focus of the camera beforehand. The analog video signal RGB output from the color video camera 101 is converted into a digital signal by the A / D converter 102 and sequentially written in the frame memory 103. The digital data written in the frame memory 103 is sequentially read while being synchronized so that it can be output as a video signal.

【0048】この読み出されたディジタルデータはD/
A変換器104により、アナログ変換され、NTSC信
号(RGB信号でも良い)に変換されて画像表示部10
5に表示される。その結果、当該画像表示部105によ
り、人物の上半身画像がモニタできる。
The read digital data is D /
The A converter 104 converts the analog signal into an NTSC signal (which may be an RGB signal), and the image display unit 10
It is displayed in 5. As a result, the image display unit 105 can monitor the upper half-body image of the person.

【0049】この画像を見ながら顔画像が適切に撮れる
ように、照明具合いや、カラービデオカメラ101の調
整を行う。
The lighting condition and the color video camera 101 are adjusted so that a face image can be properly captured while viewing this image.

【0050】ID画像として用いる顔画像を撮るには、
先ず撮影中の画像データをフレームメモリ103に取り
込む。フレームメモリ103上の画像データはビデオカ
メラ101のスキャン速度に対応した速度で順次、書き
替えられており、動画像のデータとして保持されてい
る。そこで、フレームメモリ103上にある顔画像を静
止(フリーズ)させるため、プロセッサ109よりフリ
ーズコントロール信号をフレームメモリ103に出力す
る。
To take a face image used as an ID image,
First, the image data being taken is captured in the frame memory 103. The image data in the frame memory 103 is sequentially rewritten at a speed corresponding to the scanning speed of the video camera 101, and is held as moving image data. Therefore, in order to freeze (freeze) the face image on the frame memory 103, the processor 109 outputs a freeze control signal to the frame memory 103.

【0051】操作者はこの動作が行えるように、フリー
ズしたい瞬間、キーボード112より、フリーズコマン
ドをキー入力すれば、この信号を受けてプロセッサ10
9がフレームメモリ103に対し、メモリアドレスコン
トロールすることにより、フレームメモリ103の順次
書き込みデータアドレスカウンタを停止させ、書き込み
不能にする。これによってフレームメモリ103上の画
像データはフリーズコマンドの入力時点での画像に凍結
されることになる。
In order to perform this operation, the operator can input a freeze command from the keyboard 112 at the moment when he wants to freeze, and the processor 10 receives this signal.
The memory address control 9 of the frame memory 103 stops the sequential write data address counter of the frame memory 103 to disable writing. As a result, the image data on the frame memory 103 is frozen to the image at the time of inputting the freeze command.

【0052】しかし、プロセッサ109により、読み込
みデータアドレスコントロールは動作続行させることに
よって、フリーズ操作有無に拘りなく、フレームメモリ
103内の画像データを読み出して、D/A変換器10
4に転送し、ビデオ信号として出力できる。
However, by allowing the processor 109 to continue the read data address control operation, the image data in the frame memory 103 is read out regardless of the presence or absence of the freeze operation, and the D / A converter 10 is read.
4 and can output as a video signal.

【0053】それを画像表示部105に表示することに
より、フリーズ画像が表示されることになり、カメラ画
像の動画像はもちろんのこと、静止画をも見ることがで
きる。 顔画像をフリーズした後、キーボード112よ
りIDナンバーを入力し、保存コマンドを入力すること
により、プロセッサ109はこのIDナンバーをファイ
ル名にして顔画像データベース106に記録保存する。
By displaying it on the image display unit 105, the freeze image is displayed, and not only the moving image of the camera image but also the still image can be viewed. After freezing the face image, by inputting an ID number from the keyboard 112 and inputting a save command, the processor 109 records this ID number as a file name and saves it in the face image database 106.

【0054】以上で、基本的な画像のファイリングにつ
いて説明した。本発明における目的の一つは、なるべく
手間を煩わせること無く、大勢のIDカード発行予定者
の撮影とIDカード発行を行えるようにすることにあ
る。この点について説明する。
The basic filing of images has been described above. One of the objects of the present invention is to enable a large number of prospective ID card issuers to be photographed and ID cards to be issued with as little effort as possible. This point will be described.

【0055】リストを用いて撮影する動作は次の通りで
ある。操作者はIDカード用写真撮影予定者の予約入力
モードにモード設定してから、IDカード用写真撮影予
定者のIDナンバーデータをキーボード112より順次
入力する。
The operation of photographing using the list is as follows. The operator sets the reservation input mode for the ID card photographer in advance and then sequentially inputs the ID number data of the ID card photographer in question from the keyboard 112.

【0056】これによってコントローラ109aは入力
されたIDナンバーデータをリスト処理部109dに送
り、リスト処理部109dではこれを一時保持する。ま
た、コントローラ109aはこのIDナンバーに該当す
る人の氏名や所属等の情報を文字データベースメモリ1
07から読出すべく検索処理部109cを制御し、検索
処理部109cは文字データベースメモリ107からこ
のIDナンバーに該当する人の氏名や所属等の情報を読
み出す。この読み出したデータはリスト処理部109d
により処理されて所定のフォ−マット文字表示部111
に表示させる。
As a result, the controller 109a sends the input ID number data to the list processing unit 109d, and the list processing unit 109d temporarily holds the ID number data. The controller 109a also stores information such as the name and affiliation of the person corresponding to this ID number in the character database memory 1
The search processing unit 109c is controlled to read from 07, and the search processing unit 109c reads information such as the name and affiliation of the person corresponding to this ID number from the character database memory 107. The read data is stored in the list processing unit 109d.
A predetermined format character display unit 111 processed by
To display.

【0057】従って、操作者はこの表示を見てIDナン
バーが正しく入力されたかを確認し、正しければ操作者
は確定操作を行うと、コントローラ109aはIDカー
ド用写真撮影予定者の予約リストにこのIDナンバーを
登録し、次のIDナンバーの入力待ちとなる。IDカー
ド用写真撮影予定者の予約リストは、リストデータファ
イルメモリ109d3に格納される。
Therefore, the operator sees this display and confirms that the ID number has been correctly input. If the operator is correct, the operator performs a confirming operation, and the controller 109a displays this in the reservation list of the person who will take the picture for the ID card. Register the ID number and wait for the input of the next ID number. The reservation list of the ID card photographer is stored in the list data file memory 109d3.

【0058】上述の動作の繰り返しによって次々に予定
者のIDナンバーを登録してゆくが、誤りがあれば、訂
正操作を行って訂正したり、削除したりすることができ
る。撮影予定者のIDナンバーの登録が済むと、これを
もとにした撮影に入る。
By repeating the above-mentioned operation, the ID numbers of the prospective persons are registered one after another, but if there is an error, it is possible to correct or delete it by performing a correction operation. When the ID number of the person who is going to shoot is registered, the shooting starts based on this.

【0059】操作者はキーボード112を操作してリス
ト撮影モードにシステムを設定する。すると、プロセッ
サ109のリスト処理部109dは一時保持したリスト
を出力してコントローラ109aはこれを文字表示部1
11に表示させる。
The operator operates the keyboard 112 to set the system to the list photographing mode. Then, the list processing unit 109d of the processor 109 outputs the temporarily held list, and the controller 109a outputs the list.
11 is displayed.

【0060】すると、このIDナンバーに該当する人の
氏名や所属等の情報をリストデータファイルメモリ10
9d3から入力順に読出すべくコントロールされ、リス
トメモリ部109d2に図4(a)に示すように順次記
録される。このリストデータはこの部分に記録されたま
ま用いるが、日時を変えて撮影したり、このリストに応
じてIDカードプリントを行う場合に、後ほど利用でき
るようにリストデータファイルメモリ109d3に記録
保存する。
Then, information such as the name and affiliation of the person corresponding to this ID number is displayed in the list data file memory 10
It is controlled to read in the order of input from 9d3 and sequentially recorded in the list memory unit 109d2 as shown in FIG. Although this list data is used as it is recorded in this portion, it is recorded and saved in the list data file memory 109d3 so that it can be used later when shooting at different dates and when performing ID card printing according to this list.

【0061】このリスト処理部109dのリストデータ
ファイルメモリ109d3にあるIDナンバーリストに
対応した氏名を、文字データベース107の中から検索
する。文字データベース107内のデータ配置が図4
(b)の如きであると仮定すると、そのデータベースよ
りIDナンバーに対応した氏名が検索される。また、リ
スト処理部109dのIDナンバーリストにあるIDナ
ンバーのファイル名を持つ画像ファイルがあるか否か、
つまり、リスト処理部109dのIDナンバーリストに
あるIDナンバーを持つ人物の顔画像が、画像データベ
ース106の中に既に有るか否かをプロセッサ109a
は検索処理部109cに検索させる。
The character database 107 is searched for the name corresponding to the ID number list in the list data file memory 109d3 of the list processing unit 109d. The data arrangement in the character database 107 is shown in FIG.
Assuming that it is as in (b), the name corresponding to the ID number is retrieved from the database. Whether or not there is an image file having the file name of the ID number in the ID number list of the list processing unit 109d,
That is, the processor 109a determines whether or not the face image of the person having the ID number in the ID number list of the list processing unit 109d is already present in the image database 106.
Causes the search processing unit 109c to search.

【0062】その結果、画像データベース106中に有
る場合には、プロセッサ109aはリスト処理部109
dに対し、更新者として更新マークを判別データとして
付与し(フラグを立てる)、また、無い場合は新規撮影
者として新規マークを判別データとして付与するように
制御し、これによってリスト処理部109dはこれらの
判別デ−タをIDナンバー対応させてリストに記録す
る。これを図4の(a)に示す。例えば、これを図4
(a)では、更、新として区別して示している。
As a result, if it exists in the image database 106, the processor 109a causes the list processing unit 109 to operate.
For d, an update mark is added as the determination data as the updater (a flag is set), and if there is no update mark, a new mark is added as the determination data as a new photographer, whereby the list processing unit 109d These discrimination data are recorded in the list in correspondence with the ID numbers. This is shown in FIG. For example,
In (a), it is shown separately as new and new.

【0063】この判別データ付リストをもとに、表示変
換部110で表示色を変えるために変換する。例えば、
新規は白色に、更新は赤色になるようにコントローラ1
09aはコントロールする。これによって、文字表示部
111では図4(c)のように表示され(ここでは、例
えば、枠で囲んでハッチングを施して示した文字が白色
表示文字、他の文字は赤色表示文字であるとする)、操
作者は撮影予定者か新規撮影か更新撮影であるのか、ま
た、その人の氏名が何であるかを、文字表示部111の
表示を見ることによって確認できる。
Based on this list with discrimination data, the display conversion unit 110 performs conversion to change the display color. For example,
Controller 1 so that new is white and update is red
09a controls. As a result, the characters are displayed on the character display unit 111 as shown in FIG. 4C (here, for example, the characters surrounded by a frame and hatched are white display characters, and the other characters are red display characters. Yes, the operator can confirm whether the person is to be photographed, newly photographed, or updated photographed, and what the name of the person is by looking at the display of the character display unit 111.

【0064】これらの動作はIDナンバー入力後、自動
的に行われるように構成しておく。この表示後、前述の
基本的な撮影操作を操作者が行うことで順次撮影され
る。撮影毎に図4(c)では順次カーソルが移動してゆ
く。ここでは撮影対象者カーソルを矢印マークMで示し
ている。
These operations are configured to be automatically performed after the ID number is input. After this display, the operator performs the above-described basic photographing operation to sequentially photograph. The cursor moves in sequence in FIG. 4 (c) for each shooting. Here, the person to be photographed is indicated by an arrow mark M.

【0065】ここで、順序を変えて撮影できるように、
図4(c)の撮影対象者カーソルMをキーボード112
の操作により、移動させて指定変えすることができ、こ
れによって入力順でなくてとも、撮影できるようにな
る。
Here, in order to shoot in a different order,
The imaging target person cursor M in FIG.
By the operation of, it is possible to move and change the designation, so that it is possible to take a picture even if it is not in the input order.

【0066】また、撮影終了者表示は新規であれば更新
対象者表示と同様になっても良く、また全く別な表示色
にして明示しても良い。このようなコントロールがコン
トローラ109aとリスト処理部109dによって行わ
れる。
If the display of the person who has completed photographing is new, it may be the same as the display of the person to be updated, or may be displayed in a completely different display color. Such control is performed by the controller 109a and the list processing unit 109d.

【0067】この実施例では、IDナンバーリストに対
応した氏名を表示しているが、氏名情報の他、所属名の
情報などと組み合わせて表示できるように構成しても良
い。また、撮影日時も記録し、その情報も表示できるよ
うに構成しても良い。
In this embodiment, the names corresponding to the ID number list are displayed, but the name information may be combined with the name information, and the like. Further, the shooting date and time may be recorded and the information may be displayed.

【0068】このように、第1実施例は撮影予定者のI
Dナンバーリストデータ作成し、そのIDナンバーリス
トによって人物情報データベースから該当者の氏名を検
索し、表示部に表示すると共に、また、そのIDナンバ
ーの顔画像データが顔画像データベース上に有るか無し
かを検索し、その結果によって更新対象者か新規画像入
力予定者かを操作者が判別できるように色別または表示
覧別に表示を変えて氏名文字を表示することで、対象者
の確認をとることができるようになり、また、一覧表示
された撮影対象者のリストをカーソルで選択して撮影に
入ることにより、当該撮影対象者の顔画像をIDナンバ
ーとの対応を以てデータベースに自動ファイリングされ
るようにしたので、撮影をスムーズに行うことができ、
特に撮影対象者リストから順番にIDナンバーをカーソ
ルなどで指定することで、IDナンバーや氏名を撮影時
に操作者がキー入力することなく、撮影実施することが
でき、操作が簡便になって、誰でも容易に使用できるよ
うになり、ミス防止と作業のスピードアップを図ること
ができる。
As described above, in the first embodiment, the I
D number list data is created, the name of the person is searched from the person information database by the ID number list and displayed on the display unit, and whether face image data of that ID number exists in the face image database or not. To confirm the target person by changing the display according to color or display list so that the operator can determine whether the person to be updated or the person who is planning to input a new image based on the search result. In addition, by selecting the list of photographed persons displayed in the list with the cursor to start photographing, the face image of the photographed person is automatically filed in the database in correspondence with the ID number. Because it was set, I can shoot smoothly,
In particular, by specifying the ID numbers in order from the list of persons to be photographed with a cursor or the like, photography can be performed without the operator having to key in the ID number or name at the time of photography, which simplifies the operation and makes it easier for anyone to operate. However, it becomes easier to use, preventing mistakes and speeding up work.

【0069】また、撮影予定者が数多い場合では表示さ
れるリストは撮影予定者名簿としても利用でき、予定者
の氏名確認ができて、作業効率の向上が期待できる。
In addition, when there are a large number of prospective photographers, the displayed list can be used as a prospective photographer list, the names of the prospective persons can be confirmed, and improvement in work efficiency can be expected.

【0070】以上はIDカード撮影予定者リストに基づ
く、対象者の画像ファイル収集に関する実施例であっ
た。次に予定者リストに基づく、IDカード自動発行に
ついて第2実施例として説明する。
The above is the embodiment relating to the collection of the image files of the subject based on the list of prospective photographers of the ID card. Next, automatic ID card issuance based on the prospective person list will be described as a second embodiment.

【0071】(第2実施例)リストに基づくIDカード
のオートプリントシステムを実現するには図1の構成要
素のうち、図5に示す如く、点線のブロックを除いた残
りのブロックを利用する。
(Second Embodiment) In order to realize an automatic printing system for an ID card based on a list, of the constituent elements of FIG. 1, as shown in FIG. 5, the remaining blocks except the dotted line blocks are used.

【0072】この実施例では、第1実施例の構成に対し
て更に次の要素を追加している。IDカードをプリント
するためにビデオプリンタ115を画像表示部105の
ビデオ出力信号に接続する。
In this embodiment, the following elements are added to the structure of the first embodiment. The video printer 115 is connected to the video output signal of the image display unit 105 in order to print the ID card.

【0073】ここでは、リストメモリ部109d2に保
持している撮影予定者リストを、プリント予定者リスト
としてそのまま利用するか、またはリストデータファイ
ルメモリ部109d3に保持させたリストを用いるか、
あるいは新規にキーボード112よりIDナンバーを入
力してリストメモリ部109d2に保持させるかのいず
れかを用いる。
Here, the list of prospective photographers held in the list memory unit 109d2 is used as it is as the prospective print user list, or the list held in the list data file memory unit 109d3 is used.
Alternatively, one of newly inputting the ID number from the keyboard 112 and holding it in the list memory unit 109d2 is used.

【0074】キーボード112によるIDナンバー入力
などは第1実施例と同様の構成や動作であるのでここで
は異なる部分の説明を行う。
Since the input and the like of the ID number by the keyboard 112 has the same structure and operation as those of the first embodiment, only different parts will be explained here.

【0075】リストが用意されるとプリントモードに設
定することにより、自動プリントが可能になるが、プリ
ントに先立ち、IDカードの下地画像を用意する必要が
ある。
When the list is prepared, the print mode is set to enable automatic printing, but it is necessary to prepare the background image of the ID card before printing.

【0076】IDカードの下地画像はカード画像デ−タ
メモリ108に既に用意してあるとすると、操作者によ
るキーボード112の操作によって下地画像の選択抽出
指令を与えることで、コントローラ109aは、カード
画像デ−タメモリ108から指定の下地画像を読出し、
プリントのためにフレームメモリ103にこの下地画像
のデータを転送して保持させる。
If the background image of the ID card is already prepared in the card image data memory 108, the controller 109a causes the controller 109a to give a card image data selection command by operating the keyboard 112 by the operator. -Read the specified background image from the memory 108,
The data of the base image is transferred to and held in the frame memory 103 for printing.

【0077】下地画像はCG画像(コンピュータ・グラ
フィックス画像)のロゴ画像や下地模様などの画像デー
タであり、これによってフレームメモリ103には下地
画像のデ−タが用意される。
The background image is image data such as a logo image or background pattern of a CG image (computer graphics image), and by this, data of the background image is prepared in the frame memory 103.

【0078】次にコントローラ109aはリスト処理部
109dに対し、リストの最初に登録されたIDナンバ
ーをみつけ、コントローラ109aに与えると、コント
ローラ109aはそのIDナンバーの氏名デ−タを文字
デ−タベースメモリ107より検索させるべく、検索処
理部109cに指令を与える。
Next, the controller 109a finds the ID number registered at the beginning of the list in the list processing unit 109d and supplies it to the controller 109a. The controller 109a stores the name data of the ID number in the character database base memory. The search processing unit 109c is instructed to search by 107.

【0079】検索処理部109cはこの指令に基づいて
該当のものを探し、画像処理部109bに与える。ここ
でリスト処理部109dに氏名のリストも用意されてい
るので、それを利用する構成とすることもできる。顔画
像はIDナンバー対応のファイル名を持たせてあるの
で、IDナンバーをキーに画像データベースメモリ10
6から顔画像データを検索することができる。
The search processing unit 109c searches for a corresponding one based on this command and supplies it to the image processing unit 109b. Since a list of names is also prepared in the list processing unit 109d, it can be configured to use it. Since the face image has a file name corresponding to the ID number, the image database memory 10 is used with the ID number as a key.
The face image data can be searched from 6.

【0080】画像処理部109bは文字画像作成部によ
り、氏名データを文字画像データ化し、また、顔画像は
画像切り出し処理部により、顔を中心に必要な領域を切
り出される。そして、画像合成処理部により、下地画像
のどの領域に収めるかそれに応じた領域情報が発生さ
れ、コントローラ109aはこの情報に応じてフレーム
メモリ103上の下地画像データにおける所用の領域の
下地画像を除去し、また、文字画像データ化した氏名デ
ータと、切り出した顔画像のデータとをこのフレームメ
モリ103上の下地画像データにおける上記所用の領域
の書き込みアドレスを制御しながら、書き込む。
In the image processing unit 109b, the character image creating unit converts the name data into character image data, and the face image is cut out by the image cutout processing unit into a necessary area centering on the face. Then, the image synthesizing processing unit generates area information corresponding to which area of the background image to fit, and the controller 109a removes the background image of the required area in the background image data on the frame memory 103 according to this information. Further, the name data converted into character image data and the cut-out face image data are written while controlling the write address of the required area in the background image data on the frame memory 103.

【0081】顔画像と文字画像データ化された氏名は、
フレームメモリ103の所定画像位置に書き込まれるこ
とにより、IDカード画像が完成する。
The names converted into face image and character image data are
The ID card image is completed by being written in a predetermined image position in the frame memory 103.

【0082】IDカード画像がフレームメモリ103上
に作成されると、コントローラ109aはフレームメモ
リ103のデータを順に読出す。この読み出されたデー
タはD/A変換部104によってアナログ信号に変換さ
れ、ビデオ信号化されて画像表示部105に与えられ、
ここにIDカード画像が表示されることにより、操作者
はモニタすることができる。
When the ID card image is created on the frame memory 103, the controller 109a sequentially reads the data in the frame memory 103. The read data is converted into an analog signal by the D / A conversion unit 104, converted into a video signal, and given to the image display unit 105.
By displaying the ID card image here, the operator can monitor.

【0083】また、同時に上記のビデオ信号はビデオプ
リンタ115にも送られてフェッチされ、このビデオプ
リンタ115からIDカード画像がシートにプリントさ
れて出力される。
At the same time, the above video signal is also sent to the video printer 115 and fetched, and the ID card image is printed on a sheet and output from the video printer 115.

【0084】一枚の画像のプリントが済むと、コントロ
ーラ109aはフレームメモリ103の画像データをク
リアし、ロゴ画像などを含む下地画像のデータを再び転
送する。
When the printing of one image is completed, the controller 109a clears the image data in the frame memory 103 and transfers the background image data including the logo image again.

【0085】そして、次にコントローラ109aは、上
記リストの次の順位の人のIDナンバーに対する上述の
ような処理を実施させ、プリントを行わせる。このよう
な動作を繰り返してリストの最後のIDナンバーのもの
についてプリントが終了すると、コントローラ109a
は処理を終了する。
Then, the controller 109a causes the ID number of the person in the next rank on the list to be subjected to the above-described processing and printing. When the printing for the last ID number in the list is completed by repeating such operations, the controller 109a
Ends the process.

【0086】このような動作をIDナンバーリスト入力
後、または、リストデータをリストメモリ部109d2
に転送後、自動的に行われるように構成することもでき
る。
Such an operation is performed after the ID number list is input, or the list data is stored in the list memory unit 109d2.
It can be configured to be automatically performed after the transfer.

【0087】なお、当然のことながら、上述のようなリ
ストによる自動プリントモ−ドの他、リストを使用しな
いマニュアルプリントモードも設定でき、この場合、プ
リント時にIDナンバーをキー入力することで、リスト
外の人物のIDカードをプリントすることもできる。
Of course, in addition to the automatic print mode based on the list as described above, a manual print mode that does not use the list can be set. In this case, by entering the ID number at the time of printing, the outside of the list can be set. It is also possible to print the ID card of the person.

【0088】このように、第2実施例はプリント対象者
のIDナンバーリストデータを作成しておき、このリス
トに従って顔画像データファイルから対象者の顔画像を
読出し、また、文字データベースから氏名等の必要な情
報を読出し、これをIDカードの下地画像と合成してプ
リンタによりプリントさせるようにしたものである。
As described above, in the second embodiment, the ID number list data of the print target person is created, the face image of the target person is read from the face image data file according to this list, and the name and the like are read from the character database. The necessary information is read out, combined with the background image of the ID card, and printed by the printer.

【0089】そして、そのIDナンバーに該当する人物
の画像と氏名などの必要情報は、対応を持たせてデータ
ベースに保存しておくことで、プリント対象者リストに
基づき、順番に該当人物の画像と氏名を読出し、下地画
像と合成して自動的にプリントしてゆくことから、多人
数分のIDカードのプリントであっても、リストさえ用
意すればそのリストに基づいて自動的に行うことができ
る。
The image of the person corresponding to the ID number and necessary information such as the name are stored in the database in association with each other, so that the image of the person is sequentially displayed based on the print target person list. Since the name is read out, and it is automatically printed after being combined with the background image, even if printing ID cards for a large number of people, it is possible to automatically perform printing based on that list if a list is prepared. .

【0090】従って、操作者がシステムに付きっきりと
なっていたところも、人手はプリント実施前のリスト入
力キー操作のみで済むようになり、省力化を図ることが
できる。
Therefore, even when the operator is always attached to the system, the operator only needs to operate the list input key before printing, and labor can be saved.

【0091】以上の実施例はIDカード発行予定者の撮
影とプリントに関するものであった。IDカードでは人
物の写真をカラー写真としているので、その色合いが重
要である。すなわち、IDカードでは人物像をカラービ
デオカメラで撮像して得るが、カメラの調整がきちんと
されていないと、実際とかなり異なった色合いの人物写
真となる。従って、撮影前に調整を行うが、温度や照明
の具合により微妙な調整作業が必要であり、誰でもが手
軽に操作できると云ったものとは程遠い。
The above embodiments relate to photographing and printing of prospective ID card issuers. In the ID card, the photograph of the person is a color photograph, so the hue is important. That is, with an ID card, a person image is taken by a color video camera, but if the camera is not properly adjusted, a person photograph with a hue considerably different from the actual one will be obtained. Therefore, the adjustment is performed before the photographing, but a delicate adjustment work is necessary depending on the temperature and the condition of the illumination, and it is far from the thing that anyone can easily operate.

【0092】IDカードの発行は事務担当者が行うこと
から、撮影の専門家でない事務担当者にとって、色合い
の調整は甚だ厄介なものである。そして、調整が旨くゆ
かないと、カラー人物像は酷い色合いになり、見た目に
も快いものではないばかりか、IDカードは常時、胸に
装着して利用するものであるだけに、品位が疑われる。
Since the clerical staff issues the ID card, it is very troublesome for the clerical staff who are not experts in photography to adjust the color tone. If the adjustment is not done properly, the color image will have a terrible color tone and it will not be pleasing to the eye, and the quality will be suspected because the ID card is always worn on the chest for use. .

【0093】そこで、調整が旨くゆかない場合であって
も、自然な色合いのカラー画像として利用できるように
する色補正機能を持ったビデオIDフォトシステムの実
施例を第3実施例として説明する。
Therefore, an embodiment of a video ID photo system having a color correction function that enables the use of a color image having a natural color tone even if adjustment is not successful will be described as a third embodiment.

【0094】(第3実施例)ここでは、カラービデオカ
メラ101から出力されるカラー画像信号のうち、肌色
と色相の近い色についてのみ色相の回転を行うことによ
り、ポートレイト(人物写真)の肌の色の補正を行うよ
うにするか(色相がある程度調整されているカメラの出
力を用いる場合)、または、ポートレイトの肌色はポー
トレイトからサンプリングした複数の画素のうち、その
画素の色に近い色の画素を周囲に最も多く持つ画素の色
とするようにし、この画素の色が肌色の色相になるよう
に色相の回転を行うことで、ポートレイトの肌の色の補
正を行うようにする(色相が未調整のカメラの出力を用
いる場合)ことにより、違和感のない色合いの人物画像
を得るようにする。
(Third Embodiment) Here, in the color image signal output from the color video camera 101, the hue is rotated only for a color having a hue close to that of the skin color, so that a portrait (portrait) skin is obtained. Color correction (when using the output of a camera whose hue is adjusted to some extent), or the skin color of the portrait is close to the color of that pixel among the multiple pixels sampled from the portrait. The color of the pixel having the largest number of surrounding pixels is set, and the hue is rotated so that the color of this pixel becomes the hue of the skin color, thereby correcting the portrait skin color. (When the output of the camera whose hue is not adjusted is used), a person image with a hue that is not unnatural is obtained.

【0095】デジタル化されたカラー用の顔画像情報を
用いてID用のプリントを作成するIDカード作成シス
テムにおいて、その顔画像の色補正を行う技術として
は、画像データのRGB(赤色、緑色、青色)の各プレ
ーンのγ特性を変えることによって色の調整を行うこと
や、画像データの色相成分を回転することによって色の
調整を行うものが考えられる。
In an ID card creating system for creating an ID print using digitized color face image information, a technique for correcting the color of the face image is RGB (red, green, It is conceivable that the color is adjusted by changing the γ characteristic of each plane of (blue) or the color is adjusted by rotating the hue component of the image data.

【0096】色変換の移動量の決定方法としては、ま
ず、色調整前の画像から顔の肌の色を抽出し、これを起
点の色とし、一方、画像出力装置(プリンタなど)で、
奇麗な肌色となる色を終点の色とし、この、起点の色を
終点の色にするように色調整の特性を設定する。この設
定により、画像内の殆ど全ての色が別の色に変換され
る。
As a method of determining the movement amount of color conversion, first, the skin color of the face is extracted from the image before color adjustment, and this is used as the starting color, while the image output device (printer or the like)
The color that becomes a beautiful skin color is set as the end point color, and the color adjustment characteristics are set so that the starting color is the end point color. With this setting, almost all colors in the image are converted to other colors.

【0097】肌色を抽出する方法としては、エッジ抽出
などの画像処理技術を用い、顔の領域を認識して頬や額
等の色を読み出すことで実現できる。
As a method of extracting the flesh color, an image processing technique such as edge extraction is used, and it can be realized by recognizing the face area and reading out the color of the cheek, the forehead and the like.

【0098】ところで、上述した色補性の手法では、肌
色を中心に全ての色が変わるものであり、肌色が所定の
色に変換されても、他の色が不適切な色になってしま
い、元の色よりもかえって悪い印象を与える虞れがあ
る。
By the way, in the above-described color complementation method, all the colors change centering on the skin color, and even if the skin color is converted into a predetermined color, the other colors become inappropriate colors. , It may give a bad impression rather than the original color.

【0099】図6はHSV色空間(Hは色相、Sは彩
度、Vは明度)をVの軸に垂直な面に投影したものであ
る。ここでHSV色空間とは図7に示すように、色相を
外周、明度を縦軸、彩度を中心からの軸とした立体で表
した空間である。
FIG. 6 shows the HSV color space (H is a hue, S is a saturation, and V is a brightness) projected on a plane perpendicular to the V axis. Here, as shown in FIG. 7, the HSV color space is a three-dimensional space in which the hue is the outer circumference, the brightness is the vertical axis, and the saturation is the axis from the center.

【0100】色相、明度、彩度の三要素を色の三属性と
呼ぶが、この三属性で作られる空間において、中心軸が
明るさ、つまり、彩度0の白−灰色−黒の軸(グレーレ
ベルの軸)であり、彩度は鮮やかさであって、彩度が最
大である色は外周円上に存在している。色相は「赤」、
「黄」、「青」、「緑」と云った「色み」であり、外周
円上に順に並んで色彩の輪を作っている。
The three elements of hue, lightness, and saturation are called three attributes of color. In the space created by these three attributes, the central axis is brightness, that is, the white-gray-black axis of saturation 0 ( (Gray level axis), the saturation is vivid, and the color with the maximum saturation exists on the outer circle. The hue is "red",
They are "colors" called "yellow", "blue", and "green", and they are arranged in order on the outer circle to form a circle of colors.

【0101】従って、カラー画像のある画素に着目して
みると、その画素はHSV色空間のある位置に該当する
ことになるが、その位置から、色相の輪に沿って所定量
シフトしてみると、そのシフト後の位置における色相の
色みに補正されたことになる。つまり、このような補正
をすることで、色みを変えることができ、カラー画像を
全体的に所望の色みに補正することが可能になる。
Therefore, when focusing on a certain pixel in the color image, that pixel corresponds to a certain position in the HSV color space, but from that position, a certain amount of shift is made along the circle of hues. Then, it is corrected to the hue of the hue at the position after the shift. That is, by performing such correction, it is possible to change the tint, and it is possible to correct the color image as a whole to the desired tint.

【0102】しかしながら、例えば、図6(a)のよう
なある2つの色相A、Bが、色再現系を一回りしたとき
に、本来は元の位置に戻ることになれば、この場合は忠
実な色相が再現したことになるが、図6(b)に示すよ
うにそれぞれ色相A′、B′となることがあり、この場
合は元の色相からずれた色相となってしまったことを意
味し、しかも、一様な色相シフトではなく、偏りが生じ
てしまうことになる。
However, for example, if two hues A and B as shown in FIG. 6A originally return to their original positions when they go around the color reproduction system, in this case, Although the hues are reproduced, the hues may be hues A ′ and B ′, respectively, as shown in FIG. 6B. In this case, it means that the hues deviate from the original hues. In addition, not a uniform hue shift but a bias occurs.

【0103】すなわち、色相が単純に回転しているので
はなく、偏ってしまう場合もあり、このような色再現系
においては、単純に肌色が合うように全体の色相を回転
したのでは、かえってずれてしまう色があり、好ましく
ない。
That is, the hue may not be simply rotated but may be biased. In such a color reproduction system, the entire hue may simply be rotated so that the skin color matches. Some colors are displaced, which is not preferable.

【0104】さらに、上述の手法では色補正の終点の色
が固定、つまり、肌色該当画素の色相を肌色の色相にシ
フトさせると云った色補正であるため、老若男女の区別
なく同じ顔色になってしまうと云う問題が残る。
Further, in the above method, the end color of the color correction is fixed, that is, the hue of the pixel corresponding to the flesh color is shifted to the hue of the flesh color. The problem that it will end up remains.

【0105】そこで、本実施例では肌色を中心にした限
られた色領域内の画像データについてのみ色補正を行う
ことにした。
Therefore, in this embodiment, the color correction is performed only on the image data in the limited color area centering on the skin color.

【0106】また、顔画像から起点色である肌色を抽出
するには、顔画像を適当な間隔でスキャンし、その点の
色に近い色の広がりを計数し、最も広かった点の色をそ
の画像の顔色とすることにした。
To extract the skin color which is the starting point color from the face image, the face image is scanned at appropriate intervals, the color spread near the color of that point is counted, and the color of the widest point is extracted. I decided to use the complexion of the image.

【0107】さらに終点色は、IDカードシステムが持
つ個人データベースに記録されている個人の年齢、性
別、人種などの情報に応じて変化するようにした。すな
わち、年齢、性別、人種などの情報をもとに予め用意し
ておいた複数の肌色のなかから選択したり、表を参照し
たり、その表の近似式を用いて計算したりして求めるよ
うにした。終点色の肌色のデータは予め統計的手法とア
ンケートなどによって求めておくことによって、より適
切な肌色再現を行うことができる。
Further, the end point color is changed according to the information such as the age, sex and race of the individual recorded in the personal database of the ID card system. That is, you can select from multiple skin colors prepared in advance based on information such as age, sex, race, refer to the table, or calculate using the approximate formula of the table. I tried to ask. By obtaining the skin color data of the end point color in advance by a statistical method and a questionnaire, more appropriate skin color reproduction can be performed.

【0108】本実施例では肌色を中心にした限られた色
領域内の画像データについてのみ、色補正を行うが、こ
れは原理的には図8のようにする。
In this embodiment, the color correction is performed only on the image data in the limited color area centering on the skin color. In principle, this is done as shown in FIG.

【0109】図8はHSV色空間をVの軸に垂直な面に
投影したものである。中心oが彩度0の白−灰色−黒の
軸であり、彩度が最大である色は円周上に存在してい
る。人物画像(ポートレイト)のデ−タの顔色部分にお
ける色相の方向をs、到達色の色相の方向(つまり、肌
色の色相の方向)をdとする。
FIG. 8 shows the HSV color space projected onto a plane perpendicular to the V axis. The center o is the white-gray-black axis with saturation 0, and the color with maximum saturation lies on the circumference. It is assumed that the hue direction in the face color portion of the data of the person image (portrait) is s, and the hue direction of the reaching color (that is, the skin color hue direction) is d.

【0110】この実施例では、角sod(sod≦18
0°)の両外側に、任意の角度αおよびβを付加した範
囲内のみ色相を変換し、それ以外の範囲では色相の変換
をしないようにする。
In this embodiment, the angle sod (sod ≦ 18
The hue is converted only within a range in which arbitrary angles α and β are added to both outsides of 0 °), and the hue is not converted in other ranges.

【0111】図9は本実施例(第3実施例)の概念を表
すシステムブロック図である。
FIG. 9 is a system block diagram showing the concept of this embodiment (third embodiment).

【0112】本実施例が行う処理は大きく2つに分けら
れる。その1つは画像データの肌色と終点色とから色相
変換特性を作成する処理であり、もう1つは全画像デー
タを色相変換特性に従って変換する処理である。
The processing performed by this embodiment is roughly divided into two. One is a process of creating a hue conversion characteristic from the skin color and the end point color of the image data, and the other is a process of converting all the image data according to the hue conversion characteristic.

【0113】個人データ記憶部21には各個人の性別や
年齢等のデータ22や、顔画像データ23が記憶されて
いる。
The personal data storage unit 21 stores data 22, such as sex and age of each individual, and face image data 23.

【0114】到達色計算部24は個人データ記憶部21
からの性別、年齢、人種などのデータで到達色色相デー
タベース25を検索し、到達色の色相値を色相変換特性
計算部26に渡す。
The reaching color calculation unit 24 is the personal data storage unit 21.
The reached hue hue database 25 is searched with data such as sex, age, race, etc., and the hue value of the reached color is passed to the hue conversion characteristic calculation unit 26.

【0115】簡単な、到達色色相データベースは表1に
示すような表である。
A simple, reaching hue database is as shown in Table 1.

【0116】 この表は入力が年齢と性別であり、出力がビデオプリン
タに入力すべき肌色の色相の角度(0°から360°)
である。例えば、26才の男性の場合、肌色の色相17
°としてビデオプリンタに入力すれば、平均的な26才
の男性にふさわしい肌色がプリントできることを示して
いる。
[0116] In this table, the input is age and sex, and the output is the angle of the hue of the skin color that should be input to the video printer (0 ° to 360 °)
Is. For example, in the case of a 26-year-old man, the hue of skin color is 17
It shows that a skin tone suitable for an average 26-year-old man can be printed by inputting “°” to a video printer.

【0117】一方、顔色抽出部27は顔画像データ23
を読み込み、後述する方法によって顔の代表的な肌色を
抽出する。この肌色データはRGBの信号強度で表され
ているので、RGB信号のデータから色相のデータに変
換するRGB→色相変換部28によって色相を求め、起
点色の情報として色相変換特性計算部26に渡す。
On the other hand, the face color extraction section 27 uses the face image data 23.
And a typical skin color of the face is extracted by the method described later. Since this flesh color data is represented by the RGB signal strength, the RGB → hue conversion unit 28 that converts the RGB signal data into the hue data determines the hue and passes it to the hue conversion characteristic calculation unit 26 as the starting point color information. .

【0118】色相変換特性計算部26は、RGB→色相
変換部28から入力された起点色の情報と、到達色計算
部24からの到達色情報とから、後述する方法によって
色相変換特性を決定する。
The hue conversion characteristic calculation unit 26 determines the hue conversion characteristic by the method described later from the information of the starting color input from the RGB → hue conversion unit 28 and the arrival color information from the arrival color calculation unit 24. .

【0119】RGB→HSV変換器29はRGB信号の
データをHSVデータに変換するためのもので、個人デ
ータ記憶部21から与えられた顔画像データ23は、こ
のRGB→HSV変換器29によってRGBデータから
HSVデータ(色相,彩度,明度のデータ)に変換され
る。色相変換部30は色相変換特性計算部26によって
決定された色相変換特性によって、HSVデータの色相
成分を変換するものであり、RGB→HSV変換器29
によってRGBデータからHSVデータに変換された画
像の色相成分が上記色相変換特性に対応して変換され
る。
The RGB → HSV converter 29 is for converting RGB signal data into HSV data. The face image data 23 provided from the personal data storage unit 21 is converted into RGB data by the RGB → HSV converter 29. To HSV data (hue, saturation, lightness data). The hue conversion unit 30 converts the hue component of the HSV data according to the hue conversion characteristic determined by the hue conversion characteristic calculation unit 26, and the RGB → HSV converter 29.
The hue component of the image converted from the RGB data to the HSV data is converted according to the hue conversion characteristic.

【0120】色相を変換された画像データは、HSVデ
ータをRGB信号のデータに変換するためのHSV→R
GB変換器31によって再びRGBの信号強度のデータ
に戻され、保存表示部32に送られ、画像ファイルとし
て記憶されたり、フレームメモリに書き込まれて表示し
たり、あるいはプリントしたりして利用する。
The image data whose hue has been converted is HSV → R for converting HSV data into RGB signal data.
The RGB converter 31 restores the RGB signal strength data again, sends it to the storage display unit 32, and stores it as an image file, writes it in a frame memory for display, or prints it.

【0121】顔色抽出部27は、2枚のフレームメモリ
を有し、一方のフレームメモリには画像データ23を取
り込むと共に、他方のフレームメモリには基準画素の色
相に対して所定範囲内にある色相の値を持つ画素の位置
対応にビットを立てるようにしてほぼ同一色相の画素の
分布を調べるために用いる。
The face color extraction section 27 has two frame memories, one frame memory for fetching the image data 23, and the other frame memory for a hue within a predetermined range with respect to the hue of the reference pixel. It is used to check the distribution of pixels having substantially the same hue by setting a bit corresponding to the position of the pixel having the value of.

【0122】そして、顔色抽出部27は、上記一方のフ
レームメモリに対して、マニュアル設定で予めほぼ顔の
領域を覆うように領域設定された範囲内で画像データ
(フレーム画像)23を走査し、画素をサンプリングす
る(図10(a)の格子点の範囲)。
Then, the facial color extraction unit 27 scans the image data (frame image) 23 in the one of the frame memories within a range set by the manual setting so as to cover almost the facial area in advance. Pixels are sampled (range of grid points in FIG. 10A).

【0123】すなわち、ID画像の場合、顔画像は同じ
ような人物サイズおよびアングル、レイアウトで画面に
収まるように撮影されているので、図10(a)に示す
ように画面の特定座標領域を予め定めておくと、顔画像
を別の人のものと入れ替えても、その領域に人物の顔の
領域の大部分が含まれるようになる。この予め定めた格
子状の特定座標領域を顔走査領域と呼ぶことにする。
That is, in the case of the ID image, since the face image is photographed so as to fit on the screen with the same person size, angle, and layout, the specific coordinate area of the screen is set in advance as shown in FIG. If it is defined, even if the face image is replaced with that of another person, the area will include most of the person's face area. This predetermined grid-shaped specific coordinate area will be referred to as a face scanning area.

【0124】そして、顔色抽出部27は、上記一方のフ
レームメモリの顔走査領域における任意の一画素を抽出
し、その画素を基準画素として、当該基準画素のRGB
信号強度と同一または近似するRGB信号強度を持つ画
素を、顔走査領域において見付ける。そして、その見付
けた画素の画素位置対応させて、上記他方のフレームメ
モリ上にプロットする。そして、そのプロットした画素
数をカウントする。
Then, the face color extracting section 27 extracts an arbitrary pixel in the face scanning area of the one frame memory, and sets the pixel as a reference pixel to determine the RGB of the reference pixel.
A pixel having an RGB signal strength that is the same as or close to the signal strength is found in the face scanning area. Then, the pixel position of the found pixel is made to correspond and plotted on the other frame memory. Then, the number of plotted pixels is counted.

【0125】このカウントは画素の塊単位で行い、色合
いの似た画素の塊の大きさとしてとらえるが、全体の総
数を求めて顔走査領域内の総数として把握するようにし
て利用することも考えられる。
This count is performed for each pixel block unit and can be regarded as the size of a pixel block having a similar color tone. However, it may be considered that the total number is calculated and grasped as the total number in the face scanning area. To be

【0126】上記基準画素は順に変えて上記のような処
理とカウントを行い、顔走査領域における画素各々につ
いて、すべて、このような処理とカウントが終わったな
らば、カウント値が最大のものを探し、それに用いた基
準画素の色合いを肌色領域の色相データと決める。この
ようにして、顔色抽出部27は与えられた顔画像の顔色
を決定する。
The above-mentioned reference pixels are sequentially changed and the above-described processing and counting are performed. For each pixel in the face scanning area, when such processing and counting are completed, the one with the maximum count value is searched for. The hue of the reference pixel used for it is determined as the hue data of the skin color area. In this way, the face color extraction unit 27 determines the face color of the given face image.

【0127】もう少し詳しく説明する。いま、上記一方
のフレームメモリ上に対象の顔画像データが読み込まれ
ており、その中のある位置、例えば、図10(a)にお
けるA点をサンプリングしたところであるとする。計数
用に画像と同じ大きさのフレームメモリが他方のフレー
ムメモリとして用意してある。
This will be described in more detail. Now, assume that the target face image data is read into one of the frame memories, and a certain position therein, for example, the point A in FIG. 10A is sampled. A frame memory having the same size as the image is prepared as the other frame memory for counting.

【0128】A点のRGB信号強度がそれぞれ、r、
g、bであるとすると、顔走査領域にある画像の各画素
について、その画素の信号レベルがr±α、g±β、b
±γの範囲に入っているか否かを調べ、入っている場
合、上記他方のフレームメモリすなわち、計数用フレー
ムメモリの対応する画素に点、つまり、ビットデータを
セットする。この様子を図10(b)に示す。図では領
域1および領域2の範囲の画素にビットデータがセット
される。
The RGB signal intensities at the point A are r,
If g and b, for each pixel of the image in the face scanning area, the signal level of that pixel is r ± α, g ± β, b
It is checked whether or not it is within the range of ± γ, and if it is within the range, a point, that is, bit data is set to the corresponding pixel of the other frame memory, that is, the counting frame memory. This state is shown in FIG. In the figure, bit data is set to the pixels in the range of area 1 and area 2.

【0129】ここで「RGBがr±α、g±β、b±γ
の範囲内にある」とは、(r−α<R<r+α)かつ
(g−β<G<g+β)かつ(b−γ<B<b+γ)な
る条件を満たすことを指すものであるとする。尚、α、
β、γの値は同一でも異なっていても良い。
Here, “RGB is r ± α, g ± β, b ± γ.
"Is within the range of" means that the conditions of (r-α <R <r + α) and (g-β <G <g + β) and (b-γ <B <b + γ) are satisfied. . Where α,
The values of β and γ may be the same or different.

【0130】顔走査領域(格子領域)の走査が終り、A
点画素のRGBのデータr,g,b値を基準に、所定の
範囲r±α、g±β、b±γが定まるので、その範囲内
の値をとる画素が幾つあるかを求める。
The face scanning area (lattice area) has been scanned, and A
Since the predetermined ranges r ± α, g ± β, and b ± γ are determined based on the RGB data r, g, and b values of the point pixels, the number of pixels having values within the range is determined.

【0131】これは計数用フレームメモリのA点に対応
する位置から始めて、連続している点を計数すること
で、A点を中心にその周りの連続する範囲でのドット数
を数える。図10(b)では領域1の大きさを計数す
る。領域2は無視され、合算はされない。
This is to start from the position corresponding to the point A of the counting frame memory and to count the continuous points, thereby counting the number of dots in the continuous range around the point A. In FIG. 10B, the size of the area 1 is counted. Region 2 is ignored and not summed.

【0132】連続している点の数を数えるには点のない
画素を境界(boundary)と看做して、A点を種
(seed)とするシードフィルアルゴリズム(文献;
「実践コンピュータグラフィックス」 日刊工業新聞社
刊参照)を適用すれば良い。
In order to count the number of continuous points, a pixel having no points is regarded as a boundary, and a seed fill algorithm using the point A as a seed (reference;
“Practical computer graphics” (see Nikkan Kogyo Shimbun) can be applied.

【0133】サンプリングした色が顔の内部に多く存在
すれば、この計数値は高い値になるので、この計数値が
画素Aの色を顔の肌色と看做すことの妥当性の程度を表
していることになる。格子状の顔走査領域内の他の画素
についても、それぞれその画素のRGBのデータ値を基
準した所定色差範囲内にあるデータ値を有する画素にビ
ットデータをセットする操作を行い、同様に計数する。
If many sampled colors exist inside the face, this count value becomes a high value, and therefore this count value indicates the degree of validity of considering the color of the pixel A as the skin color of the face. Will be. With respect to other pixels in the lattice-shaped face scanning area, bit data is set in pixels having data values within a predetermined color difference range based on the RGB data values of the pixels, and bit pixels are similarly counted. .

【0134】顔走査領域内のサンプリングした全ての画
素について各々行ったこのような計数値を比較して計数
値の最も大きい画素、つまり、色差が一定値以下の同一
色相範囲の色相データを持つ画素数が最大のものの、画
素の色をこの顔画像の肌色と看做す。
A pixel having the largest count value by comparing the count values obtained for all the pixels sampled in the face scanning area, that is, a pixel having hue data in the same hue range where the color difference is equal to or less than a certain value. Although the number is maximum, the pixel color is regarded as the skin color of this face image.

【0135】次に、色相変換特性計算部26の説明をす
る。これは、到達色の色相値と顔色抽出部27の出力す
る肌色の色相値とから、色相変換特性曲線(または折れ
線)を決定する。
Next, the hue conversion characteristic calculator 26 will be described. This determines the hue conversion characteristic curve (or polygonal line) from the hue value of the reached color and the hue value of the skin color output from the facial color extraction unit 27.

【0136】変換の考え方は次の通りである。図8を参
照して説明する。図8は既に説明したように、HSV色
空間をVの軸に垂直な面に投影したものである。そし
て、中心oが彩度0の白−灰色−黒の軸であり、彩度が
最大である色は円周上に存在している。顔色抽出部が出
力した肌色の色相の方向をs、到達色の色相の方向をd
とする。角sod(sod≦180°)の両外側に、任
意の角度αおよびβを付加した範囲内のみ色相を変換
し、それ以外の範囲では色相の変換をしない。色相sの
方向にある色は色相dの方向へと変換され、このとき、
最も色相の移動量が多い。範囲の両端では移動量が0に
なるように移動量は徐々に変化するようにする。
The concept of conversion is as follows. This will be described with reference to FIG. As described above, FIG. 8 shows the HSV color space projected onto a plane perpendicular to the V axis. The center o is the white-gray-black axis with saturation 0, and the color with the maximum saturation exists on the circumference. The direction of the hue of the flesh color output by the facial color extraction unit is s, and the direction of the hue of the reaching color is d.
And The hue is converted only within a range in which arbitrary angles α and β are added to both outsides of the angle sod (sod ≦ 180 °), and the hue is not converted in other ranges. Colors in the direction of hue s are converted to the direction of hue d, where
Largest amount of hue shift. The movement amount is gradually changed so that the movement amount becomes 0 at both ends of the range.

【0137】図11は本変換の特性曲線の例である。こ
の変換特性に従えば、変換対象となる色相Ssが色相s
である時は色相dに変換され、色相Ssがs<dの場合
はs−αからd+βの範囲、d<sの場合はSsがd−
αからs+βの範囲にある場合に限り、変換の対象とな
っている。
FIG. 11 shows an example of the characteristic curve of this conversion. According to this conversion characteristic, the hue Ss to be converted is the hue s
When the hue Ss is s <d, the range is from s−α to d + β, and when d <s, Ss is d−.
Only when it is in the range of α to s + β, it is a target of conversion.

【0138】この原理によれば、人物画像の再現で重要
な肌色付近の色のみを肌色に調整するので、他の色合い
に悪影響を与えず色相が乱れた原画像であっても自然な
色合いで人物画像を表現できるようになる。
According to this principle, only the colors near the flesh color that are important in the reproduction of the human image are adjusted to the flesh color, so that even if the original image has a disturbed hue without adversely affecting the other hues, it is possible to obtain a natural hue. It becomes possible to express a person image.

【0139】この原理を用いたビデオIDフォトシステ
ムを説明する。色相補正機能は図1の構成における画像
処理部109bに持たせる。色相補正は撮影時に画像の
ファイリングを行う際に行えば済む。
A video ID photo system using this principle will be described. The hue correction function is provided to the image processing unit 109b in the configuration of FIG. Hue correction can be performed when filing an image during shooting.

【0140】従って、動作時に必要な構成要素としては
図12に示すように、図1の構成から点線で示すブロッ
クを除いた残りのブロックによる構成要素で実現でき
る。
Therefore, as shown in FIG. 12, the components necessary for operation can be realized by the components of the remaining blocks excluding the block indicated by the dotted line from the configuration of FIG.

【0141】個人データ記憶部21に相当するのが、画
像データベースメモリ106および文字データベースメ
モリ107であり、各個人の性別や年齢等のデータ22
は文字データベースメモリ107に、また、顔画像デー
タ23は画像データベースメモリ106に保存される。
なお、顔画像データ23を画像データベースメモリ10
6に保存する場合、ここでの顔画像データ23としては
フレームメモリ103から取り込んだ、カラービデオカ
メラ101からの未調整のカラー原画像データとなる
が、撮影時に取り込んだフレームメモリ103からのカ
ラー原画像データを色相補正して画像データベースメモ
リ106に保存する利用法もある。この場合は顔画像デ
ータ23はフレームメモリ103から得られるカラー原
画像データとなる。
The personal data storage unit 21 corresponds to the image database memory 106 and the character database memory 107, and the data 22 such as gender and age of each individual.
Is stored in the character database memory 107, and the face image data 23 is stored in the image database memory 106.
The face image data 23 is stored in the image database memory 10
6, the face image data 23 here is the unadjusted color original image data from the color video camera 101 taken in from the frame memory 103. However, the color original image data from the frame memory 103 taken in at the time of photographing is stored. There is also a usage method in which the image data is hue-corrected and stored in the image database memory 106. In this case, the face image data 23 is color original image data obtained from the frame memory 103.

【0142】到達色色相データベース25も文字データ
ベースメモリ107におかれる。また、到達色計算部2
4、色相変換特性計算部26、顔色抽出部27、RGB
→色相変換部28、RGB→HSV変換器29、色相変
換部30、HSV→RGB変換器31の各機能はプロセ
ッサ109における画像処理部109bによって実現さ
れる。このうち、顔色抽出部27の機能は顔色抽出処理
の機能部が受け持ち、他は顔色変換処理の機能部が受け
持つ。
The reached hue database 25 is also stored in the character database memory 107. In addition, the arrival color calculation unit 2
4. Hue conversion characteristic calculation unit 26, face color extraction unit 27, RGB
The functions of the hue conversion unit 28, the RGB → HSV converter 29, the hue conversion unit 30, and the HSV → RGB converter 31 are realized by the image processing unit 109b in the processor 109. Of these, the function of the face color extraction unit 27 is in charge of the function unit of face color extraction processing, and other functions are in charge of the function unit of face color conversion processing.

【0143】そして、顔色抽出部27の必要とするフレ
ームメモリは、フレームメモリ103の有する複数枚分
のフレームメモリを利用する構成とすることもできる
し、また、顔色抽出部27において独自に用意する構成
とすることもできる。
The frame memory required by the facial color extraction unit 27 may be configured to use a plurality of frame memories included in the frame memory 103, or the facial color extraction unit 27 may prepare it independently. It can also be configured.

【0144】このような構成において、カラービデオカ
メラ101で撮像され、フレームメモリに103にフレ
ーズされた未調整の顔画像データ23、もしくは画像デ
ータベースメモリより読み出された未調整の顔画像デー
タ23は、プロセッサ109における画像処理部109
bにより、上述のような顔色抽出処理が行われ、一方、
これによって抽出された顔色の色相値と到達色の色相値
との関係から、色相変換特性計算によって色相変換特性
曲線を求め、この色相変換特性曲線に従って顔画像デー
タ23の色相変換処理が行われる。
In such a configuration, the unadjusted face image data 23 imaged by the color video camera 101 and phrased in the frame memory 103, or the unadjusted face image data 23 read from the image database memory is Image processor 109 in processor 109
b, the above-described face color extraction processing is performed, while
The hue conversion characteristic curve is obtained by the hue conversion characteristic calculation from the relationship between the hue value of the facial color extracted and the hue value of the reached color, and the hue conversion processing of the face image data 23 is performed according to this hue conversion characteristic curve.

【0145】その結果、未調整の顔画像データ23は顔
色相当の色相データについてのみ、最適な肌色の色相に
データ変換され、他は変換されないものの、色合いとし
て、バランスのとれたかたちで、カラー顔画像が得られ
るようになる。このカラー画像は画像データベースメモ
リ106に格納されて補正済み顔画像データとして保存
され、あるいはフレームメモリ103に送って画像表示
部105に表示させたりする。
As a result, the unadjusted face image data 23 is converted into the optimum skin tone hue only for the hue data corresponding to the face color, and the others are not converted. Images can be obtained. This color image is stored in the image database memory 106 and saved as corrected face image data, or sent to the frame memory 103 and displayed on the image display unit 105.

【0146】なお、本発明では画像の内容(例えば、
空、芝生など)を判別し、予め登録されている内容に一
致した場合は、その色相をその内容に対応して予め用意
しておいた記憶色の色相に近付ける処理を行うと云った
ことも可能なる。
In the present invention, the content of the image (for example,
It is also said that when it matches with the contents registered in advance, the hue is approximated to the hue of the memory color prepared in advance corresponding to the contents. It will be possible.

【0147】以上のように、この実施例によれば、人物
画像の再現で重要な肌色付近の色のみを調整するので、
他の色合いに悪影響を与えず効果的に人物画像の色補正
をすることができ、カラービデオカメラ101の微妙な
調整を要しないで済むようになるから、誰でもが容易に
撮影操作を行うことができるようになる。
As described above, according to this embodiment, only the colors near the flesh color which are important for reproducing the human image are adjusted.
Since it is possible to effectively correct the color of a human image without adversely affecting other color tones and delicate adjustment of the color video camera 101, anyone can easily perform a shooting operation. Will be able to.

【0148】また、本実施例で説明した方法により、顔
画像内に多く分布する色を抽出することによって、上記
の色相変換の起点となる顔内の代表的な色を高い精度で
取り出すことができ、人間にとって最も気になる肌色が
自然な状態で再現されたカラー画像を得ることができる
ようになる。
Further, by extracting the colors that are mostly distributed in the face image by the method described in the present embodiment, the representative color in the face that is the starting point of the hue conversion can be extracted with high accuracy. This makes it possible to obtain a color image in which the skin color most noticeable to humans is reproduced in a natural state.

【0149】さらに、本実施例では個人の年齢や性別、
人種などに応じて到達色を調整することができるので、
女性は女性らしい肌色、男性は男性らしい肌色にする等
のきめ細かな色の自動調整を行うことができる。
Furthermore, in the present embodiment, the age and sex of the individual,
Since you can adjust the reaching color according to race etc.,
It is possible to perform fine-tuned automatic adjustments such as female skin color for women and male skin color for men.

【0150】本発明のビデオIDフォトシステムでは、
人物情報のデータベースを備えていて、撮影の対象者や
プリントの対象者をリストアップしておくとそれを元
に、作業を進めることができ、作業性および操作性の向
上やミス防止に効力を発揮できる。そして、人物情報の
データベースを備えたことから、さらにデータベースの
活用を進めると、例えば、特定の条件下でのグループ分
けを行って、リストを作り、撮影やプリントに応用でき
る。
In the video ID photo system of the present invention,
It has a database of person information, and if you list up the people to be photographed and the people to print, you can proceed with the work, improving workability and operability and preventing mistakes. Can be demonstrated. Since the database of person information is provided, if the database is further utilized, for example, it is possible to perform grouping under a specific condition, create a list, and apply the list to photographing and printing.

【0151】しかし、条件を入力するに際して、同じよ
うな内容の文字データを検索条件としてキー入力しなけ
ればならず、その作業が非常に煩わしい。そこでこのよ
うな入力作業をバックアップするようにしたシステムの
実施例を第4実施例として説明する。
However, when inputting a condition, it is necessary to key in character data having similar contents as a search condition, which is very troublesome. Therefore, an embodiment of a system for backing up such input work will be described as a fourth embodiment.

【0152】(第4実施例)検索条件の設定には、図1
3に示すような検索条件の設定画面(条件設定入力画
面)を用いると、条件の入力がし易い。この画面は、例
えば画面を横方向に3分割して各区分毎に複数の条件を
それぞれ設定する入力画面構成となっている。
(Fourth Embodiment) To set search conditions, refer to FIG.
If a search condition setting screen (condition setting input screen) as shown in 3 is used, it is easy to input the conditions. This screen has, for example, an input screen configuration in which the screen is divided into three in the horizontal direction and a plurality of conditions are set for each section.

【0153】これらの3つの各区分におけるそれぞれの
細かい設定条件を兼ね備える人物が、文字データベース
より検索され、該当者が抽出される。
A person having fine setting conditions in each of these three sections is searched from the character database, and the corresponding person is extracted.

【0154】つまり、3つの部分のそれぞれは、縦方向
に幾つもの項目に分かれているので細かい設定ができ
る。
That is, since each of the three parts is divided into a number of items in the vertical direction, it is possible to make detailed settings.

【0155】各区分のそれぞれの項目は、例えば「名
前」、「年齢」、「職場名」などである。これらの項目
の任意の項目に検索キーを設定することによって、それ
らの設定された項目のAND(論理積)条件が演算され
て、その該当者が検索される。
The respective items of each category are, for example, “name”, “age”, “workplace name” and the like. By setting a search key in any of these items, the AND (logical product) condition of the set items is calculated, and the corresponding person is searched.

【0156】すなわち、まず、縦方向の各項目の間でA
ND条件の演算が行われ、それぞれのANDの結果同士
でOR条件の演算が行われる。
That is, first, A is set between each item in the vertical direction.
The calculation of the ND condition is performed, and the calculation of the OR condition is performed between the respective AND results.

【0157】この検索条件設定方法によれば、検索式の
組合わせによる条件の設定に比べて、設定されている条
件の内容を視覚的に把握し易いという利点がある。
According to this search condition setting method, there is an advantage that the contents of the set conditions can be visually grasped more easily than the condition setting by combining the search expressions.

【0158】この検索を実現するハードウェアの一例を
第14図に示す。3つの区分に対応させるために、3系
統分の検索キーワード保持メモリ42a〜42c及びそ
れにキーワードを設定する検索条件設定装置41a〜4
1cがある。検索装置43は、まずこれら3つの検索キ
ーワード保持メモリ42a〜42c毎に設定されている
条件のAND論理演算を行った結果の該当者を検索す
る。
FIG. 14 shows an example of hardware for realizing this search. In order to correspond to the three categories, the search keyword holding memories 42a to 42c for three systems and the search condition setting devices 41a to 4 for setting keywords in the search keyword holding memories 42a to 42c.
There is 1c. The search device 43 first searches for the corresponding person who is the result of the AND logic operation of the conditions set for each of these three search keyword holding memories 42a to 42c.

【0159】次に3つの該当者群のORの論理演算を行
い、最終的な該当者リストを作成する。該当者リストは
該当者リスト保持メモリ45に記憶される。文字画面制
御装置46は該当者リスト保持メモリ45から該当者リ
ストを読出し、それらの該当者についての情報をハード
ディスク47から読出して文字画面48に該当者の氏名
や所属部署名などを表示する。該当者が15人を超える
ときはページ切り替えによって15人ずつ表示する。
Next, the logical operation of the OR of the three applicable persons is performed to create the final applicable person list. The hit list is stored in the hit list holding memory 45. The character screen control device 46 reads out the applicable person list from the applicable person list holding memory 45, reads the information about the applicable person from the hard disk 47, and displays the name and the department name of the applicable person on the character screen 48. When the number of relevant persons exceeds 15, 15 persons are displayed by switching pages.

【0160】一方、グラフィック画面制御部49は該当
者リスト保持メモリ45から読出した該当者の顔画像
を、ハードディスク47から読出し、画像縮小装置50
で画像縮小してグラフィック画面51に該当者の一覧と
して表示する。
On the other hand, the graphic screen control section 49 reads the face image of the person concerned read from the person list holding memory 45 from the hard disk 47, and the image reducing device 50.
The image is reduced in size and displayed as a list of corresponding persons on the graphic screen 51.

【0161】画像は高品質のカードをつくるために比較
的に大きなデータ容量となっている。このため、一覧表
示を行うには大容量の画像データを間引いたり、ブロッ
クに分割してブロック毎に平均値を計算するなどの方法
で縮小して表示している。該当者が15人を超える場合
はページ切り替えによって文字画面に表示されている1
5人に対応して15人ずつ表示する。
The image has a relatively large data capacity in order to create a high quality card. For this reason, in order to display a list, a large amount of image data is thinned out, or divided into blocks and the average value is calculated for each block for reduction and display. If there are more than 15 people, it is displayed on the text screen by switching pages 1
Display 15 people corresponding to 5 people.

【0162】すなわち、一覧表示された15人分のマル
チ画像からポインティング・デバイスでこれらの画像の
一つを指定することで、一覧表示の中から1人を指定
し、指定した1人の標準サイズの顔画像を表示させるこ
とができる。1人の標準サイズ表示を利用した後、再び
該当者15人の縮小顔画像の一覧表示へと戻る。ここ
で、また、任意の1人を指定して標準サイズで表示した
り、検索条件の設定画面へ戻ることもできる。
That is, by designating one of these images with the pointing device from the multi-images of the 15 persons displayed in the list, one person is designated from the list display, and the standard size of the designated 1 person is designated. The face image of can be displayed. After using the standard size display of one person, the process returns to the list display of the reduced face images of 15 persons. Here, it is also possible to specify any one person and display it in a standard size, or return to the search condition setting screen.

【0163】このようなシステムでは、条件設定にあた
り、次のような解決すべき問題点が残る。
In such a system, the following problems to be solved remain in setting conditions.

【0164】例えば、「研究部の25才の未婚の男性、
または開発部の25才の未婚の男性」と云う条件を設定
して検索する場合、すなわち、式で書くと、 (“研究部”AND“25才”AND“未婚”AND
“男性) OR (“開発部”AND“25才”AND“未婚”
AND“男性”) となる。この場合、式の2つある括弧の内部で異なる条
件は、“研究部”と“開発部”と云うワードのみであ
る。
For example, “A 25-year-old unmarried man in the research department,
Or, if you search by setting the condition of "25-year-old unmarried man in the development department", that is, if you write it with the formula, ("Research Department" AND "25-year-old" AND "Unmarried" AND
"Male" OR ("Development Department" AND "25 years old" AND "Unmarried")
AND "male"). In this case, the only conditions that differ within the two parentheses in the expression are the words "Research Department" and "Development Department."

【0165】しかし、図14のシステムにおける条件設
定方法では図13のような設定画面において、必要とす
る全ての条件の項目内容をキー入力する必要があるの
で、この例の場合、25才とか、未婚とか、男性とかの
項目別条件設定は同じ内容の設定事項を2カ所ずつ入力
操作しなければならないことになり、操作が面倒であ
る。
However, in the condition setting method in the system of FIG. 14, since it is necessary to key in the item contents of all the necessary conditions on the setting screen as shown in FIG. 13, in the case of this example, 25 years old, For setting condition by item such as unmarried or male, it is necessary to input setting items having the same contents in two places, which is troublesome.

【0166】また、検索の該当者の一覧表示を行うとき
に一度縮小の計算を行っているにもかかわらず、標準サ
イズの表示に移行する際に、消去してしまい、標準サイ
ズの表示から縮小画面を再度表示するには、再度縮小の
計算を行うことになる。そのために待ち時間が長くな
る。
Further, although the reduction calculation is performed once when the list of the persons who are searched is displayed, it is erased when the display shifts to the standard size display and the display is reduced from the standard size display. To display the screen again, the reduction calculation is performed again. Therefore, the waiting time becomes long.

【0167】そこで、条件設定入力画面において、キー
入力した一纏まりの条件内容(一群の条件内容)を、簡
単な操作で、コピーして入力操作を簡素化できるように
する。コピーは更に編集をすることができるようにし
た。
Therefore, on the condition setting input screen, a set of condition contents (a group of condition contents) key-inputted can be copied by a simple operation to simplify the input operation. The copy can be edited further.

【0168】また、検索を実行して該当者の顔画像を縮
小一覧表示した画面は、外部記憶装置に保存し、個人の
標準サイズ表示を行った後に再度縮小一覧表示を行うと
きには、縮小の計算を行わず、外部記憶装置から読み込
むことによって表示のための待ち時間を短縮するように
した。
Further, the screen in which the face images of the person concerned are displayed in a reduced list by executing the search is stored in an external storage device, and when the reduced list is displayed again after the individual standard size is displayed, the reduction calculation is performed. Instead of doing so, the waiting time for display is shortened by reading from the external storage device.

【0169】本実施例のシステム構成を図15に示す。
条件設定入力画面が第1群検索グループから第3群検索
グループまでの3つに区分されているので、この3つの
区分(3つの検索グループ)に対応させて3系統分の検
索条件設定装置41a〜41c、検索キーワード保持メ
モリ42a〜42bを用意してある。従って、区分が2
つならば2系統、n区分ならばn系統分設ける。
The system configuration of this embodiment is shown in FIG.
Since the condition setting input screen is divided into three groups from the first group search group to the third group search group, the search condition setting device 41a for three systems is associated with these three sections (three search groups). -41c and search keyword holding memories 42a-42b are prepared. Therefore, the classification is 2
If there are two systems, two systems will be provided.

【0170】検索キーワード保持メモリ42aと検索キ
ーワード保持メモリ42bの間には条件復製装置44
a、また、検索キーワード保持メモリ42bと検索キー
ワード保持メモリ42cの間には条件復製装置44bが
設けられ、それぞれ、検索キーワード保持メモリ41
a,42bの条件設定内容を検索キーワード保持メモリ
42b,42cにコピーする機能を持つ。そして、内容
の似ている条件でOR論理演算を行う場合に、条件設定
の入力の手間を省くのに用いられる。
A condition reproduction device 44 is provided between the search keyword holding memory 42a and the search keyword holding memory 42b.
a, a condition reproduction device 44b is provided between the search keyword holding memory 42b and the search keyword holding memory 42c, and the search keyword holding memory 41
It has a function of copying the condition setting contents of a and 42b to the search keyword holding memories 42b and 42c. This is used to save the effort of inputting the condition setting when the OR logical operation is performed under the conditions having similar contents.

【0171】つまり、条件復製装置はある区分において
条件設定された内容全てを別の区分にそっくり複写する
機能を持つものであり、画面の欄外にアイコンとして表
示されている条件コピー機能のアイコンをマウスカーソ
ルで選択して当該条件コピー機能実行コマンドを与える
ことで、ある区分の複数の項目の内容をワンタッチで丸
ごと別の区分にコピーすることができる。
That is, the condition reproduction device has a function of copying all the contents set in a condition in a certain category to another category, and the icon of the condition copy function displayed as an icon on the outside of the screen is moused. By selecting with a cursor and giving the condition copy function execution command, the contents of a plurality of items in a certain section can be copied to another section with one touch.

【0172】例として、「研究部の25才の未婚の男
性、または、開発部の25才の未婚の男性」と云う条件
を設定して検索することにする。式で示すと、 (“研究部”AND“25才”AND“未婚”AND
“男性”) OR (“開発部”AND“25才”AND“未婚”A
ND“男性”) となる。この場合、条件式の2つの括弧の内部で異なる
のは、“研究部”と“開発部”のワードのみである。
As an example, it is assumed that a condition of "a 25-year-old unmarried man in the research department or a 25-year-old unmarried man in the development department" is set and the search is performed. In terms of formula, (“Research Department” AND “25 years old” AND “Unmarried” AND
"Men") OR ("Development Department" AND "25 years old" AND "Unmarried" A
ND "male"). In this case, the only difference between the two parentheses in the conditional expression is the words “research department” and “development department”.

【0173】本実施例でこれを検索するには、まず検索
キーワード保持メモリ42aの次の左辺の各項目に、右
辺のようにキーワードをキー入力して設定する。これは
画面上で、キー操作により行う。
In order to search for this in the present embodiment, first, in the respective items on the left side of the search keyword holding memory 42a, the keywords are keyed in and set as shown on the right side. This is done by key operation on the screen.

【0174】職場名 =研究部 年齢 =25才 既婚未婚の別=未婚 性別 =男性 次に、検索キーワード保持メモリ42bに付属している
コピーボタン(上述した画面上の条件コピー機能アイコ
ンに対応する)をマウスでクリックするなどしてコマン
ドを条件復製装置44aに与える。これにより、条件復
製装置44aは起動され、条件復製装置44aは検索キ
ーワード保持メモリ42aの内容を、検索キーワード保
持メモリ42bにコピーする。すると、検索キーワード
保持メモリ42bの上記の項目に同様の条件が設定され
る。すなわち、 職場名 =研究部 年齢 =25才 既婚未婚の別=未婚 性別 =男性 と、検索キーワード保持メモリ42bにも設定され、画
面上も空欄であった第2検索グループの区分の各項目
が、第1検索グループの区分と同一内容で埋められて表
示がなされる。最後に検索キーワード保持メモリ42b
の職場名に設定された“研究部”を“開発部”に変更す
れば、検索条件の設定が完了する。検索するグループは
上述の2群であるとすると、この場合、検索キーワード
保持メモリ42cは使わない。
Workplace name = Research department Age = 25 years Married unmarried sex = Unmarried sex = Male Next, a copy button attached to the search keyword holding memory 42b (corresponding to the condition copy function icon on the screen described above). Is given to the conditional reproduction device 44a by, for example, clicking. As a result, the condition reproduction device 44a is activated, and the condition reproduction device 44a copies the contents of the search keyword holding memory 42a to the search keyword holding memory 42b. Then, similar conditions are set in the above items of the search keyword holding memory 42b. That is, workplace name = research department age = 25 years old, married / unmarried sex = unmarried sex = male, and each item of the second search group section that was set in the search keyword storage memory 42b and was blank on the screen, The display is made with the same content as that of the first search group. Finally, the search keyword holding memory 42b
If you change the "Research Department" set to the workplace name of "Research Department" to "Development Department", the setting of search conditions is completed. If the groups to be searched are the above-mentioned two groups, the search keyword holding memory 42c is not used in this case.

【0175】このように、多数ある第1群検索グループ
と第2群検索グループの検索条件の項目内容が似通って
いるとき、検索キーワード保持メモリ42bの年齢、既
婚未婚の別、性別等の大部分の設定はコピーボタン1つ
の一回の操作ででき、一部分の異なる条件のみを設定入
力操作するだけで済むので操作の軽減ができる。
As described above, when the contents of the search conditions of the first group search group and the second group search group, which are numerous, are similar to each other, most of the age, marital status, sex, etc. of the search keyword holding memory 42b. Can be set with one operation of one copy button, and only a part of different conditions need to be set and input, so that the operation can be reduced.

【0176】本実施例の検索条件設定画面の様子を図1
6に示す。
The state of the search condition setting screen of this embodiment is shown in FIG.
6 shows.

【0177】このようにして検索された該当者のリスト
は該当者リスト保持メモリ45に記録される。
The list of relevant persons searched in this way is recorded in the relevant person list holding memory 45.

【0178】検索装置43は、これらの検索キーワード
保持メモリ42a〜42cの内容と、予め用意しておい
たインデックスファイル52とを読み込んで検索を実行
する。インデックスファイル52は、図1における文字
データベース107にある人事情報等の個人情報のデー
タベースファイルから作成されるものであり、リスト処
理部109dに保持されるファイルであって、検索対象
者全員のキーワードに対応する文字列(名前や職場名な
ど)と個人データファイル名(IDナンバー)との対応
表である。
The search device 43 reads the contents of these search keyword holding memories 42a to 42c and the index file 52 prepared in advance, and executes the search. The index file 52 is created from a database file of personal information such as personnel information in the character database 107 in FIG. 1, is a file held in the list processing unit 109d, and is a keyword for all search target persons. It is a correspondence table of corresponding character strings (name, workplace name, etc.) and personal data file names (ID numbers).

【0179】この対応表は、キーワードに対応する文字
列の部分がアルファベット順(あるいは50音順など)
に並ぶようにソートしてあり、高速に検索が行えるよう
になっている。
In this correspondence table, the character strings corresponding to the keywords are in alphabetical order (or in the Japanese syllabary order).
They are sorted so that they are lined up in, so that the search can be performed at high speed.

【0180】インデックスファイル52は、検索の各項
目毎に用意されている。キーワードに対応する文字列の
中に検索のキーワードが見つかった場合、それに対応す
る個人データファイル名が該当者の情報を持っているフ
ァイル名となる。インデックスファイル52は、大容量
となる場合には文字データベースメモリ106に領域を
確保して保存するようにすることもできる。
The index file 52 is prepared for each item of the search. When a search keyword is found in the character string corresponding to the keyword, the personal data file name corresponding to the search keyword becomes the file name having the information of the corresponding person. When the index file 52 has a large capacity, an area can be secured and stored in the character database memory 106.

【0181】該当者に関する文字情報は文字画面制御装
置46によってハードディスク47から読み出され、文
字画面48に一覧表示される(図17(b))。ハード
ディスク47は図1における文字データベース107に
対応する。
The character information relating to the person is read from the hard disk 47 by the character screen control device 46 and displayed as a list on the character screen 48 (FIG. 17 (b)). The hard disk 47 corresponds to the character database 107 in FIG.

【0182】一方、該当者の顔画像は、画像縮小部50
を経由してグラフィック画面制御部49がハードディス
ク47(このハードディスク47は図1における画像デ
ータベースメモリ107に対応する)から読出し、画像
縮小処理してマルチ画面化した上でグラフィック画面5
1に一覧表示される(図17(d))。
On the other hand, the face image of the person concerned is calculated by the image reducing unit 50.
The graphic screen control unit 49 reads out from the hard disk 47 (this hard disk 47 corresponds to the image database memory 107 in FIG. 1) via the, and performs the image reduction processing to make a multi-screen, and then the graphic screen 5
No. 1 is displayed as a list (FIG. 17 (d)).

【0183】本実施例では解像度および表示画面サイズ
の制約により、1回の表示は15人までに制限される。
該当者が15人を超える場合は15人ずつページ切り替
えによって表示する。
In this embodiment, one display is limited to 15 persons due to the restrictions on the resolution and the display screen size.
When there are more than 15 people, the pages are displayed by switching 15 people each.

【0184】個人の顔画像データは高品質のカードを作
成するために、データの容量が多く、一覧表示するには
大き過ぎる。そのため、画像縮小部50では画像データ
の間引きや、画像データを細かいブロックに分けてブロ
ック毎に画素値の平均を計算するなどして、縮小画像を
作成して一覧表示に供する。1画面は縮小画像15画面
分のマルチ表示としているので、最大15人分までの該
当者の画像の縮小計算が行われて1枚の一覧表示画面が
完成する。
The personal face image data has a large amount of data in order to create a high quality card, and is too large for a list display. Therefore, the image reducing unit 50 thins out the image data, divides the image data into fine blocks, calculates the average pixel value for each block, and creates reduced images for display in a list. Since one screen is multi-display for 15 reduced images, reduction calculation of images of up to 15 persons is performed and one list display screen is completed.

【0185】一覧表示の画面はハードディスク47に記
憶して再利用できるようにしておく。
The list display screen is stored in the hard disk 47 so that it can be reused.

【0186】一覧表示の画面の中から1人を、マウスな
どのポインティングデバイスで選択することによって、
その個人の詳細データ表示画面に移ることができる。グ
ラフィック画面制御装置49はこの選択により、グラフ
ィック画面表示内容を、縮小画像による一覧表示(図1
7(d))から、選択した個人の標準サイズの顔画像に
表示画像データを切り替えて、表示させる(図17
(e))。同時に、文字画面制御装置46は当該選択さ
れた人物の情報をハードディスク47から読出し、表示
させるべく制御する。これにより、文字画面48には当
該選択された人物の詳細な文字情報が表示される(図1
7(c))。
By selecting one person from the list display screen with a pointing device such as a mouse,
It is possible to move to the detailed data display screen of the individual. By this selection, the graphic screen control device 49 displays the graphic screen display contents as a list of reduced images (see FIG. 1).
7 (d)), the display image data is switched to the standard size face image of the selected individual and displayed (FIG. 17).
(E)). At the same time, the character screen control device 46 reads out the information of the selected person from the hard disk 47 and controls it to be displayed. As a result, detailed character information of the selected person is displayed on the character screen 48 (FIG. 1).
7 (c)).

【0187】上述のグラフィック画面には例えばアイコ
ンなどのようなマウスカーソルによる選択でコマンドを
与えることができるいくつかの画面内スイッチがあり、
この中にはカード作成のメニューと、このグラフィック
画面にはカード作成のメニューと一覧表示に戻るメニュ
ーが選択できる。
The above-mentioned graphic screen has some on-screen switches that can give commands by selection with a mouse cursor such as icons,
In this, a card creation menu and a card creation menu and a menu for returning to the list display can be selected on this graphic screen.

【0188】カード作成のメニューを選択することによ
って、グラフィック画面制御装置49は、現在表示中の
人物のIDカードを作成するように動作する。そのた
め、カード作成のメニューを選択することによって、現
在表示中の人物のIDカードを作成することができる。
また、一覧表示に戻るメニューを選択することによって
グラフィック画面制御装置49は、先の一覧表示に戻る
ように制御し、グラフィック画面51に縮小画面を一覧
表示するので、この状態で選択をし直すことで別の人物
の情報表示やカード作成に移ることもできる。
By selecting the card creation menu, the graphic screen control device 49 operates to create an ID card of the person currently being displayed. Therefore, by selecting the card creation menu, the ID card of the person currently being displayed can be created.
Also, by selecting the menu to return to the list display, the graphic screen control device 49 controls to return to the previous list display, and the reduced screen is displayed on the graphic screen 51 as a list. You can move to displaying information of another person or creating a card with.

【0189】この一覧表示に戻る際には、グラフィック
画面制御装置49は先程、ハードディスク47に保存し
た縮小画像による一覧表示の画面を読出し、表示装置に
送ることによって、画像の縮小の計算を行わずに済ます
ことができる。これにより、待つ時間が短縮されるので
快適に作業を行うことができる。
When returning to the list display, the graphic screen control device 49 reads the list display screen based on the reduced image stored in the hard disk 47 and sends it to the display device without performing the image reduction calculation. It can be done As a result, the waiting time is shortened, so that the user can work comfortably.

【0190】このように、本実施例によれば、各検索グ
ループの複数ある項目を個々に設定していたものを、簡
単な操作で別の検索グループ用に1操作でそっくり複製
して利用することができるので、似た条件で一部だけ条
件の異なる人々の集まりを検索する場合に、操作者の労
力が軽減されるという効果がある。
As described above, according to the present embodiment, a plurality of items in each search group are individually set, and a simple operation is used to copy and use a single item for another search group. Therefore, there is an effect that the labor of the operator is reduced when searching for a group of people whose conditions are similar but only partially different.

【0191】また、一度作成した縮小画像一覧画面は外
部記録装置に保存し、個人情報表示などの後に再び縮小
画像一覧表示を行うときには保存しておいた縮小画像一
覧表示の画像データを読み込んで表示するだけなので、
縮小の計算のためにかかる時間を待たずに済むので快適
に作業を行うことができると云う効果もある。
The reduced image list screen once created is stored in the external recording device, and when the reduced image list display is performed again after displaying personal information, the saved image data of the reduced image list display is read and displayed. I just do
Since there is no need to wait for the time required for the calculation of the reduction, there is also an effect that the work can be comfortably performed.

【0192】以上は第4実施例の概念的構成を説明した
ものであった。この概念を図1のシステムに当て嵌める
と、次のような構成となる。
The above is a description of the conceptual configuration of the fourth embodiment. Applying this concept to the system of FIG. 1 results in the following configuration.

【0193】すなわち、複製機能(条件複製装置44
a,44b)機能は図1の構成におけるプロセッサ10
9のリスト処理部109dに持たせ、縮小機能および一
覧表示画面作成並びに表示処理の機能は図1の構成にお
ける画像処理部109bに持たせる。
That is, the duplication function (condition duplication device 44
a, 44b) The function is the processor 10 in the configuration of FIG.
9, and the image processing unit 109b in the configuration of FIG. 1 has the reducing function, the list display screen creation function, and the display processing function.

【0194】従って、動作時に必要な構成要素としては
複製機能については図18に示すように、図1の構成か
ら点線で示すブロックを除いた残りのブロックによる構
成要素で実現でき、また、一覧表示機能については図1
9に示すように、図1の構成から点線で示すブロックを
除いた残りのブロックによる構成要素で実現できる。
Therefore, as a constituent element necessary for operation, the duplication function can be realized by the constituent elements of the remaining blocks excluding the block indicated by the dotted line from the structure of FIG. 1 as shown in FIG. Figure 1 for the functions
As shown in FIG. 9, it can be realized by the components of the remaining blocks except the block shown by the dotted line from the configuration of FIG.

【0195】そして、検索条件設定装置41a〜41
c,検索キーワード保持メモリ42a〜42c,条件複
製装置44aおよび44bはリスト処理部109dとコ
ントローラ109aにより実現し、条件に合わせた対象
の検索を行う検索装置43および該当者リスト保持メモ
リ45の機能は検索処理部109cにより実現し、文字
画面制御装置46の機能はコントローラ109aにより
実現する。
Then, the search condition setting devices 41a-41.
c, the search keyword holding memories 42a to 42c, and the condition duplicating devices 44a and 44b are realized by the list processing unit 109d and the controller 109a, and the functions of the searching device 43 and the corresponding person list holding memory 45 for searching for the target according to the condition are This is realized by the search processing unit 109c, and the function of the character screen control device 46 is realized by the controller 109a.

【0196】また、グラフィック画面制御装置49の機
能は画像処理装置109bにより実現するが、特に縮小
一覧画像作成処理の機能部に委ねている。
The function of the graphic screen control device 49 is realized by the image processing device 109b, but it is left to the function part of the reduced list image creating process.

【0197】以上、第4実施例によれば、個々に設定し
ていた検索条件を簡単な操作で複製して利用することが
でき、似た条件で一部だけ条件の異なる人々の集まりを
検索する場合に、操作者の労力が軽減されるという効果
があり、また、この検索条件に当て嵌まる人物の画像を
縮小してマルチ画面表示で、一度に表示して一覧できる
ようにし、この中から所望の一人を選択して拡大表示
し、参照したり、プリント機能によりその人物のIDカ
ード発行を行うことができるので、操作性が飛躍的に向
上する他、一度作成した縮小画像一覧画面(マルチ画
面)は外部記録装置に保存し、個人情報表示などの後に
再び縮小画像一覧表示を行うときに、この保存しておい
た縮小画像一覧表示の画像データを読み込んで表示する
ようにしたことから、即座に縮小画像一覧画面と拡大画
面の切り替えが可能になり、待たずに済むので快適に作
業を行うことができると云う効果が得られる。
As described above, according to the fourth embodiment, the search conditions set individually can be duplicated and used by a simple operation, and a group of people having similar conditions but only partially different conditions can be searched. In this case, there is an effect that the labor of the operator is reduced, and the image of the person who fits this search condition is reduced so that it can be displayed and listed at one time in the multi-screen display. The desired person can be selected and enlarged for reference, and the print function can be used to issue the person's ID card, which dramatically improves operability and reduces the list of images created once Screen) is stored in an external recording device, and when the reduced image list display is performed again after displaying personal information, the saved image data of the reduced image list display is read and displayed. To allow switching of the reduced image list screen and expansion screen seat, the effect can be obtained referred to be able to do the work comfortably because it is not necessary to wait.

【0198】以上は操作性の改善を図り、誰でもが容易
に操作を行えるようにしたものであった。次にプリント
画のイメージ作成を迅速に行うことができるようにし
て、多数のIDカードを短時間にプリントできるように
したシステムの例を第5実施例として説明する。
In the above, the operability is improved so that anyone can easily operate. Next, an example of a system in which a large number of ID cards can be printed in a short time by making it possible to quickly create a print image will be described as a fifth embodiment.

【0199】(第5実施例)上述したように、ビデオI
Dフォトシステムは、個人個人の顔写真をビデオカメラ
で撮像し、個人情報と共にファイリングして、必要に応
じて参照したり、また、このファイリングした情報を用
いてIDカードをプリントして発行するものである。I
Dカードのプリントにはフルカラーのビデオプリンタを
用い、IDカードのカラーイメージデータ(カードイメ
ージ画)を作成してこれを映像信号化したものを、ビデ
オプリンタでカラープリントしてIDカードを得る。
(Fifth Embodiment) As described above, the video I
The D-photo system captures a personal facial photograph with a video camera, filing it together with personal information for reference as needed, and printing and issuing an ID card using this filing information. Is. I
A full-color video printer is used for printing the D card, color image data (card image image) of the ID card is created, and this image signal is color printed by the video printer to obtain the ID card.

【0200】ここで、IDカードをプリントするに要す
る時間のうち、プリント速度はビデオプリンタの動作速
度で決定されてしまい、ビデオプリンタを高速なものに
変えない限り、スピードアップは望めない。
Here, of the time required to print an ID card, the printing speed is determined by the operating speed of the video printer, and speedup cannot be expected unless the video printer is changed to a high speed.

【0201】しかし、プリントする画像の作成処理に要
する時間は、工夫次第でまだまだ改善できる余地が残さ
れている。
However, there is still room for improvement in the time required to create the image to be printed, depending on the device.

【0202】すなわち、IDカードはIDナンバー、氏
名、所属、顔写真など個人々々で内容が異なることか
ら、IDカードをプリントするにあたり、1回1回、I
Dカード用のプリント画イメージデータ(カードイメー
ジ画)を作成している。そのため、カードイメージ画を
作成するのに、たいへん時間がかかる。しかし、個人々
々で異なるIDカードとは云え、ロゴマークや、カード
のデザインなど基本的に共通のイメージ部分も多い。
That is, since the ID card has different contents such as ID number, name, affiliation, and facial photograph, when printing the ID card, once the ID card
Print image data (card image) for D card is created. Therefore, it takes much time to create a card image. However, even though it is an ID card that differs from person to person, there are many common image parts such as logo marks and card designs.

【0203】そこで、共通の部分は一度作成したもの
を、再利用するようにし、変更ある部分のみの書き換え
でカードイメージ画を完成させるようにすると、処理時
間を大幅に縮減させることが可能となる。
Therefore, if the common portion is created once and is reused and the card image image is completed by rewriting only the changed portion, the processing time can be greatly reduced. .

【0204】この実施例では、1度カードイメージデー
タを作成すれば、あとはそのデータ上の顔画像データお
よび文字データを書き換えることにより、IDカードの
発行を大幅に短縮できるようにする例を説明する。
In this embodiment, an example will be described in which the card image data is created once, and then the face image data and the character data on the data are rewritten, whereby the issuance of the ID card can be greatly shortened. To do.

【0205】概略を説明すると、カードフォーマットデ
ータを作成し、記録保存した後、そのデータ中の文字画
像位置座標データと顔画像位置座標データを読み出し
て、文字画像と顔画像が入る領域を算出し、文字画像に
ついては求めた文字画像が入る領域内に文字が収まるよ
う、その文字のフォントサイズを算出した後に文字画像
の作成を行う。また顔画像については既に記録保存して
ある顔画像データを読み出して、算出した顔画像の入る
領域内に顔画像が収まるように顔画像を切り出す。この
作成された文字画像と顔画像をカード下地画像上に合成
して、IDカード画像を作成し、プリントアウトするよ
うにしている。また多人数のIDカード画像を作成し、
連続でプリントアウトし、かつ、文字付近の下地画を文
字と重畳する場合、予め文字画像の入る部分のカード下
地画像データを一時保存しておき、最初のIDカード画
像が作成されて、次の人物のIDカード画像を作成する
直前に、前者のIDカード画像上の文字画像を一時保存
しておいたカード下地画像に置換した後、上記のIDカ
ード画像の作成手順を繰り返すような手段を設けた構成
にしている。
In brief, card format data is created, recorded and stored, and then the character image position coordinate data and the face image position coordinate data in the data are read out to calculate the area where the character image and the face image enter. As for the character image, the character image is created after the font size of the character is calculated so that the character fits within the area where the obtained character image fits. As for the face image, the face image data that has already been recorded and stored is read out, and the face image is cut out so that the face image fits within the area where the calculated face image is placed. The created character image and face image are combined on the card background image to create an ID card image, which is printed out. Also, create ID card images for many people,
When printing out continuously and superimposing the background image near the character on the character, the card background image data for the part containing the character image is temporarily saved beforehand, and the first ID card image is created. Immediately before creating a person's ID card image, a means is provided for replacing the character image on the former ID card image with the card background image that has been temporarily stored, and then repeating the above-mentioned ID card image creating procedure. It has a different configuration.

【0206】図20および図21は本発明を実現させる
実施例である。Pは被写体である人物、Bはの背後にあ
るモノトーンの背景部、101は人物Pの上半身を撮影
するための例えばスチルビデオカメラなどのカラービデ
オカメラ、102はカラービデオカメラ101からの出
力信号である画像のアナログ信号RGBをディジタル信
号に変換するA/D変換部である。但し、カラービデオ
カメラ101がディジタル信号出力を持つならば、この
A/D変換部102は不要とする。
20 and 21 show an embodiment for realizing the present invention. P is a person as a subject, B is a monotone background behind him, 101 is a color video camera such as a still video camera for photographing the upper half of the person P, and 102 is an output signal from the color video camera 101. It is an A / D converter that converts the analog signal RGB of a certain image into a digital signal. However, if the color video camera 101 has a digital signal output, this A / D conversion unit 102 is unnecessary.

【0207】103はその信号データをフレーム画像と
して一時記憶するためのフレームメモリ、104はフレ
ームメモリ103から出力されるディジタル信号をアナ
ログのビデオ信号に変換するためのD/A変換部、10
5aは例えばNTSC信号に変換する出力信号変換部、
115はその信号をプリント画像として出力するカラー
ビデオプリンタ、105は出力信号変換部105aから
の出力信号を画像にして可視化するためのTVモニタ
(画像表示部)である。
Reference numeral 103 is a frame memory for temporarily storing the signal data as a frame image, 104 is a D / A converter for converting a digital signal output from the frame memory 103 into an analog video signal, 10
5a is an output signal conversion unit for converting to an NTSC signal,
Reference numeral 115 is a color video printer that outputs the signal as a print image, and 105 is a TV monitor (image display unit) for visualizing the output signal from the output signal conversion unit 105a as an image.

【0208】112はシステムに操作者が指示入力する
ために使うキーボードであり、このキーボード112は
文字画像表示位置座標データおよび顔画像表示位置座標
データ値の入力や諸指示にも使用される。
Reference numeral 112 denotes a keyboard used by the operator for inputting instructions to the system. The keyboard 112 is also used for inputting character image display position coordinate data and face image display position coordinate data values and various instructions.

【0209】以上の構成に加え、さらに次のような構成
にしている。210はシステム全体を制御するためのコ
ントローラ、212はフレームメモリ103の書き込み
や読み出しを制御するメモリアドレスコントロール部、
213はキーボード112と同様にシステム操作者が指
示入力するために使う入力装置であるバスマウス、21
4はシステムに操作者が指示入力した内容を確認するた
めのTVモニタである。
In addition to the above configuration, the following configuration is further provided. 210 is a controller for controlling the entire system, 212 is a memory address control unit for controlling writing and reading of the frame memory 103,
Reference numeral 213 is a bus mouse which is an input device used by the system operator to input an instruction similarly to the keyboard 112.
Reference numeral 4 is a TV monitor for confirming the content of the instruction input by the operator to the system.

【0210】215は予め外部メモリ229に保存して
おいたカード下地画像データと、キーボード112より
入力される文字画像表示位置座標データおよび顔画像表
示位置座標データおよび文字の色データを合成してカー
ドフォーマットデータを作成するカードフォーマットデ
ータ作成部、217はカードフォーマットデータ作成部
215にて作成されたカードフォーマットデータ中のカ
ード下地画像データを検出し、フレームメモリ103上
に書き込むカード下地画像データ読み出し部である。
Reference numeral 215 denotes a card by combining the card background image data stored in advance in the external memory 229 with the character image display position coordinate data, the face image display position coordinate data and the character color data input from the keyboard 112. A card format data creating unit 217 that creates format data is a card background image data reading unit that detects card background image data in the card format data created by the card format data creating unit 215 and writes it on the frame memory 103. is there.

【0211】218はカードフォーマットデータ中の文
字画像位置座標データを検出する文字画像位置座標デー
タ検出部、219は文字画像位置座標データ検出部21
8にて検出した文字画像位置座標データよりカード下地
画像上に描かれる文字画像の領域サイズを算出する文字
画像領域算出部である。
Reference numeral 218 is a character image position coordinate data detection unit for detecting character image position coordinate data in the card format data, and 219 is a character image position coordinate data detection unit 21.
A character image area calculation unit that calculates the area size of the character image drawn on the card base image from the character image position coordinate data detected in 8.

【0212】また、221は予め外部メモリ229に保
存された個人情報データ中の文字データより文字数の検
出をする文字数検出部、222は文字画像領域算出部2
19にて算出された文字画像領域サイズと文字数検出部
221にて検出した文字数より1文字当たりのフォント
サイズを算出するフォント文字サイズ算出部、223は
文字数検出部221にて検出された文字データの文字数
とフォント文字サイズ算出部222にて算出された文字
のフォントサイズおよび個人情報データ中の文字データ
より文字画像データを作成する文字画像データ作成部で
ある。
Reference numeral 221 is a character number detection unit for detecting the number of characters from the character data in the personal information data stored in the external memory 229 in advance, and 222 is the character image area calculation unit 2.
A font character size calculation unit 223 for calculating a font size per character from the character image area size calculated in 19 and the number of characters detected in the character number detection unit 221 represents the character data detected in the character number detection unit 221. This is a character image data creation unit that creates character image data from the character font size calculated by the number of characters and the font character size calculation unit 222 and the character data in the personal information data.

【0213】224はカードフォーマットデータ作成部
215にて作成されたカードフォーマットデータ中の顔
画像位置座標データを検出する顔画像位置座標データ検
出部、225は顔画像位置座標データ検出部224より
検出した顔画像位置座標データ値より顔画像の入る領域
サイズを算出する顔画像領域算出部である。
Reference numeral 224 is a face image position coordinate data detection unit for detecting face image position coordinate data in the card format data created by the card format data creation unit 215, and 225 is detected by the face image position coordinate data detection unit 224. A face image area calculation unit that calculates an area size in which a face image enters from the face image position coordinate data value.

【0214】226は顔画像切り出し部であり、読み込
まれた個人情報データ中の顔画像データに対し、顔画像
領域算出部225にて算出された顔画像領域サイズに合
わせて、顔画像の顔部を中心とした画像を切り出す処理
を行うものである。
Reference numeral 226 denotes a face image cutout unit, which corresponds to the face image data in the read personal information data in accordance with the face image area size calculated by the face image area calculation unit 225. This is a process of cutting out an image centered on.

【0215】また、227はカードイメージ画像データ
作成部であり、顔画像切り出し部226によって切り出
された顔画像データと、文字画像データ作成部223に
よって作成された文字画像データとを顔画像位置座標デ
ータ検出部224にて検出した顔画像位置座標データ
と、文字画像位置座標データ検出部218にて検出した
文字画像位置座標データに従ってフレームメモリ103
上に合成し、カードイメージ画像として作成するもので
ある。
Reference numeral 227 denotes a card image image data creating section which sets the face image data cut out by the face image cutting section 226 and the character image data created by the character image data creating section 223 to face image position coordinate data. The frame memory 103 according to the face image position coordinate data detected by the detection unit 224 and the character image position coordinate data detected by the character image position coordinate data detection unit 218.
It is created by combining the above and a card image.

【0216】229はカードフォーマットデータ作成部
115にて作成されたカードフォーマットデータや個人
情報データ等を記録保存して入出力するための例えば光
磁気ディスクやハードディスクなどの外部メモリであ
り、図21における301はカード下地画像のデータを
一時保存するカード下地画像データ一時保存部であり、
302はフレームメモリ103上に作成されたカードイ
メージ画像の文字画像部(文字記録領域)の部分を、カ
ード下地画像データ一時保存部301に一時保存したカ
ード下地画像のデータに置換して下地を埋め戻すカード
下地画像置換部である。
Reference numeral 229 denotes an external memory such as a magneto-optical disk or a hard disk for recording / saving and inputting / outputting the card format data and personal information data created by the card format data creating unit 115. A card background image data temporary storage unit 301 temporarily stores the data of the card background image,
Reference numeral 302 replaces the character image portion (character recording area) of the card image image created on the frame memory 103 with the data of the card base image temporarily stored in the card base image data temporary storage unit 301 to fill the base. It is a card background image replacement unit to be returned.

【0217】次に、このような構成の本実施例の動作を
説明する。カラービデオカメラ101によって人物Pの
顔を含んだ上半身を撮影する。そのとき、人物Pを見易
くするために、その背後にモノトーンの背景部Bをおい
て撮影する。
Next, the operation of this embodiment having such a configuration will be described. The color video camera 101 photographs the upper body including the face of the person P. At that time, in order to make the person P easy to see, a monotone background portion B is placed behind the person P for photographing.

【0218】カメラは前もってホワイトバランス調整
や、レンズの絞り調整や、ピント調整をとっておく方が
良いが、第3実施例の補正機能を併用することにより、
無調整のカラー映像信号を利用することも可能である。
It is better for the camera to perform white balance adjustment, lens aperture adjustment, and focus adjustment beforehand, but by using the correction function of the third embodiment together,
It is also possible to use an unadjusted color video signal.

【0219】カラービデオカメラ101から出力された
アナログビデオ信号RGBはA/D変換部102にてデ
ィジタル信号に変換され、フレームメモリ103に順次
記録される。
The analog video signal RGB output from the color video camera 101 is converted into a digital signal by the A / D converter 102 and sequentially recorded in the frame memory 103.

【0220】フレームメモリ103にあるディジタルデ
ータをビデオ信号として出力できるように、同期をとり
ながら順次読み出し、D/A変換部104と、出力信号
変換部105aによってRGB信号に変換する。その信
号をTVモニタ105に入力することにより人物の上半
身画像がモニタできる。
The digital data in the frame memory 103 are sequentially read out in synchronism with each other so that the digital data can be output as a video signal, and are converted into RGB signals by the D / A converter 104 and the output signal converter 105a. By inputting the signal to the TV monitor 105, the upper half image of the person can be monitored.

【0221】肌色補正機能がない場合は、操作者はこの
画像を見ながら顔画像が適切に撮れるように照明具合い
やカメラ101の調整を行う。
If the skin color correction function is not provided, the operator adjusts the lighting condition and the camera 101 so that the face image can be properly taken while looking at this image.

【0222】ID画像として用いる顔画像を撮るには、
先ず撮影中の画像データをフレームメモリ103に取り
込む。そこで、フレームメモリ103上にある顔画像を
静止(フリーズ)させるため、コントローラ210より
フリーズコントロール信号をフレームメモリ103に出
力する。
To take a face image to be used as an ID image,
First, the image data being taken is captured in the frame memory 103. Therefore, in order to freeze (freeze) the face image on the frame memory 103, the controller 210 outputs a freeze control signal to the frame memory 103.

【0223】操作者はこの動作が行えるようにフリーズ
したい瞬間、キーボード112よりキー入力すれば、コ
ントローラ210がこの信号を受けて、メモリアドレス
コントロール部212から出力していたフレームメモリ
103の順次書き込みデータアドレスカウンタを停止さ
せ、書き込み不能にする。
At the moment when the operator wants to freeze so as to be able to perform this operation, if he / she inputs a key from the keyboard 112, the controller 210 receives this signal and the sequential write data of the frame memory 103 output from the memory address control section 212. Stops the address counter and disables writing.

【0224】しかし、読み込みデータアドレスコントロ
ールは動作続行させることによって、フリーズ操作有無
に関係なく、フレームメモリ103内の画像データを読
み込みD/A変換部104に転送し、ビデオ信号として
出力できる。それを、TVモニタ105に映し出すこと
によって、カメラ画像の動画や静止画を見ることができ
る。
However, by continuing the operation of the read data address control, the image data in the frame memory 103 can be read and transferred to the D / A conversion unit 104 and output as a video signal regardless of the presence or absence of the freeze operation. By displaying it on the TV monitor 105, a moving image or a still image of a camera image can be viewed.

【0225】また、IDカード画像をプリントするため
には、まず、カード下地画像データを作成して外部メモ
リ229に保存しておき、キーボード112より文字画
像表示位置座標データおよび顔画像表示位置座標データ
および文字の色データを入力する。これにより、カード
フォーマットデータ作成部215は例えば図22のよう
なカード下地画像データと座標データおよび文字色デー
タからなるカードフォーマットデータを作成する。
In order to print the ID card image, first, card background image data is created and stored in the external memory 229, and the character image display position coordinate data and the face image display position coordinate data are input from the keyboard 112. And input the character color data. As a result, the card format data creation unit 215 creates card format data including card background image data, coordinate data, and character color data as shown in FIG. 22, for example.

【0226】このカードフォーマットデータ作成部21
5にて作成したカードフォーマットデータと、216に
て作成した個人情報データとを外部メモリ229に予め
保存しておく。
This card format data creation unit 21
The card format data created in 5 and the personal information data created in 216 are stored in the external memory 229 in advance.

【0227】そして、プリント時には先ず外部メモリ2
29からフレームメモリ103へカードフォーマットデ
ータ中のカード下地画像データを転送し、コントローラ
210にてメモリアドレスコントロール部212の制御
を行いながら、フレームメモリ103上の定められた画
像位置に、その画像データを書き込むようにアドレスの
コントロールを行う。従って、フレームメモリ103上
には所定の領域にカード下地画像データが書き込まれ
る。
When printing, first the external memory 2
The card background image data in the card format data is transferred from 29 to the frame memory 103, and while the controller 210 controls the memory address control unit 212, the image data is transferred to a predetermined image position on the frame memory 103. Control the address to write. Therefore, the card background image data is written in a predetermined area on the frame memory 103.

【0228】また、カードフォーマットデータは文字画
像位置座標データ検出部218に与えられ、文字画像位
置座標データ検出部218はカードフォーマットデータ
中の文字画像位置座標データを検出する。そして、文字
画像領域算出部219はこの文字画像位置座標データ検
出部218にて検出された文字画像位置座標データよ
り、カード下地画像上に描かれる文字画像の領域サイズ
を算出する。
Also, the card format data is given to the character image position coordinate data detecting section 218, and the character image position coordinate data detecting section 218 detects the character image position coordinate data in the card format data. Then, the character image area calculation unit 219 calculates the area size of the character image drawn on the card base image from the character image position coordinate data detected by the character image position coordinate data detection unit 218.

【0229】また、カードフォーマットデータは顔画像
位置座標データ検出部224にも与えられ、顔画像位置
座標データ検出部224はカードフォーマットデータ作
成部215にて作成されたカードフォーマットデータ中
の顔画像位置座標データを検出す。
The card format data is also given to the face image position coordinate data detection unit 224, and the face image position coordinate data detection unit 224 uses the face image position coordinate data generation unit 215 to generate the face image position in the card format data. Detect coordinate data.

【0230】そして、顔画像領域算出部225はこの顔
画像位置座標データ検出部224が検出した顔画像位置
座標データ値より顔画像の入る領域サイズを算出する。
Then, the face image area calculation section 225 calculates the area size in which the face image enters from the face image position coordinate data value detected by the face image position coordinate data detection section 224.

【0231】図23(a)における下地画像の領域Z1
が文字データのIDナンバー記録領域であり、図23
(a)における領域Z2が文字データの氏名記録領域で
あり、図23(a)における領域Z3が顔画像記録領域
であり、上記演算によってこれらの領域が求められた。
Area Z1 of the background image in FIG.
Is a character data ID number recording area, and FIG.
The area Z2 in (a) is the name recording area of the character data, and the area Z3 in FIG. 23 (a) is the face image recording area, and these areas are obtained by the above calculation.

【0232】一方、外部メモリ229から個人情報デー
タ中の顔画像データと文字データとが読み出され、顔画
像データは顔画像切り出し部226に、また、文字デー
タは文字数検出部221およびフォント文字サイズ算出
部222に与えられる。
On the other hand, the face image data and the character data in the personal information data are read from the external memory 229, the face image data is stored in the face image cutout unit 226, and the character data is stored in the character number detection unit 221 and the font character size. It is given to the calculation unit 222.

【0233】顔画像切り出し部226は読み込まれた個
人情報データ中の顔画像データに対し、顔画像領域算出
部225にて算出された顔画像領域サイズに合わせて、
顔画像の顔部を中心とした画像を切り出す。
The face image cutout unit 226 adjusts the face image data in the read personal information data according to the face image area size calculated by the face image area calculation unit 225.
The image centering around the face part of the face image is cut out.

【0234】また、文字数検出部221は与えられた文
字データより文字数を検出し、フォント文字サイズ算出
部222は文字画像領域算出部219にて算出された文
字画像領域サイズと文字数検出部221にて検出した文
字数より、1文字当たりのフォントサイズを算出する。
Further, the character number detection unit 221 detects the number of characters from the given character data, and the font character size calculation unit 222 uses the character image area size calculated by the character image area calculation unit 219 and the character number detection unit 221. The font size per character is calculated from the detected number of characters.

【0235】そして、文字画像データ作成部223は文
字数検出部221にて検出された文字データの文字数と
フォント文字サイズ算出部222にて算出された文字の
フォントサイズおよび個人情報データ中の文字データよ
り、一文字あたりのサイズが当該文字フォントサイズと
なるように、上記文字データを上記文字数分、文字画像
データ化する。
Then, the character image data creation unit 223 uses the character number of the character data detected by the character number detection unit 221 and the font size of the character calculated by the font character size calculation unit 222 and the character data in the personal information data. The character data is converted into character image data by the number of characters so that the size of each character becomes the character font size.

【0236】カードイメージ画像データ作成部227は
顔画像切り出し部226によって切り出された顔画像デ
ータと、文字画像データ作成部223によって作成され
た文字画像データとを顔画像位置座標データ検出部22
4にて検出した顔画像位置座標データと、文字画像位置
座標データ検出部218にて検出した文字画像位置座標
データに従ってフレームメモリ103上に合成し、カー
ドイメージ画像を作成する。
The card image image data creating section 227 collects the face image data cut out by the face image cutting section 226 and the character image data created by the character image data creating section 223 from the face image position coordinate data detecting section 22.
The face image position coordinate data detected in 4 and the character image position coordinate data detected by the character image position coordinate data detection unit 218 are combined on the frame memory 103 to create a card image image.

【0237】このようにして、カードイメージ画像デー
タ作成部227によってカードイメージ画像データを作
成し、これをコントローラ210にてメモリアドレスコ
ントロール部212の制御を行いながら、フレームメモ
リ103の所定画像位置に同様に書き込むことで、プリ
ントすべきIDカードのイメージ画像のデータをフレー
ムメモリ103上に形成する。図23(b)はこのよう
にして形成されたIDカードのイメージ画像である。
In this way, the card image image data creating unit 227 creates card image image data, and the controller 210 controls the memory address control unit 212 to perform the same processing at a predetermined image position of the frame memory 103. The data of the image image of the ID card to be printed is formed on the frame memory 103 by writing to the frame memory 103. FIG. 23B is an image image of the ID card thus formed.

【0238】IDカードのイメージ画像がフレームメモ
リ103上に作成されたならば、次にコントローラ21
0はフレームメモリ103上のIDカード画像を読出す
と共に、その読み出されたIDカード画像のビデオ信号
をビデオプリンタ115にフェッチさせ、ビデオプリン
タ115を動作させる。これによりビデオプリンタ11
5はIDカード画像をシートにプリントして出力する。
If the image of the ID card is created in the frame memory 103, then the controller 21
0 reads the ID card image on the frame memory 103, causes the video printer 115 to fetch the video signal of the read ID card image, and operates the video printer 115. This allows the video printer 11
Reference numeral 5 prints an ID card image on a sheet and outputs it.

【0239】以上により、カードフォーマットに合わせ
て、必要な領域に必要なサイズで顔画像や文字画像が嵌
め込まれたIDカードがプリントできるようになる。
As described above, it becomes possible to print the ID card in which the face image and the character image are inserted in the required size in the required area in accordance with the card format.

【0240】一枚のIDカードのプリントが終わると、
次のIDカードのプリントに移る。
When printing of one ID card is completed,
Move on to print the next ID card.

【0241】次のプリントでは再び上述のような処理を
行うが、本システムでは処理時間を短縮するために、画
像の変更の必要な領域のみをデータ消去し、新たに下地
を書き込んだ上で顔画像や文字画像を上書きするように
して処理の高速化を図っている。
In the next print, the above-mentioned processing is performed again, but in this system, in order to shorten the processing time, data is erased only in the area where the image needs to be changed, and the background is newly written and then the face is written. The image and character images are overwritten to speed up the process.

【0242】すなわち、本システムでは、IDカード画
像をプリントするにあたり、下地画像に顔画像と氏名等
の必要な文字情報を埋め込んだIDカード画像のイメー
ジデータを作成するが、このイメージデータを短時間で
作成できるようにするために部分書き替えと云った工夫
をしている。
That is, in the present system, when printing the ID card image, the image data of the ID card image in which necessary character information such as the face image and name is embedded in the background image is created, but this image data is short-lived. In order to be able to create with, we are devising a technique called partial rewriting.

【0243】例えば、文字の記録領域はIDカード毎に
異なる文字が埋め込まれることになり、下地画像の上に
書き込まれるので、前の人の文字が残っていると問題で
ある。そして、イメージデータの書き込みは情報量が多
いだけに、書き替える面積に比例して処理時間が長くな
る。
For example, different characters are embedded in the character recording area for each ID card, and the characters are written on the background image. Therefore, it is a problem that the characters of the previous person remain. In addition, since the writing of image data has a large amount of information, the processing time becomes long in proportion to the area to be rewritten.

【0244】そこで、この実施例では、プリントが終わ
ると次の新たなIDカード画像を作成する毎に、前のI
Dカード画像イメージデータのうち、変更のある部分を
切り取り、そこに下地画像をはめ込み、その次に必要な
イメージデータを書き込んでIDカード画像のイメージ
データ作成を、できるだけ短時間で行うようにする。
Therefore, in this embodiment, every time the next new ID card image is created after printing, the previous I
The changed portion is cut out from the D card image image data, the base image is fitted therein, and necessary image data is written next to create the image data of the ID card image in the shortest possible time.

【0245】例えば、フレームメモリ103に展開した
下地画像データを図24に示すように、文字情報の記録
領域Z1,Z2について切り取り、保存する。そして、
図25に示すように文字画像データや顔画像データを書
き込んでIDカードプリントに供したフレームメモリ1
03上のIDカード画像のイメージデータに対して、文
字情報の記録領域Z1,Z2については、保存しておい
た当該領域の下地画像データを上書きして埋め戻し、元
の下地画像に戻し、その後、図26に示すように次の人
物の文字画像データを当該埋め戻した下地画像上に上書
きし、顔画像については顔画像領域に上書きすることで
前の顔画像を新たな顔画像に書き替えることで、フレー
ムメモリ103上には、図27に示すように次の人のI
Dカード画像のイメージデータが形成される。
For example, as shown in FIG. 24, the background image data expanded in the frame memory 103 is cut out and stored in the character information recording areas Z1 and Z2. And
As shown in FIG. 25, a frame memory 1 in which character image data and face image data are written and used for ID card printing.
With respect to the image data of the ID card image on 03, for the recording areas Z1 and Z2 of the character information, the saved background image data of the area is overwritten and backfilled, and the original background image is restored. As shown in FIG. 26, the character image data of the next person is overwritten on the backfilled background image, and the face image is overwritten on the face image area to rewrite the previous face image to a new face image. As a result, on the frame memory 103, as shown in FIG.
Image data of the D card image is formed.

【0246】顔画像の領域は文字と違い、文字の線の間
に下地が覗くと云ったことがなく、所定寸法の方形の領
域内にすっぽりと顔画像を収めるために、下地の埋め戻
しは全く必要がない。
Unlike the characters in the area of the face image, the background has never been seen between the lines of the characters. In order to fit the face image in a rectangular area of a predetermined size, the background should not be backfilled. No need at all.

【0247】このように、下地が覗く部分である個人個
人で異なる文字画像の記録領域のみ、プリント毎に下地
を埋め戻し、文字画像を書き込むようにしたことで、イ
メージデータの書き替えが短時間で済むようになる。
As described above, the character image is rewritten in a short time because the character image is written in by filling back the character for each print only in the recording area of the character image which is different from the person who sees the background. Will be enough.

【0248】このような処理のためには、IDカード画
像におけ文字画像領域および顔画像領域の算出と、文字
画像の作成、顔画像の切出し、作成した文字画像と切出
した顔画像の下地画像に対する上書きと云った処理が必
要である。
For such processing, the character image area and the face image area in the ID card image are calculated, the character image is created, the face image is cut out, and the created character image and the background image of the cut out face image are calculated. A process called overwriting is required.

【0249】上述の文字画像領域および顔画像領域の算
出について説明する。図22に示すように、文字画像表
示位置座標を例えばIDナンバーの文字画像書き込み開
始点(Xc0,Yc0)、ID番号の文字画像書き込み終了
点(Xc1,Yc1)とし、同様に氏名の文字画像書き込み
開始点を(Xc2,Yc2)、その文字画像書き込み終了点
を(Xc3,Yc3)とする。
Calculation of the above-mentioned character image area and face image area will be described. As shown in FIG. 22, the character image display position coordinates are, for example, the character image writing start point (Xc0, Yc0) of the ID number and the character image writing end point (Xc1, Yc1) of the ID number, and similarly the character image writing of the name is performed. The start point is (Xc2, Yc2), and the end point for writing the character image is (Xc3, Yc3).

【0250】また、顔画像表示位置座標を求めるには、
前者と同様に顔画像の書き込み開始点を(Xf0,Yf
0)、書き込み終了点を(Xf1,Yf1)とすれば、これ
より書き込み開始点と終了点の座標が定まれば一義的に
定まる。従って、文字画像領域および顔画像領域は以下
の式にて算出できる。
Further, in order to obtain the face image display position coordinates,
As in the former case, the writing start point of the face image is set to (Xf0, Yf
0), if the writing end point is (Xf1, Yf1), it is uniquely determined if the coordinates of the writing start point and the end point are determined from this. Therefore, the character image area and the face image area can be calculated by the following formulas.

【0251】 Xc = |Xc1−Xc0| …(1) Yc = |Yc1−Yc0| …(2) Xc′= |Xc3−Xc2| …(3) Yc′= |Yc3−Yc2| …(4) Xf = |Xf1−Xf0| …(5) Yf = |Yf1−Yf0| …(6) 従って、(1)〜(4)式を演算することにより、文字
画像領域が求められ、(5),(6)式を演算すること
により、顔画像領域の算出ができる。
Xc = | Xc1-Xc0 | ... (1) Yc = | Yc1-Yc0 | ... (2) Xc '= | Xc3-Xc2 | ... (3) Yc' = | Yc3-Yc2 | = | Xf1−Xf0 | (5) Yf = | Yf1−Yf0 | (6) Therefore, the character image area is obtained by calculating the equations (1) to (4), and (5), (6) The face image area can be calculated by calculating the expression).

【0252】文字画像領域算出部219は文字画像位置
座標データ検出部218にて検出した文字画像位置座標
データを得、(1)〜(4)式を演算することにより、
文字画像領域の算出を行う。
The character image area calculation unit 219 obtains the character image position coordinate data detected by the character image position coordinate data detection unit 218 and calculates the equations (1) to (4),
The character image area is calculated.

【0253】顔画像領域算出部225は顔画像位置座標
データ検出部224より顔画像位置座標のデータを得、
(5),(6)式を演算することにより、顔画像領域の
算出を行う。
The face image area calculation unit 225 obtains the face image position coordinate data from the face image position coordinate data detection unit 224,
The face image area is calculated by calculating the equations (5) and (6).

【0254】次に1文字当りのフォントサイズの算出に
ついて説明する。まず、IDナンバーのフォントサイズ
の算出にについて考える。1文字の画像領域を正方形と
し、その1辺の長さLcを算出することにより、1文字
当りのフォントサイズを算出する。ここで文字数をNc
とし、上述の(1)、(2)式より、処理A,Bによっ
て算出する。 [A]:もし(Nc×Yc)≦Xcならば、Lc=Yc
である。 [B]:もし(Nc×Yc)>Xcならば、Lcは(X
c/Nc)の商である。
Next, the calculation of the font size per character will be described. First, consider the calculation of the font size of the ID number. The font size per character is calculated by making the image area of one character square and calculating the length Lc of one side thereof. Here, the number of characters is Nc
Then, it is calculated by the processes A and B from the above equations (1) and (2). [A]: If (Nc × Yc) ≦ Xc, Lc = Yc
Is. [B]: If (Nc × Yc)> Xc, Lc becomes (X
c / Nc).

【0255】また、氏名についても同様に行う。The same is done for the name.

【0256】この演算をフォント文字サイズ算出部22
2に行わせることで文字フォントサイズの算出を行うこ
とができる。
This calculation is performed by the font character size calculation unit 22.
By making the second process, the character font size can be calculated.

【0257】次に、文字画像の作成について説明する。
文字画像領域算出部219にて算出された文字画像領域
データと、文字数検出部221にて検出した文字データ
の文字数データと、フォント文字サイズ算出部222に
て算出した文字のフォントサイズデータとを文字画像作
成部223に転送する。
Next, creation of a character image will be described.
The character image area data calculated by the character image area calculation unit 219, the character number data of the character data detected by the character number detection unit 221, and the font size data of the character calculated by the font character size calculation unit 222 are converted into characters. It is transferred to the image creating unit 223.

【0258】文字画像作成部223では、予め保存して
おいた個人情報データ中の文字データを読出して、前者
データより文字画像を作成する。
The character image creating section 223 reads the character data in the personal information data stored in advance and creates a character image from the former data.

【0259】次に顔画像の切り出しについて説明する。
図28に示すような顔画像を切り出す場合を取り上げ
る。
Next, the cutout of the face image will be described.
A case where a face image as shown in FIG. 28 is cut out will be taken up.

【0260】顔画像の幅をHf0、高さをVf0とする。顔
画像領域算出部225にて算出した顔画像の領域サイズ
データ(Xf,Yf)および、例えば外部メモリ229
より読み出した個人情報データ中の顔画像データを顔画
像切出し部226に転送する。そして、顔画像切出し部
226にて次のように切り出す。 [A]:まず、(Vf0−Yf)/2ライン分のデータを
読み飛ばす。 [B]:[A]の処理の後、Yfライン分は次のように
データを読み取る。 (1):まず、(Hf0−Xf)/2ドット分のデータを
読み飛ばす。 (2):(1)の処理の後、Xfドット分のデータを読
み取る。 (3):(2)の処理の後、(Hf0−Xf)/2ドット
分のデータを読み飛ばす。 [C]:[B]の処理の後、(Vf0−Yf)/2ライン
分のデータを読み飛ばす。
The width of the face image is Hf0 and the height is Vf0. Area size data (Xf, Yf) of the face image calculated by the face image area calculation unit 225 and, for example, the external memory 229.
The face image data in the personal information data thus read out is transferred to the face image cutout unit 226. Then, the face image cutout unit 226 cuts out as follows. [A]: First, the data for (Vf0-Yf) / 2 lines is skipped. [B]: After the process of [A], the data for the Yf line is read as follows. (1): First, the data for (Hf0-Xf) / 2 dots is skipped. (2): After the process of (1), the data for Xf dots is read. (3): After the processing of (2), the data of (Hf0-Xf) / 2 dots is skipped. [C]: After the process of [B], the data of (Vf0-Yf) / 2 lines are skipped.

【0261】ここの例では、顔画像データから必要なサ
イズに切り出したが、縮小・拡大処理によっても同様に
可能となる。
In this example, the face image data is cut out to a required size, but it is also possible to perform the reduction / enlargement processing in the same manner.

【0262】次に、カードイメージ画像の作成について
説明する。文字画像作成部223にて作成された文字画
像データと顔画像切出し部226にて切り出された顔画
像データを、カードイメージ画像データ作成部227に
転送する。カードイメージ画像データ作成部227で
は、図23(a)に示すように、転送された両データを
コントローラ210よりメモリアドレスコントロール部
212を用いてデータアドレスコントロールしながら、
フレームメモリ103上にあるカード下地画像に書き込
む。
Next, the creation of a card image image will be described. The character image data created by the character image creation unit 223 and the face image data cut out by the face image cutout unit 226 are transferred to the card image image data creation unit 227. In the card image image data creation unit 227, as shown in FIG. 23A, while controlling the data addresses of both transferred data from the controller 210 using the memory address control unit 212,
The card background image on the frame memory 103 is written.

【0263】以上の動作により、フレームメモリ103
上には図23(b)に示すように、カードイメージ画像
が作成され、コントローラ210はこれを読出してビデ
オプリンタ115に与えるべく制御することにより、I
Dカード画像としてプリント出力させることができる。
With the above operation, the frame memory 103
As shown in FIG. 23 (b), a card image image is created above, and the controller 210 reads it and controls it to give it to the video printer 115.
It can be printed out as a D card image.

【0264】一枚のIDカードのプリントが終わったな
らば、フレームメモリ103上のIDカード画像のイメ
ージデータに対して、文字画像の記録領域のみ、プリン
ト毎に下地を埋め戻し、次の人の文字画像を書き込むと
共に、顔画像領域にその人の顔画像を埋め込んで次のI
Dカードのプリントに入る。
When the printing of one ID card is completed, the background of the image data of the ID card image on the frame memory 103 is backfilled for each print only in the recording area of the character image, and the next person While writing the character image, the face image of the person is embedded in the face image area and the next I
Enter the D card print.

【0265】以上により、イメージデータの書き替えを
短時間に済ませて、IDカードのプリントを実施してゆ
くことができる。
As described above, the rewriting of the image data can be completed in a short time and the ID card can be printed.

【0266】ここで、IDカード画像の文字情報は氏名
やIDそれぞれナンバーであるから、個人々々で文字数
が異なる。本実施例では文字画像表示領域のサイズと、
ここに挿入する文字数に応じてフォントサイズが決定さ
れるようになっている。
Here, since the character information of the ID card image is the name and the ID respectively, the number of characters is different for each person. In this embodiment, the size of the character image display area,
The font size is determined according to the number of characters inserted here.

【0267】この部分の詳細を説明しておく。Details of this part will be described.

【0268】本実施例ではカードフォーマットデータに
基づき、文字領域のサイズやその領域に書き込む文字数
等からフォントサイズを制御してバランスの良い文字像
を作成し、埋め込むようにするために、カードデータフ
ォーマット作成部215では次のように処理させてい
る。
In this embodiment, the card data format is used to create and embed a well-balanced character image by controlling the font size from the size of the character area and the number of characters written in that area based on the card format data. The creation unit 215 performs the following processing.

【0269】カードフォーマットデータの形式は予め図
28に示すように、作成しておく。
The format of the card format data is prepared in advance as shown in FIG.

【0270】つまり、図29(a)に示すようシステム
変数として1バイト構成の表示スイッチ、2バイト構成
の表示範囲左上X座標データ、2バイト構成の表示範囲
左上Y座標データ、2バイト構成の表示範囲右下X座標
データ、2バイト構成の表示範囲右下Y座標データ、1
バイト構成の文字色R(赤)データ、1バイト構成の文
字色G(緑)データ、1バイト構成の文字色B(青)デ
ータ、1バイト構成のスーパーインポーズスイッチ、1
バイト構成の背景色R(赤)データ、1バイト構成の背
景色G(緑)データ、1バイト構成の背景色B(青)デ
ータである。
That is, as shown in FIG. 29A, a display switch having a 1-byte configuration as a system variable, a 2-byte display range upper left X coordinate data, a 2-byte display range upper left Y coordinate data, a 2-byte display. Lower right X coordinate data of the range, lower right Y coordinate data of the display range of 2 bytes, 1
Byte-structured character color R (red) data, 1-byte structure character color G (green) data, 1-byte structure character color B (blue) data, 1-byte structure superimpose switch, 1
These are background color R (red) data of byte construction, background color G (green) data of 1 byte construction, and background color B (blue) data of 1 byte construction.

【0271】システム変数はこのように16バイトの構
成のものであるが、データの並びは図29(b)に示す
ように、16バイトシリアルである。そして、カード下
地画像データとこれらのシステム変数を図28のように
一体化してファイルしておく。
The system variable has a 16-byte structure as described above, but the data arrangement is 16-byte serial as shown in FIG. 29 (b). Then, the card background image data and these system variables are integrated and filed as shown in FIG.

【0272】また、データベースに格納される個人デー
タ(IDナンバーや氏名等)の文字デ−タは図29
(c)に示すように、文字コードを利用した固定長構成
となっている。
Character data of personal data (ID number, name, etc.) stored in the database is shown in FIG.
As shown in (c), it has a fixed length configuration using a character code.

【0273】従って、より短時間で個人の顔画像と個人
情報データを検索するには顔画像と個人情報データを図
30のように一体化したファイル構造とすると良い。
Therefore, in order to retrieve the face image and the personal information data of the individual in a shorter time, it is preferable to have the file structure in which the face image and the personal information data are integrated as shown in FIG.

【0274】予め外部メモリ229に入力しておいたカ
ード下地画像のデータ後ろに、システム変数のデータを
キーボード112より入力し、コントローラ210を介
して、カードフォーマットデータ作成部215にて、図
30に示すような構造のカードフォーマットデータを作
成した後、外部メモリ229に記録保存する。但し、こ
こではカード下地画像を始めにカードフォーマットデー
タを後にしたが、図31に示すようにその逆でも良い。
Data of system variables is input from the keyboard 112 after the data of the card background image which has been input in the external memory 229 in advance, and the card format data creation unit 215 displays the data in FIG. After the card format data having the structure as shown is created, it is recorded and stored in the external memory 229. However, here, the card base image is first followed by the card format data, but the reverse is also possible as shown in FIG.

【0275】次に図20および図21における外部メモ
リ229に予め保存しておいたカードフォーマットデー
タ中のカード下地画像データを読み出し、フレームメモ
リ103に書き込む。次に文字画像領域算出部219に
て算出した文字画像領域データと文字画像位置座標デー
タ検出部218にて読み出した文字画像位置座標データ
をカード下地画像データ一時保存部301に転送する。
Next, the card background image data in the card format data stored in advance in the external memory 229 in FIGS. 20 and 21 is read and written in the frame memory 103. Next, the character image area data calculated by the character image area calculation unit 219 and the character image position coordinate data read by the character image position coordinate data detection unit 218 are transferred to the card base image data temporary storage unit 301.

【0276】カード下地画像データ一時保存部301で
は、前者データよりフレームメモリ103上のカード下
地画像データをコントローラ210よりメモリアドレス
コントロール部212を制御してデータアドレスコント
ロールしながら、図24に示すように、文字画像が入る
領域部分(Z1,Z2)のカード下地画像データを読み
出して、カード下地画像データ一時保存部301に一時
記録保存する。
In the card background image data temporary storage unit 301, as shown in FIG. 24, the controller 210 controls the memory address control unit 212 to control the data address of the card background image data on the frame memory 103 from the former data. The card background image data of the area portion (Z1, Z2) where the character image is inserted is read out and temporarily stored in the card background image data temporary storage unit 301.

【0277】そして、第5実施例において既に説明した
したように文字領域サイズ、文字数の情報からフォント
サイズを計算して、そのフォントサイズになるように文
字画像を形成し、下地画像のイメージデータに書き込ん
でカードイメージ画像データを作成することで、文字領
域一杯にIDナンバーや氏名等の文字パターンをバラン
ス良く形成することができる。
Then, as already described in the fifth embodiment, the font size is calculated from the information of the character area size and the number of characters, and the character image is formed so as to have the font size. By writing and creating the card image image data, a character pattern such as an ID number and a name can be formed in a good balance in the character area.

【0278】そして、これをプリント出力した後、カー
ド下地画像データ一時保存部301にて一時保存してお
いた文字記録領域Z1,Z2用のカード下地画像データ
をカード下地画像データ置換部302に転送し、図25
に示すようにフレームメモリ103上にあるカードイメ
ージ画像データ上の文字画像部分のみを、カード下地画
像データ置換部302によってカード下地画像データに
置換する。
After this is printed out, the card background image data for character recording areas Z1 and Z2 temporarily stored in the card background image data temporary storage section 301 is transferred to the card background image data replacing section 302. And then FIG.
As shown in FIG. 3, only the character image portion on the card image image data in the frame memory 103 is replaced by the card background image data replacing unit 302 with the card background image data.

【0279】あとは第5実施例にて述べたような動作を
繰り返すことにより、文字付近の下地画を文字とスーパ
ーインポーズして元に戻し、次の個人の文字データ画像
を埋め直すことにより、多人数のプリントの場合でも短
時間に次々とカードイメージ画像が作成され、しかも、
文字数に応じた文字フォントサイズの調整が成されてバ
ランスの良いレイアウトでIDカードをプリント出力で
きる。
After that, by repeating the operation as described in the fifth embodiment, the background image near the character is superimposed on the character and returned to the original, and the character data image of the next individual is refilled. , Card image images are created one after another in a short time even when printing for a large number of people.
The character font size is adjusted according to the number of characters, and the ID card can be printed out with a well-balanced layout.

【0280】これによって、多人数のIDカード画像の
作成が非常に短時間で行える。また、文字領域の座標や
大きさをキーボード112で設定でき、下地画像等も色
などもキーボード112で設定できるので、カードの下
地画像や文字画像および顔画像の入る領域の大きさと位
置がユーザー側で自由に変更ができ、IDカード画像の
デザインおよびレイアウトが自由に設定できる。
This makes it possible to create an ID card image for a large number of people in a very short time. Further, since the coordinates and size of the character area can be set by the keyboard 112 and the background image and the color can be set by the keyboard 112 as well, the size and position of the area in which the background image, the character image and the face image of the card are to be entered by the user You can freely change the design and layout of the ID card image.

【0281】本実施例は図20および図21に示す構成
要素で実現されるが、各要素を図1の構成要素に当て嵌
めてみると、外部メモリ229は画像データベースメモ
リ106および文字デ−タベースメモリ107に対応
し、カードフォーマットデータ作成部215はレイアウ
ト処理部109eに対応し、コントローラ210および
メモリアドレスコントロール部212はコントローラ1
09aに対応し、文字画像位置座標データ検出部218
や文字画像領域算出部219、文字数検出部221、フ
ォント文字サイズ算出部222、文字画像データ作成部
223、顔画像位置座標データ検出部224、顔画像領
域算出部225、顔画像切り出し部226、カードイメ
ージ画像データ作成部227、カード下地画像データ置
換部302は画像処理部109bの機能に対応する。
This embodiment is realized by the constituent elements shown in FIGS. 20 and 21, but when the respective elements are applied to the constituent elements of FIG. 1, the external memory 229 is the image database memory 106 and the character database. Corresponding to the memory 107, the card format data creation unit 215 corresponds to the layout processing unit 109e, and the controller 210 and the memory address control unit 212 correspond to the controller 1.
09a corresponding to the character image position coordinate data detection unit 218.
And a character image area calculation unit 219, a character number detection unit 221, a font character size calculation unit 222, a character image data creation unit 223, a face image position coordinate data detection unit 224, a face image area calculation unit 225, a face image cutout unit 226, a card. The image image data creation unit 227 and the card background image data replacement unit 302 correspond to the functions of the image processing unit 109b.

【0282】また、カード下地画像データ一時保存部3
01はフォーマットデータ付きカード画像データメモリ
108に対応し、TVモニタ214は文字表示部111
に対応する。
Also, the card base image data temporary storage unit 3
01 corresponds to the card image data memory 108 with format data, and the TV monitor 214 is the character display unit 111.
Corresponding to.

【0283】従って、プリント処理に必要な構成要素は
図1の構成に対して図32の如く、点線のブロックを除
いた構成で良い。また、自由なレイアウトを可能にする
プリント処理に必要な構成要素は図1の構成に対して図
33の如く、点線のブロックを除いた構成で良い。
Therefore, the components necessary for the print processing may be the same as the configuration of FIG. 1 except the block of the dotted line as shown in FIG. In addition, the components necessary for the print processing that enables a free layout may be the configuration of FIG. 33 from which the dotted line blocks are omitted, as shown in FIG.

【0284】このように、この実施例は、カード下地画
像データと文字画像表示位置座標データ、顔画像表示位
置座標データおよび文字画像の色データから成る画像デ
ータをカードフォーマットデータとして用意し、そのデ
ータを保存すると共に、カードフォーマットデータ中の
カード下地画像データを読み出して、画像メモリ上に書
き込むようにし、また、カードフォーマットデータ中の
文字画像表示位置座標データを読み出して、その座標値
より文字画像の入る領域サイズを算出し、個人情報デー
タ中の文字データを読み出して、その文字数と前記領域
サイズより1文字当りのフォント文字サイズを算出し、
また、個人情報データ中の文字データを読み出して、上
記算出したフォント文字サイズで文字画像データを作成
するようにし、カードフォーマットデータ中の顔画像表
示位置座標データを読み出して、その座標値より顔画像
の入る領域サイズを算出し、個人情報データ中の顔画像
データを読み出して、上記算出した顔画像領域サイズに
切り出すようにし、切り出された顔画像データと前述し
た文字画像データを画像メモリ上に合成してこれをカー
ドイメージデータとして、プリント出力するようにした
ものである。
As described above, in this embodiment, the image data including the card base image data, the character image display position coordinate data, the face image display position coordinate data, and the character image color data is prepared as the card format data, and the data is prepared. The card base image data in the card format data is read out and written to the image memory, and the character image display position coordinate data in the card format data is read out and the character image The area size to be entered is calculated, the character data in the personal information data is read, and the font character size per character is calculated from the number of characters and the area size,
Also, the character data in the personal information data is read to create character image data in the font character size calculated above, the face image display position coordinate data in the card format data is read, and the face image is calculated from the coordinate values. Area size is calculated, the face image data in the personal information data is read out, and the face image area size calculated above is cut out, and the cut out face image data and the above-mentioned character image data are combined on the image memory. Then, this is printed out as card image data.

【0285】従って、カードフォーマットデータを変更
するだけで、文字サイズや色等を自由に変更でき、ま
た、文字画像は文字画像の入る領域サイズと文字数にに
合わせて生成されるので、文字配列および大きさのバラ
ンスのとれたIDカードを得ることができるようにな
る。
Therefore, the character size, color, etc. can be freely changed only by changing the card format data, and the character image is generated in accordance with the area size and the number of characters in which the character image is inserted. It becomes possible to obtain an ID card with a well-balanced size.

【0286】また、カードフォーマットデータ中の文字
画像表示位置座標データより、文字画像の入る領域内に
あるカード下地画像データを一時保存しておき、プリン
ト後に別の人のカードをプリントする場合には、一時保
存したカード下地画像データを読出し、画像メモリ上の
文字画像部をこの保存したカード下地画像に置換してか
ら新たな文字画像を書き込むようにしたので、多人数分
のIDカードを作成する場合に、時間のかかるイメージ
作成はその大部分を前の人に使用したイメージデータそ
のままを使用し、部分的に再作成するようにしたことか
ら、イメージデータを短時間で作成できるようになり、
能率良くIDカードをプリントすることができるように
なる。
In the case of temporarily storing the card background image data in the character image area based on the character image display position coordinate data in the card format data and printing another person's card after printing. Since the card background image data temporarily stored is read out and the character image portion in the image memory is replaced with the stored card background image and a new character image is written, an ID card for a large number of people is created. In that case, most of the time-consuming image creation uses the image data used for the previous person as it is, and it is possible to recreate it partially, so it becomes possible to create image data in a short time,
You will be able to print ID cards efficiently.

【0287】以上はプリントするIDカード画像のイメ
ージデータの書き替えを短時間で済ませるものである
が、IDカード画像の文字情報は文字フォントで形成す
るようにしており、文字領域のサイズや文字数等に応じ
て文字サイズが変わるようにした本システムでは表示部
に表示されたIDカードの画像を見た際に文字サイズに
より線のぎざぎざが気に掛かる。つまり、IDカード画
像はビデオプリンタによりプリントされるばかりでな
く、ディスプレイにも表示されて、見ることができる
が、文字サイズによる線の段差が気にかかる。
[0287] In the above, the image data of the ID card image to be printed can be rewritten in a short time. However, the character information of the ID card image is formed in a character font, and the size of the character area, the number of characters, etc. In the present system in which the character size is changed according to the above, when the image of the ID card displayed on the display unit is viewed, the jaggedness of the line is anxious depending on the character size. That is, the ID card image can be viewed not only by being printed by the video printer but also by being displayed on the display, but the line level difference due to the character size is a concern.

【0288】従って、文字サイズに係わりなく、高品位
の文字画像を表示できるようにする実施例を第6実施例
として次に述べる。
Therefore, a sixth embodiment in which a high-quality character image can be displayed regardless of the character size will be described below.

【0289】また、IDカードの配色の取合わせの自由
度を高めるために、文字色は自由に選択できるが、フル
カラーの場合、フレームメモリの容量が問題になる。そ
こでフレームメモリの容量を最小限に抑えてシステムコ
ストを抑制した例も合わせて第6実施例で述べる。
Further, in order to increase the degree of freedom in assembling the color arrangement of the ID card, the character color can be freely selected, but in the case of full color, the capacity of the frame memory becomes a problem. Therefore, an example in which the system cost is suppressed by minimizing the capacity of the frame memory will be described in the sixth embodiment.

【0290】(第6実施例)ここで、少しバックグラウ
ンドについて触れておく。IDカードのプリントにおい
ては、文字品位を向上させるために、アウトラインフォ
ントデータを使用する例が多い。
(Sixth Embodiment) Here, the background is briefly mentioned. In printing of ID cards, outline font data is often used to improve the character quality.

【0291】アウトラインフォントデータを使用して、
フルカラーで文字を表示する場合、フルカラーを実現す
るため、3以上の階調数を有するフレームメモリを原色
の数だけ使用する。すなわち、必要な階調数および画素
数のビット容量を持つフレームメモリを、RGBの三原
色分、使用する。
Using outline font data,
When displaying characters in full color, in order to realize full color, the number of frame memories having three or more gradation levels is used for the number of primary colors. That is, a frame memory having a required number of gradations and a required bit capacity of pixels is used for the three primary colors of RGB.

【0292】その際、アウトラインフォントデータから
フルカラーのビットイメージを得るには、様々な処理を
行う必要があるため、表示装置のドット数に対応したフ
レームメモリの容量だけでは、不足する。このため、フ
レームメモリとは別に大容量の画像処理用のメモリが用
意されており、フレームメモリと合わせて極めて大量の
メモリが搭載されている。
At this time, in order to obtain a full-color bit image from the outline font data, various processes need to be performed, so that the capacity of the frame memory corresponding to the number of dots of the display device is insufficient. Therefore, a large-capacity memory for image processing is prepared separately from the frame memory, and an extremely large amount of memory is mounted together with the frame memory.

【0293】また、低解像度の表示装置で、文字を表示
した場合に現れるエイリアシング(斜めの線における段
差)を低減するための一手法として、平均化によるアン
チエイリアシング処理(アウトラインが通る画素上の理
論的な通過位置に合わせた階調調整による段差の低減化
手法)が行われるが、この際の平均化アルゴリズムは、
平均化処理の単位となるブロックと文字のアウトライン
との位置関係に依存しないものが使用される。
As a method for reducing aliasing (steps in diagonal lines) that appears when a character is displayed on a low-resolution display device, an anti-aliasing process by averaging (the theory on pixels through which an outline passes) The method of reducing the level difference by adjusting the gradation according to the specific passing position is performed, and the averaging algorithm at this time is
The one that does not depend on the positional relationship between the block serving as the unit of the averaging process and the outline of the character is used.

【0294】さらに、平均化処理の際ブロックサイズに
は、表示装置上での文字サイズ、つまり表示装置上での
文字構成ドット数にかかわらず、文字濃度値は特定の一
定値を用いるのが一般的である。
Further, in the averaging process, a specific fixed value is generally used as the character density value regardless of the character size on the display device, that is, the number of dots constituting the character on the display device. Target.

【0295】ここで、アウトラインフォントデータによ
るプリントの問題点を考えてみる。
Now, let us consider the problem of printing with outline font data.

【0296】IDカードはフレームメモリから読出した
データのビデオ信号をビデオプリンタによりプリントし
て作成する。そして、IDカードは顔画像を含めてカラ
ー像としてあるので、品位を確保するには3以上の階調
数を持つフレームメモリを原色分、用意する。
The ID card is created by printing the video signal of the data read from the frame memory with a video printer. Since the ID card is a color image including the face image, a frame memory having three or more gradations is prepared for each primary color in order to ensure quality.

【0297】一方、アウトラインフォントデータはラス
タ化されて、2階調のデータになる。従って、ラスタ化
された場合には2階調の容量のフレームメモリで良いこ
とになる。
On the other hand, the outline font data is rasterized into data of two gradations. Therefore, in the case of rasterization, a frame memory having a capacity of 2 gradations is sufficient.

【0298】しかし、表示装置上での文字のアウトライ
ンは、斜めの線についてエイリアシングが生じるので、
これを低減するために、アンチエイリアシング処理を行
う。アンチエイリアシング処理は画素中における理論上
の文字アウトラインの通過位置の割合に応じた濃度に階
調調整をする処理であるから、アンチエイリアシング処
理を施した画像データは3以上の多階調データとなる。
従って、アンチエイリアシング処理には3以上の階調数
を持つフレームメモリを必要とするが、まず、始めにア
ウトラインフォントデータはラスタ化するために2階調
のデータにし、これをアンチエイリアシング処理するの
で、3以上の階調数を持つフレームメモリを使用してい
る。
However, in the outline of the character on the display device, aliasing occurs in a diagonal line, and therefore,
In order to reduce this, anti-aliasing processing is performed. Since the anti-aliasing process is a process for adjusting the gradation to the density according to the theoretical ratio of the passage position of the character outline in the pixel, the image data subjected to the anti-aliasing process becomes multi-gradation data of 3 or more. .
Therefore, the anti-aliasing processing requires a frame memory having a gradation number of 3 or more. First, the outline font data is first converted into 2-gradation data for rasterization, and the anti-aliasing processing is performed. A frame memory having three or more gradations is used.

【0299】このように、アウトラインフォントデータ
のラスタ化の際にも3以上の階調数を持つフレームメモ
リを使用することになると、2階調のデータであるとこ
ろ、3以上の階調に対応するビット数のデータとなって
しまい、アンチエイリアシング処理にあたって元のデー
タのビット数が無用に多くなる分、処理時間を無駄にす
る。
As described above, when the frame memory having the gradation number of 3 or more is used also when the outline font data is rasterized, the data of 2 gradations corresponds to the gradation of 3 or more. However, the processing time is wasted because the number of bits of the original data is unnecessarily increased in the anti-aliasing process.

【0300】従って、このような無駄をなくすことが、
ビデオIDフォトシステムの処理時間の低減にも繋が
る。
Therefore, eliminating such waste is
It also leads to a reduction in the processing time of the video ID photo system.

【0301】また、文字を図形としてとらえると、文字
は、多くの線、しかも直線によって構成されていると云
う特徴がある。これは、特に漢字において顕著な傾向で
ある。そして、平均化によりアンチエイリアシング処理
を行うと、漢字の「一」や「川」などのように水平、あ
るいは垂直方向に長い直線部分が存在する場合、視覚
上、その部分の輪郭のぼやけが目立つことがある。
When the character is regarded as a figure, the character is characterized in that it is composed of many lines and straight lines. This is a remarkable tendency especially in Kanji. When antialiasing processing is performed by averaging, when there is a straight line part that is long in the horizontal or vertical direction such as "one" or "river" of Chinese characters, the blurring of the outline of that part is noticeable. Sometimes.

【0302】これは、平均化処理の際、文字を構成する
直線の輪郭が、長方形ブロックの一辺に平行に、しかも
ブロックのドットの一部だけを占めるように存在するた
め、演算結果の濃度値が背景の濃度値の影響を受けてコ
ントラストが低下してしまい、しかも、この現象が連続
して多くのブロックに現れるためである。
This is because, during the averaging process, the contour of the straight line forming the character exists in parallel with one side of the rectangular block and occupies only a part of the dot of the block. The reason is that the contrast is reduced due to the influence of the background density value, and this phenomenon continuously appears in many blocks.

【0303】つまり、アンチエイリアシング処理は画素
中における理論上の文字アウトラインの通過位置の割合
に応じた濃度に階調調整をする処理であり、平均化によ
る場合、通常、背景部分が含まれるときは、これも合わ
せて平均化するから、背景色の含まれる割合に応じた影
響が生じる。従って、これによりコントラストの低下が
生じることがあり、このような部分は視覚的にはぼけた
ように見える。
That is, the anti-aliasing process is a process for adjusting the gradation to the density according to the ratio of the theoretical character outline passing position in the pixel. In the case of averaging, when the background part is included, However, since this is also averaged, there is an influence depending on the ratio of the background color. Therefore, this may result in a loss of contrast, and such areas appear visually blurred.

【0304】このように、文字の持つ図形としての特徴
により、アンチエイリアシング処理の結果、表示された
文字の品質が劣化してしまうことがある。そして、この
表示画像をプリントすることになるので、プリントされ
たIDカードも当然のことながら、文字部分にはアンチ
エイリアシング処理の影響を受けて文字品質が劣化して
しまう。
As described above, due to the characteristics of the character as a graphic, the quality of the displayed character may deteriorate as a result of the anti-aliasing process. Since the displayed image is printed, the printed ID card naturally suffers from the influence of the anti-aliasing process on the character portion, and the character quality deteriorates.

【0305】ところで、エイリアシングは、元の図形を
ラスタ化するときのサンプリングレイトが、図形の複雑
さに比べて低いために起こる現象である。このため表示
装置上での文字サイズ、つまり表示装置上での文字構成
ドット数が多くなれば、エイリアシングの発生は軽減さ
れると云う傾向があり、アンチエイリアシング処理の効
果は少なくなる。
Aliasing is a phenomenon that occurs when the original graphic is rasterized and the sampling rate is low compared to the complexity of the graphic. For this reason, if the character size on the display device, that is, the number of character-constituting dots on the display device increases, the occurrence of aliasing tends to be reduced, and the effect of the anti-aliasing process decreases.

【0306】一方、平均化によるアンチエイリアシング
処理は、文字を構成するドット数が多くなると、演算回
数が増加するため、大きい文字を表示しようとすると、
時間がかかる。
On the other hand, in the anti-aliasing processing by averaging, the number of calculations increases as the number of dots forming a character increases, so if a large character is displayed,
take time.

【0307】以上のことから、文字の大きさにかかわら
ず、同じ大きさのブロックサイズで平均化処理を行って
しまうと、大きい文字になるほど過剰なアンチエイリア
シング処理を施すことになり、視覚上、小さい文字の表
示品質が相対的に悪くなってしまう。
From the above, regardless of the character size, if the averaging process is performed with the same block size, excessive anti-aliasing process is applied to larger characters. The display quality of small characters is relatively poor.

【0308】これを解決するために、本実施例では文字
構成ドット数を増やし、エイリアシングの低減のために
行うアンチエイリアシング処理は文字のアウトラインが
斜めである場合に対して行い、他では一定値にすると云
った処理にし、また、アンチエイリアシング処理に関す
る必要な種々の演算(平均化ブロック分けやアウトライ
ンが斜行か平行かの判断、アンチエイリアシング処理自
体など)の負担を低減するために、当該アンチエイリア
シング処理に関する必要な種々の演算は、2階調のビッ
トイメージデータを使用するようにする。
In order to solve this, in the present embodiment, the number of dots forming characters is increased, and the anti-aliasing process performed to reduce aliasing is performed when the outline of the character is slanted, and is fixed at other values. In order to reduce the load of various operations necessary for anti-aliasing processing (averaging block division, judgment whether outlines are skewed or parallel, anti-aliasing processing itself, etc.), the anti-aliasing processing is performed. The various operations required for use binary bit image data.

【0309】従って、2階調のフレームメモリからなる
第一の画像記憶装置と、3以上の階調数を有するフレー
ムメモリを原色の数だけ有する第二の画像記憶装置とを
設け、アウトラインフォントをラスタ化して得られた2
階調のデータは、2階調の第一の画像記憶装置で扱い、
アンチエイリアシングに関する種々の演算を行って得た
最終的な表示画像のイメージデータは、3以上の階調を
有する第二の画像記憶装置で扱うようにする。
Therefore, a first image storage device having a 2-gradation frame memory and a second image storage device having a frame memory having a gradation number of 3 or more for the number of primary colors are provided and outline fonts are provided. 2 obtained by rasterizing
The gradation data is handled by the first image storage device with 2 gradations,
The image data of the final display image obtained by performing various calculations regarding anti-aliasing is handled by the second image storage device having three or more gradations.

【0310】そして、表示装置上での文字サイズ、つま
り表示装置上での一文字を構成するドット数に応じて平
均化処理を行う際のブロックサイズを決定し、このと
き、表示装置上の文字サイズが大きいほど、ブロックサ
イズは小さくする。これは、表示装置の画素サイズが一
定であれば、文字サイズが大きくなるほど、文字を構成
するドット数が増大し、ビットイメージ展開時のサンプ
リングレイトが高くなり、エイリアシングが軽減される
ためである。
Then, the block size for the averaging process is determined according to the character size on the display device, that is, the number of dots forming one character on the display device. At this time, the character size on the display device is determined. Is larger, the block size is smaller. This is because if the pixel size of the display device is constant, the larger the character size, the larger the number of dots forming the character, the higher the sampling rate at the time of developing the bit image, and the less aliasing.

【0311】つぎに、アウトラインデータとして保持す
る文字イメージは、第一の画像記憶装置に2階調のビッ
トイメージとして展開し、その際、平均化処理によって
減少する文字構成ドット数を補うように、文字を拡大し
て展開する。
Next, the character image held as the outline data is developed as a bit image of two gradations in the first image storage device, and at that time, the number of character constituent dots decreased by the averaging process is supplemented. Expand the character and expand it.

【0312】第一の画像記憶装置に展開されたビットイ
メージは、平均化のブロックサイズを単位として、順
次、取り込んで各ピクセルの2値データを平均化するこ
とによって、アンチエイリアシング処理を施す。この2
値データを平均化するアンチエイリアシング処理によ
り、演算の負荷を低減する。
The bit image developed in the first image storage device is sequentially fetched in units of the averaging block size, and the binary data of each pixel is averaged to perform anti-aliasing processing. This 2
The calculation load is reduced by the anti-aliasing process that averages the value data.

【0313】アンチエイリアシング処理の際、適用する
平均化のアルゴリズムの特徴は、長方形ブロック内を横
切る文字のアウトラインの位置が、長方形ブロックの一
辺と平行になっている場合は、そのブロックの処理結果
を、予め決められた一定値にすることである。
A feature of the averaging algorithm applied during the anti-aliasing process is that if the position of the outline of the character that crosses the rectangular block is parallel to one side of the rectangular block, the processing result of that block is , To a predetermined constant value.

【0314】アンチエイリアシング処理を施した多階調
データを、文字色を規定する各原色の成分で重み付けし
て、第二の画像記憶装置を構成する各原色の多階調ビッ
トイメージを保存するためのフレームメモリに転送す
る。これを読出してビデオ信号化し、表示に供すること
により、ぼけのないフルカラーの文字を得る。
In order to store the multi-gradation bit image of each primary color forming the second image storage device by weighting the anti-aliasing-processed multi-gradation data with each primary color component defining the character color. To the frame memory. By reading this out, converting it into a video signal and using it for display, full-color characters without blur are obtained.

【0315】詳細を説明する。本実施例は、図34に示
すように、装置全体の制御および演算処理を行う中央処
理装置410、アウトラインフォントデータを保存して
おくハードディスクドライブ411、演算結果などのデ
ータを一時的に保存しておくメモリ414、2階調フレ
ームメモリ412、RGB各色に対応した256階調フ
レームメモリ416,〜418、およびモニタ415か
らなる。
Details will be described. In the present embodiment, as shown in FIG. 34, a central processing unit 410 that controls the entire apparatus and performs arithmetic processing, a hard disk drive 411 that stores outline font data, and temporarily stores data such as arithmetic results. It includes a memory 414 to be set, a 2-gradation frame memory 412, 256-gradation frame memories 416 to 418 corresponding to RGB colors, and a monitor 415.

【0316】文字画像をモニタ415に表示するまでの
処理手順は、中央処理装置410によって以下に示す通
り実施される。
The processing procedure until the character image is displayed on the monitor 415 is carried out by the central processing unit 410 as follows.

【0317】まず、中央処理装置410の制御によって
表示すべき文字の文字コードが与えられると、ハードデ
ィスクドライブ411に保存されているアウトラインフ
ォントデータファイルから、その文字コードに対応する
アウトラインフォントデータが読み出される。そして、
中央処理装置410はこのアウトラインフォントデータ
をラスタ変換して、2階調フレームメモリ412上に文
字のビットイメージを作成する。
First, when the character code of a character to be displayed is given under the control of the central processing unit 410, the outline font data corresponding to the character code is read from the outline font data file stored in the hard disk drive 411. . And
The central processing unit 410 raster-converts the outline font data to create a bit image of a character on the 2-gradation frame memory 412.

【0318】この際、後で行われるアンチエイリアシン
グ処理によって、文字を構成するピクセルの数が減少す
るので、これを補うために、ラスタ変換するときに文字
を拡大、つまり文字を構成するピクセルの数を、表示す
るときの数より多くしておく。
At this time, since the number of pixels forming a character is reduced by the anti-aliasing processing performed later, in order to compensate for this, the character is enlarged during raster conversion, that is, the number of pixels forming a character. Is larger than the number displayed.

【0319】このときの拡大率は、モニタ415上での
文字の大きさが、80×80ピクセルより大きいとき
は、縦横とも、もとのデータの2倍(ピクセルの数は4
倍)、また、80×80ピクセルより小さいときは、縦
横とも、もとのデータの4倍(ピクセルの数は16倍)
とする(図35のS1〜S4)。
When the character size on the monitor 415 is larger than 80 × 80 pixels, the enlargement ratio at this time is twice the original data both vertically and horizontally (the number of pixels is 4).
If the size is smaller than 80 × 80 pixels, it is 4 times the original data both vertically and horizontally (the number of pixels is 16 times).
(S1 to S4 in FIG. 35).

【0320】2階調フレームメモリ412に展開された
文字のラスタデータは、平均化処理のためのブロックを
単位として中央処理装置410に読み出され、n×nピ
クセルの平均化ブロックに分割される(図35のS
5)。ブロックのサイズは、モニタ415上での文字の
大きさが、80×80ピクセルより大きいときは、ブロ
ックサイズを2×2ピクセルに、80×80ピクセルよ
り小さいときは4×4ピクセルである。
The raster data of characters expanded in the 2-gradation frame memory 412 is read by the central processing unit 410 in units of blocks for averaging processing and divided into n × n pixel averaging blocks. (S in FIG. 35
5). The block size is 2 × 2 pixels when the character size on the monitor 415 is larger than 80 × 80 pixels, and 4 × 4 pixels when the character size on the monitor 415 is smaller than 80 × 80 pixels.

【0321】このように、平均化処理の際のブロックサ
イズを、表示する際の文字の大きさに応じて変化させる
ことによって、エイリアシングが目立たない80×80
ピクセルより大きい文字では、軽度のアンチエイリアシ
ング処理で済ませ、文字表示のための時間短縮、2階調
のフレームメモリの節約を図っている。
As described above, by changing the block size in the averaging process according to the size of the characters to be displayed, aliasing is not conspicuous 80 × 80.
For characters larger than pixels, a slight anti-aliasing process is sufficient to shorten the time for displaying characters and to save the frame memory of 2 gradations.

【0322】次に、中央処理装置410は読出したブロ
ックの各ピクセルの値を調べ、“0”と“1”が混在し
ているか否かを調べることによって、そのブロックを文
字のアウトラインが横切っているか否かを調べる(図3
5のS6)。
Next, the central processing unit 410 examines the value of each pixel of the read block to see if "0" and "1" are mixed, so that the character outline crosses the block. Check whether or not (Fig. 3
5 S6).

【0323】その結果、横切っていないならば、ブロッ
ク内の一つのピクセルの値を調べて、“1”ならば、そ
のブロックの演算結果を“1”に、そうでなければブロ
ックの演算結果を“0”とする(図35のS10〜S1
2)。
As a result, if it does not cross, the value of one pixel in the block is checked, and if it is "1", the operation result of the block is set to "1". Set to “0” (S10 to S1 in FIG. 35)
2).

【0324】もし、ブロックを文字のアウトラインが横
切っているならば、そのアウトラインがブロックの一辺
と平行になっているか否かを調べる(図35のS7)。
その際、文字通り、アウトラインがブロックの一辺と平
行である場合(図36の(b)の場合)に加えて、図3
6の(a)のような場合も平行であると判断する。
If the character outline crosses the block, it is checked whether or not the outline is parallel to one side of the block (S7 in FIG. 35).
At that time, in addition to the case where the outline is literally parallel to one side of the block (case of FIG. 36 (b)),
Even in the case of (a) of 6, it is determined that the two are parallel.

【0325】つまり、図36は読出した平均化ブロック
B内を横切るアウトラインOLと、そのブロックBの辺
の関係を示した図であり、平均化ブロックBの一辺と文
字のアウトラインOLが平行であるとする場合として、
(a)に示すように、文字のアウトラインOLが平均化
ブロックBの対向する二辺を横切り、そのようなブロッ
クBが文字の表示領域の幅の1/2以上の長さで連なっ
ている場合をアウトラインとブロックの一辺が平行であ
ると見做すようにしても良い。
That is, FIG. 36 is a diagram showing the relationship between the outline OL that crosses the read out averaging block B and the side of the block B. One side of the averaging block B and the outline OL of the character are parallel. And if
As shown in (a), when the character outline OL crosses two opposite sides of the averaging block B, and such blocks B are continuous at a length of ½ or more of the width of the character display area. May be considered to be parallel to the outline and one side of the block.

【0326】また、(b)に示すように、文字通り平行
な場合であっても、平行と判断されたブロックBがm個
以上の長さで連なっている場合に、初めて平行としての
処理を実施するようにしても良い。このmの値は文字の
タイプなどから適宜設定される。
Further, as shown in (b), even in the case of being literally parallel, if the blocks B judged to be parallel are continuous for a length of m or more, the processing as parallel is performed for the first time. It may be done. The value of this m is appropriately set based on the character type and the like.

【0327】図35のステップS7における判定の結
果、もし平行になっていると判断した場合は、このブロ
ックの演算結果を“1”にする(図35のS8)。尚、
平行と判断した場合に、そのブロックに属する各ピクセ
ルの濃度を調べて、濃度“1”のピクセルの数がブロッ
ク内の全ピクセル数の1/2以上の場合は、ブロックの
演算結果を“1”に、そうでない場合は演算結果を
“0”にすると云うようにしても良い。
If the result of determination in step S7 of FIG. 35 is that they are parallel, the operation result of this block is set to "1" (S8 of FIG. 35). still,
When it is determined that the pixels are parallel, the density of each pixel belonging to the block is checked. If the number of pixels having the density “1” is ½ or more of the total number of pixels in the block, the calculation result of the block is “1”. It is also possible to say that the calculation result is set to “0”, otherwise the calculation result is set to “0”.

【0328】この処理を行うことによって、漢字の
「一」や「川」などのように、水平、あるいは垂直方向
に長い直線部分が存在する文字で、直線部分の輪郭のコ
ントラストが低下することを防ぐことができる。
By carrying out this processing, it is possible to reduce the contrast of the contour of a straight line portion in a character such as a Chinese character "ichi" or "kawa" which has a long straight line portion in the horizontal or vertical direction. Can be prevented.

【0329】また、図34のステップS7における判定
の結果、もし平行になっていないと判定した場合には、
読み出したブロック内の各ピクセルの2値データは、す
べて合算され、ブロック内のピクセル数で割ることによ
り平均化処理され、これがブロックの演算結果つまりモ
ニタ415上での1ピクセルの濃度値となる(図35の
S9)。
If the result of determination in step S7 in FIG. 34 is that they are not parallel,
The binary data of each pixel in the read block are all summed and averaged by dividing by the number of pixels in the block, which is the calculation result of the block, that is, the density value of 1 pixel on the monitor 415 ( 35, S9).

【0330】平均化処理を具体的に説明すると、例え
ば、図37に示すように平均化ブロックBがあり、その
ブロック内のピクセルPの数が4×4(16ピクセル)
であり、文字のアウトラインOLが図のように横切って
いるとする。文字はアウトラインOLの右下側に広がる
とすると、文字のイメージデータは黒く塗り潰した部分
のピクセルで構成される。
Explaining the averaging process concretely, for example, as shown in FIG. 37, there is an averaging block B, and the number of pixels P in the block is 4 × 4 (16 pixels).
And the outline OL of the character crosses as shown in the figure. Assuming that the character spreads to the lower right side of the outline OL, the image data of the character is composed of pixels in a blackened portion.

【0331】黒く塗り潰した部分のピクセル数は13個
であり、平均化ブロックB全体のピクセル数は16個で
あるから、平均化ブロックBの濃度Wは黒く塗り潰した
部分のピクセル数13を平均化ブロックB全体のピクセ
ル数は16個で割ったW=13/16となる。これが平
均化処理である。
Since the number of pixels in the black-painted portion is 13, and the number of pixels in the entire averaging block B is 16, the density W of the averaging block B is obtained by averaging 13 pixels in the black-painted portion. The number of pixels in the entire block B is W = 13/16 divided by 16. This is the averaging process.

【0332】このような処理が終わると、中央処理装置
410はつぎに平均化処理の結果w(0≦w≦1)、文
字の色指定するRGB値(CR 、CG 、CB )、および
背景の色を指定するRGB値(BR 、BG 、BB )の各
データを用いて、以下の計算式によって表される演算処
理を行う(図35のS13)。
[0332] When such processing is completed, the result of the averaging process to the central processing unit 410 Hatsugi w (0 ≦ w ≦ 1) , RGB value that specifies the color of the character (C R, C G, C B), and RGB value that specifies the color of the background (B R, B G, B B) with each data, performs arithmetic processing expressed by the following equation (S13 in FIG. 35).

【0333】但し、(DR 、DG 、DB )は、256階
調のフレームメモリ416,〜418の、あるピクセル
のRGBそれぞれの濃度値で、0≦Ci 、Bi 、Di
255(但し、i=R,G,B)である。また、文字の
色、背景の色を指定するデータは、予めメモリ414の
所定の領域に保存されている。
However, (D R , D G , D B ) is the density value of each RGB of a certain pixel in the frame memories 416, 418 of 256 gradations, and 0 ≦ C i , B i , D i
255 (however, i = R, G, B). Further, the data designating the character color and the background color is stored in advance in a predetermined area of the memory 414.

【0334】DR =CR ×w+BR ×(1−w) DG =CG ×w+BG ×(1−w) DB =CB ×w+BB ×(1−w) この結果は、RGBそれぞれに割り当てられた256階
調のフレームメモリ416,〜418に書き込まれる。
D R = C R × w + B R × (1-w) D G = C G × w + B G × (1-w) D B = C B × w + B B × (1-w) The result is RGB The data is written in the frame memories 416, 418 of 256 gradations assigned to each.

【0335】以上の処理を、2階調フレームメモリ41
2上のすべてのブロックについて繰り返すことにより、
1文字のビットイメージが、256階調のフレームメモ
リ416,〜418上に完成する(図35のS14,S
15)。そして、このフレームメモリ416,〜418
上データを読出し、ビデオ信号に変換してモニタ415
に表示すると、1600万色のフルカラー文字表示がで
きる。
The above processing is performed by the 2-gradation frame memory 41.
By repeating for all blocks on 2,
A bit image of one character is completed on the frame memories 416 and 418 of 256 gradations (S14 and S in FIG. 35).
15). Then, the frame memories 416 to 418
The upper data is read, converted into a video signal, and then monitored 415
The full-color characters of 16 million colors can be displayed by displaying in.

【0336】本実施例は図20および図21に示す構成
要素で実現されるが、各要素を図1の構成要素に当て嵌
めてみると、中央処理装置410はプロセッサ109に
該当するもので、コントローラ109aと画像処理部1
09bおよび検索処理部109cの機能に該当し、アウ
トラインフォントデータを保存しておくハードディスク
ドライブ411は文字データベースメモリ107に該当
し、演算結果などのデータを一時的に保存しておくメモ
リ414はプロセッサ109に包含され、2階調フレー
ムメモリ412は2階調メモリ144に該当し、RGB
各色に対応した256階調フレームメモリ416,〜4
18はフレームメモリ103に、そして、モニタ415
は画像表示部105に該当する。
This embodiment is realized by the components shown in FIGS. 20 and 21, but when each component is applied to the components of FIG. 1, the central processing unit 410 corresponds to the processor 109. Controller 109a and image processing unit 1
09b and the function of the search processing unit 109c, the hard disk drive 411 that stores outline font data corresponds to the character database memory 107, and the memory 414 that temporarily stores data such as calculation results is the processor 109. The 2-gradation frame memory 412 corresponds to the 2-gradation memory 144.
256 gradation frame memories 416 to 4 corresponding to each color
18 in the frame memory 103, and the monitor 415
Corresponds to the image display unit 105.

【0337】従って、ここでの処理に必要な構成要素は
図1の構成に対して図38の如く、点線のブロックを除
いた構成で良い。
Therefore, the components necessary for the processing here may be the configuration of FIG. 38 from which the dotted line blocks are removed, as shown in FIG.

【0338】要するにこの実施例は、文字構成ドット数
を増やし、エイリアシングの低減のために行うアンチエ
イリアシング処理は文字のアウトラインが斜めである場
合に対して行い、他では一定値にすると云った処理とす
るようにしたものであり、また、平均化ブロック分けや
アウトラインが斜行か平行かの判断、アンチエイリアシ
ング処理自体などアンチエイリアシング処理に関する必
要な種々の演算の負担を低減するために、当該種々の演
算は2階調のビットイメージデータを使用するようにし
たものである。
In summary, in this embodiment, the anti-aliasing process for increasing the number of dots forming characters and reducing aliasing is performed when the outline of a character is oblique, and is set to a constant value in other cases. In addition, in order to reduce the burden of various calculations required for anti-aliasing processing such as averaging block division, judgment whether the outline is skewed or parallel, and anti-aliasing processing itself, Is for using 2-gradation bit image data.

【0339】文字表示のための処理時間が短縮でき、ま
た、アンチエイリアシング処理は斜行する線のみ濃度の
平均化を行い、他は一定値にする処理としたので、水
平、あるいは垂直方向に長い直線部分が存在する文字
で、直線部分の輪郭のコントラストが低下することを防
ぐことができる。
The processing time for displaying characters can be shortened, and in the anti-aliasing processing, the density is averaged only for the diagonal lines and the other is set to a constant value. Therefore, it is long in the horizontal or vertical direction. It is possible to prevent the contrast of the contour of the straight line portion from being lowered by the character having the straight line portion.

【0340】尚、本発明は上記した実施例に限定するも
のではなく、要旨を変更しない範囲内で適宜変形して実
施し得る。
The present invention is not limited to the above-mentioned embodiments, but can be modified and implemented as appropriate without departing from the scope of the invention.

【0341】[0341]

【発明の効果】本発明はIDナンバーとこのIDナンバ
ーに該当する氏名情報とを保持し、検索するデータベー
スを設け、予め、IDナンバーによる予定者リストを作
成して与えると、データベースよりこのIDナンバーに
該当する氏名情報とを検索し、表示部にこれを表示する
ようにし、表示された予定者リストの中から、撮影した
い人を指定して、その人の顔画像を顔画像撮影手段によ
り撮影すると、その顔画像は画像データに変換され、制
御手段はIDナンバーとの対応のもとにこの顔画像の画
像データを画像データベースに保存させることができる
ようにしたものであり、また、プリントするときは、I
Dナンバーによる予定者リストを与えることにより、デ
ータベースからこのIDナンバーに該当する氏名情報と
を検索し、これらを文字情報として制御手段に与え、制
御手段はIDナンバーのリスト順に当該IDナンバー対
応の画像データを読出し、文字データと共にIDカード
下地画像に画像合成してIDカード画像を得ると云った
処理を順次行うと共に、この合成されたIDカード画像
をプリント手段により順次プリント出力するようにした
ものである。
According to the present invention, an ID number and name information corresponding to this ID number are held, a database for searching is provided, and a prospective person list based on the ID number is created and given in advance. Name information corresponding to is searched and displayed on the display unit, the person who wants to shoot is specified from the displayed prospective list, and the face image of that person is taken by the face image shooting means. Then, the face image is converted into image data, and the control means can save the image data of the face image in the image database in correspondence with the ID number, and print it. When I
By giving a list of prospective persons by the D number, the name information corresponding to this ID number is searched from the database, and these are given to the control means as character information, and the control means displays the images corresponding to the ID number in the order of the list of the ID numbers. The data is read out, the process of obtaining an ID card image by combining the character data with the ID card base image is sequentially performed, and the combined ID card image is sequentially printed out by the printing means. is there.

【0342】このように、撮影予定者のIDナンバーリ
ストデータ作成し、そのIDナンバーリストに従って順
に、顔画像を撮影してゆくことにより、IDナンバーと
の対応のもとに、個人々々の画像をデータベースに収集
でき、また、IDカード発行予定者のIDナンバーリス
トデータ作成して与えると、そのIDナンバーリストに
従って順に対応する顔画像とIDナンバーおよび個人名
を含むIDカード画像を作成し、プリントするので、情
報の入力ミスを防止できると共に、IDカードの発行を
手間をかけることなく短時間で行うことができるように
なる等、操作簡便にして高能率なビデオIDフォトシス
テムを提供できる。
In this way, the ID number list data of the person who is going to be photographed is created, and the face images are photographed in order in accordance with the ID number list. Can be collected in a database, and when the ID number list data of the prospective ID card issuer is created and given, an ID card image including the corresponding face image, ID number and individual name is created in accordance with the ID number list and printed. As a result, it is possible to provide a highly efficient video ID photo system that is simple in operation, such as preventing input mistakes of information and being able to issue an ID card in a short time without any trouble.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の全体構成を示すブロック図。FIG. 1 is a block diagram showing the overall configuration of an embodiment of the present invention.

【図2】本発明の第1実施例を説明するための図であっ
て、図1の構成のうち、撮影を行う場合に必要な要素を
抽出して示したブロック図。
FIG. 2 is a diagram for explaining the first embodiment of the present invention, and is a block diagram in which elements necessary for shooting are extracted from the configuration of FIG. 1 and shown.

【図3】本発明の第1実施例を説明するための図。FIG. 3 is a diagram for explaining the first embodiment of the present invention.

【図4】本発明の第1実施例を説明するための図。FIG. 4 is a diagram for explaining the first embodiment of the present invention.

【図5】本発明の第2実施例を説明するための図。FIG. 5 is a diagram for explaining a second embodiment of the present invention.

【図6】本発明の第2実施例を説明するための図。FIG. 6 is a diagram for explaining the second embodiment of the present invention.

【図7】本発明の第2実施例を説明するための図。FIG. 7 is a diagram for explaining the second embodiment of the present invention.

【図8】本発明の第2実施例を説明するための図。FIG. 8 is a diagram for explaining a second embodiment of the present invention.

【図9】本発明の第3実施例の概念を表すシステムブロ
ック図。
FIG. 9 is a system block diagram showing the concept of a third embodiment of the present invention.

【図10】本発明の第3実施例を説明するための図。FIG. 10 is a diagram for explaining the third embodiment of the present invention.

【図11】本発明の第3実施例に用いる変換特性曲線の
一例を示す図。
FIG. 11 is a diagram showing an example of a conversion characteristic curve used in the third embodiment of the present invention.

【図12】本発明の第3実施例に用いる構成を示すブロ
ック図。
FIG. 12 is a block diagram showing a configuration used in a third embodiment of the present invention.

【図13】本発明の第4実施例を説明するための図。FIG. 13 is a diagram for explaining the fourth embodiment of the present invention.

【図14】本発明の第4実施例を説明するための図。FIG. 14 is a diagram for explaining the fourth embodiment of the present invention.

【図15】本発明の第4実施例を説明するための図。FIG. 15 is a diagram for explaining the fourth embodiment of the present invention.

【図16】本発明の第4実施例を説明するための図。FIG. 16 is a diagram for explaining the fourth embodiment of the present invention.

【図17】本発明の第4実施例を説明するための図。FIG. 17 is a diagram for explaining the fourth embodiment of the present invention.

【図18】本発明の第4実施例を説明するための図。FIG. 18 is a diagram for explaining the fourth embodiment of the present invention.

【図19】本発明の第4実施例を説明するための図。FIG. 19 is a diagram for explaining the fourth embodiment of the present invention.

【図20】本発明の第5実施例を説明するための図。FIG. 20 is a view for explaining the fifth embodiment of the present invention.

【図21】本発明の第5実施例を説明するための図。FIG. 21 is a diagram for explaining the fifth embodiment of the present invention.

【図22】本発明の第5実施例を説明するための図。FIG. 22 is a view for explaining the fifth embodiment of the present invention.

【図23】本発明の第5実施例を説明するための図。FIG. 23 is a diagram for explaining the fifth embodiment of the present invention.

【図24】本発明の第5実施例を説明するための図。FIG. 24 is a diagram for explaining the fifth embodiment of the present invention.

【図25】本発明の第5実施例を説明するための図。FIG. 25 is a view for explaining the fifth embodiment of the present invention.

【図26】本発明の第5実施例を説明するための図。FIG. 26 is a view for explaining the fifth embodiment of the present invention.

【図27】本発明の第5実施例を説明するための図。FIG. 27 is a view for explaining the fifth embodiment of the present invention.

【図28】本発明の第5実施例を説明するための図。FIG. 28 is a view for explaining the fifth embodiment of the present invention.

【図29】本発明の第5実施例を説明するための図。FIG. 29 is a view for explaining the fifth embodiment of the present invention.

【図30】本発明の第5実施例を説明するための図。FIG. 30 is a view for explaining the fifth embodiment of the present invention.

【図31】本発明の第5実施例を説明するための図。FIG. 31 is a view for explaining the fifth embodiment of the present invention.

【図32】本発明の第5実施例を説明するための図。FIG. 32 is a view for explaining the fifth embodiment of the present invention.

【図33】本発明の第5実施例を説明するための図。FIG. 33 is a view for explaining the fifth embodiment of the present invention.

【図34】本発明の第6実施例を説明するための図。FIG. 34 is a view for explaining the sixth embodiment of the present invention.

【図35】本発明の第6実施例における平行の判断例を
説明するための図。
FIG. 35 is a view for explaining an example of parallel judgment in the sixth embodiment of the present invention.

【図36】本発明の第6実施例の処理手順を示すフロー
チャート。
FIG. 36 is a flowchart showing the processing procedure of the sixth embodiment of the present invention.

【図37】本発明の第6実施例におけるアンチエイリア
シング処理の濃度平均化を説明するための図。
FIG. 37 is a diagram for explaining density averaging in the anti-aliasing processing according to the sixth embodiment of the present invention.

【図38】本発明の第6実施例の構成例を図1の構成に
当て嵌めた場合の構成を示すブロック図。
FIG. 38 is a block diagram showing the configuration of a sixth embodiment of the present invention, which is applied to the configuration of FIG. 1.

【図39】従来例を示すブロック図。FIG. 39 is a block diagram showing a conventional example.

【図40】従来例を示すブロック図。FIG. 40 is a block diagram showing a conventional example.

【符号の説明】[Explanation of symbols]

101…カラービデオカメラ 102…A
/D変換器 103…フレームメモリ 104…D
/A変換器 105…画像表示部 106…顔画像データベースとなる画像データベース 107…文字データベース 108…フォーマットデータ付カード画像メモリ 109…プロセッサ 109a…
コントローラ 109b…画像処理部 109c…
検索処理部 109d…リスト処理部 109e…
レイアウト処理部 110…表示変換部 111…文
字表示部 112…キーボード 114…2
値画像メモリ 115…ビデオプリンタ。
101 ... Color video camera 102 ... A
/ D converter 103 ... Frame memory 104 ... D
/ A converter 105 ... Image display unit 106 ... Image database serving as face image database 107 ... Character database 108 ... Card image memory with format data 109 ... Processor 109a ...
Controller 109b ... Image processing unit 109c ...
Search processing unit 109d ... List processing unit 109e ...
Layout processing unit 110 ... Display conversion unit 111 ... Character display unit 112 ... Keyboard 114 ... 2
Value image memory 115 ... Video printer.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 後藤 伸二 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Shinji Goto 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 顔画像を撮影して画像データに変換する
顔画像撮影手段と、 この画像データを顔画像データベースとしてIDナンバ
ーとの対応のもとに保存する画像データベースと、 撮影またはプリント予定者のIDナンバーリストを入力
する入力手段と、 IDナンバーとこのIDナンバーに該当する氏名情報と
を保持するを検索する第2のデータベースと、 上記IDナンバーリストに基づいて第2のデータベース
から氏名情報を得、表示部に表示する手段と、 撮影モ−ド時に上記顔画像撮影手段から得られた画像デ
ータを上記IDナンバーリスト上での選択したIDナン
バーに対応させて上記画像データベースに保存する第1
の制御機能およびプリントモ−ド時に上記IDナンバー
のリスト順に当該IDナンバー対応の画像データと文字
データを読出してIDカード下地画像と共に画像合成し
てIDカード画像を得る画像処理機能とを有する制御手
段と、 この制御手段により合成されたIDカード画像をプリン
ト出力するプリント手段とより構成したことを特徴とす
るビデオIDフォトシステム。
1. A face image capturing means for capturing a face image and converting it into image data, an image database for storing this image data as a face image database in correspondence with an ID number, and a person who plans to capture or print. Input means for inputting the ID number list, a second database for searching for holding the ID number and name information corresponding to this ID number, and name information from the second database based on the above ID number list. First, a means for displaying the image on the display unit and storing the image data obtained from the face image photographing means in the photographing mode in the image database in association with the selected ID number on the ID number list.
And a control means having an image processing function of reading the image data and the character data corresponding to the ID number in the list order of the ID numbers in the print mode and combining the images with the ID card base image to obtain the ID card image. A video ID photo system comprising a printing means for printing out an ID card image synthesized by the control means.
JP4282163A 1992-09-29 1992-09-29 Video id photosystem Withdrawn JPH06111083A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4282163A JPH06111083A (en) 1992-09-29 1992-09-29 Video id photosystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4282163A JPH06111083A (en) 1992-09-29 1992-09-29 Video id photosystem

Publications (1)

Publication Number Publication Date
JPH06111083A true JPH06111083A (en) 1994-04-22

Family

ID=17648925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4282163A Withdrawn JPH06111083A (en) 1992-09-29 1992-09-29 Video id photosystem

Country Status (1)

Country Link
JP (1) JPH06111083A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0854667A (en) * 1994-07-18 1996-02-27 Samsung Aerospace Ind Ltd Automatic monitoring equipment
JPH08112241A (en) * 1994-10-18 1996-05-07 Fuji Photo Optical Co Ltd Electronic endoscope connected to peripheral device
JP2000196908A (en) * 1998-12-21 2000-07-14 Eastman Kodak Co Method and device for correcting picture
JP2001014457A (en) * 1999-06-29 2001-01-19 Minolta Co Ltd Image processor
JP2002024396A (en) * 2000-06-30 2002-01-25 Fujitsu Ltd System for mediating care service, and recording medium
JP2002196410A (en) * 2000-12-27 2002-07-12 Toshiba Corp Face image photographing device and face image photographing method
JP2009246896A (en) * 2008-03-31 2009-10-22 Brother Ind Ltd Image processor
US8466929B2 (en) 2008-03-31 2013-06-18 Brother Kogyo Kabushiki Kaisha Image processor
JP2018074468A (en) * 2016-11-01 2018-05-10 凸版印刷株式会社 Image processing method
JP2018173991A (en) * 2018-07-09 2018-11-08 日本電気株式会社 Detection device
US10509955B2 (en) 2015-03-13 2019-12-17 Nec Corporation Living body detection device, living body detection method, and recording medium
JP2021047929A (en) * 2020-12-28 2021-03-25 日本電気株式会社 Information processor

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0854667A (en) * 1994-07-18 1996-02-27 Samsung Aerospace Ind Ltd Automatic monitoring equipment
JPH08112241A (en) * 1994-10-18 1996-05-07 Fuji Photo Optical Co Ltd Electronic endoscope connected to peripheral device
JP2000196908A (en) * 1998-12-21 2000-07-14 Eastman Kodak Co Method and device for correcting picture
JP2001014457A (en) * 1999-06-29 2001-01-19 Minolta Co Ltd Image processor
JP2002024396A (en) * 2000-06-30 2002-01-25 Fujitsu Ltd System for mediating care service, and recording medium
JP2002196410A (en) * 2000-12-27 2002-07-12 Toshiba Corp Face image photographing device and face image photographing method
JP2009246896A (en) * 2008-03-31 2009-10-22 Brother Ind Ltd Image processor
US8466929B2 (en) 2008-03-31 2013-06-18 Brother Kogyo Kabushiki Kaisha Image processor
US10546189B2 (en) 2015-03-13 2020-01-28 Nec Corporation Living body detection device, living body detection method, and recording medium
US10509955B2 (en) 2015-03-13 2019-12-17 Nec Corporation Living body detection device, living body detection method, and recording medium
US10528803B2 (en) 2015-03-13 2020-01-07 Nec Corporation Living body detection device, living body detection method, and recording medium
US10546190B2 (en) 2015-03-13 2020-01-28 Nec Corporation Living body detection device, living body detection method, and recording medium
US11132536B2 (en) 2015-03-13 2021-09-28 Nec Corporation Living body detection device, living body detection method, and recording medium
JP2018074468A (en) * 2016-11-01 2018-05-10 凸版印刷株式会社 Image processing method
JP2018173991A (en) * 2018-07-09 2018-11-08 日本電気株式会社 Detection device
JP2021047929A (en) * 2020-12-28 2021-03-25 日本電気株式会社 Information processor

Similar Documents

Publication Publication Date Title
US6549681B1 (en) Image synthesization method
EP1085464B1 (en) Method for automatic text placement in digital images
US6940526B2 (en) Image synthesizing apparatus
EP2797053B1 (en) Image compositing device and image compositing method
US9245195B2 (en) Apparatus, method and program for image search
JP4073156B2 (en) Image search device
US20020054112A1 (en) Image processing apparatus, image processing method, and a computer-readable storage medium containing a computer program for image processing recorded thereon
JP2000069304A (en) Image data management system, image data management method, and medium with image data management program recorded therein
JP4368513B2 (en) Image processing method and apparatus, and recording medium
JP2005202469A (en) Image processor, image processing method and program
US20010005427A1 (en) Method, apparatus and recording medium for image processing
JPH06111083A (en) Video id photosystem
JPH0568262A (en) Video id photo printer and face color converter
JPH1091761A (en) Picture processor
US20050200923A1 (en) Image generation for editing and generating images by processing graphic data forming images
JP4646735B2 (en) Image processing apparatus and image processing method
JP2001209802A (en) Method and device for extracting face, and recording medium
US7196816B2 (en) Method of applying trapping conditions
JP4348956B2 (en) Image layout apparatus, image layout method, and program in image layout apparatus
US7170638B2 (en) Method, system and recording medium for image processing
JP2001056867A5 (en)
JP2006059092A (en) Catchlight synthesis method
JP2007088831A (en) Image correction method and device, as well as program
JP2002298078A (en) Character display, its control method, record medium, and program
JP2008159049A (en) Image recording system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19991130