JPH05336374A - Image information compressing device - Google Patents

Image information compressing device

Info

Publication number
JPH05336374A
JPH05336374A JP4136724A JP13672492A JPH05336374A JP H05336374 A JPH05336374 A JP H05336374A JP 4136724 A JP4136724 A JP 4136724A JP 13672492 A JP13672492 A JP 13672492A JP H05336374 A JPH05336374 A JP H05336374A
Authority
JP
Japan
Prior art keywords
image
area
data
face
quantization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4136724A
Other languages
Japanese (ja)
Inventor
Junichi Ishibashi
純一 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP4136724A priority Critical patent/JPH05336374A/en
Publication of JPH05336374A publication Critical patent/JPH05336374A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To decrease data quantity while maintaining picture quality. CONSTITUTION:This device is composed of memory(MEM) 105 which holds inputted image data(DT) transiently, means 110, 118 which set the remarked area of an image on the memory 105 and other areas, a separation means 111 which distinguishes the area from the HEM classified by every set area and reads it out in block(BL) unit of prescribed pixel size, a quantization table 123 provided with plural pairs of tables(TBL) for quantization with different compressibility, a means 119 which discriminates the detail of the image in a read out BL, means 122, 124 which select the TBL defined corresponding to a discrimination result and the prescribed area of the read out BL from the quantization table, a means 113 which applies orthogonal transformation(DCT) to the image data read out by a reading means, a means 114 which performs the quantization on DCTed data by using a selected TBL, a means 115 which applies encode processing to quantized data, and a means 116 which multiplexes and outputs encoded data with position information and information for selection.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は顔写真をプリントに必要
な画質を保持しつつ、高い圧縮率で保存することができ
るようにした画像情報圧縮装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image information compression apparatus capable of storing a facial photograph at a high compression rate while maintaining the image quality required for printing.

【0002】[0002]

【従来の技術】文字、数値情報に比べて、画像情報は情
報量が大きなものとなるために記憶容量の制限や、処理
時間等の関係で制約が多く、従ってその利用が限られて
いた。しかしながら、近年においては画像情報機器の進
歩、発展に伴ってその制約が取り除かれつつある。
2. Description of the Related Art Image information has a large amount of information as compared with character and numerical information, so that there are many restrictions on the storage capacity, processing time, etc., and therefore its use is limited. However, in recent years, such restrictions are being removed along with the progress and development of image information devices.

【0003】ところで、画像が重要な役割を果たす分野
の一つにID(識別)分野がある。特に個人識別の分野
においては、古くから顔写真の重要性が認知されていて
銀鉛写真、インスタント写真などIDの目的で使用して
きた経緯がある。
By the way, one of the fields in which an image plays an important role is an ID (identification) field. Particularly in the field of personal identification, the importance of facial photographs has long been recognized, and it has been used for ID purposes such as silver lead photographs and instant photographs.

【0004】ところが、このような印画紙の情報では、
そのプリントそのもののみにしか情報は存在せず、電子
ファイルにしたり、加工したり、また複製することもで
きず、その応用できる用途が極めて限られたものとなっ
ていた。
However, in the information of such printing paper,
The information exists only in the print itself, and it cannot be converted into an electronic file, processed, or copied, and its application is extremely limited.

【0005】このような不具合を除くために顔写真の情
報を電気信号に変換して扱うことが知られている。例え
ば、図13は特開昭63‐316275号公報から引用
したものである。
In order to eliminate such a problem, it is known to convert face photograph information into an electric signal and handle it. For example, FIG. 13 is cited from Japanese Patent Laid-Open No. 63-316275.

【0006】同図はIDカード作成装置を示しており、
この装置では被写体1をカラーTVカメラ2で撮像し、
これによって得られた画像信号をA/D変換回路3によ
ってディジタル多階調信号に変換して、フレームメモリ
4に一時的に記録する。
FIG. 1 shows an ID card producing device,
In this device, the subject 1 is imaged by the color TV camera 2,
The image signal thus obtained is converted into a digital multi-gradation signal by the A / D conversion circuit 3 and temporarily recorded in the frame memory 4.

【0007】5は画信号処理回路で、フルカラービデオ
プリンタに適用されている色材の不正分光吸収要素によ
る色の濁りを除去するための演算などを行うものであ
る。6は装置全体の動作を制御するコントローラ、7は
入力用キーボード、8はフルカラービデオプリンタ部を
示している。
Reference numeral 5 denotes an image signal processing circuit, which performs calculations for removing color turbidity due to an incorrect spectral absorption element of a color material applied to a full-color video printer. Reference numeral 6 is a controller for controlling the operation of the entire apparatus, 7 is an input keyboard, and 8 is a full-color video printer unit.

【0008】キーボード7を操作し、これによってコン
トローラ6でグラフィックス画像や文字画像を発生さ
せ、フレームメモリ4に格納されていた被写体1の人物
画像と合成編集してIDカードの画面を作り、アナログ
変換してTV画像信号にしてからCRTに表示させ、こ
れによって光学像に変換し、これを光学系でカラー印画
紙に結像させ、露光させる。そして、この露光させた印
画紙を現像してプリントアウトさせる。
The keyboard 7 is operated, whereby the controller 6 generates a graphic image or a character image, which is combined with the human image of the subject 1 stored in the frame memory 4 and edited to form an ID card screen. It is converted into a TV image signal and then displayed on a CRT, thereby converted into an optical image, which is imaged on a color photographic paper by an optical system and exposed. Then, the exposed printing paper is developed and printed out.

【0009】このシステムによれば、被写体像を加工し
て文字情報などと共に編集してプリントでき、被写体像
を含む必要情報を1枚のカードにプリントしたかたちで
のIDカードとすることができる。
According to this system, a subject image can be processed, edited and printed together with character information and the like, and necessary information including the subject image can be printed on one card to form an ID card.

【0010】ところで、顔写真を利用する他の例では、
企業、学校などの団体において所属するメンバーの情報
を管理するためのデータベースがある。このようなデー
タベースシステムの1例として、図14に示すものが知
られている。
By the way, in another example of using a face photograph,
There is a database for managing the information of members who belong to organizations such as companies and schools. As an example of such a database system, the one shown in FIG. 14 is known.

【0011】この装置によれば、スチルビデオレックプ
レーヤ、ビデオカメラやスチルビデオカメラ、ビデオプ
レゼンテーションカメラなどのビデオ撮像装置10から
得られる画像信号をイメージプロセッサ11を介して取
り込んで、モニタ12に表示し、また、データファイル
13に記録して後に検索して表示したり、ビデオプリン
タ14でプリンタアウトすることができる。
According to this apparatus, an image signal obtained from a video image pickup apparatus 10 such as a still video recording player, a video camera, a still video camera or a video presentation camera is taken in via an image processor 11 and displayed on a monitor 12. Further, it can be recorded in the data file 13 and can be searched and displayed later, or can be printed out by the video printer 14.

【0012】この装置においては画像信号をイメージプ
ロセッサ11により処理してからデータファイル13に
記録して保存するが、ビデオ画像での保存となるのでそ
のデ−タ容量が問題となる。すなわち、ビデオ画像で
は、顔写真画像の情報量は一人当り数100Kバイト位
必要とされ、データファイル13として光磁気記録ディ
スクやハードディスクなど一般的な外部記憶装置を用い
た場合、このような外部記憶装置のメモリ容量はせいぜ
い数100Mbyteから数Gbyteであることか
ら、1000人位で一杯になってしまう。そのため画像
の高能率符号化技術を導入して1枚あたりのデータ量を
圧縮し、より多数の画像保存を可能にするようにしてい
る。
In this apparatus, an image signal is processed by the image processor 11 and then recorded and stored in the data file 13, but since it is stored as a video image, its data capacity becomes a problem. That is, in a video image, the amount of information of a facial photograph image is required to be several 100 Kbytes per person, and when a general external storage device such as a magneto-optical recording disk or a hard disk is used as the data file 13, such an external storage is required. Since the memory capacity of the device is at most several 100 Mbytes to several Gbytes, it will be filled with about 1000 people. For this reason, a high-efficiency image encoding technique is introduced to compress the data amount per image, enabling a larger number of images to be stored.

【0013】そして、従来では符号化方式としてDPC
M(予測符号化)が使われていたが圧縮率が1/2位と
乏しいことから、情報量の増大と伝送速度アップの要求
に伴い、更に一層の高圧縮率化を可能にする符号化技術
が必要となってきた。
In the past, DPC was used as an encoding method.
M (predictive coding) was used, but the compression rate was poor at about 1/2, so coding that enables even higher compression rates in response to increasing information volume and increasing transmission speed Technology is needed.

【0014】このような要求に適合する高能率符号化と
して主にベクトル量子化やDCT(離散コサイン変換)
を用いた符号化方式が検討されており、近年における画
像データベースファイルシステムでは、これらの高能率
な符号化方式による画像データ圧縮技術が導入されるよ
うになっている。
Vector quantization and DCT (discrete cosine transform) are mainly used as high-efficiency coding that meets such requirements.
A coding method using is being studied, and image data compression technology based on these highly efficient coding methods has been introduced in image database file systems in recent years.

【0015】[0015]

【発明が解決しようとする課題】このように顔写真画像
のデータをデータベースに格納して利用する従来のシス
テムでは、格納してある顔写真画像を検索して参照した
り、IDカード用にプリントするなどの使用形態がとら
れる。従って、これらのことを考慮すれば、システムに
用いるプリンタの分解能に合わせた画質レベルで画像を
ファイリングしておく必要がある。一般の画像ファイリ
ングシステムでは、CRT画像を見る限り画質劣化が気
にならない程度に画像圧縮率を高めてファイリング処理
しているのが普通である。
In the conventional system in which the data of the face photograph image is stored in the database and used as described above, the stored face photograph image is searched and referred to, or printed for the ID card. It can be used in different ways. Therefore, in consideration of these matters, it is necessary to file the image at an image quality level that matches the resolution of the printer used in the system. In a general image filing system, as long as a CRT image is viewed, it is usual to perform filing processing by increasing the image compression rate so that deterioration of image quality is not a concern.

【0016】しかし、CRT画像での画質に照準を当て
た画像圧縮では、CRT画像を見る限り画質に問題はな
いとしても、それより遥かに高画質を要求されるプリン
ト画像では使用に耐えないと云った事態を招きかねな
い。
However, in image compression aiming at the image quality of a CRT image, even if there is no problem in image quality as far as the CRT image is seen, it cannot be used in a print image which is required to have much higher image quality. It could lead to such a situation.

【0017】つまり、一般的なCRT表示装置は走査線
525本程度であり、最大でも水平解像度は300本程
度しかないため、CRTに表示できる画像そのものはあ
まり細かい画像データを用いても意味がない。そのた
め、CRT表示に供する画像の場合には高い圧縮率で画
像圧縮しても問題がないが、プリント像の場合にはきめ
の細かさが画像品位に直接反映される。
That is, since a general CRT display device has about 525 scanning lines and has a maximum horizontal resolution of only about 300 lines, it is meaningless to use very fine image data for the image itself which can be displayed on the CRT. .. Therefore, in the case of an image used for CRT display, there is no problem even if the image is compressed at a high compression rate, but in the case of a printed image, the fineness of the texture is directly reflected on the image quality.

【0018】そして、圧縮率を高めた処理画像をプリン
トすると、例えば圧縮方式としてDCT方式を採用した
圧縮画像では再生プリント像にブロック歪みが目につく
よううになり、また、ベクトル量子化方式の圧縮では分
解能が大きく劣化して見た目にぼけた画像となってしま
う。この傾向は圧縮率を大きくするにつれて、顕著とな
る。
When a processed image with a high compression ratio is printed, block distortion becomes noticeable in a reproduced print image in a compressed image adopting the DCT method as the compression method, and the vector quantization method is used for compression. In that case, the resolution is greatly deteriorated, resulting in a blurred image. This tendency becomes remarkable as the compression rate is increased.

【0019】そのため圧縮率を低く抑えたり、場合によ
っては圧縮処理をかけないで画像を記録保存することが
多かった。従って、顔画像の記録保存数を少なく制限し
たり、大多数に対応するためには大きなメモリ容量を用
意する必要があるなど、画像圧縮技術はシステムに十分
活かされたものとなっていなかった。
For this reason, the compression rate is often kept low, and in some cases, the image is recorded and stored without being compressed. Therefore, the image compression technology has not been fully utilized in the system, such as limiting the number of face images to be recorded and stored, and preparing a large memory capacity to support the majority.

【0020】また、一画面内で領域を分割し、各領域毎
に異なるイメージ画質のレベルで圧縮できるソフトウェ
ア(Storm Technolegy社商品名「Picture Press 」な
ど)があるが、大まかな処理には向いていても、細かな
処理ができなかった。
Further, there is software (such as Storm Technolegy's product name "Picture Press") that divides an area within one screen and compresses each area at a different image quality level, but it is suitable for rough processing. However, the detailed processing could not be performed.

【0021】そこで、プリントに使える画質レベルを維
持しながら一人当りの画像データ量を少なくでき、より
多数の顔写真画像の記録保存できるようになるシステム
の開発が待たれている。
Therefore, the development of a system capable of reducing the amount of image data per person while maintaining the image quality level usable for printing and enabling the recording and storage of a larger number of facial photograph images has been awaited.

【0022】本発明の目的とするところは、プリントに
使える画質レベルを維持しながら一枚当りの画像データ
量を少なくして多数の画像の記録保存ができるようにし
た画像圧縮装置とその再生装置を提供することにある。
An object of the present invention is to provide an image compression apparatus and a reproduction apparatus thereof capable of recording and storing a large number of images by reducing the amount of image data per sheet while maintaining the image quality level usable for printing. To provide.

【0023】[0023]

【課題を解決するための手段】上記目的を達成するた
め、本発明は次のように構成する。すなわち、第1には
被写体像の画像データを入力する画像データ入力手段
と、この入力された画像データを一時保持する画像メモ
リと、画像メモリ上の画像の注目領域とその他の領域と
を設定する設定手段と、この設定された注目領域とその
他の領域とを区分して画像メモリ上からそれぞれ領域別
に所定画素サイズのブロック単位に読出す分離手段と、
圧縮率の大きさをそれぞれ異ならせた量子化のためのテ
ーブルを複数組備えた量子化テーブルと、上記読み出さ
れたブロックの画像の細かさを判別する判別手段と、判
別手段の判別結果と上記読み出されたブロックの所属領
域に対応して定める圧縮率のテーブルを上記量子化テー
ブルより選択する選択手段と、読出手段により読み出さ
れた画像データを直交変換する直交変換手段と、この直
交変換されて得られたデータについて上記選択手段にて
選択されたテーブルを用いて量子化する量子化手段と、
この量子化されたデータを符号化処理する符号化手段
と、この符号化されたデータを上記読出手段による読出
し時の位置情報および上記使用したテーブルの選択のた
めの情報と共に多重化して出力する多重化手段とより構
成し、上記注目領域の画像は像が細かいブロックほど低
い圧縮率で、上記その他の領域の画像は高い圧縮率で圧
縮されるよう、上記テーブルの選択基準を規定するよう
にした。
In order to achieve the above object, the present invention is configured as follows. That is, first, an image data input means for inputting image data of a subject image, an image memory for temporarily holding the input image data, an attention area of the image on the image memory, and other areas are set. Setting means and separating means for dividing the set attention area and the other areas and reading out from the image memory for each area in block units of a predetermined pixel size;
A quantization table having a plurality of sets of tables for quantization with different compression rates, a determination means for determining the fineness of the image of the read block, and a determination result of the determination means. Selection means for selecting from the quantization table a compression rate table determined corresponding to the area to which the read block belongs, orthogonal transformation means for orthogonally transforming the image data read by the reading means, and the orthogonal transformation means. Quantizing means for quantizing the data obtained by conversion using the table selected by the selecting means,
Coding means for coding the quantized data, and multiplexing for multiplexing and outputting the coded data together with position information at the time of reading by the reading means and information for selecting the used table. The selection criterion of the table is defined such that the image of the region of interest is compressed at a lower compression rate as the image is finer and the images of the other regions are compressed at a higher compression rate. ..

【0024】また、第2には画像データを一時保持する
画像メモリに被写体像の画像データを保持させ、画像メ
モリ上の画像データを、設定された注目領域とその他の
領域とに分けてそれぞれ所定画素サイズのブロック単位
で読出し、これを直交変換し、この変換されて得られた
データについて上記画像メモリ上の位置と上記ブロック
の画像の状態に応じた所定の量子化用テーブルで量子化
し、この量子化済みのデータを符号化して上記ブロック
の上記画像メモリ上の位置情報と使用した量子化用テー
ブルの選択のための情報と共に記録した圧縮記録画像情
報の再生装置として、画像データを一時保持する画像メ
モリと、圧縮率の大きさをそれぞれ異ならせた量子化の
ためのテーブルを複数組備えた量子化テーブルと、入力
された圧縮記録画像情報より上記符号化されたデータ
と、上記読出手段による読出し時の位置情報および上記
使用したテーブルの選択のための情報とを分離して取り
出す分離手段と、この分離手段により分離される上記符
号化されたデータを逆符号化する逆符号化手段と、上記
分離手段により分離された上記テーブルの選択のための
情報を用い、上記量子化テーブルより当該情報によって
定まる量子化用テーブルを選択する選択手段と、上記逆
符号化手段により逆符号化されたデータを上記量子化用
テーブルを用いて逆量子化する逆量子化手段と、この逆
量子化されたデータを逆直交変換して画像データに戻す
逆直交変換手段と、この画像データを上記分離手段によ
り分離された上記位置情報対応の上記画像メモリ上に書
き込む合成手段と、上記画像メモリ上の画像データを読
出して復元画像信号として出力する出力手段とより構成
した。
Secondly, the image data of the subject image is held in the image memory for temporarily holding the image data, and the image data in the image memory is divided into a set attention area and other areas, and each of the areas is predetermined. This is read out in block units of pixel size, subjected to orthogonal transformation, and the data obtained by this transformation is quantized with a predetermined quantization table according to the position on the image memory and the state of the image of the block. Temporarily holds image data as a reproduction device of compressed and recorded image information in which the quantized data is encoded and recorded together with position information on the image memory of the block and information for selecting the used quantization table. Image memory, quantization table with multiple sets of quantization tables with different compression ratios, and input compressed recorded image Separation means that separates and extracts the encoded data from the information, the position information at the time of reading by the reading means, and the information for selecting the used table, and the encoding means that is separated by the separating means. Decoding means for decoding the generated data, and selection means for selecting a quantization table determined by the information from the quantization table by using information for selecting the table separated by the separating means. And an inverse quantizing means for inversely quantizing the data inversely encoded by the inverse encoding means using the quantization table, and inversely orthogonally transforming the inversely quantized data into image data. Inverse orthogonal transforming means, synthesizing means for writing the image data on the image memory corresponding to the position information separated by the separating means, and on the image memory Was more configuration and output means for outputting the image data read Te as restored image signal.

【0025】[0025]

【作用】このような構成において、第1の構成の場合、
画像データを一時保持する画像メモリに被写体像の画像
データを保持させ、画像メモリ上の画像データを、設定
された注目領域とその他の領域とに分けてそれぞれ所定
画素サイズのブロック単位で読出し、これを直交変換
し、この変換されて得られたデータについて上記画像メ
モリ上の位置と上記ブロックの画像の状態(細かさ)に
応じた所定の量子化用テーブルで量子化し、この量子化
済みのデータを符号化して上記ブロックの上記画像メモ
リ上の位置情報と使用した量子化用テーブルの選択のた
めの情報と共に重畳して圧縮記録画像情報を作成する。
In such a structure, in the case of the first structure,
The image data of the subject image is held in the image memory that temporarily holds the image data, and the image data on the image memory is divided into the set attention area and the other area and read in block units each having a predetermined pixel size. Is orthogonally transformed, and the data obtained by this transformation is quantized by a predetermined quantization table according to the position on the image memory and the state (fineness) of the image of the block, and the quantized data is quantized. Is encoded and superimposed with the position information on the image memory of the block and the information for selecting the used quantization table to create compressed recording image information.

【0026】そして上記量子化にあたり、上記注目領域
の画像は像が細かいブロックほど低い圧縮率で、上記そ
の他の領域の画像は高い圧縮率で圧縮されるよう、上記
テーブルの選択基準を規定するようにした。
In the quantization, the selection criterion of the table is defined so that the image in the region of interest is compressed at a lower compression rate as the image is finer and the images in the other regions are compressed at a higher compression rate. I chose

【0027】そのため、注目領域の画像は圧縮率が低い
ので、画像伸長しても劣化の心配がなく、その他の領域
は圧縮率が高いので、当該部分は画像伸長した際には劣
化が起きるが、注目領域での画質が確保されることか
ら、ID画像のように注目領域を顔部に設定しておくこ
とで、必要な部分での画質を維持しつつ、他の部分での
データ高圧縮効果により、画像データの容量を小さくで
きる。従って、本発明によれば、プリントに使える画質
レベルを維持しながら一枚当りの画像データ量を少なく
でき、多数の画像の記録保存ができるようになる。
Therefore, since the image of the region of interest has a low compression rate, there is no fear of deterioration even if the image is expanded, and since the compression rate of other regions is high, the part may deteriorate when the image is expanded. Since the image quality in the attention area is ensured, by setting the attention area in the face portion like the ID image, the image quality in the necessary portion is maintained and the high data compression in other portions is performed. Due to the effect, the amount of image data can be reduced. Therefore, according to the present invention, the amount of image data per sheet can be reduced while maintaining the image quality level usable for printing, and a large number of images can be recorded and stored.

【0028】また、第2の構成によれば、量子化テーブ
ルには圧縮率の大きさをそれぞれ異ならせた量子化のた
めのテーブルを複数組備えており、分離手段は入力され
た圧縮記録画像情報より上記符号化されたデータと上記
読出手段による読出し時の位置情報および上記使用した
テーブルの選択のための情報とを分離して取り出し、こ
の分離されたデータのうち、上記符号化されたデータは
逆符号化手段により逆符号化される。また、選択手段は
分離されたデータのうち、上記テーブルの選択のための
情報を用い、上記量子化テーブルより当該情報によって
定まる量子化用テーブルを選択し、逆量子化手段はこの
選択された量子化用テーブルを用い上記逆符号化された
データを逆量子化する。そして、逆直交変換手段はこの
逆量子化されたデータを逆直交変換して画像データに戻
し、合成手段はこの画像データを上記分離手段により分
離された上記位置情報対応させて上記画像メモリ上に書
き込む。そして、出力手段は上記画像メモリ上の画像デ
ータを読出して復元画像信号として出力する。この結
果、上記第1の構成の装置にて圧縮された画像データを
復元できる。
Further, according to the second configuration, the quantization table is provided with a plurality of sets of tables for quantization in which the magnitudes of the compression rates are different, and the separating means inputs the compressed recorded image. From the information, the encoded data, the position information at the time of reading by the reading means, and the information for selecting the used table are separated and taken out, and the encoded data among the separated data is extracted. Is inversely encoded by the inverse encoding means. The selecting means uses the information for selecting the table among the separated data, selects the quantization table determined by the information from the quantization table, and the dequantizing means selects the selected quantum. The inversely encoded data is inversely quantized by using the conversion table. Then, the inverse orthogonal transform means inversely orthogonally transforms the dequantized data into image data, and the synthesizing means associates the image data with the position information separated by the separating means and stores it in the image memory. Write. Then, the output means reads the image data on the image memory and outputs it as a restored image signal. As a result, the image data compressed by the device having the first configuration can be restored.

【0029】[0029]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。本発明は画像内で顔部とそれ以外の画像部
の領域に分割し、顔部では鮮鋭度をできる限り劣さない
ようにし、非顔部では少々鮮鋭度を劣しても高圧縮でき
るように、その領域を別けた第1の圧縮率重みテーブル
を設ける。DCT演算後のブロック毎の解像度を4つの
DCT係数より演算し、クラス分けを行う。そのクラス
値に応じたブロック毎の第2の圧縮率重みテーブルを設
ける。また、圧縮率を変えた複数の圧縮量子化テーブル
を設け、量子化するとき、それらの一つが選択できるよ
うにする。この選択は第1と第2のテーブルの重み値の
積値を基に行う。これらによってブロック毎に異なる量
子化テーブルが選ばれ領域とブロックの画像状態に応じ
た圧縮率で圧縮処理できるようになる。この圧縮された
データを符号化し、この符号化されたデータを保存する
ときには、先述の積値と領域データを併せて記録保存す
る。また、伸張処理はこの逆プロセスで同一の手段にて
行う。また復元後、画像合成できるような構成にする。
Embodiments of the present invention will be described below with reference to the drawings. The present invention divides an image into areas of a face portion and the other image portion so that the sharpness is as inferior as possible in the face portion, and high compression is possible in the non-face portion even if the sharpness is slightly inferior. In addition, a first compression rate weight table is provided separately for that area. The resolution of each block after the DCT calculation is calculated from the four DCT coefficients, and the classification is performed. A second compression rate weight table is provided for each block according to the class value. Also, a plurality of compression quantization tables with different compression rates are provided so that one of them can be selected when performing quantization. This selection is made based on the product value of the weight values of the first and second tables. As a result, a different quantization table is selected for each block, and compression processing can be performed at a compression rate according to the image state of the area and block. When the compressed data is encoded and the encoded data is stored, the product value and the area data described above are recorded and stored together. The decompression process is the reverse process and is performed by the same means. In addition, after restoration, the configuration is such that images can be combined.

【0030】このような処理を実現する具体的な実施例
を以下説明する。 (第1実施例)図1は本発明を実現させる実施例のブロ
ック図である。この図において、101は人物などの被
写体、102は被写体101の背後にある背景部、10
3は被写体101の上半身を撮影するためのカラーTV
カメラ(カラービデオカメラ)、104はカラーTVカ
メラ103からの出力信号である画像のアナログ信号
(R(赤),G(緑),B(青)の色別ビデオ信号)を
ディジタル信号に変換して出力するA/D変換器であ
る。
A specific embodiment for realizing such processing will be described below. (First Embodiment) FIG. 1 is a block diagram of an embodiment for realizing the present invention. In this figure, 101 is a subject such as a person, 102 is a background portion behind the subject 101,
3 is a color TV for shooting the upper half of the subject 101
A camera (color video camera) 104 converts an analog signal (R (red), G (green), B (blue) color video signal of image) which is an output signal from the color TV camera 103 into a digital signal. It is an A / D converter that outputs the output.

【0031】また、105はフレームメモリで、A/D
変換器104から出力された信号データをフレーム画像
として一時記憶するものであり、106はフレームメモ
リ105から出力されるディジタル信号をアナログのビ
デオ信号に変換するためのD/A変換器である。
Further, 105 is a frame memory, which is an A / D
The signal data output from the converter 104 is temporarily stored as a frame image, and 106 is a D / A converter for converting the digital signal output from the frame memory 105 into an analog video signal.

【0032】107は出力信号変換部で、D/A変換器
106からの出力信号またはカラーTVカメラ103か
らの出力信号を、例えばNTSC方式の映像信号に変換
するものであり、108は出力信号変換部107により
変換されて出力される映像信号を画像として表示するた
めのTVモニタである。
Reference numeral 107 is an output signal conversion unit for converting an output signal from the D / A converter 106 or an output signal from the color TV camera 103 into, for example, an NTSC system video signal, and 108 is an output signal conversion. It is a TV monitor for displaying a video signal converted and output by the unit 107 as an image.

【0033】また、109はシステム全体の制御を司る
コントローラであり、110はキーボードであって、本
システムに対して操作者がコマンドを入力したり、文字
情報を入力したり、編集操作をしたりするためのもので
ある。キーボード110の入力はコントローラ109に
与えられる。なお、このキーボード110は後述する座
標値の入力や諸指示にも利用される。
Further, 109 is a controller that controls the entire system, and 110 is a keyboard, which allows the operator to input commands, input character information, and perform editing operations on this system. It is for doing. The input from the keyboard 110 is given to the controller 109. The keyboard 110 is also used for inputting coordinate values and various instructions to be described later.

【0034】111は顔部・非顔部領域分離合成部であ
り、フレームメモリ105内の画像データの中で顔部と
非顔部とに画像データを切り出したり両合成を行うと云
った処理をするものである。
Reference numeral 111 denotes a face / non-face area separation / synthesis unit, which performs a process of cutting out image data into a face portion and a non-face portion in the image data in the frame memory 105 or performing both synthesis. To do.

【0035】112は画像処理部であり、画像圧縮のた
めの8画素×8画素のブロック画像の切り出しまたは合
成処理と、RGBのビデオ信号/YUVビデオ信号変換
と云った色変換など、種々の画像処理を行うことができ
るものである。
An image processing unit 112 cuts out or combines a block image of 8 pixels × 8 pixels for image compression, and various images such as color conversion called RGB video signal / YUV video signal conversion. It is something that can be processed.

【0036】113は直交変換の一つである離散コサイ
ン変換(DCT)とその逆変換を行うことができるDC
T処理部であり、114は量子化部である。この量子化
部114は量子化テーブル123を用いてDCT係数毎
に異なるステップサイズで量子化または逆量子化するも
のである。
Reference numeral 113 denotes a DC capable of performing discrete cosine transform (DCT) which is one of orthogonal transforms and its inverse transform.
A T processing unit and a quantization unit 114. The quantizer 114 uses the quantization table 123 to perform quantization or inverse quantization with a different step size for each DCT coefficient.

【0037】また、115は量子化されたデータを並び
換えて行うランレングス処理およびハフマン符号化など
の可変長符号化処理またはその逆符号化処理をするため
の符号化部、116は符号化部115で符号化されたデ
ータや後述する圧縮領域データを多重信号化したり、そ
のデコードを行う多重化部、117は圧縮されたデータ
と領域データなどを記録保存して入出力するための例え
ば光磁気ディスク装置やハードディスク装置などの外部
記憶装置である。
Reference numeral 115 is an encoding unit for performing variable length encoding processing such as run length processing and Huffman encoding performed by rearranging quantized data, or inverse encoding processing, and 116 is an encoding unit. A multiplexing unit 117 that multiplexes the data encoded in 115 and compressed area data described below, and decodes the multiplexed data, is denoted by 117. For example, a magneto-optical device for recording and storing the compressed data and area data for input / output. It is an external storage device such as a disk device or a hard disk device.

【0038】また、118はフレームメモリ105内の
画像の中で顔部と非顔部の領域分けを操作者が任意に設
定することができる顔部・非顔部領域設定部であり、こ
の顔部・非顔部領域設定部118はさらに操作者の操作
性を考慮して、予め定められた所定値を操作者が選ぶこ
とによっても設定ができるように外部記憶装置117と
領域データの入出力転送が行える構成にしてある。
Reference numeral 118 denotes a face / non-face area setting unit that allows the operator to arbitrarily set the area division of the face area and the non-face area in the image in the frame memory 105. The part / non-face part area setting unit 118 further inputs / outputs area data to / from the external storage device 117 so that the operator can set the predetermined value in consideration of the operability of the operator. It is configured to allow transfer.

【0039】119はDCT処理部113によって演算
されて求められたDCT係数のうち、4係数の加算値を
基にブロック毎にきめ細かさの度合いを評価してその度
合い別にクラス分けする解像度判別部であり、120は
そのクラス分けした値から圧縮率の度合を重みとして数
値化するために用いるブロック別圧縮率重みテーブル、
121は顔部・非顔部領域分離合成部111から処理領
域が顔部か非顔部あるかの情報を受けその値から圧縮率
の度合を重みとして数値化する領域別圧縮率重みテーブ
ルである。
Reference numeral 119 denotes a resolution discriminating unit which evaluates the degree of fineness for each block based on the added value of four coefficients among the DCT coefficients calculated by the DCT processing unit 113 and classifies the degree according to the degree. Yes, 120 is a compression rate weight table for each block used for digitizing the degree of compression rate as a weight from the values classified into the classes,
Reference numeral 121 denotes an area-specific compression rate weight table that receives information on whether the processing area is a face area or a non-face area from the face / non-face area separation / combination unit 111 and digitizes the value from the value as the compression rate degree. ..

【0040】122は圧縮率設定および領域読み出し部
であり、圧縮処理するブロック位置での領域別圧縮率重
みテーブル値とブロック別圧縮率重みテーブル値の積を
演算し、その値を基に圧縮率を設定したり、その位置情
報のデータを入出力するものである。また、123はそ
れぞれ圧縮率を変えた複数のテーブルよりなる量子化テ
ーブルである。124は圧縮率設定および領域読み出し
部122の出力値に対応して量子化テーブル123から
その出力値に対応する特定の1つのテーブルを選択し、
量子化部114に与えるテーブル選択部である。
Reference numeral 122 denotes a compression rate setting and area reading section, which calculates the product of the compression rate weight table value for each area and the compression rate weight table value for each block at the block position for compression processing, and the compression rate is based on the product. Is set, and the data of the position information is input and output. Reference numeral 123 is a quantization table composed of a plurality of tables with different compression rates. Reference numeral 124 selects one specific table corresponding to the output value from the quantization table 123 corresponding to the output value of the compression rate setting and area reading unit 122,
It is a table selection unit provided to the quantization unit 114.

【0041】次に以上の構成の本システムの動作につい
て説明する。被写体101の人物の顔を含んだ上半身を
カラーTVカメラ103によって撮影する。その時、人
物を見易くするために、背後にモノトーンの背景部10
2を置いて撮影する。
Next, the operation of the system having the above configuration will be described. The upper body including the face of the person of the subject 101 is photographed by the color TV camera 103. At that time, in order to make it easier to see the person, a monotone background portion 10
Place 2 and shoot.

【0042】カメラ103は予めホワイトバランス調整
や、レンズの絞り調整、ピント調整を行っておく。カメ
ラ103から出力されたRGBのアナログビデオ信号は
A/D変換器104にてディジタル信号に変換され、フ
レームメモリ105に順次記録される。
The camera 103 is previously adjusted for white balance, lens aperture adjustment, and focus adjustment. The RGB analog video signals output from the camera 103 are converted into digital signals by the A / D converter 104 and sequentially recorded in the frame memory 105.

【0043】このようにしてフレームメモリ105に格
納されたディジタルデータは、ビデオ信号として出力で
きるように同期をとりながら順次読み出し、D/A変換
器106と出力信号変換部107によってRGBのアナ
ログビデオ信号に変換する。この信号はTVモニタ10
8に入力することで、被写体である人物の上半身画像が
モニタできる。操作者はこのTVモニタ108上の画像
を見ながら顔画像が適切に撮れるように照明やカメラの
調整を行う。
The digital data stored in the frame memory 105 in this manner is sequentially read out in synchronization so that it can be output as a video signal, and the D / A converter 106 and the output signal conversion unit 107 perform analog RGB video signals. Convert to. This signal is sent to the TV monitor 10
By inputting in 8, the upper half image of the person who is the subject can be monitored. The operator adjusts the illumination and the camera so that the face image can be properly taken while looking at the image on the TV monitor 108.

【0044】ID画像として用いる顔画像を撮るには次
のようにする。先ず、撮影中の画像データをフレームメ
モリ105に取り込む。そこで、フレームメモリ105
上にある顔画像を静止(フリーズ)させるために、コン
トローラ109よりフリーズコントロール信号を105
のフレームメモリに出力する。
A face image used as an ID image is photographed as follows. First, the image data being taken is captured in the frame memory 105. Therefore, the frame memory 105
In order to freeze (freeze) the face image above, the controller 109 sends a freeze control signal 105
To the frame memory of.

【0045】この動作を行わせるためには、操作者はフ
リーズしたい瞬間、キーボード110よりフリーズのた
めのキー入力をする。これにより、コントローラ109
はキーボード110からの信号を受けて、フレームメモ
リ105の順次書き込みデータアドレスカウンタを停止
させ、書き込みを停止させる。しかし、コントローラ1
09は読み込みデータアドレスコントロールについて
は、そのまま動作を続行させることによって、フリーズ
操作有無にかかわらず、フレームメモリ105内の画像
データを読み出すように制御する。
In order to perform this operation, the operator inputs a key for the freeze from the keyboard 110 at the moment when the operator wants the freeze. As a result, the controller 109
Receives a signal from the keyboard 110, stops the sequential write data address counter of the frame memory 105, and stops writing. But the controller 1
With regard to the read data address control, by continuing the operation as it is, the image data in the frame memory 105 is controlled to be read regardless of the presence or absence of the freeze operation.

【0046】フレームメモリ105から読み出された画
像データはD/A変換器106に転送することでビデオ
信号として出力できる。従って、このようにして出力さ
れたビデオ信号をTVモニタ108に与え、表示させる
ことによってカメラ画像の動画や静止画を観察すること
ができる。ID画像を得るときには、操作者はこの状態
で画像の領域分け操作を行う。
The image data read from the frame memory 105 can be output as a video signal by transferring to the D / A converter 106. Therefore, by providing the video signal output in this manner to the TV monitor 108 and displaying it, the moving image or still image of the camera image can be observed. When obtaining the ID image, the operator performs an image area dividing operation in this state.

【0047】画像の領域分け操作は、顔を含んだ領域側
を顔部(B部)とし、残った画像領域を非顔部(A部)
として顔部・非顔部領域設定部118により領域指定す
ることで行うことができる。
In the image area dividing operation, the area side including the face is set to the face portion (B portion), and the remaining image area is set to the non-face portion (A portion).
Can be performed by specifying the area by the face / non-face area setting unit 118.

【0048】例えば、図2に示すように領域分割した場
合をとりあげて説明すると、まず便宜的に画像座標
(x,y)を定める。画像の最外角部(四隅)の座標位
置を(xA1,yA1),(xA2,yA1),(xA1
A2),(xA2,yA2)とし、顔部領域B部の外角座標
を(xB1,yB1),(xB2,yB1),(xB1,yB2),
(xB2,yB2)とする。これらの領域分離合成は、顔部
・非顔部領域分離合成部111で行うが、それらの領域
および座標設定は顔部・非顔部領域設定部118によっ
てフレームメモリ105上の画像に対して行えるように
している。
For example, taking the case of area division as shown in FIG. 2, the image coordinates (x, y) are first determined for convenience. The coordinate positions of the outermost corners (four corners) of the image are (x A1 , y A1 ), (x A2 , y A1 ), (x A1 ,
y A2 ), (x A2 , y A2 ), and the external angle coordinates of the face area B part are (x B1 , y B1 ), (x B2 , y B1 ), (x B1 , y B2 ),
(X B2 , y B2 ). These area separation / combination are performed by the face / non-face area separation / combination section 111, and the areas and coordinates thereof can be set by the face / non-face area setting section 118 for the image on the frame memory 105. I am trying.

【0049】これらの座標を設定する前の状態では、先
ずフレームメモリ105上の画像に図2のような単色の
標準サイズの枠Cの画像が重畳できるよう、コントロー
ラ109は顔部・非顔部領域分離合成部111を制御
し、これによって当該顔部・非顔部領域分離合成部11
1は設定された標準サイズの枠Cをフレームメモリ10
5上に画像生成する。
In the state before setting these coordinates, first, the controller 109 sets the face portion and the non-face portion so that the image of the frame C having a single color standard size as shown in FIG. 2 can be superimposed on the image on the frame memory 105. The area separating / combining unit 111 is controlled, whereby the face / non-face area separating / composing unit 11 is controlled.
1 is a frame memory 10 in which the set standard size frame C is set.
5 produces an image on top.

【0050】すなわち、標準サイズで定位置の枠Cを表
示するため、その標準枠Cの角部位置座標データが顔部
・非顔部領域設定部118に設定されていて、その設定
値をもとにコントローラ109の制御のもとで枠画が作
られ、フレームメモリ105上に格納される。人物画像
と枠画とは同一フレームに格納しても良いが、別々のフ
レームに格納して読出しの際に合成することにより、枠
画と人物画像とが重畳された画像を得るようにしても良
い。
That is, in order to display the frame C at a fixed position in the standard size, the corner position coordinate data of the standard frame C is set in the face / non-face area setting unit 118, and the set value is also set. A frame image is created under the control of the controller 109 and stored in the frame memory 105. The person image and the frame image may be stored in the same frame, but by storing them in different frames and combining them when reading, an image in which the frame image and the person image are superimposed may be obtained. good.

【0051】このようにして枠Cが重畳された画像をT
Vモニタ108に表示し、これをモニタしながら操作者
は枠Cが人物の顔部分に対して適正に位置しているか確
認する。もし、適正でなければ、操作者はキーボード1
10を操作して切り出したい領域の対角位置を示す新た
な座標値(xB1,yB1)、(xB2,yB2)を入力するこ
とにより、コントローラ109はこの入力データを顔部
・非顔部領域設定部118へ与えてセットする。
In this way, the image on which the frame C is superimposed is T
The image is displayed on the V monitor 108, and while monitoring this, the operator confirms whether the frame C is properly positioned with respect to the face portion of the person. If it is not correct, the operator uses the keyboard 1
By operating 10 and inputting new coordinate values (x B1 , y B1 ) and (x B2 , y B2 ) indicating the diagonal position of the region to be cut out, the controller 109 outputs this input data to the face / non-face part. It is given to the face area setting unit 118 and set.

【0052】これにより、顔部・非顔部領域設定部11
8にはこの座標データで定まる座標位置を対角位置とす
る方形の領域を囲む新たな枠Cの座標データが書き込ま
れ、その新たな座標データの値をもとに新たな枠Cの画
像が発生されるので、TVモニタ108には顔部が新た
な枠Cに囲まれたかたちで被写体像がモニタできる。
As a result, the face / non-face area setting unit 11
In 8 is written the coordinate data of a new frame C surrounding a rectangular area whose diagonal position is the coordinate position determined by this coordinate data, and the image of the new frame C is created based on the value of the new coordinate data. Since it is generated, the subject image can be monitored on the TV monitor 108 with the face portion surrounded by the new frame C.

【0053】操作者はこれを繰り返すことによって人物
の顔部分(B部)の像が枠C内に旨く配置されるように
枠Cとの関係を見ながら切り出し領域の調整をすること
ができる。
By repeating this, the operator can adjust the cutout area while looking at the relationship with the frame C so that the image of the face portion (B portion) of the person is properly arranged in the frame C.

【0054】このようにして適正な切り出し領域の設定
ができたならば、その後、A部領域とB部をそれぞれ異
なる画質で記録するために切り出し処理を始め、圧縮な
ど一連の処理に自動的に入る。切り出しはコントローラ
109によって実行される。コントローラ109はB部
領域の外部を切り出し、次に内部領域を切り出す。
When the proper cutout area is set in this way, thereafter, cutout processing is started in order to record the area A and the area B with different image quality, and a series of processing such as compression is automatically performed. enter. The cutout is executed by the controller 109. The controller 109 cuts out the outside of the B area and then cuts out the inside area.

【0055】上記の外部領域の切り出しについては、当
該領域に相当する画像データをフレームメモリ105よ
り読出すことができるように、また、内部領域に対して
はその領域に相当する画像データをフレームメモリ10
5より読出すことができるようにそれぞれの領域に該当
するフレームメモリ105のアドレスを順次発生して画
像データを、それぞれフレームメモリ105から読み出
す。
Regarding the clipping of the external area, the image data corresponding to the area can be read out from the frame memory 105, and the image data corresponding to the area can be read out from the frame memory 105 for the internal area. 10
5, the addresses of the frame memory 105 corresponding to the respective areas are sequentially generated, and the image data is read from the frame memory 105.

【0056】すなわち、A部領域の切り出しは、座標位
置(xA1,yA1)、(xA2,yA1)、(xA1,yA2)、
(xA2,yA2)で囲まれる範囲について、B部領域であ
る(xB1,yB1)、(xB2,yB1)、(xB1,yB2)、
(xB2,yB2)で囲まれる範囲を除き、読み出すべくア
ドレスコントロールしてフレームメモリ105からデー
タを読み出し、画像処理部112に転送することで行
い、B部領域の切り出しは、座標位置(xB1,yB1)、
(xB2,yB1)、(xB1,yB2)、(xB2,yB2)で囲
まれる範囲について読出すべく、アドレスコントロール
してフレームメモリ105からデータを読み出し、画像
処理部112へ転送することで行う。これは領域別にそ
れぞれ分けて別個に行う。
That is, the cutout of the area A is carried out at coordinate positions (x A1 , y A1 ), (x A2 , y A1 ), (x A1 , y A2 ),
Regarding the range surrounded by (x A2 , y A2 ), it is the B part area (x B1 , y B1 ), (x B2 , y B1 ), (x B1 , y B2 ),
Except for the range surrounded by (x B2 , y B2 ), the address control is performed to read out the data from the frame memory 105, the data is transferred to the image processing unit 112, and the B area is cut out at the coordinate position (x B1 , y B1 ),
In order to read the range surrounded by (x B2 , y B1 ), (x B1 , y B2 ), and (x B2 , y B2 ), address control is performed to read data from the frame memory 105 and transfer it to the image processing unit 112. By doing. This is done separately for each region.

【0057】このようにして切り出されたA部領域とB
部領域のそれぞれの画像についてはそれぞれ圧縮処理を
行って圧縮する。圧縮はDCT方式をもとにしている。
切り出して転送されたA部領域あるいはB部領域の画像
データは画像処理部112で、さらに8ドット×8ドッ
トのブロック画像に切り出し、そのブロック毎に次のよ
うな処理を行う。
Area A and area B cut out in this way
Each image in the sub-region is compressed by performing compression processing. The compression is based on the DCT method.
The image data of the area A or area B that has been cut out and transferred is further cut out by the image processing unit 112 into a block image of 8 dots × 8 dots, and the following processing is performed for each block.

【0058】先ず、そのブロックのRGB成分別画像か
ら輝度成分と他の2色(クロマブルー成分およびクロマ
レッド成分、色差成分の信号)データよりなるYUV画
像に変換する。これは画像処理部112によって行われ
る。その後、その各々の画像データをDCT処理部11
3でDCT(離散コサイン変換)させる。
First, an image for each RGB component of the block is converted into a YUV image including a luminance component and other two colors (chroma blue component, chroma red component, color difference component signal) data. This is performed by the image processing unit 112. After that, the respective image data are processed by the DCT processing unit 11
In step 3, DCT (discrete cosine transform) is performed.

【0059】このDCTによりそのブロック画像におけ
る空間周波数成分が周波数成分別に分けられ、DCT係
数として得られる。そして、周波数成分別のDCT係数
に対して、複数ある量子化テーブル123のうちの1テ
ーブル(輝度用と他の2色用)を基にして量子化部11
4は各周波数成分別のDCT係数毎に異なるステップサ
イズで量子化する。このような量子化を輝度成分と他の
2色成分各々について行う。その後、量子化されたデー
タに対し、符号化部115でランレングスの処理を行
い、さらに可変長符号化処理を行って1ブロックの画像
圧縮データを得る。このデータと後述する圧縮領域デー
タとを多重化部116で多重信号にして、外部記憶装置
117に転送し、画像データファイルとして記録する。
By this DCT, the spatial frequency components in the block image are divided for each frequency component and obtained as DCT coefficients. Then, with respect to the DCT coefficient for each frequency component, the quantization unit 11 is based on one table (for luminance and for the other two colors) of the plurality of quantization tables 123.
4 is quantized with a different step size for each DCT coefficient for each frequency component. Such quantization is performed for each of the luminance component and the other two color components. Then, the quantized data is subjected to run length processing in the coding unit 115 and further subjected to variable length coding processing to obtain one block of compressed image data. This data and compressed area data to be described later are multiplexed signals by the multiplexing unit 116, transferred to the external storage device 117, and recorded as an image data file.

【0060】圧縮された画像データに対して画像伸張
(画像の復元)するときは、上記の逆プロセスで行う。
先ず、外部記憶装置117から画像データファイルを読
出し、多重化部116にデータ転送を行い、多重化され
た画像データファイルのデータから圧縮データと圧縮領
域データにデコードする。
When decompressing (decompressing an image) the compressed image data, the reverse process described above is performed.
First, the image data file is read from the external storage device 117, data is transferred to the multiplexing unit 116, and the data of the multiplexed image data file is decoded into compressed data and compressed area data.

【0061】この圧縮データを符号化部115にて逆符
号化処理とデータ配列をもとに戻し、量子化部114で
さらに逆量子化処理を行う。この逆量子化処理するとき
に用いる量子化テーブルは圧縮時に用いたテーブルと同
じものが選ばれるように、後述する圧縮領域データから
選択コントロールできるようにしている。
The compression unit 115 returns the compressed data to the original encoding process and the data array, and the quantization unit 114 further performs the inverse quantization process. The quantization table used in the inverse quantization process can be selectively controlled from the compression area data described later so that the same table as the table used in the compression is selected.

【0062】ところで輝度データ(Y信号のデータ)と
他の2色データ(色差信号に対するデータ)についてそ
れぞれ逆量子化し、これをDCT処理部113でそれぞ
れ逆DCT処理を行う。これによって元の8ドット×8
ドットのYUV画像データに逆変換される。
By the way, the luminance data (Y signal data) and the other two color data (data for the color difference signals) are inversely quantized, and the DCT processing unit 113 performs inverse DCT processing. This gives the original 8 dots x 8
It is converted back to YUV image data of dots.

【0063】DCT処理部113で逆変換されることに
よって得られたこの8ドット×8ドットのYUV画像デ
ータは画像処理部112に転送され、この画像処理部1
12ではYUV画像データをRGB画像データに変換し
てブロック画像のデータを得る。このようにして圧縮画
像は復元される。
The 8 dot × 8 dot YUV image data obtained by being inversely transformed by the DCT processing unit 113 is transferred to the image processing unit 112, and this image processing unit 1
In 12, the YUV image data is converted into RGB image data to obtain block image data. In this way, the compressed image is restored.

【0064】復元された画像データは次の処理によって
フレームメモリ105上に合成されて書き込まれる。す
なわち、圧縮画像ファイルに記録されていた領域設定情
報である圧縮領域データをもとにコントローラ109が
A部領域とB部領域の情報を座標情報として顔部・非顔
部領域設定部118に設定し、顔部・非顔部領域分離合
成部111は画像処理部112からの復元されたブロッ
ク画像のデータを取り込んで、上記顔部・非顔部領域設
定部118に設定された情報をもとに、A部領域のデー
タについてはA部領域の該当位置に、また、B部領域の
データはB部領域の該当位置に来るように順にその画像
データを画素単位でフレームメモリ105上に書き込
み、顔部と非顔部の画像合成を行う。
The restored image data is combined and written in the frame memory 105 by the following processing. That is, based on the compressed area data that is the area setting information recorded in the compressed image file, the controller 109 sets the information on the area A and the area B as coordinate information in the face / non-face area setting unit 118. Then, the face / non-face area separation / combination unit 111 takes in the data of the restored block image from the image processing unit 112, and based on the information set in the face / non-face area setting unit 118. The image data is written pixel by pixel on the frame memory 105 so that the data of the area A is located at the corresponding position of the area A and the data of the area B is located at the corresponding position of the area B. Images of face and non-face are combined.

【0065】そして、このフレームメモリ105上の画
像データは順次読み出されてD/A変換器106により
アナログ信号に変換され、出力信号変換部107でNT
SC方式の映像信号に変換された後、モニタ108に与
えられ画像として表示される。このようにして復元され
る。次に、量子化テーブル123の選択について説明す
る。
Then, the image data on the frame memory 105 is sequentially read out and converted into an analog signal by the D / A converter 106, and the output signal converter 107 outputs NT.
After being converted into an SC system video signal, it is given to the monitor 108 and displayed as an image. It is restored in this way. Next, selection of the quantization table 123 will be described.

【0066】圧縮率を変えてブロック毎に処理できるよ
うに、圧縮率に関係した値を上述の8×8画素の各ブロ
ック毎に割り当てたマップデータを設定する。このマッ
プデータをここでは圧縮領域データと呼ぶことにする。
The map data in which the values related to the compression rate are assigned to each of the above 8 × 8 pixel blocks is set so that the processing can be performed for each block while changing the compression rate. This map data will be referred to as compressed area data here.

【0067】そのマップデータは2つのテーブルの積値
でつくる。1つのテーブルは領域別圧縮率重みテーブル
121で、もう1つのテーブルはブロック別圧縮率重み
テーブル120である。領域別圧縮率重みテーブル12
1については、顔部は圧縮率を上げないで、つまり、大
きな圧縮をしないで、なるべく鮮鋭度を維持しながら圧
縮できるように、また、非顔部は、きめ細かさをあまり
要求されない背景部や人物の顔を除く部分であることか
ら、圧縮率を上げて、つまり、きめ細かさの度合いは低
下するがデータ量を少なくするために大きな圧縮ができ
るように、例えば図3のような領域別圧縮率重みテーブ
ルにする。
The map data is created by the product value of two tables. One table is the area-based compression rate weight table 121, and the other table is the block-based compression rate weight table 120. Area-based compression ratio weight table 12
Regarding No. 1, the face part can be compressed while maintaining the sharpness as much as possible without increasing the compression rate, that is, the non-face part, and the background part that does not require a high degree of detail. Since it is the part excluding the face of the person, the compression ratio is increased, that is, the degree of fineness is reduced, but large compression can be performed to reduce the data amount. Use rate weight table.

【0068】この重み係数は大きい程、高圧縮させるよ
うにしている。領域は図2に合せていて、A部をwA
B部をwB として、例えば、wA =2,wB =1にして
いる。ブロック別圧縮率重みテーブル120について
は、DCT処理部113でDCT演算したDCT係数を
取り出し、加算した値をもとに像の細かさの度合いを判
別してクラス分けし、その値から、もともと像の細かさ
の度合いが高いところは、その細かさを維持するように
圧縮率を低くし、像の細かさの度合いが低いところは圧
縮率を高く処理できるように、圧縮率の重み値をブロッ
ク毎に求めるブロック別圧縮率の重みテーブルにする。
The larger the weighting coefficient, the higher the compression. The area corresponds to FIG. 2, and the part A is w A ,
The portion B is set to w B , for example, w A = 2 and w B = 1. With respect to the compression rate weighting table 120 for each block, the DCT coefficient obtained by the DCT processing in the DCT processing unit 113 is extracted, the degree of fineness of the image is determined based on the added value, and the image is classified into classes. If the degree of fineness of the image is high, the compression rate is set low to maintain the degree of fineness, and if the degree of image fineness is low, the compression rate weight value is blocked so that the compression rate can be set high. A block-by-block compression rate weight table is obtained for each.

【0069】DCT処理部113でDCT演算したDC
T係数を図4に示す。この係数のうち、水平方向でのF
05とF06と垂直方向でのF50とF60の4値をそのまま加
算した値の絶対値
DC subjected to DCT operation in the DCT processing unit 113
The T coefficient is shown in FIG. Of these coefficients, F in the horizontal direction
05 and F 06 and the absolute value of the value obtained by adding it to 4 values of F 50 and F 60 in the vertical direction

【0070】[0070]

【数1】 を求めるか、各々の係数値の絶対値を加算した[Equation 1] Or add the absolute value of each coefficient value

【0071】[0071]

【数2】 を求める。[Equation 2] Ask for.

【0072】ここでは例えば後者の手法をとり、これを
解像度判別部119にて演算する。この加算値を8で割
った整数値にクラス分けして、このブロックでの像の細
かさの度合いとして判別した値を出力してブロック別圧
縮率重みテーブル120で受ける。ブロック別圧縮率重
みテーブル120はこの値をさらに分割して、例えば、
図5に示すような分け方でブロック別圧縮率の重みテー
ブルを設けている。
Here, for example, the latter method is used, and the resolution discrimination unit 119 calculates this. The added value is divided into integers divided by 8, and the value determined as the degree of image fineness in this block is output and received by the block-by-block compression rate weight table 120. The block compression rate weight table 120 further divides this value into, for example,
A weight table for the compression rate for each block is provided in the way of division as shown in FIG.

【0073】この値をブロック別圧縮率重みテーブル1
20で受け取り、その重み値wを圧縮率設定および領域
読み出し部122に出力する。圧縮率設定および領域読
み出し部122ではブロック別圧縮率重みテーブル12
0と領域別圧縮率重みテーブル121のそれぞれの重み
値の積Wを演算する。このWの値を圧縮領域データと呼
ぶことにする。
This value is used as the compression ratio weight table for each block 1
20 and outputs the weight value w to the compression rate setting and area reading unit 122. The compression ratio setting / area reading unit 122 uses the compression ratio weight table 12 for each block.
A product W of 0 and each weight value of the compression ratio weight table 121 for each area is calculated. This value of W will be called compressed area data.

【0074】この圧縮領域データの値であるW値をテー
ブル選択部124に転送することにより、図6の表に示
すようなテーブルで複数の量子化テーブル123の1つ
を選択できるようにコントロールする。これによって量
子化部114で用いられる量子化テーブルが選択され
る。これらをブロック毎に処理する。
By transferring the W value, which is the value of the compressed area data, to the table selection unit 124, control is performed so that one of the plurality of quantization tables 123 can be selected in the table shown in the table of FIG. .. As a result, the quantization table used by the quantization unit 114 is selected. These are processed block by block.

【0075】図6におけるテーブル番号は、例えば大き
い程、高圧縮処理できるように設定されている。このよ
うにして、領域別に圧縮率を変えて圧縮処理し、これを
復元することができる。
The table number in FIG. 6 is set so that the higher the number, the higher the compression processing can be performed. In this way, it is possible to perform compression processing by changing the compression rate for each area and restore it.

【0076】次にこれらの圧縮処理が画像の部分部分で
どのように異なって処理できるかを考えてみる。例え
ば、8×8画素のブロックBLK1〜BLK4を考え
る。これらのうち、顔部の領域であるB部領域にあるも
のと、背景部であるA部領域にあるものとを次のように
拾い出したものとする。
Next, let's consider how these compression processes can be processed differently in the partial parts of the image. For example, consider blocks BLK1 to BLK4 of 8 × 8 pixels. It is assumed that, of these, the one in the B area, which is the face area, and the one in the A area, which is the background area, are picked up as follows.

【0077】本システムでは量子化テーブルの選択を、
ブロックの画像が空間周波数の高いものであるか、低い
ものであるかにより重みの指標wを決め、これを補正定
数で補正した値がいくつになるかにより、どの量子化テ
ーブルを使用するかを決定する。
In this system, the selection of the quantization table is
The weighting index w is determined depending on whether the image of the block has a high spatial frequency or a low spatial frequency, and which quantization table is used depending on how many values are corrected by the correction constant. decide.

【0078】ブロックの画像が空間周波数の高いもので
あるか、低いものであるかは像の細かさを識別する解像
度判別部119が像の細かさに応じた具体的数値として
判定するので、この判定出力をもとにブロック別圧縮率
重みテーブル120から重みの指標wを得て、これと領
域別圧縮率重みテーブル121の出力する補正定数とを
乗算することにより一義的に得られるテーブル選択値を
もって使用する量子化テーブルを決定する。
Whether the block image has a high spatial frequency or a low spatial frequency is determined by the resolution discriminating unit 119 which discriminates the fineness of the image as a specific numerical value according to the fineness of the image. A table selection value uniquely obtained by obtaining a weight index w from the block-by-block compression ratio weight table 120 based on the determination output and multiplying this by the correction constant output from the region-by-region compression ratio weight table 121. Determines the quantization table to be used with.

【0079】領域別圧縮率重みテーブル121は顔部・
非顔部領域分離合成部111の出力するアドレス情報を
用い、その状況から現在A部領域での処理中であるか、
B部領域での処理であるかを知ることができるので、そ
れに応じて重み値(領域別圧縮率重みテーブル値)を出
力する。
The compression ratio weight table 121 for each area is
Using the address information output from the non-face area separation / synthesis unit 111, whether the processing is currently being performed in the A area based on the situation,
Since it can be known whether the processing is performed in the B area, the weight value (area-specific compression ratio weight table value) is output accordingly.

【0080】領域別圧縮率重みテーブル値にはwA とw
B があり、B部領域にあるものについてはwB を使用す
る。また、A部領域にあるものについてはwA を使用す
る。そして、B部領域については図3に示したように、
領域別圧縮率重みテーブル値wB を“1”とし、A部領
域については領域別圧縮率重みテーブル値wA を“2”
とする。
The compression ratio weight table values for each area are w A and w
If there is B and is in the B area, use w B. Also, w A is used for those in the area A. Then, as for the area B, as shown in FIG.
The compression rate weight table value w B for each area is set to “1”, and the compression rate weight table value w A for each area is set to “2” for the area A.
And

【0081】今、ブロックBLK1はB部領域における
完全に顔の部分にあるものであり、BLK2はB部領域
にあるが顔部と背景に跨がるところにあり、BLK3は
A部領域で衣服のところにあり、BLK4はA部領域で
背景のところにあるものとする。
Now, the block BLK1 is completely in the face part in the B part area, the BLK2 is in the B part area, but it is across the face part and the background, and the BLK3 is in the A part area. And BLK4 is in the background in the area A.

【0082】そして、BLK1はB部領域中の顔部分で
あるので領域別圧縮率重みテーブル値はwB (=
“1”)であり、顔の画像は輝度と色の変化が大きいと
ころと単調なところがあるが、ここでは変化が大きいと
ころとして、解像度判別部119の出力値が“12”で
あったとすると、図5に示すブロック別圧縮率重みテー
ブル120の出力は“12”に対しては重みw=1とな
り、その積値WはW=wB ×w=1×1=1となって、
図6から量子化テーブル番号は“1”となる。
Since BLK1 is a face portion in the B area, the compression ratio weight table value for each area is w B (=
“1”), and the face image has a large change in luminance and color and a monotonous part. Here, assuming that the change is large, if the output value of the resolution determination unit 119 is “12”, The output of the block-by-block compression ratio weight table 120 shown in FIG. 5 is a weight w = 1 for “12”, and the product value W thereof is W = w B × w = 1 × 1 = 1,
From FIG. 6, the quantization table number is “1”.

【0083】BLK2は領域はB部領域であり、領域別
圧縮率重みテーブル値はwB (=“1”)であり、背景
はモノトーンであるがゆえに解像度判別部119の出力
値は“1”であったとすると、ブロック別圧縮率重みテ
ーブル120の出力値は重みw=6となり、積値W=w
B ×w=1×6=6で量子化テーブル番号は“3”とな
る。
In BLK2, the region is the B region, the compression ratio weight table value for each region is w B (= “1”), and the background is monotone, so the output value of the resolution determination unit 119 is “1”. Then, the output value of the block-by-block compression rate weight table 120 is the weight w = 6, and the product value W = w
The quantization table number is “3” when B × w = 1 × 6 = 6.

【0084】BLK3はA部領域であるので領域別圧縮
率重みテーブル値はwA (=“2”)であり、衣服は少
々変化していて解像度判別部119の出力値は“8”で
あったとすると、ブロック別圧縮率重みテーブル120
の出力値は重みw=2となり、積値W=wA ×w=2×
2=4で量子化テーブル番号は“2”となる。
Since BLK3 is the area A, the compression ratio weight table value for each area is w A (= “2”), the clothes are slightly changed, and the output value of the resolution determination unit 119 is “8”. Then, the compression rate weight table for each block 120
The output value of is a weight w = 2, and the product value W = w A × w = 2 ×
When 2 = 4, the quantization table number is "2".

【0085】BLK4はA部領域であるので領域別圧縮
率重みテーブル値はwA (=“2”)であり、背景はモ
ノトーンであるがゆえに解像度判別部119の出力値は
“1”であったとすると、ブロック別圧縮率重みテーブ
ル120の出力値は重みw=6となり、積値W=wA ×
w=2×6=12で量子化テーブル番号は“4”とな
る。
Since BLK4 is the A area, the compression ratio weight table value for each area is w A (= “2”), and the output value of the resolution determination section 119 is “1” because the background is monotone. Then, the output value of the compression rate weighting table for each block 120 is the weight w = 6, and the product value W = w A ×
When w = 2 × 6 = 12, the quantization table number is “4”.

【0086】このようにして量子化テーブル番号が決定
されると、この決定された番号の選択情報が圧縮率設定
および領域読出し部122よりテーブル選択部124に
出力され、複数の量子化テーブル群からなる量子化テー
ブル123のうち、この決定された番号の量子化テーブ
ルがテーブル選択部124により選択される。そして、
その番号の量子化テーブルが量子化部114に送られ、
量子化部114はこの与えられた量子化テーブルを使用
して量子化を行う。また、積値Wは復元に必要な情報と
して多重化部116にも送られ、圧縮画像データと共に
多重化されて外部メモリ117に記憶される。
When the quantization table number is determined in this way, the selection information of this determined number is output from the compression rate setting and area reading unit 122 to the table selection unit 124, and the quantization table number is selected from the plurality of quantization table groups. The quantization table having the determined number is selected by the table selection unit 124 from the quantization table 123. And
The quantization table of that number is sent to the quantization unit 114,
The quantizer 114 quantizes using the given quantization table. The product value W is also sent to the multiplexing unit 116 as information necessary for decompression, is multiplexed with the compressed image data, and is stored in the external memory 117.

【0087】このように処理ブロックが顔部の領域(B
部領域)と非顔部の領域(A部領域)かの違いと、ブロ
ック内での像の細かさの違いを併せて判別しながら圧縮
率を決定してブロック毎に量子化テーブルを選択し、圧
縮を行うことで、B部領域では細かい変化のある部分は
圧縮を殆ど行わないか小さい圧縮率で、また、B部領域
で変化の少ないところは比較的圧縮率を高め、A部領域
では細かい変化のある部分は比較的小さい圧縮率で圧縮
し、また、A部領域で変化の少ないところは大きな圧縮
率で圧縮すると云った具合に、領域と画像の細かさに応
じて圧縮率を変えながら量子化時の圧縮率を制御するこ
とになる。
In this way, the processing block is the face area (B
The compression ratio is determined while determining the difference between the partial area) and the non-face area (A area) and the difference in the fineness of the image in the block, and the quantization table is selected for each block. As a result of the compression, in the part B area, there is little or little compression in the part where there is a small change, and in the part B area where there is little change, the compression ratio is relatively high, and in the part A area. The compression ratio is changed according to the area and the image fineness, such that the part with a small change is compressed with a relatively small compression rate, and the part with a small change is compressed with a large compression rate. However, the compression rate at the time of quantization will be controlled.

【0088】ブロック毎の圧縮領域データ値Wは外部記
憶装置117より圧縮画像データを読み出した際にも多
重化部116から復元に必要な各種情報がブロック別に
分離再生されて出力され、積値Wが得られ、これがテー
ブル選択部124に入力される。従って、これをもとに
圧縮率設定および領域読出し部122は積値Wに応じた
量子化テーブル選択指令のための情報を出力して、テー
ブル選択部124を制御するので、伸張処理されるとき
量子化テーブル123の内から積値Wに応じたテーブル
が選択され、量子化部114に与えられる。
As for the compressed area data value W for each block, when the compressed image data is read from the external storage device 117, various information necessary for restoration is separated and reproduced for each block and output from the multiplexing unit 116, and the product value W Is obtained, and this is input to the table selection unit 124. Therefore, based on this, the compression rate setting and area reading unit 122 outputs information for the quantization table selection command according to the product value W and controls the table selection unit 124. A table corresponding to the product value W is selected from the quantization table 123 and given to the quantization unit 114.

【0089】フレームメモリ105上画像から顔部と非
顔部に区分して切り出した際の座標データ(領域デー
タ)は前述したように、圧縮画像データと共に多重され
て外部記憶装置117に格納されており、読出し時には
分離されて抽出され、このデータを利用できるようにし
てあるので、圧縮伸張し、再合成するときにその領域デ
ータを外部記憶装置117から顔部・非顔部領域設定部
118へ転送し、そのデータを基に顔部・被顔部領域分
離合成部111により画像処理部112の出力する伸張
後のブロック画像データを取り込み、フレームメモリ1
05の書き込みアドレスコントロールしながら、この伸
張後のブロック画像データをフレームメモリ105に書
き込むことにより、フレームメモリ105上には伸張後
のブロック画像データがそのブロックの置かれるべき座
標位置に正しく配置されて書き込まれることになり、そ
の結果、顔画と非顔画が、1枚の元の画像に復元され
る。
As described above, the coordinate data (region data) obtained by dividing the image on the frame memory 105 into the face portion and the non-face portion is stored together with the compressed image data and stored in the external storage device 117. Since the data is separated and extracted at the time of reading and is made available for use, the area data is compressed and expanded and recombined to the face / non-face area setting unit 118 from the external storage device 117. The image data is transferred and the decompressed block image data output from the image processing unit 112 is fetched by the face / faced area separation / synthesis unit 111 based on the data, and the frame memory 1
By writing the decompressed block image data in the frame memory 105 while controlling the write address of 05, the decompressed block image data is correctly arranged on the frame memory 105 at the coordinate position where the block should be placed. As a result, the face image and the non-face image are restored to one original image.

【0090】なお、上述の実施例では像の細かさを判別
するために4つのDCT係数を用いて処理することを述
べているが、例えば図7のような水平垂直画像での各成
分を交じ合わせた係数のF55,F56,F65,F66に換え
て処理することもできる。また、図8のように周波数範
囲を持たせて処理すると画像情報量の大小を判別するこ
とができ、また各係数に、例えば、
Although the above embodiment describes processing using four DCT coefficients in order to determine the fineness of an image, each component in a horizontal and vertical image as shown in FIG. 7 is crossed. It is also possible to process by replacing the combined coefficients of F 55 , F 56 , F 65 , and F 66 . Further, as shown in FIG. 8, if the processing is performed with a frequency range, the size of the image information amount can be determined.

【0091】[0091]

【数3】 とした重み付けをすることによって、高周波成分重視の
像の細かさの度合いを判別することもできる。
[Equation 3] It is also possible to determine the degree of fineness of the image in which high frequency components are emphasized by weighting.

【0092】ところでこのとき、画像処理部112でY
UVデータからRGBデータに変換しているが、YUV
データのYデータのみを顔部・非顔部領域分離合成部1
11のアドレス制御のもとに、フレームメモリ105に
書くこともでき、その場合、顔部のみをフレームメモリ
105内の任意の位置に書けるようにコントローラ10
9で顔部・非顔部領域設定部118に座標データを書き
換え、顔部・非顔部領域分離合成部111にて画像処理
部112にあるYデータを取り出し、フレームメモリ1
05に書き込む。これを複数人のデータについて行うこ
とで、モノクロマルチ画像をTVモニタに写し出すこと
ができる。
At this time, at the image processing unit 112, Y
Converted from UV data to RGB data, but YUV
Face / non-face area separation / synthesis unit 1 for Y data only
It is also possible to write in the frame memory 105 under the address control of 11, and in that case, the controller 10 can write only the face portion at an arbitrary position in the frame memory 105.
At 9 the coordinate data is rewritten in the face / non-face area setting unit 118, the face / non-face area separation / synthesis unit 111 takes out the Y data in the image processing unit 112, and the frame memory 1
Write in 05. By doing this for the data of a plurality of people, a monochrome multi-image can be displayed on the TV monitor.

【0093】また、出力信号変換部107の出力を図9
のようにビデオプリンタに接続し、IDカード画像とし
てプリント出力させるようにすることもできる。この場
合には外部記憶装置117に前もってCG(コンピュー
タグラフィック)画などのロゴ画や氏名画などのデータ
を保存しておき、図10のように接続した構成にしてお
く。
In addition, the output of the output signal converter 107 is shown in FIG.
It is also possible to connect to a video printer as described above and print out as an ID card image. In this case, data such as a logo image such as a CG (computer graphic) image and a name image are stored in advance in the external storage device 117, and are connected as shown in FIG.

【0094】そしてプリント時には、先ず外部記憶装置
117から画像処理部112の画像処理部へロゴ画や氏
名画のデータを転送し、顔部・非顔部領域設定部118
にコントローラ109よりその座標データ転送およびそ
のコントロールを行い顔部・非顔部領域分離合成部11
1によって画像処理部112からデータを読み出し、フ
レームメモリ105の定められた位置アドレスに書き込
む。
At the time of printing, first, the data of the logo image or the name image is transferred from the external storage device 117 to the image processing unit of the image processing unit 112, and the face / non-face area setting unit 118 is set.
The coordinate data is transferred from the controller 109 to the controller 109 and its control is performed, and the face / non-face area separation / synthesis unit 11
The data is read from the image processing unit 112 by 1 and written to a predetermined position address of the frame memory 105.

【0095】次に外部記憶装置117から圧縮画像デー
タを多重化部116へ、領域データを顔部・非顔部領域
設定部118へ転送し、画像伸縮し始め、顔部画像のみ
を顔部・非顔部領域分離合成部111によて取り出し、
フレームメモリ105上のIDイメージ内の顔部画像位
置に画像データを書き込めるように、顔部・非顔部領域
設定部118にコントローラ109よりその座標データ
を転送し、そのコントロールを行う。
Next, the compressed image data is transferred from the external storage device 117 to the multiplexing unit 116, the area data is transferred to the face / non-face area setting unit 118, and the image expansion / contraction is started. Taken out by the non-face area separation / synthesis unit 111,
The controller 109 transfers the coordinate data to the face / non-face area setting unit 118 so that the image data can be written at the face image position in the ID image on the frame memory 105, and the control is performed.

【0096】IDイメージがフレームメモリ105上に
作成された後、コントローラ109の制御のもとにこれ
を読出すと、D/A変換器106でアナログのビデオ信
号にされてから出力信号変換部でNTSC方式の映像信
号に変換され、ビデオプリンタ125に与えられてID
カードイメージがプリントアウトされる。これによっ
て、IDカードを発行することが可能になる。
After the ID image is created on the frame memory 105 and read out under the control of the controller 109, the D / A converter 106 converts the ID image into an analog video signal, and then the output signal conversion section. Converted to NTSC video signal and given to the video printer 125 for ID
The card image is printed out. This makes it possible to issue an ID card.

【0097】ここで先の実施例では、撮影した画像の中
から顔部領域を操作者が決定できるように構成したが、
顔部位置を認識し、自動的に顔部領域を決定するように
することもできる。
In the above embodiment, the operator can determine the face area from the photographed image.
It is also possible to recognize the face position and automatically determine the face area.

【0098】このような自動化処理システムとするに
は、図11のように構成すれば良い。図11の構成にお
いては、画像の中から顔部画像の領域を自動的に検出
し、その顔部座標を演算し出力する顔部領域座標自動検
出部126をフレームメモリ105のデータパスに接続
し、その座標値を顔部・非顔部領域設定部118に入力
できるように接続している。
In order to obtain such an automated processing system, the configuration as shown in FIG. 11 may be used. In the configuration of FIG. 11, the face area coordinate automatic detection unit 126 that automatically detects the area of the face image from the image and calculates and outputs the face coordinates is connected to the data path of the frame memory 105. The coordinate values are connected so that they can be input to the face / non-face area setting unit 118.

【0099】ここでの動作は、人物の輪郭と、顔色とす
る肌色(Rs ±ΔR,Gs ±ΔG,Bs ±ΔB)を基に
画像処理にて顔部を抽出し、その領域を中心にして、あ
る距離をとった枠座標を演算して求める。その後の処理
は、先に説明した実施例と同様に行えば良く、このよう
にすれば自動的にこれらの一連の処理が行える。
In this operation, the face portion is extracted by image processing based on the contour of the person and the skin color (Rs ± ΔR, Gs ± ΔG, Bs ± ΔB) as the complexion, and the region is centered. , Calculate the frame coordinates with a certain distance. Subsequent processing may be performed in the same manner as the above-described embodiment, and by doing so, a series of these processing can be automatically performed.

【0100】顔部位置を認識し、自動的に顔部領域を決
定する際に、更に細かく認識して抽出する方法を次にあ
げる。これは顔部が大まかに認識された後、顔部の中で
の目の位置を認識して例えば、図12に示すような両目
を含む小さな領域Bを検出するように、図11の顔部領
域座標検出部126にてその演算を行わせる。
A method of recognizing the face position and automatically deciding the face region and extracting the face region will be described below. This is because after the face portion is roughly recognized, the position of the eyes in the face portion is recognized and, for example, a small area B including both eyes as shown in FIG. 12 is detected. The area coordinate detector 126 causes the calculation.

【0101】この目だけを囲む理由は、人が人を見ると
き動物的に目を主に見ている。そして、目鼻の状態が人
物の顔の特徴を如実に表わしていることも、学術的に良
く知られた事実である。
The reason why only the eyes are surrounded is that when a person looks at a person, he or she mainly looks at the eyes animally. It is also an academically well-known fact that the condition of the eyes and nose clearly shows the characteristics of the human face.

【0102】そこで目付近の画像の分解能を劣さないで
維持すれば、そのID画像を見たときの全体から受ける
像の細かさの感覚的度合いが、その目付近の画像の分解
能と同程度であるように、観察者が錯覚する効果が期待
でき、画像における注目領域(B部領域)は目付近の狭
い領域とし、分解能を犠牲にする他の領域(A部領域)
を広げて全画像に対し、より高圧縮処理を目ざす。
Therefore, if the resolution of the image in the vicinity of the eye is maintained without deteriorating, the perceived degree of fineness of the image received from the whole when the ID image is viewed is about the same as the resolution of the image in the vicinity of the eye. As described above, the effect of illusion by the observer can be expected, and the attention area (B area) in the image is a narrow area near the eye, and another area (A area) sacrificing resolution.
Expand the image and aim for higher compression processing for all images.

【0103】その目位置を検出するには、先ず、人物領
域を背景から分離するときエッジ検出を行い、その領域
内で肌色(Rs ±ΔR,Gs ±ΔG,Bs ±ΔB)の画
素だけを検出し画像領域分離する。その後その画像を2
値化すれば、目や鼻の穴、口などに画素が脱けた画像が
得られ、更にその脱けた画素位置での原画の色で白目部
分の白色を検出し、その白色領域が肌色領域に対して重
心位置が上部にあればそこが目の位置として認識する。
In order to detect the eye position, first, edge detection is performed when the human area is separated from the background, and only pixels of skin color (Rs ± ΔR, Gs ± ΔG, Bs ± ΔB) are detected in the area. Then, the image area is separated. Then the image 2
If the value is converted, an image with pixels missing in the eyes, nostrils, mouth, etc. can be obtained, and the white color of the white part of the original image at the pixel position where the pixels are removed is detected, and the white area becomes the skin color area. On the other hand, if the center of gravity is at the top, it is recognized as the eye position.

【0104】以上を演算し、その位置をとり囲むように
して図12のような枠座標を演算する。この後の処理を
先に説明した実施例と同様に行うようにすれば自動的に
これらの一連の処理が行える。
The above calculation is performed, and the frame coordinates as shown in FIG. 12 are calculated so as to surround the position. If the subsequent processing is performed in the same manner as in the above-described embodiment, these series of processing can be automatically performed.

【0105】これらの例において、ブロック毎に圧縮比
を変えるとブロックの違いによりブロックとブロックの
つながりが目につく場合があるが、本発明の実施例のよ
うに画像処理部とDCT処理部を設けて、画像処理をD
CT処理と分けていれば、画像処理部で伸張後にブロッ
クとブロックのつながり部分を画像平滑化処理を行い、
目立たなくすることもできる。
In these examples, when the compression ratio is changed for each block, the connection between blocks may be noticeable due to the difference in blocks. However, as in the embodiments of the present invention, the image processing unit and the DCT processing unit are Provide and image processing D
If it is separated from CT processing, the image processing unit performs image smoothing processing on the connected portions of blocks after decompression,
You can also make it inconspicuous.

【0106】以上、本発明は画像データを一時保持する
画像メモリに被写体像の画像データを保持させ、画像メ
モリ上の画像データを、設定された注目領域とその他の
領域とに分けてそれぞれ所定画素サイズのブロック単位
で読出し、これをDCT演算等のような直交変換演算を
行い、この変換されて得られたデータについて上記画像
メモリ上の位置と上記ブロックの画像の状態に応じた所
定の量子化用テーブルで量子化し、この量子化済みのデ
ータを符号化して上記ブロックの上記画像メモリ上の位
置情報と使用した量子化用テーブルの選択のための情報
と共に記録する方式とし、上記量子化にあたり、上記注
目領域の画像は像が細かいブロックほど低い圧縮率で、
上記その他の領域の画像は高い圧縮率で圧縮されるよ
う、上記テーブルの選択基準を規定するようにした。
As described above, according to the present invention, the image data of the subject image is held in the image memory for temporarily holding the image data, and the image data in the image memory is divided into the set attention area and the other areas, and the predetermined pixels are respectively provided. The data is read out in block units of size, an orthogonal transformation operation such as a DCT operation is performed, and the data obtained by this transformation is subjected to predetermined quantization in accordance with the position on the image memory and the image state of the block. Quantized with a table for encoding, the quantized data is encoded and recorded together with position information on the image memory of the block and information for selection of the quantization table used, in the quantization, The image of the attention area has a lower compression rate as the image is finer,
The selection criteria of the table are defined so that the images in the other areas are compressed at a high compression rate.

【0107】そのため、注目領域の画像は圧縮率が低い
ので、画像伸長しても劣化の心配がなく、その他の領域
は圧縮率が高いので、当該部分は画像伸長した際には劣
化が起きるが、注目領域での画質が確保されることか
ら、ID画像のように注目領域を顔部に設定しておくこ
とで、必要な部分での画質を維持しつつ、他の部分での
データ高圧縮効果により、画像データの容量を小さくで
きる。
Therefore, since the image of the region of interest has a low compression rate, there is no fear of deterioration even if the image is expanded, and the compression rate of other regions is high, so that the part may deteriorate when the image is expanded. Since the image quality in the attention area is ensured, by setting the attention area in the face portion like the ID image, the image quality in the necessary portion is maintained and the high data compression in other portions is performed. Due to the effect, the amount of image data can be reduced.

【0108】従って、画像内の顔部分の鮮鋭度を劣さな
いように全体として高圧縮で記録保存することができ、
また、非顔部においても部分毎の情報量の違いによって
圧縮比を変えているので、顔部外の画像においてもほど
良い鮮鋭度を維持できてプリントに使える画質レベルを
維持しながら一枚当りの画像データ量を少なくできるよ
うになって、多数の画像の記録保存ができるようにな
る。
Therefore, it is possible to record and store the image with high compression as a whole so as not to deteriorate the sharpness of the face portion in the image,
In addition, since the compression ratio is changed even in the non-face part according to the difference in the amount of information for each part, even in the image outside the face part, it is possible to maintain a proper sharpness and maintain the image quality level that can be used for printing. It is possible to reduce the amount of image data of, and it is possible to record and save a large number of images.

【0109】なお、本発明は上述した実施例に限定され
るものではなく、その要旨を変更しない範囲内で適宜変
形して実施し得るものであり、例えば、実施例において
はID用顔画像の圧縮を中心に説明したが、ID用顔画
像の圧縮だけでなく、一般的な画像の圧縮ファイリング
に対して応用しても十分効果が期待できる。
The present invention is not limited to the above-described embodiment, but can be carried out by appropriately modifying it within the scope not changing the gist thereof. For example, in the embodiment, an ID face image Although the description has been centered on compression, a sufficient effect can be expected when applied not only to the compression of the ID face image but also to general image compression filing.

【0110】[0110]

【発明の効果】以上詳述したように、本発明によれば、
プリントに使える画質レベルを維持しながら一枚当りの
画像データ量を少なくでき、多数の画像の記録保存がで
きるようになる。
As described in detail above, according to the present invention,
While maintaining the image quality level that can be used for printing, the amount of image data per sheet can be reduced, and a large number of images can be recorded and saved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の全体構成を示すブロック図。FIG. 1 is a block diagram showing the overall configuration of an embodiment of the present invention.

【図2】本発明で用いる領域分割の説明をするための
図。
FIG. 2 is a diagram for explaining area division used in the present invention.

【図3】本発明で用いる領域別圧縮率重みテーブルを説
明するための図。
FIG. 3 is a diagram for explaining an area-based compression rate weight table used in the present invention.

【図4】本発明の実施例におけるDCT処理部113で
のDCT演算により得られたDCT係数を説明するため
の図。
FIG. 4 is a diagram for explaining DCT coefficients obtained by a DCT calculation in a DCT processing unit 113 according to the embodiment of the present invention.

【図5】本発明で用いるブロック別圧縮率の重みテーブ
ルを説明するための図。
FIG. 5 is a view for explaining a weight table of block-by-block compression rates used in the present invention.

【図6】本発明で用いるテーブル選択部の選択するテー
ブル番号とW値都の関係を説明するための図。
FIG. 6 is a diagram for explaining a relationship between a table number selected by a table selection unit used in the present invention and a W value.

【図7】本発明の別の実施例を説明するための図。FIG. 7 is a diagram for explaining another embodiment of the present invention.

【図8】本発明の別の実施例を説明するための図。FIG. 8 is a diagram for explaining another embodiment of the present invention.

【図9】本発明の別の実施例を説明するための図。FIG. 9 is a diagram for explaining another embodiment of the present invention.

【図10】本発明の別の実施例を説明するための図。FIG. 10 is a diagram for explaining another embodiment of the present invention.

【図11】本発明の別の実施例を説明するための図。FIG. 11 is a diagram for explaining another embodiment of the present invention.

【図12】本発明の別の実施例を説明するための図。FIG. 12 is a diagram for explaining another embodiment of the present invention.

【図13】従来技術を説明するための図。FIG. 13 is a diagram for explaining a conventional technique.

【図14】従来技術を説明するための図。FIG. 14 is a diagram for explaining a conventional technique.

【符号の説明】[Explanation of symbols]

101…被写体、102…背景部、103…カラーTV
カメラ、104…A/D変換器、105…フレームメモ
リ、106…D/A変換器、107…出力信号変換部、
108…TVモニタ、109…コントローラ、110…
キーボード、111…顔部・非顔部領域分離合成部、1
12…画像処理部、113…DCT処理部、114…量
子化部、123…量子化テーブル、115…符号化部、
116…多重化部、117…外部記憶装置、118…顔
部・非顔部領域設定部、119…解像度判別部、120
…ブロック別圧縮率重みテーブル、121…領域別圧縮
率重みテーブル、122…圧縮率設定および領域読み出
し部、123…量子化テーブル、124…テーブル選択
部、125…ビデオプリンタ、126…顔部領域座標自
動検出部。
101 ... Subject, 102 ... Background, 103 ... Color TV
Camera, 104 ... A / D converter, 105 ... frame memory, 106 ... D / A converter, 107 ... output signal converter,
108 ... TV monitor, 109 ... Controller, 110 ...
Keyboard, 111 ... Face / non-face area separation / synthesis unit, 1
12 ... Image processing unit, 113 ... DCT processing unit, 114 ... Quantization unit, 123 ... Quantization table, 115 ... Encoding unit,
116 ... Multiplexing unit, 117 ... External storage device, 118 ... Face / non-face area setting unit, 119 ... Resolution determination unit, 120
... Block compression rate weight table, 121 ... Area compression rate weight table, 122 ... Compression rate setting and area reading section, 123 ... Quantization table, 124 ... Table selection section, 125 ... Video printer, 126 ... Face area coordinates Automatic detection unit.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 入力された画像データを一時保持する画
像メモリと、 画像メモリ上の画像の注目領域とその他の領域とを設定
する設定手段と、 この設定された注目領域とその他の領域とを区分して画
像メモリ上からそれぞれ領域別に所定画素サイズのブロ
ック単位に読出す分離手段と、 圧縮率の大きさをそれぞれ異ならせた量子化のためのテ
ーブルを複数組備えた量子化テーブルと、 上記読み出されたブロックの画像の細かさを判別する判
別手段と、 判別手段の判別結果と上記読み出されたブロックの所属
領域に対応して定める圧縮率のテーブルを上記量子化テ
ーブルより選択する選択手段と、 読出手段により読み出された画像データを直交変換する
直交変換手段と、 この直交変換されて得られたデータについて上記選択手
段にて選択されたテーブルを用いて量子化する量子化手
段と、 この量子化されたデータを符号化処理する符号化手段
と、 この符号化されたデータを上記読出手段による読出し時
の位置情報および上記使用したテーブルの選択のための
情報と共に多重化して出力する多重化手段とより構成さ
れ、上記注目領域の画像は像が細かいブロックほど低い
圧縮率で、上記その他の領域の画像は高い圧縮率で圧縮
されるよう、上記テーブルの選択基準を規定したことを
特徴とする画像情報圧縮装置。
1. An image memory for temporarily holding input image data, setting means for setting an attention area of an image on the image memory and another area, and the set attention area and the other area. Separating means for dividing and reading out from the image memory in block units each having a predetermined pixel size for each area; a quantization table provided with a plurality of sets of quantization tables having different compression rates; Selection means for determining the fineness of the image of the read block, and a selection table for selecting a compression rate table determined from the determination result of the determination means and the area to which the read block belongs from the quantization table. Means, an orthogonal transformation means for orthogonally transforming the image data read by the reading means, and the data obtained by the orthogonal transformation is selected by the selection means. Quantizing means for quantizing the quantized data, coding means for coding the quantized data, position information at the time of reading the coded data by the reading means, and the table used. The image of the region of interest is compressed with a lower compression ratio as the image is finer, and the images of the other regions are compressed with a higher compression ratio. As described above, the image information compression apparatus characterized in that the selection criterion of the table is defined.
JP4136724A 1992-05-28 1992-05-28 Image information compressing device Withdrawn JPH05336374A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4136724A JPH05336374A (en) 1992-05-28 1992-05-28 Image information compressing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4136724A JPH05336374A (en) 1992-05-28 1992-05-28 Image information compressing device

Publications (1)

Publication Number Publication Date
JPH05336374A true JPH05336374A (en) 1993-12-17

Family

ID=15182018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4136724A Withdrawn JPH05336374A (en) 1992-05-28 1992-05-28 Image information compressing device

Country Status (1)

Country Link
JP (1) JPH05336374A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120224A (en) * 2002-09-25 2004-04-15 Fuji Photo Film Co Ltd Image correction processing apparatus and program
WO2021153680A1 (en) * 2020-01-28 2021-08-05 株式会社エクォス・リサーチ Video compression device, detection device, video compression program, and detection program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120224A (en) * 2002-09-25 2004-04-15 Fuji Photo Film Co Ltd Image correction processing apparatus and program
WO2021153680A1 (en) * 2020-01-28 2021-08-05 株式会社エクォス・リサーチ Video compression device, detection device, video compression program, and detection program
JP2021115305A (en) * 2020-01-28 2021-08-10 株式会社エクォス・リサーチ Moving image compression device, detection device, moving image compression program, and detection program

Similar Documents

Publication Publication Date Title
DE69838653T2 (en) Method and apparatus for compressing and encoding image data representing a color image
CN100405824C (en) Imaging system and reproducing system
US20060045381A1 (en) Image processing apparatus, shooting apparatus and image display apparatus
JP2000197050A (en) Image processing unit and its method
US5463419A (en) Image signal processing device for thinning images
US20010012397A1 (en) Image processing apparatus and method
US7146055B2 (en) Image processing decompression apparatus and method of using same different scaling algorithms simultaneously
US6188726B1 (en) Coding/decoding apparatus
JP2001292449A (en) Image processing unit, image processing method, and recording medium
JPH05336374A (en) Image information compressing device
KR100420620B1 (en) Object-based digital video recording system)
JPH02105679A (en) Reproducing device and recorder for digital image
JPH066747A (en) Id photo system
JPH02105686A (en) Digital recorder for still picture
JP2537261B2 (en) Image signal compression recording apparatus and expansion reproducing apparatus
JPH0918828A (en) Recording device and method and reproducing device and method for digital image data
US6226445B1 (en) Image compression and expansion device
JP2005109757A (en) Picture imaging apparatus, picture processing apparatus, picture imaging method, and program
JP3038022B2 (en) Electronic camera device
JP2965779B2 (en) Electronic still camera device
JPH1023274A (en) Transmitter for image signal and reception-reproducing device
JP3192133B2 (en) Electronic camera device
JPH0541800A (en) Picture decoding processor and decoding method
JPH01218187A (en) Compression and recording device and expansion and regenerating device for image signal
Farrelle et al. Optimizing JPEG quantization matrices for different applications

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990803