JPH08331391A - Image processing unit and method therefor - Google Patents

Image processing unit and method therefor

Info

Publication number
JPH08331391A
JPH08331391A JP7134229A JP13422995A JPH08331391A JP H08331391 A JPH08331391 A JP H08331391A JP 7134229 A JP7134229 A JP 7134229A JP 13422995 A JP13422995 A JP 13422995A JP H08331391 A JPH08331391 A JP H08331391A
Authority
JP
Japan
Prior art keywords
image
background
input image
area
quantizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7134229A
Other languages
Japanese (ja)
Inventor
Mitsuru Maeda
充 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7134229A priority Critical patent/JPH08331391A/en
Priority to US08/654,638 priority patent/US5995665A/en
Publication of JPH08331391A publication Critical patent/JPH08331391A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

PURPOSE: To provide the image processing unit and its method in which an area of an input image is correctly divided based on a characteristic of the image and coding in response to a characteristic is applied to the divided areas. CONSTITUTION: A background decision section 5 decides a state of a background of an input image. An adaptive quantization section 6 binarizes an input image based on a state of a background, binarizes the input image subject to edge emphasis and integrates two binarized results to generate a background binary image. An area divider 7 applies area division to the input image based on the background binary image. The divided area is coded by a multi-value image coder 9 or a binary image coder 10 in response to the characteristic.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像処理装置およびその
方法に関し、例えば、画像を領域分割して符号化する画
像処理装置およびその方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a method thereof, and more particularly, to an image processing apparatus and a method thereof for dividing an image into regions and encoding them.

【0002】[0002]

【従来の技術】近年、画像符号化技術が急速に進歩する
とともに、国際的な標準化が進められ、多値カラー画像
の非可逆符号化としてJPEG方式が、白黒二値画像の可逆
符号化としてはJBIG方式が標準化された。さらに新しい
符号化方式の標準化も進められている。
2. Description of the Related Art In recent years, with the rapid progress of image coding technology, international standardization has progressed, and the JPEG system has been used as a lossy coding for multivalued color images, and the JPEG system has been used as a lossless coding for black and white binary images. The JBIG method has been standardized. Furthermore, the standardization of new coding methods is also in progress.

【0003】図1は画像符号化装置の構成例を示すブロ
ック図で、1001は画像を入力するスキャナ、1002はユー
ザの指示に従って入力画像の出力先を選択するセレク
タ、1003は入力画像をJPEG符号化するJPEG符号化器、10
04は入力画像を二値化する二値化器、1005は二値画像を
符号化するJBIG符号化器、1006はユーザの指示に従って
符号の入力先を選択するセレクタ、1007は通信インタフ
ェイス、1008は電話回線やLANなどの通信回線である。
なお、セレクタ1002とセレクタ1006は同期して作動し、
セレクタ1002を介して符号化された画像は、セレクタ10
06を介して通信インタフェイス1007へ送られる。
FIG. 1 is a block diagram showing an example of the configuration of an image coding apparatus. 1001 is a scanner for inputting an image, 1002 is a selector for selecting an output destination of the input image according to a user's instruction, and 1003 is a JPEG code for the input image. JPEG encoder to convert, 10
04 is a binarizer for binarizing the input image, 1005 is a JBIG encoder for encoding the binary image, 1006 is a selector for selecting the input destination of the code according to the user's instruction, 1007 is a communication interface, 1008 Is a communication line such as a telephone line or a LAN.
In addition, the selector 1002 and the selector 1006 operate in synchronization,
The image coded through the selector 1002 is the selector 10
It is sent to the communication interface 1007 via 06.

【0004】このような構成において、ユーザは、カラ
ー画像を送信しようとするとき、まず、セレクタ1002の
出力先とセレクタ1006の入力先としてJPEG符号化器1003
を選択する。続いて、スキャナ1001を動作させて画像デ
ータを入力し、セレクタ1002を介してJPEG符号化器1003
に画像データを入力し、JPEG方式で符号化された符号デ
ータを得る。この符号データは、セレクタ1006を介して
通信インタフェイス1007へ入力さた後、通信インタフェ
イス1007により所定のプロトコルで通信回線1008へ送出
される。
In such a configuration, when the user wants to transmit a color image, first, the JPEG encoder 1003 is used as an output destination of the selector 1002 and an input destination of the selector 1006.
Select Next, the scanner 1001 is operated to input the image data, and the JPEG encoder 1003 is input via the selector 1002.
Image data is input to and the coded data encoded by the JPEG method is obtained. This code data is input to the communication interface 1007 via the selector 1006, and then sent out to the communication line 1008 by the communication interface 1007 according to a predetermined protocol.

【0005】また、ユーザは、白黒二値画像を送信しよ
うとするとき、まず、セレクタ1002の出力先として二値
化器1004を選択するとともに、セレクタ1006の入力先と
してJBIG符号化器1005を選択する。続いて、スキャナ10
01を動作させて画像データを入力し、セレクタ1002を介
して二値化器1004へ入力する。二値化器1004は、予め設
定された閾値と入力された画像データとを比較して、画
像データを二値化する。二値化された画像データは、JB
IG符号化器1005へ入力され、JBIG方式で符号化された符
号データになる。この符号データは、セレクタ1006を介
して通信インタフェイス1007に入力された後、通信イン
タフェイス1007により所定のプロトコルで通信回線1008
へ送出される。
When transmitting a black and white binary image, the user first selects the binarizer 1004 as the output destination of the selector 1002 and the JBIG encoder 1005 as the input destination of the selector 1006. To do. Then the scanner 10
01 is operated to input image data and input to the binarizer 1004 via the selector 1002. The binarizer 1004 binarizes the image data by comparing a preset threshold value with the input image data. The binarized image data is JB
The code data is input to the IG encoder 1005 and encoded by the JBIG method. This code data is input to the communication interface 1007 via the selector 1006, and then the communication interface 1007 uses the communication line 1008 according to a predetermined protocol.
Sent to

【0006】[0006]

【発明が解決しようとする課題】しかし、上述した技術
においては、次のような問題点がある。つまり、上記の
画像単位で符号化方式を切替える画像符号化装置におい
ては、画像に含まれる文字や線画部分もJPEG方式などで
多値符号化されるため、文字や線画の特徴であるエッジ
が鈍って、文字の品位を著しく低下させる欠点がある。
また、JBIG方式などで二値符号化した場合は、画像に含
まれる階調部分が二値化によってフラットになってしま
う欠点がある。
However, the above-mentioned technique has the following problems. In other words, in the image coding apparatus that switches the coding method for each image, the characters and line drawings included in the image are also multi-value coded by the JPEG method, etc. As a result, there is a drawback that the quality of characters is significantly deteriorated.
Further, when the binary encoding is performed by the JBIG method or the like, there is a drawback that the gradation part included in the image becomes flat by the binarization.

【0007】また、改良型のJPEG方式として、符号化単
位(8×8画素)ごとに画像の特徴を判定して、量子化係
数を切替えたり、符号化テーブルを切替える手法も提案
されているが、この方式においても、画像の特徴を判定
するための参照画素が少なく、正しい判定結果が得られ
ないことがある。
As an improved JPEG system, a method of judging the image feature for each coding unit (8 × 8 pixels) and switching the quantization coefficient or switching the coding table has been proposed. Even in this method, the number of reference pixels for determining the characteristics of the image is small, and a correct determination result may not be obtained.

【0008】また、多値画像を二値化して文字・線画領
域と写真などの領域を分離する方法を用いて、画像領域
を大域的に判定して符号化方式を切替える方法も考えら
れるが、固定閾値や可変閾値を用いて所定濃度以上の画
像領域を抽出する方法では、低コントラストの文字・線
画や白抜き文字に対応できないという欠点がある。
A method of binarizing a multi-valued image and separating a character / line drawing area from an area such as a photograph may be considered to globally determine the image area and switch the encoding method. The method of extracting an image area having a predetermined density or higher using a fixed threshold value or a variable threshold value has a drawback in that it cannot deal with low-contrast characters / line drawings and blank characters.

【0009】さらに、多値画像を二値化する際、文字や
線画などのエッジが元々鈍っていると、得られた二値画
像に太りが生じて、領域を分離する際の誤判定原因にな
る。とくに、文字間の空白がなくなって文字領域を階調
領域と誤判定してしまった場合は、文字・線画領域が多
値符号化されることになり、上記の画像単位で符号化方
式を切替える画像符号化装置と同様になってしまう。
Further, when binarizing a multi-valued image, if the edges of characters, line drawings, etc. are originally blunt, the obtained binary image becomes thick, which may be a cause of erroneous determination when separating areas. Become. In particular, when there is no space between characters and the character area is erroneously determined to be the gradation area, the character / line drawing area is multi-value encoded, and the encoding method is switched for each image. It becomes the same as the image encoding device.

【0010】本発明は、上述の問題を解決するためのも
のであり、例えば、画像の特性に基づいて入力画像を正
しく領域分割し、分割した領域に、その特性に応じた符
号化を施すことができる画像処理装置およびその方法を
提供することを目的とする。
The present invention is intended to solve the above-mentioned problem. For example, an input image is correctly divided into regions based on the characteristics of the image, and the divided regions are encoded according to the characteristics. An object of the present invention is to provide an image processing apparatus and a method therefor.

【0011】[0011]

【課題を解決するための手段】および[Means for Solving the Problems] and

【作用】本発明は、前記の目的を達成する一手段とし
て、以下の構成を備える。
The present invention has the following structure as one means for achieving the above object.

【0012】本発明にかかる画像処理装置は、入力画像
の下地の状態を判定する判定手段と、前記入力画像を補
正する補正手段と、前記判定手段の判定結果に基づい
て、前記入力画像を量子化するとともに前記補正手段に
より補正された画像を量子化して、二つの量子化結果を
統合する量子化手段と、統合された量子化結果に基づい
て前記入力画像を領域分割する分割手段と、分割された
各領域を、その領域の特性に応じて符号化する符号化手
段とを有することを特徴とする。
An image processing apparatus according to the present invention includes a determination means for determining the state of a background of an input image, a correction means for correcting the input image, and a quantum processing for the input image based on the determination result of the determination means. And quantizing the image corrected by the correcting means, and integrating the two quantization results, a dividing means for dividing the input image into regions based on the integrated quantization result, and dividing Coding means for coding each of the generated regions according to the characteristics of the region.

【0013】また、入力画像の下地の状態を判定する判
定手段と、前記入力画像を補正する補正手段と、前記判
定手段の判定結果に基づいて前記入力画像を量子化する
第一の量子化手段と、前記判定結果に基づいて前記補正
手段により補正された画像を量子化する第二の量子化手
段と、前記判定結果と前記入力画像と前記補正手段によ
り補正された画像とに基づいて、前記入力画像を量子化
する第三の量子化手段と、前記第一から第三の量子化手
段により得られた各量子化結果を統合する統合手段と、
統合された量子化結果に基づいて前記入力画像を領域分
割する分割手段と、分割された各領域を、その領域の特
性に応じて符号化する符号化手段とを有することを特徴
とする。
Further, a judging means for judging the background condition of the input image, a correcting means for correcting the input image, and a first quantizing means for quantizing the input image based on the judgment result of the judging means. A second quantizing means for quantizing the image corrected by the correcting means on the basis of the judgment result, and based on the judgment result, the input image and the image corrected by the correcting means, Third quantizing means for quantizing the input image, and integrating means for integrating the respective quantization results obtained by the first to third quantizing means,
It is characterized in that it has a dividing means for dividing the input image into areas based on the integrated quantization result, and an encoding means for encoding each divided area according to the characteristics of the area.

【0014】本発明にかかる画像処理方法は、入力画像
の下地の状態を判定する判定ステップと、前記入力画像
を補正する補正ステップと、前記判定ステップの判定結
果に基づいて前記入力画像を量子化する第一の量子化ス
テップと、前記判定結果に基づいて前記補正ステップで
補正した画像を量子化する第二の量子化ステップと、前
記第一および第二の量子化ステップで得た各量子化結果
を統合する統合ステップと、統合した量子化結果に基づ
いて前記入力画像を領域分割する分割ステップと、分割
した各領域を、その領域の特性に応じて符号化する符号
化ステップとを有することを特徴とする。
According to the image processing method of the present invention, a determination step of determining a background state of the input image, a correction step of correcting the input image, and a quantization of the input image based on a determination result of the determination step. A first quantization step, a second quantization step of quantizing the image corrected in the correction step based on the determination result, and each quantization obtained in the first and second quantization step An integration step of integrating the results, a division step of dividing the input image into areas based on the integrated quantization result, and an encoding step of encoding each of the divided areas according to the characteristics of the area. Is characterized by.

【0015】また、入力画像の下地の状態を判定する判
定ステップと、前記入力画像を補正する補正ステップ
と、前記判定ステップの判定結果に基づいて前記入力画
像を量子化する第一の量子化ステップと、前記判定結果
に基づいて前記補正ステップで補正した画像を量子化す
る第二の量子化ステップと、前記判定結果と前記入力画
像と前記補正ステップで補正した画像とに基づいて、前
記入力画像を量子化する第三の量子化ステップと、前記
第一から第三の量子化ステップで得た各量子化結果を統
合する統合ステップと、統合された量子化結果に基づい
て前記入力画像を領域分割する分割ステップと、分割さ
れた各領域を、その領域の特性に応じて符号化する符号
化ステップとを有することを特徴とする。
Further, a determination step of determining a background state of the input image, a correction step of correcting the input image, and a first quantization step of quantizing the input image based on the determination result of the determination step. A second quantization step of quantizing the image corrected in the correction step based on the determination result, and the input image based on the determination result, the input image and the image corrected in the correction step. A third quantizing step, a integrating step of integrating the respective quantization results obtained in the first to third quantizing steps, and a region of the input image based on the integrated quantizing result. It is characterized by including a dividing step of dividing and an encoding step of encoding each divided area according to the characteristics of the area.

【0016】[0016]

【実施例】以下、本発明にかかる一実施例の画像処理装
置を図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image processing apparatus according to an embodiment of the present invention will be described in detail below with reference to the drawings.

【0017】[0017]

【第1実施例】 [構成]図2は本発明にかかる一実施例の画像処理装置
を画像送信装置に適用した例を示すブロック図である。
First Embodiment [Structure] FIG. 2 is a block diagram showing an example in which an image processing apparatus according to an embodiment of the present invention is applied to an image transmitting apparatus.

【0018】同図において、3はCPUで、内蔵するROMや
記憶装置2などに格納されたプログラムに従い、バス4を
介して装置全体を制御する。なお、バス4を介して画像
データや制御信号がやり取りされる。
In FIG. 1, reference numeral 3 denotes a CPU, which controls the entire apparatus via a bus 4 in accordance with a program stored in a built-in ROM, the storage device 2, or the like. Image data and control signals are exchanged via the bus 4.

【0019】また、1は画像を入力するスキャナ、2は画
像データなどを記憶する記憶装置、5は入力画像の下地
の状態を判定して下地の情報を出力する下地判定部、6
は入力画像を好適に量子化する適応的量子化部、7は量
子化結果に基づいて画像の特性が似通った領域を分離す
る領域分割器、14は領域分割器7から出力された領域分
割結果を格納する領域分割メモリ、8は領域分割結果を
符号化する領域情報符号化器、9は入力画像に含まれる
写真などの多値画像を符号化する多値画像符号化器、10
は入力画像に含まれる文字や線画などの二値画像を二値
化して符号化する二値画像符号化器、11は各符号化器か
ら出力される符号データを合成して出力する合成器、12
は通信インタフェイス(通信I/F)、13は電話回線やLAN
などの通信回線である。
Further, 1 is a scanner for inputting an image, 2 is a storage device for storing image data and the like, 5 is a background determining section for determining the background state of the input image and outputting background information, 6
Is an adaptive quantizer that appropriately quantizes the input image, 7 is a region divider that separates regions with similar image characteristics based on the quantization result, and 14 is the region division result output from the region divider 7. A region division memory for storing a region information encoder, 8 is a region information encoder for encoding the region division result, 9 is a multivalued image encoder for encoding a multivalued image such as a photograph included in the input image, 10
Is a binary image encoder that binarizes and encodes a binary image such as a character or line drawing included in the input image, 11 is a synthesizer that synthesizes and outputs code data output from each encoder, 12
Is a communication interface (communication I / F), 13 is a telephone line or LAN
Is a communication line such as.

【0020】以下では、入力画像を8ビット/画素の白黒
多値画像とし、多値画像符号化器9の符号化方式をJPEG
符号化方式とし、二値画像符号化器10の符号化方式をJB
IG符号化方式として説明するが、これらに限定されるも
のではない。
In the following, the input image is a black-and-white multivalued image of 8 bits / pixel, and the encoding method of the multivalued image encoder 9 is JPEG.
The coding method is JB.
Although the IG encoding method will be described, the present invention is not limited to these.

【0021】[下地判定部]図3は下地判定部5の構成例
を示すブロック図である。
[Background Determining Unit] FIG. 3 is a block diagram showing a configuration example of the background determining unit 5.

【0022】同図において、21はフレームメモリで、入
力された画像データを一画面分蓄積する。22は平坦画素
抽出器で、フレームメモリ21から注目画素と周辺画素と
を順に読出して、注目画素が平坦を構成する画素である
場合に、その画素値を出力する。平坦画素抽出器22の平
坦画素判定としては、既知の手法、例えば最小最大値抽
出法や「二値画像と濃淡画像の混在する原稿の二値化処
理方法」(鉄谷、越知、電子通信学会論文誌 1984/7 Vo
l.J67-B No.7 pp.781-788)に開示されている手法を用
いればよい。
In the figure, reference numeral 21 denotes a frame memory, which stores input image data for one screen. Reference numeral 22 denotes a flat pixel extractor, which sequentially reads the target pixel and the peripheral pixels from the frame memory 21, and outputs the pixel value when the target pixel is a pixel forming a flatness. As the flat pixel determination of the flat pixel extractor 22, a known method, for example, a minimum / maximum value extraction method or a “binarization processing method for a document in which a binary image and a grayscale image are mixed” (Tetsuya, Ochi, IEICE) Journal 1984/7 Vo
l.J67-B No.7 pp.781-788).

【0023】23は256個のカウンタで構成される頻度カ
ウンタで、各カウンタは各入力値に対応していて、平坦
画素抽出器22から出力された画素値に対応するカウンタ
がカウントアップする。24は最大頻度抽出器で、頻度カ
ウンタ23の中で最大のカウント値(頻度)をもつカウン
タに対応する値(0〜255)を出力する。25は最大頻度濃度
幅抽出器で、頻度カウンタ23の各カウント値をhist[i]
(i=0〜255)、最大頻度抽出器24から出力された値をb
(以下で「下地候補値」と呼ぶ)とするとき、図4に一
例を示すように、下地候補値b近傍において、予め設定
された閾値Th1より小さい頻度で、かつ、下地候補値bに
最も近い、画素値bt1(下地候補上限値)とbt0(下地候
補下限値)を求める。なお、下地候補下限値bt0と下地
候補上限値bt1とは、下地候補値b近傍において、閾値Th
1の直線と頻度曲線の交点から求めることができる。
Reference numeral 23 is a frequency counter composed of 256 counters. Each counter corresponds to each input value, and the counter corresponding to the pixel value output from the flat pixel extractor 22 counts up. A maximum frequency extractor 24 outputs a value (0 to 255) corresponding to the counter having the maximum count value (frequency) in the frequency counter 23. Reference numeral 25 is a maximum frequency density range extractor, which displays each count value of the frequency counter 23 in hist [i]
(i = 0 to 255), the value output from the maximum frequency extractor 24 is b
(Hereinafter, referred to as “background candidate value”), as shown in FIG. 4, as an example, in the vicinity of the background candidate value b, the frequency is smaller than a preset threshold Th1 and the background candidate value b is the highest. Pixel values bt1 (base candidate upper limit) and bt0 (base candidate lower limit) that are close to each other are obtained. The background candidate lower limit value bt0 and the background candidate upper limit value bt1 are the threshold values Th near the background candidate value b.
It can be obtained from the intersection of the straight line of 1 and the frequency curve.

【0024】また、37は差分器で、下地候補下限値bt0
と下地候補上限値bt1の差分w(下地濃度幅)を求める。
26は下地占有率算出器で、下地候補下限値bt0と下地候
補上限値bt1に挟まれた画素値に対応する頻度カウンタ2
3の各カウント値を加算した値を、画像全体の画素数で
除算して、下地の占有率を求める。27と28は比較器で、
比較器27は閾値Th2と下地濃度幅wとを比較し、比較器28
は閾値Th3と下地占有率とを比較して、入力値が閾値よ
り大きければ‘1’を、そうでなければ‘0’を出力す
る。29は比較器27の出力を反転するインバータ、30はイ
ンバータ29の出力と比較器28の出力とを論理積するAND
ゲートである。
Further, 37 is a differencer, which is the lower limit value bt0 of the background candidate.
And the difference w (background density range) between the background candidate upper limit value bt1.
A background occupancy calculator 26 is a frequency counter 2 corresponding to the pixel value sandwiched between the background candidate lower limit value bt0 and the background candidate upper limit value bt1.
The value obtained by adding each count value of 3 is divided by the number of pixels of the entire image to obtain the occupancy ratio of the background. 27 and 28 are comparators,
The comparator 27 compares the threshold Th2 with the background density width w, and the comparator 28
Compares the threshold value Th3 with the background occupancy rate and outputs '1' if the input value is larger than the threshold value, and outputs '0' otherwise. 29 is an inverter that inverts the output of the comparator 27, and 30 is an AND that ANDs the output of the inverter 29 and the output of the comparator 28.
It is a gate.

【0025】次に、下地判定部5の動作を説明する。Next, the operation of the background determination section 5 will be described.

【0026】処理開始に先立ち、CPU3は、フレームメモ
リ21および頻度カウンタ23をクリアする。続いて、CPU3
は、ユーザの指示に従って、スキャナ1または記憶装置2
から読込んだ白黒多値画像をフレームメモリ21に格納す
る。一画面分の画像がフレームメモリ21に格納される
と、平坦画素抽出器22は、フレームメモリ21から注目画
素とそれに隣接する八画素(参照画素)を順に読出し、
注目画素の値と各参照画素の値との最大の差分を求め、
その差分値が閾値Th4より小さい場合、平坦を構成する
画素として注目画素を出力する。頻度カウンタ23は、出
力された画素値に対応するカウンタをカウントアップす
る。
Prior to the start of processing, the CPU 3 clears the frame memory 21 and the frequency counter 23. Then, CPU3
The scanner 1 or the storage device 2 according to the user's instruction.
The black-and-white multivalued image read from is stored in the frame memory 21. When the image for one screen is stored in the frame memory 21, the flat pixel extractor 22 sequentially reads out the pixel of interest and eight pixels (reference pixels) adjacent thereto from the frame memory 21,
Find the maximum difference between the value of the pixel of interest and the value of each reference pixel,
When the difference value is smaller than the threshold value Th4, the pixel of interest is output as a pixel that constitutes flatness. The frequency counter 23 counts up the counter corresponding to the output pixel value.

【0027】そして、フレームメモリ21に格納された画
像のすべての画素について、平坦画素の抽出処理が終了
すると、最大頻度抽出器24は、頻度カウンタ23の中で最
大のカウント値をもつカウンタに対応する値、すなわち
下地候補値bを出力する。続いて、最大頻度濃度幅抽出
器25は、頻度カウンタ23のカウント内容から下地候補下
限値bt0と下地候補上限値bt1を求める。得られた下地候
補下限値bt0と下地候補上限値bt1から、差分器37は下地
濃度幅wを求め、下地濃度幅wは比較器27により閾値Th2
と比較される。
When the flat pixel extraction processing is completed for all the pixels of the image stored in the frame memory 21, the maximum frequency extractor 24 corresponds to the counter having the maximum count value in the frequency counter 23. Value, that is, the background candidate value b is output. Subsequently, the maximum frequency density width extractor 25 obtains the background candidate lower limit value bt0 and the background candidate upper limit value bt1 from the count content of the frequency counter 23. From the obtained background candidate lower limit value bt0 and background candidate upper limit value bt1, the subtractor 37 obtains the background density width w, and the background density width w is calculated by the comparator 27 as the threshold Th2.
Compared to.

【0028】一方、下地候補下限値bt0と下地候補上限
値bt1から、下地占有率算出器26は下地占有率を求め、
下地占有率は比較器28により閾値Th3と比較される。
On the other hand, the background occupancy calculator 26 obtains the background occupancy from the background candidate lower limit value bt0 and the background candidate upper limit value bt1,
The background occupancy is compared with the threshold Th3 by the comparator 28.

【0029】比較器27の出力はインバータ29により反転
されて、比較器28の出力とともにANDゲート30へ入力さ
れ、その論理積bg(下地判定フラグ)が出力される。
The output of the comparator 27 is inverted by the inverter 29 and input to the AND gate 30 together with the output of the comparator 28, and the logical product bg (background determination flag) is output.

【0030】すなわち、下地濃度幅wが閾値Th2より小さ
くて、かつ、下地占有率が閾値Th3より大きいとき、下
地判定フラグbgは‘1’になり「無地の下地」を表す。
また、この条件を満たさないときは、下地判定フラグbg
は‘0’になり「柄をもつ下地」を表す。
That is, when the background density width w is smaller than the threshold value Th2 and the background occupancy rate is larger than the threshold value Th3, the background determination flag bg becomes "1" to represent "a plain background".
If this condition is not satisfied, the background judgment flag bg
Becomes "0" and represents "a background with a pattern".

【0031】[適応的量子化部]図5は適応的量子化部6
の構成例を示すブロック図である。
[Adaptive Quantization Unit] FIG. 5 shows the adaptive quantization unit 6
3 is a block diagram showing a configuration example of FIG.

【0032】41は入力画像を蓄えるフレームメモリ、42
は画像のエッジを補正するエッジ強調回路で、フレーム
メモリ41から読出した注目画素とその周辺画素に基づい
てエッジ強調を行う。注目画素Dにエッジ強調を施した
画素D'とすると、例えば、エッジ強調は次式で表され
る。 D' = D + (4・D - A1 - A2 - A3 - A4) …(1) ただし、 D = X(i,j) A1 = X(i-1,j-1) A2 = X(i+1,j-1) A3 = X(i-1,j+1) A4 = X(i+1,j+1) i,j: 座標値
Reference numeral 41 is a frame memory for storing an input image, 42
Is an edge enhancement circuit for correcting the edge of the image, and performs edge enhancement based on the pixel of interest read from the frame memory 41 and its peripheral pixels. If the target pixel D is a pixel D ′ that has been edge-emphasized, the edge enhancement is expressed by the following equation, for example. D '= D + (4D-A1-A2-A3-A4) (1) where D = X (i, j) A1 = X (i-1, j-1) A2 = X (i + 1, j-1) A3 = X (i-1, j + 1) A4 = X (i + 1, j + 1) i, j: Coordinate value

【0033】45〜48はそれぞれ比較器で、比較器45は、
フレームメモリ41から入力される注目画素Dと、下地判
定部5から入力される下地候補上限値bt1とを比較して、
bt1>Dであれば‘1’を、そうでなければ‘0’を出力す
る。比較器46は、注目画素Dと下地候補下限値bt0とを比
較して、D>bt0であれば‘1’を、そうでなければ‘0’
を出力する。比較器47は、エッジ強調回路42から入力さ
れる注目画素のエッジ強調結果D'と、下地候補上限値bt
1とを比較して、bt1>D'であれば‘1’を、そうでなけれ
ば‘0’を出力する。比較器48は、エッジ強調結果D'と
下地候補下限値bt0とを比較して、D'>bt0であれば‘1’
を、そうでなければ‘0’を出力する。
Reference numerals 45 to 48 are comparators, and the comparator 45 is
The target pixel D input from the frame memory 41 is compared with the background candidate upper limit value bt1 input from the background determination unit 5,
If bt1> D, output '1', otherwise output '0'. The comparator 46 compares the pixel of interest D with the background candidate lower limit value bt0, and if D> bt0, the value is “1”, otherwise the value is “0”.
Is output. The comparator 47 receives the edge enhancement result D ′ of the pixel of interest input from the edge enhancement circuit 42 and the background candidate upper limit value bt.
Compare with 1 and output '1' if bt1> D ', otherwise output' 0 '. The comparator 48 compares the edge enhancement result D ′ with the background candidate lower limit value bt0, and if D ′> bt0, then outputs “1”.
Otherwise, '0' is output.

【0034】また、49と50はそれぞれANDゲート、51はO
Rゲート、52はORゲート51の出力を格納するフレームメ
モリである。
Further, 49 and 50 are AND gates respectively, and 51 is O.
An R gate 52 is a frame memory that stores the output of the OR gate 51.

【0035】次に、適応的量子化部6の動作を説明す
る。
Next, the operation of the adaptive quantizer 6 will be described.

【0036】CPU3は、下地判定部5の処理が終了する
と、下地判定部5のフレームメモリ21から順に読出した
画像データをフレームメモリ41に蓄積し、一画面分の画
像データを蓄積すると、注目画素を順に読出して、比較
器45と46に比較を行わせる。両比較器の比較結果は、AN
Dゲート49で論理積される。ANDゲート49の出力は、注目
画素Dが下地候補上限値bt1と下地候補下限値bt0の間に
あれば‘1’に、そうでなければ‘0’になる。
When the processing of the background determination section 5 is completed, the CPU 3 accumulates the image data sequentially read from the frame memory 21 of the background determination section 5 in the frame memory 41, and when the image data for one screen is accumulated, the target pixel Are sequentially read and the comparators 45 and 46 are made to perform comparison. The comparison result of both comparators is AN
ANDed by D-gate 49. The output of the AND gate 49 is '1' if the target pixel D is between the background candidate upper limit value bt1 and the background candidate lower limit value bt0, and is '0' otherwise.

【0037】一方、エッジ強調回路42は、入力された注
目画素Dとその周辺四画素A1〜A4に、式(1)に示した演算
を施し、エッジ強調結果D'を出力する。エッジ強調結果
D'は、比較器47と48に入力され、それぞれ下地候補上限
値bt1および下地候補下限値bt0と比較される。両比較器
の比較結果は、ANDゲート50で論理積される。ANDゲート
50の出力は、エッジ強調後の画素D'が下地候補上限値bt
1と下地候補下限値bt0の間にあれば‘1’に、そうでな
ければ‘0’になる。
On the other hand, the edge emphasizing circuit 42 performs the operation shown in the equation (1) on the input target pixel D and the four surrounding pixels A1 to A4, and outputs the edge emphasizing result D '. Edge enhancement results
D ′ is input to the comparators 47 and 48 and compared with the background candidate upper limit value bt1 and the background candidate lower limit value bt0, respectively. The AND gate 50 ANDs the comparison results of both comparators. AND gate
In the output of 50, the pixel D'after edge enhancement is the background candidate upper limit value bt
It is '1' if it is between 1 and the background candidate lower limit value bt0, and '0' otherwise.

【0038】そして、ANDゲート49と50の出力はORゲー
ト51で論理積される。つまり、ORゲート51は、下地候補
下限値と上限値に挟まれた画素についてデータ‘1’を
出力し、この結果はフレームメモリ52に格納される。従
って、フレームメモリ52には、データ‘1’で表された
下地の二値画像が格納されたことになる。
The outputs of the AND gates 49 and 50 are logically ANDed by the OR gate 51. That is, the OR gate 51 outputs the data “1” for the pixel sandwiched between the background candidate lower limit value and the upper limit value, and the result is stored in the frame memory 52. Therefore, the background binary image represented by the data “1” is stored in the frame memory 52.

【0039】[領域分割器]適応的量子化部6によるフ
レームメモリ41に格納されたすべての画素の処理が終了
すると、CPU3は、下地判定フラグbgが‘1’(無地の下
地)のときは、領域分割器7を起動する。領域分割器7
は、フレームメモリ52に格納されたデータを読出して、
画像の特徴に基づいて「文字領域」「写真領域」「線画
領域」「セパレータ」などの矩形領域を抽出し、その領
域の位置座標(例えば左上のxy座標),矩形領域の大き
さ,領域の判定結果を表すコードを含む領域情報を出力
する。この領域情報は、領域分割メモリ14に格納され
る。
[Region Divider] When the processing of all pixels stored in the frame memory 41 by the adaptive quantizing unit 6 is completed, the CPU 3 determines that the background determination flag bg is "1" (plain background). , Activate the area divider 7. Area divider 7
Reads the data stored in the frame memory 52,
Based on the characteristics of the image, a rectangular area such as “text area”, “photograph area”, “line drawing area”, “separator” is extracted, and the position coordinates (for example, the upper left xy coordinate) of that area, the size of the rectangular area, and the area The area information including the code indicating the determination result is output. This area information is stored in the area division memory 14.

【0040】また、CPU3は、下地判定フラグbgが‘0’
(柄をもつ下地)のときは、領域分割器7を動作させず
に、矩形領域の位置座標として(x,y)=(0,0)(原点)
を、矩形領域のサイズとして画像全体のサイズを、領域
の判定結果を表すコードとして「写真領域」のコードを
含む領域情報を領域分割メモリ14に格納する。つまり、
下地が柄をもつ画像については、領域分割を行わない。
Further, the CPU 3 sets the background judgment flag bg to "0".
In case of (base with pattern), the area divider 7 is not operated and the position coordinates of the rectangular area are (x, y) = (0,0) (origin)
The area division memory 14 stores area information including the size of the entire image as the size of the rectangular area and the code of the “photo area” as the code indicating the determination result of the area. That is,
Region division is not performed for an image whose background has a pattern.

【0041】なお、画像の領域分割方法としては、特開
昭62-226770「像域分離装置」や特開平3-126181「文書
画像の領域分割方法」などに開示された、画像を閾値で
二値化し、画素の塊から文字領域や写真、表などの領域
を判定する方法や、特開平4-248766「像域分離方式」に
開示された、下地が白の領域として文字と絵柄領域を分
離する方法などがある。
As an image area dividing method, there are two threshold values for an image, which are disclosed in Japanese Patent Application Laid-Open No. 62-226770 “Image Area Separating Device” and Japanese Patent Application Laid-Open No. 3-126181 “Document image area dividing method”. A method of binarizing and determining a character area, a photograph, a table area, etc. from a block of pixels, and separating the character and pattern areas as a white background area disclosed in JP-A-4-248766 "Image Area Separation Method" There are ways to do it.

【0042】[画像データの送出]領域分割メモリ14に
領域情報を格納し終えると、CPU3は、下地判定部5から
出力された下地候補値bを、合成器11と通信I/F12を介し
て、通信回線13へ送出する。
[Sending of Image Data] After storing the area information in the area division memory 14, the CPU 3 uses the background candidate value b output from the background determination unit 5 via the synthesizer 11 and the communication I / F 12. , To the communication line 13.

【0043】続いて、CPU3は、領域分割メモリ14から順
に領域情報を読出し、読出した領域情報を領域情報符号
化器8へ入力して、符号化された領域情報を合成器11へ
送る。次に、領域情報により表される矩形領域が「写真
領域」であれば、下地判定部5のフレームメモリ21から
読出したその領域の画像データを多値画像符号化器9へ
入力して、JPEG符号化された画像データを合成器11へ送
る。また、読出した領域情報が「文字領域」「線画領
域」「セパレータ」の何れかであれば、適応的量子化部
6のフレームメモリ52から読出したその領域の画像デー
タ(データ‘0’で表されている)を二値画像符号化器1
0へ入力して、JBIG符号化された画像データを合成器11
へ送る。
Subsequently, the CPU 3 sequentially reads the area information from the area division memory 14, inputs the read area information to the area information encoder 8, and sends the encoded area information to the synthesizer 11. Next, if the rectangular area represented by the area information is a "photograph area", the image data of the area read from the frame memory 21 of the background determination unit 5 is input to the multi-valued image encoder 9, and JPEG The encoded image data is sent to the synthesizer 11. If the read area information is any one of "character area", "line drawing area", and "separator", the adaptive quantization unit
The image data (represented by data "0") of the area read from the frame memory 52 of 6 is the binary image encoder 1
Input to 0 and input the JBIG encoded image data to the synthesizer 11
Send to.

【0044】合成器11は、符号化された領域情報と、そ
の領域情報により表される矩形領域の画像データを符号
化した符号データとを合成して、通信インタフェイス12
を介して通信回線13へ送出する。
The synthesizer 11 synthesizes the coded area information and the coded data obtained by coding the image data of the rectangular area represented by the area information, and the communication interface 12
To the communication line 13 via.

【0045】[まとめ]このように、本実施例は、符号
化する入力画像の画素値の頻度分布に基づいて下地の判
定して、下地を抽出するとともに「無地の下地」か「柄
をもつ下地」かを判定する。そして、入力画像の下地が
無地の場合は、抽出した下地の濃度に基づいて、入力画
像とエッジ強調を施した入力画像とから二値画像を形成
して、文字・線画領域と写真などの領域を分離し、分離
した領域に適した符号化方式でその領域の画像データを
符号化する。また、入力画像の下地が柄をもつ場合は、
領域分割を行わずに、画像全体を多値画像符号化方式で
符号化する。従って、本実施例によれば、次の効果を得
ることができる。
[Summary] As described above, in this embodiment, the base is determined based on the frequency distribution of the pixel values of the input image to be encoded, the base is extracted, and the "plain base" or "pattern is provided". It is determined whether or not it is a “base”. Then, when the background of the input image is plain, a binary image is formed from the input image and the edge-enhanced input image based on the density of the extracted background, and a character / line drawing area and an area such as a photograph are formed. And the image data of the area is encoded by an encoding method suitable for the separated area. If the background of the input image has a pattern,
The entire image is encoded by the multi-valued image encoding method without performing region division. Therefore, according to this embodiment, the following effects can be obtained.

【0046】(1)画素値の分布から下地を抽出するの
で、下地の濃度が低い場合に原稿の裏面が透ける裏写り
による影響を抑制することができる (2)抽出した下地の濃度に基づいて、入力画像とエッジ
補正した入力画像とから二値画像を形成して領域を分離
するので、低コントラストの文字・線画や白抜き文字も
正しく分離することができる上、文字や線画などのエッ
ジが元々鈍っていても、それらを二値化した画像には太
りが生じることがなく、領域を分離する際の誤判定を防
ぐことができる (3)領域に適した符号化方式でその領域の画像データを
符号化するので、文字や線画の特徴であるエッジが鈍っ
て、文字の品位を著しく低下させたり、階調部分が二値
化によってフラットになってしまうことがない (4)下地が柄をもつ場合は、画像全体を多値画像符号化
方式で符号化するので、下地の柄を含めた最適な符号化
を行うことができる なお、入力画像とエッジ補正した入力画像とをそれぞれ
二値化し、これらの二値化結果を統合した二値画像を利
用して領域を抽出する、本実施例の領域抽出方法は、高
い領域の判定精度が得られるとともに、ネガポジ反転さ
れたような画像についても適切に文字・線画領域を抽出
することができる。
(1) Since the background is extracted from the distribution of pixel values, it is possible to suppress the influence of the show-through which allows the back side of the document to show through when the background density is low. (2) Based on the extracted background density , Since a binary image is formed from the input image and the edge-corrected input image to separate the regions, it is possible to correctly separate low-contrast characters / line drawings and outline characters, as well as the edges of characters and line drawings. Even if it is originally blunt, the binarized image does not become thick, and it is possible to prevent erroneous judgment when separating areas. (3) The image of the area is encoded by a coding method suitable for the area. Since the data is encoded, the edges, which are the features of characters and line drawings, are not blunted, and the quality of characters is not significantly reduced, and the gradation part does not become flat due to binarization. (4) The background is patterned , Then the entire image Since the image is encoded by the value image encoding method, it is possible to perform the optimal encoding including the background pattern. In addition, the input image and the edge-corrected input image are binarized, and the binarized result is obtained. The area extraction method of the present embodiment, which extracts an area using an integrated binary image, provides high area determination accuracy and also extracts a character / line drawing area appropriately for an image that is negative-positive inverted. can do.

【0047】[0047]

【第2実施例】以下、本発明にかかる第2実施例の画像処
理装置を説明する。なお、第2実施例において、第1実施
例と略同様の構成については、同一符号を付して、その
詳細説明を省略する。
Second Embodiment An image processing apparatus according to the second embodiment of the present invention will be described below. It should be noted that in the second embodiment, substantially the same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

【0048】[構成]図6は本発明にかかる第2実施例の
画像処理装置を画像送信装置に適用した例を示すブロッ
ク図で、図2に示した第1実施例と異なるのは、二値画像
符号化器10へ領域分割結果と二値画像が入力されるとと
もに、多値画像も入力されることである。
[Structure] FIG. 6 is a block diagram showing an example in which the image processing apparatus of the second embodiment according to the present invention is applied to an image transmitting apparatus. The difference from the first embodiment shown in FIG. This means that the area image division result and the binary image are input to the value image encoder 10, and the multi-valued image is also input.

【0049】なお、以下では、入力画像をRGB各色8ビッ
ト/画素のカラー多値画像とし、多値画像符号化器9の符
号化方式をDPCM符号化方式とし、二値画像符号化器10の
符号化方式をMMR符号化方式として説明するが、これら
に限定されるものではない。
In the following, the input image is a color multi-valued image of 8 bits / pixel for each RGB color, the multi-valued image encoder 9 uses the DPCM encoding method, and the binary image encoder 10 uses the color image. The encoding method will be described as an MMR encoding method, but the present invention is not limited to these.

【0050】[下地判定部]図7は下地判定部5の構成例
を示すブロック図である。
[Background Determining Section] FIG. 7 is a block diagram showing a configuration example of the background determining section 5.

【0051】122は輝度生成器で、入力されたRGB画像デ
ータをCIE1976 L*a*b*均等色空間の輝度信号L*に変換す
る。123はフレームメモリで、一画面分のL*画像データ
を格納する。126は平滑化器で、フレームメモリ123から
画像データを読込んで3×3画素の平滑化を行う。124は
極小値算出器で、図8Aおよび図8Bに一例を示すように、
下地候補値bの近傍において、極小を示し、かつ、下地
候補値bに最も近い、画素値bv1(第二下地候補上限値)
とbv0(第二下地候補下限値)を求める。なお、以下で
は、最大頻度濃度幅抽出器25の出力bt0を第一下地候補
下限値、bt1を第一下地候補上限値と呼ぶ。
A luminance generator 122 converts the input RGB image data into a luminance signal L * in the CIE1976 L * a * b * uniform color space. A frame memory 123 stores L * image data for one screen. A smoothing device 126 reads image data from the frame memory 123 and smoothes 3 × 3 pixels. Reference numeral 124 is a minimum value calculator, and as shown in one example in FIGS. 8A and 8B,
Pixel value bv1 (second background candidate upper limit value) that shows a local minimum value in the vicinity of the background candidate value b and is closest to the background candidate value b
And bv0 (lower limit value of second background candidate) are obtained. In the following, the output bt0 of the maximum frequency density range extractor 25 is referred to as a first background candidate lower limit value, and bt1 is referred to as a first background candidate upper limit value.

【0052】次に、下地判定部5の動作について、第1実
施例と異なる部分を中心に説明する。
Next, the operation of the background determining section 5 will be described focusing on the points different from the first embodiment.

【0053】処理開始に先立ち、CPU3は、フレームメモ
リ21および頻度カウンタ23をクリアする。続いて、CPU3
は、ユーザの指示に従って、スキャナ1または記憶装置2
から読込んだカラー多値画像をフレームメモリ21に格納
する。一画面分の画像がフレームメモリ21に格納される
と、輝度生成器122は、フレームメモリ21から順にRGB画
像データを読出して、変換したL*画像データをフレーム
メモリ123に書込む。
Prior to the start of processing, the CPU 3 clears the frame memory 21 and the frequency counter 23. Then, CPU3
The scanner 1 or the storage device 2 according to the user's instruction.
The color multi-valued image read from is stored in the frame memory 21. When the image for one screen is stored in the frame memory 21, the luminance generator 122 sequentially reads the RGB image data from the frame memory 21, and writes the converted L * image data in the frame memory 123.

【0054】一画面分のL*画像データがフレームメモリ
123に格納されると、平滑化器126は、フレームメモリ12
3から注目画素とその周囲画素(3×3画素)を読出し
て、注目画素を平滑化する。なお、本実施例の平坦画素
抽出器22は、平滑化された注目画素と、それに隣接する
八画素の参照画素とから、注目画素が平坦を構成する画
素か否かを判定する。
L * image data for one screen is the frame memory
Once stored in 123, the smoother 126
The target pixel and its surrounding pixels (3 × 3 pixels) are read out from 3, and the target pixel is smoothed. The flat pixel extractor 22 of the present embodiment determines whether or not the target pixel is a flat pixel from the smoothed target pixel and the eight reference pixels adjacent thereto.

【0055】そして、フレームメモリ123に格納された
すべての画素について、平滑化処理と平坦画素の抽出処
理が終了すると、最大頻度抽出器24は下地候補値bを出
力し、最大頻度濃度幅抽出器25は第一下地候補下限値bt
0と第一下地候補上限値bt1を、極小値算出器124は第二
下地候補下限値bv0と第二下地候補上限値bv1を出力す
る。
When the smoothing process and the flat pixel extraction process are completed for all the pixels stored in the frame memory 123, the maximum frequency extractor 24 outputs the background candidate value b, and the maximum frequency density range extractor. 25 is the lower limit value of the first base candidate bt
The minimum value calculator 124 outputs 0 and the first background candidate upper limit value bt1, and the second background candidate lower limit value bv0 and the second background candidate upper limit value bv1.

【0056】[適応的量子化部]図9は適応的量子化部6
の構成例を示すブロック図である。
[Adaptive Quantization Unit] FIG. 9 shows the adaptive quantization unit 6
3 is a block diagram showing a configuration example of FIG.

【0057】147と148はそれぞれセレクタで、下地判定
フラグbgに従って入力を選択し出力する。セレクタ148
は、第一または第二の下地候補下限値を選択し、選択し
た下地候補下限値を比較器46と48へ入力する。セレクタ
147は、第一または第二の下地候補上限値を選択し、選
択した下地候補上限値を比較器45と47へ入力する。
Reference numerals 147 and 148 denote selectors, which select inputs according to the background judgment flag bg and output them. Selector 148
Selects the first or second background candidate lower limit value and inputs the selected background candidate lower limit value to the comparators 46 and 48. selector
147 selects the first or second background candidate upper limit value and inputs the selected background candidate upper limit value to the comparators 45 and 47.

【0058】149〜152はそれぞれ比較器で、比較器149
は、下地候補値bとエッジ強調回路42から出力されたエ
ッジ強調後の画素値とを比較して、エッジ強調後の画素
値が下地候補値bよりも大きければ‘1’を、そうでなけ
れば‘0’を出力する。比較器150は、下地候補値bとフ
レームメモリ41から出力された画素値とを比較して、下
地候補地bが画素値よりも大きければ‘1’を、そうでな
ければ‘0’を出力する。比較器151は、下地候補値bと
フレームメモリ41から出力された画素値とを比較して、
画素値が下地候補値bよりも大きければ‘1’を、そうで
なければ‘0’を出力する。比較器152は、下地候補値b
とエッジ強調後の画素値とを比較して、下地候補値bが
エッジ強調後の画素値よりも大きければ‘1’を、そう
でなければ‘0’を出力する。
Reference numerals 149 to 152 denote comparators, respectively.
Compares the background candidate value b with the edge-enhanced pixel value output from the edge emphasizing circuit 42, and if the pixel value after the edge emphasis is larger than the background candidate value b, '1', otherwise. '0' is output. The comparator 150 compares the background candidate value b with the pixel value output from the frame memory 41, and outputs '1' if the background candidate location b is larger than the pixel value, and outputs '0' otherwise. To do. The comparator 151 compares the background candidate value b with the pixel value output from the frame memory 41,
If the pixel value is larger than the background candidate value b, '1' is output, otherwise '0' is output. The comparator 152 uses the background candidate value b
And the pixel value after edge enhancement are compared, and if the background candidate value b is larger than the pixel value after edge enhancement, '1' is output, and otherwise, '0' is output.

【0059】153と154はそれぞれANDゲートで、ANDゲー
ト153は比較器149と150の出力を、ANDゲート154は比較
器151と152の出力を、それぞれ論理積してORゲート51へ
出力する。
153 and 154 are AND gates, respectively. The AND gate 153 logically ANDs the outputs of the comparators 149 and 150, and the AND gate 154 logically ANDs the outputs of the comparators 151 and 152, and outputs it to the OR gate 51.

【0060】次に、適応的量子化部6の動作について、
第1実施例と異なる部分を中心に説明する。
Next, regarding the operation of the adaptive quantizer 6,
The description will focus on the parts that differ from the first embodiment.

【0061】CPU3は、下地判定部5の処理が終了する
と、下地判定部5のフレームメモリ123から順に読出した
L*画像データをフレームメモリ41に蓄積し、一画面分の
画像データを蓄積すると、注目画素を順に読出して、比
較器45〜48および149〜152に比較を行わせる。これらの
比較器の比較結果は、ANDゲート49,50,153,154でそれぞ
れ論理積され、論理積された結果はORゲート51で論理和
されてフレームメモリ52へ書込まれる。
When the processing of the background determination unit 5 is completed, the CPU 3 sequentially reads from the frame memory 123 of the background determination unit 5.
When the L * image data is stored in the frame memory 41 and the image data for one screen is stored, the pixel of interest is sequentially read out and the comparators 45 to 48 and 149 to 152 are made to perform comparison. The comparison results of these comparators are ANDed by AND gates 49, 50, 153 and 154, respectively, and the ANDed results are ORed by OR gate 51 and written to frame memory 52.

【0062】ここで、下地判定フラグbgが‘1’(柄を
もつ下地)のとき、セレクタ147は第一下地候補上限値b
t1を選択し、セレクタ148は第一下地候補下限値bt0を選
択するので、比較器45〜48の動作は第1実施例と同様に
なる。つまり、ANDゲート49の出力は、注目画素Dが第一
下地候補上限値bt1と第一下地候補下限値bt0の間にあれ
ば‘1’に、そうでなければ‘0’になる。ANDゲート50
の出力は、エッジ強調後の画素D'が第一下地候補上限値
bt1と第一下地候補下限値bt0の間にあれば‘1’で、そ
うでなければ‘0’になる。
Here, when the background determination flag bg is "1" (background with a pattern), the selector 147 determines the first background candidate upper limit value b.
Since t1 is selected and the selector 148 selects the first background candidate lower limit value bt0, the operations of the comparators 45 to 48 are the same as in the first embodiment. That is, the output of the AND gate 49 is '1' if the pixel of interest D is between the first background candidate upper limit value bt1 and the first background candidate lower limit value bt0, and is '0' otherwise. AND gate 50
In the output of, the pixel D'after edge enhancement is the first background candidate upper limit
It is '1' if it is between bt1 and the first background candidate lower limit value bt0, and '0' otherwise.

【0063】また、下地判定フラグbgが‘0’(無地の
下地)のとき、セレクタ147は第二下地候補上限値bv1を
選択し、セレクタ148は第二下地候補下限値bv0を選択す
る。従って、ANDゲート49の出力は、注目画素Dが第二下
地候補上限値bv1と第二下地候補下限値bv0の間にあれば
‘1’に、そうでなければ‘0’になる。ANDゲート50の
出力は、エッジ強調後の画素D'が第二下地候補上限値bv
1と第二下地候補下限値bv0の間にあれば‘1’に、そう
でなければ‘0’になる。
When the background determination flag bg is "0" (plain background), the selector 147 selects the second background candidate upper limit value bv1 and the selector 148 selects the second background candidate lower limit value bv0. Therefore, the output of the AND gate 49 is '1' if the pixel of interest D is between the second background candidate upper limit value bv1 and the second background candidate lower limit value bv0, and is '0' otherwise. The output of the AND gate 50 shows that the pixel D'after edge enhancement is the second background candidate upper limit value bv.
If it is between 1 and the second background candidate lower limit value bv0, it is '1', and if not, it is '0'.

【0064】また、ANDゲート153と154の出力は、下地
候補値bが注目画素Dとエッジ強調後の画素D'との間にあ
れば‘1’に、そうでなければ‘0’になる。
The outputs of the AND gates 153 and 154 are "1" if the background candidate value b is between the target pixel D and the edge-enhanced pixel D ', and "0" otherwise. .

【0065】すなわち、下地候補下限値と上限値に挟ま
れた画素と、エッジ強調前と後の値が下地候補値bを挟
む画素について、ORゲート51はデータ‘1’を出力す
る。従って、フレームメモリ52には、データ‘1’で表
された下地の二値画像が格納されたことになる。ただ
し、下地が柄をもつ場合は、無地の場合に比べて、下地
候補値の範囲が広くなるので、柄を含めた下地が抽出さ
れる。
That is, the OR gate 51 outputs the data "1" for the pixel between the lower and upper limit values of the background candidate and the pixel between the values before and after the edge enhancement between the candidate background value b. Therefore, the background binary image represented by the data “1” is stored in the frame memory 52. However, when the background has a pattern, the range of the background candidate value is wider than when the background is plain, so that the background including the pattern is extracted.

【0066】[領域分割器]適応的量子化部6によるフ
レームメモリ41に格納されたすべての画素の処理が終了
すると、CPU3は、第1実施例と異なり下地判定フラグbg
に関係なく、領域分割器7を起動する。領域分割器7は、
フレームメモリ52に格納されたデータを読出して、画像
の特徴に基づいて「文字領域」「写真領域」「線画領
域」「セパレータ」などの矩形領域を抽出し、その領域
の位置座標(例えば左上のxy座標),矩形領域の大き
さ,領域の判定結果を表すコードを含む領域情報を出力
する。この領域情報は、領域分割メモリ14に格納され
る。
[Region Divider] When the processing of all the pixels stored in the frame memory 41 by the adaptive quantizing unit 6 is completed, the CPU 3 differs from the first embodiment in that the background judgment flag bg
Regardless of, the area divider 7 is activated. The area divider 7 is
The data stored in the frame memory 52 is read, rectangular areas such as “character area”, “photograph area”, “line drawing area”, and “separator” are extracted based on the characteristics of the image, and the position coordinates of that area (for example, the upper left corner) are extracted. Area information including the (xy coordinates), the size of the rectangular area, and the code indicating the area determination result is output. This area information is stored in the area division memory 14.

【0067】[画像データの送出]適応的量子化部6に
よるフレームメモリ41に格納されたすべての画素の処理
し、さらに、領域分割メモリ14に領域情報を格納し終え
ると、CPU3は、下地判定部5から出力された下地候補値b
を、合成器11と通信I/F12を介して、通信回線13へ送出
する。
[Sending of image data] When all the pixels stored in the frame memory 41 are processed by the adaptive quantizing unit 6 and the area information is stored in the area dividing memory 14, the CPU 3 determines the background. Substrate candidate value b output from section 5
To the communication line 13 via the synthesizer 11 and the communication I / F 12.

【0068】続いて、CPU3は、領域分割メモリ14から順
に領域情報を読出し、読出した領域情報を領域情報符号
化器8へ入力して、符号化された領域情報を合成器11へ
送る。次に、領域情報により表される矩形領域が「写真
領域」であれば、下地判定部5のフレームメモリ21から
読出したその領域の画像データを多値画像符号化器9へ
入力して、DPCM符号化された画像データを合成器11へ送
る。また、読出した領域情報が「文字領域」「線画領
域」「セパレータ」の何れかであれば、適応的量子化部
6のフレームメモリ52から読出したその領域の画像デー
タ(データ‘0’で表されている)および下地判定部5の
フレームメモリ21から読出したその領域の画像データを
二値画像符号化器10へ入力して、MMR符号化された画像
データおよび前景色情報(詳細は後述する)を合成器11
へ送る。
Subsequently, the CPU 3 sequentially reads the area information from the area division memory 14, inputs the read area information to the area information encoder 8, and sends the encoded area information to the synthesizer 11. Next, if the rectangular area represented by the area information is a "photograph area", the image data of the area read from the frame memory 21 of the background determination unit 5 is input to the multi-valued image encoder 9, and the DPCM is used. The encoded image data is sent to the synthesizer 11. If the read area information is any one of "character area", "line drawing area", and "separator", the adaptive quantization unit
The image data of the area (represented by data “0”) read from the frame memory 52 of 6 and the image data of the area read from the frame memory 21 of the background determination unit 5 to the binary image encoder 10. Input, MMR encoded image data and foreground color information (details will be described later) 11
Send to.

【0069】合成器11は、符号化された領域情報、その
領域情報により表される矩形領域の画像データを符号化
した符号データ、前景色情報などを合成して、通信イン
タフェイス12を介して通信回線13へ送出する。
The synthesizer 11 synthesizes the coded area information, the coded data obtained by coding the image data of the rectangular area represented by the area information, the foreground color information, and the like, and via the communication interface 12. It is sent to the communication line 13.

【0070】[二値画像符号化器]図10は二値画像符号
化器10の構成例を示すブロック図である。
[Binary Image Encoder] FIG. 10 is a block diagram showing a configuration example of the binary image encoder 10.

【0071】同図において、161はラッチで、下地判定
部5のフレームメモリ21から順次入力されたRGB画像デー
タをラッチし、RGB画像データに同期して適応的量子化
部6のフレームメモリ52から入力された二値画像データ
が‘0’(下地以外)のとき、ラッチしたデータを出力
する。
In the figure, reference numeral 161 denotes a latch, which latches RGB image data sequentially input from the frame memory 21 of the background determination section 5 and synchronizes with the RGB image data from the frame memory 52 of the adaptive quantization section 6. When the input binary image data is '0' (other than the background), the latched data is output.

【0072】162は頻度メモリで、RGB各成分色ごとのメ
モリから構成され、それらのアドレス端子にはラッチ16
1からR,G,Bデータがそれぞれ入力される。163は入力デ
ータに1を加えて出力する加算器である。つまり、頻度
メモリ162にRGB画像データが入力されると、そのR,G,B
値をそれぞれアドレスとして、それぞれメモリに記憶さ
れたデータが出力される。頻度メモリ162から出力され
たデータは、加算器163により1が加算された後、再び、
頻度メモリ162に記憶される。つまり、頻度メモリ162に
は、下地を除く画像データのR,G,Bデータそれぞれの分
布が格納されることになる。なお、頻度メモリ162は、
符号化に先立って、CPU3によりクリアされる。
A frequency memory 162 is composed of a memory for each of the RGB component colors, and a latch 16 is provided at the address terminals thereof.
1 to R, G, B data are input respectively. An adder 163 adds 1 to the input data and outputs the result. That is, when RGB image data is input to the frequency memory 162, its R, G, B
The data stored in the memory is output using the values as addresses. The data output from the frequency memory 162 is added with 1 by the adder 163, and then, again,
It is stored in the frequency memory 162. That is, the frequency memory 162 stores the respective distributions of R, G, B data of image data excluding the background. The frequency memory 162 is
Cleared by CPU3 prior to encoding.

【0073】164は最大頻度抽出器で、頻度メモリ162に
記憶されたRGB各頻度が最大を示す各アドレスを、RGBデ
ータとして出力する。以下では、この頻度が最大を示す
RGBデータを入力画像の「前景色」と呼ぶ。165はMMR符
号化器で、適応的量子化部6のフレームメモリ52から入
力された二値画像データをMMR符号化する。
Reference numeral 164 denotes a maximum frequency extractor, which outputs each address stored in the frequency memory 162, at which each RGB frequency is maximum, as RGB data. Below, this frequency is maximum
RGB data is called the "foreground color" of the input image. Reference numeral 165 is an MMR encoder, which performs MMR encoding of the binary image data input from the frame memory 52 of the adaptive quantizer 6.

【0074】さて、読出した領域情報が「文字領域」
「線画領域」「セパレータ」の何れかであれば、CPU3
は、適応的量子化部6のフレームメモリ52からその領域
の二値画像データ(データ‘0’で表されている)およ
び下地判定部5のフレームメモリ21からその領域のRGB多
値画像データを同期して読出し、二値画像符号化器10へ
入力する。
Now, the read area information is "character area".
If it is either "line drawing area" or "separator", CPU3
Is the binary image data (represented by data “0”) of the area from the frame memory 52 of the adaptive quantizing unit 6 and the RGB multi-value image data of the area from the frame memory 21 of the background determination unit 5. The data is synchronously read and input to the binary image encoder 10.

【0075】そして、領域内のすべての画素について頻
度カウント処理が終了すると、最大頻度抽出器164は、
頻度メモリ162に記憶されたカウント結果から前景色を
抽出して、合成器11に出力する。続いて、CPU3は、フレ
ームメモリ52から領域内の二値画像データを読出して、
MMR符号化器165にMMR符号化させ、その符号データを合
成器11へ出力する。
When the frequency count process is completed for all the pixels in the area, the maximum frequency extractor 164
The foreground color is extracted from the count result stored in the frequency memory 162 and output to the synthesizer 11. Subsequently, the CPU 3 reads the binary image data in the area from the frame memory 52,
The MMR encoder 165 performs MMR encoding and outputs the encoded data to the synthesizer 11.

【0076】[まとめ]以上説明したように、本実施例
によれば、第1実施例と同様の効果を期待できるほか、
二組の下地濃度下限値と下地濃度上限値を設定するの
で、入力画像の下地が柄をもつ場合でも、精度良く領域
判定を行うことができ、分割した各領域に、その特性に
適した方式の符号化を施すことができる。
[Summary] As described above, according to this embodiment, the same effect as that of the first embodiment can be expected.
Since two sets of background density lower limit value and background density upper limit value are set, even if the background of the input image has a pattern, it is possible to accurately determine the area, and a method suitable for the characteristics of each divided area Can be encoded.

【0077】さらに、エッジ強調処理により、下地候補
値(背景濃度)を挟んで画素値が補正される場合、例え
ば、入力画素値が下地候補上限値より大きく、エッジ強
調後の画素値が下地候補下限値より小さいような場合で
も、入力画像を適切に二値化することができる。
Further, when the pixel value is corrected by sandwiching the background candidate value (background density) by the edge enhancement processing, for example, the input pixel value is larger than the background candidate upper limit value, and the pixel value after the edge enhancement is the background candidate. Even if it is smaller than the lower limit value, the input image can be appropriately binarized.

【0078】なお、以上では、カラー画像から輝度信号
を生成して領域分割を行う例を説明したが、これに限定
されず、輝度信号の代わりにG信号を用いても構わない
し、RGB各色ごとに同様の操作をしても構わない。ま
た、均等色空間としてCIE1976 L*u*v*やYIQを用いても
構わない。さらに、プリスキャンにより領域判定を行
い、その後、カラー画像を読込むように構成しても構わ
ない。
Although an example in which a luminance signal is generated from a color image and area division is performed has been described above, the present invention is not limited to this, and a G signal may be used in place of the luminance signal. The same operation as above may be performed. Further, CIE1976 L * u * v * or YIQ may be used as the uniform color space. Further, the area may be determined by prescanning, and then the color image may be read.

【0079】[0079]

【第3実施例】以下、本発明にかかる第3実施例の画像処
理装置を説明する。なお、第3実施例において、第1実施
例と略同様の構成については、同一符号を付して、その
詳細説明を省略する。
Third Embodiment An image processing apparatus according to the third embodiment of the present invention will be described below. In addition, in the third embodiment, substantially the same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

【0080】[構成]図11は本発明にかかる第3実施例
の画像処理装置を画像送信装置に適用した例を示すブロ
ック図である。
[Structure] FIG. 11 is a block diagram showing an example in which the image processing apparatus of the third embodiment according to the present invention is applied to an image transmitting apparatus.

【0081】本実施例は、端末203から入力されたユー
ザの指示に基づいて、第1実施例および第2実施例で説明
した符号化処理を、プログラムメモリ202に格納された
ソフトウェアにより行う例である。なお、CPU3は、この
符号化処理に必要な充分なワークメモリを含んでいる。
The present embodiment is an example in which the encoding process described in the first and second embodiments is performed by software stored in the program memory 202 based on a user's instruction input from the terminal 203. is there. The CPU 3 includes a sufficient work memory necessary for this encoding process.

【0082】また、本実施例では、入力画像を8ビット/
画素の白黒多値画像とし、多値画像の符号化方式をJPEG
符号化方式とし、二値画像の符号化方式をJBIG符号化方
式として説明するが、これに限定されるものではない。
In this embodiment, the input image is 8 bits /
A black-and-white multi-valued image of pixels, and the JPEG encoding method
The encoding method will be described as a binary image encoding method as a JBIG encoding method, but the present invention is not limited to this.

【0083】[処理手順]図12から図15は符号化処理の
一例を示すフローチャートで、端末203から符号化が指
示された場合に、プログラムメモリ202に格納されたプ
ログラムに従って、CPU3が実行するものである。
[Processing Procedure] FIGS. 12 to 15 are flowcharts showing an example of the encoding process, which is executed by the CPU 3 in accordance with the program stored in the program memory 202 when the terminal 203 instructs the encoding. Is.

【0084】●初期化 ステップS1で記憶装置204から画像データを読込み、一
画面分の画像データの読込みが終了すると、ステップS2
で、領域数count=1をセットし、領域情報テーブルの一
番目のレコードとして、矩形領域の左上を表す「位置座
標」として(0,0)を、矩形領域のサイズを表す「領域サ
イズ」として画像サイズを、領域の判定結果を表す「コ
ード」として未分離に対応するコードを格納する。図16
AはステップS2の処理が終了したときの領域情報テーブ
ルの内容の一例を示し、「領域サイズ」として3,072×
4,096画素が格納された一例を示している。
Initialization When the image data is read from the storage device 204 in step S1 and the reading of the image data for one screen is completed, step S2
Then, set the number of areas count = 1, and as the first record of the area information table, set (0,0) as the "position coordinate" that represents the upper left corner of the rectangular area, and the A code corresponding to unseparated is stored as the image size, which is a “code” indicating the determination result of the area. Fig. 16
A shows an example of the contents of the area information table when the process of step S2 is completed, and the “area size” is 3,072 ×
An example in which 4,096 pixels are stored is shown.

【0085】続いて、ステップS3でcountの値を判定し
て、count≠0であればステップS4へ進み、ヒストグラム
テーブルhist[i](i=0〜255)のすべてをクリアする。
Subsequently, the value of count is determined in step S3, and if count ≠ 0, the process proceeds to step S4, and all histogram tables hist [i] (i = 0 to 255) are cleared.

【0086】●平坦画素抽出 続いて、平坦画素の抽出処理を行うが、まず、ステップ
S5で領域テーブルのcount番目に記録された矩形領域の
すべての画素について、平坦画素抽出処理が済んだか否
かを判定する。そして、未処理の画素があればステップ
S6へ進み、領域情報テーブルのcount番目に記録された
矩形領域の画像データを順に読込み、注目画素pとその
周囲画素xiとの差分の絶対値が最大を示す値smを求め
る。次に、ステップS7で、最大差分値smと閾値Th7とを
比較して、sm≧Th7であればステップS9へ進み、sm<Th7
であれば注目画素pが平坦を構成する画素として、ステ
ップS8でヒストグラムテーブルのhist[p]をインクリメ
ントする。そして、ステップS9で注目画素を次の画素に
移動した後、ステップS5へ戻る。
Extraction of Flat Pixels Next, the extraction process of flat pixels is performed.
In S5, it is determined whether or not the flat pixel extraction processing has been completed for all the pixels in the count area of the rectangular area recorded in the area table. And if there are unprocessed pixels, step
In step S6, the image data of the rectangular area recorded in the count-th area of the area information table is sequentially read, and the value sm indicating the maximum absolute value of the difference between the target pixel p and its surrounding pixels xi is obtained. Next, in step S7, the maximum difference value sm is compared with the threshold value Th7, and if sm ≧ Th7, the process proceeds to step S9, sm <Th7
If so, the pixel of interest p is regarded as a pixel forming a flatness, and hist [p] of the histogram table is incremented in step S8. Then, after moving the target pixel to the next pixel in step S9, the process returns to step S5.

【0087】●下地抽出 count番目の領域のすべての画素についてステップS6〜S
9の処理が終了すると、ステップS10へ進み、ヒストグラ
ムテーブルの中で最大値(頻度)を示すhist[i](i=0〜2
55)を求め、そのパラメータiを下地候補値bとする(す
なわちhist[b]が最大値)。次に、ステップS11で、下地
候補下限値bt0と下地候補上限値bt1を求め、さらに、次
式により下地濃度幅wを求める。 w = bt1 - bt0 …(2)
Base extraction Steps S6 to S for all pixels in the countth area
When the process of 9 is completed, the process proceeds to step S10, and hist [i] (i = 0 to 2 indicating the maximum value (frequency) in the histogram table is displayed.
55) is obtained and the parameter i is set as the background candidate value b (that is, hist [b] is the maximum value). Next, in step S11, the background candidate lower limit value bt0 and the background candidate upper limit value bt1 are obtained, and further, the background density width w is obtained by the following equation. w = bt1-bt0… (2)

【0088】続いて、ステップS12で、下地候補下限値b
t0から下地候補上限値bt1の範囲に含まれるhist[i]をす
べて加算し、領域内の画素数mで割り、下地占有率sを求
める。 s = sum / m = Σhist[i] / m …(3) ただし、Σ演算はi=bt0〜bt1
Then, in step S12, the background candidate lower limit value b
All hist [i] included in the range from t0 to the base candidate upper limit value bt1 are added and divided by the number of pixels m in the area to obtain the base occupation rate s. s = sum / m = Σhist [i] / m (3) However, Σ operation is i = bt0 ~ bt1

【0089】続いて、ステップS13で、下地占有率sと閾
値Th2、下地濃度幅wと閾値Th3を比較して、s>Th2かつw<
Th3であれば下地があると判定してステップS13へ進み、
下地下限値b0にbt0を、下地上限値b1にbt1を代入する。
また、下地占有率sと下地濃度幅wが上記の条件を満たさ
ない場合は、下地がないと判定してステップS014へ進
み、hist[i]の極小値から第二の下地候補下限値bv0と下
地候補上限値bv1とを求め、ステップS15で下地下限値b0
にbv0を、下地上限値b1にbv1を代入する。
Subsequently, in step S13, the background occupancy s and the threshold Th2 are compared, and the background density width w and the threshold Th3 are compared, and s> Th2 and w <
If it is Th3, it is determined that there is a base, and the process proceeds to step S13,
Substitute bt0 for the base lower limit value b0 and bt1 for the base upper limit value b1.
If the background occupancy s and the background density width w do not satisfy the above conditions, it is determined that there is no background, and the process proceeds to step S014, where the minimum value of hist [i] is set to the second background candidate lower limit value bv0. The background candidate upper limit value bv1 is obtained, and in step S15 the background lower limit value b0
Substitute bv0 for and base upper limit value b1 for bv1.

【0090】●量子化 続いて、適応的量子化処理を行うが、まず、ステップS1
7で領域テーブルのcount番目に記録された矩形領域のす
べての画素について、量子化処理が済んだか否かを判定
する。そして、未処理の画素があればステップS18へ進
み、領域情報テーブルのcount番目に記録された矩形領
域の画像データを順に読込み、注目画素p,下地下限値b
0および下地上限値b1を比較して、b0<p<b1であればステ
ップS20で二値化結果nを‘1’にし、そうでなければス
テップS19でnを‘0’にする。
Quantization Subsequently, adaptive quantization processing is performed. First, step S1
In step 7, it is determined whether or not the quantization process has been completed for all the pixels in the count area of the rectangular area recorded in the area table. Then, if there is an unprocessed pixel, the process proceeds to step S18, the image data of the rectangular area recorded in the count-th area of the area information table is sequentially read, and the pixel of interest p and the background lower limit value b
0 is compared with the background upper limit value b1. If b0 <p <b1, the binarization result n is set to '1' in step S20, and otherwise n is set to '0' in step S19.

【0091】続いて、ステップS21で、注目画素とその
周囲画素から式(1)に基づいてエッジ強調を行い、エッ
ジ強調後の注目画素p'を求める。そして、ステップS22
で、エッジ強調後の注目画素p',下地下限値b0および下
地上限値b1を比較して、b0<p'<b1であればステップS24
で二値化結果eを‘1’にし、そうでなければステップS2
3でeを‘0’にする。
Subsequently, in step S21, edge enhancement is performed from the target pixel and its surrounding pixels based on the equation (1) to obtain the target pixel p'after edge enhancement. And step S22
Then, the pixel of interest p ′ after edge enhancement, the background lower limit value b0 and the background upper limit value b1 are compared, and if b0 <p ′ <b1, step S24
Sets the binarization result e to '1', otherwise step S2
Set e to '0' with 3.

【0092】続いて、ステップS25で二値化結果nと二値
化結果eの論理和(n|e)を二値化結果qにした後、ステッ
プS26で注目画素を次の画素に移動した後、ステップS17
へ戻る。なお、得られた二値化結果qは二値画像として
メモリに記憶される。
Subsequently, in step S25, the logical sum (n | e) of the binarization result n and the binarization result e is set to the binarization result q, and then the target pixel is moved to the next pixel in step S26. After, step S17
Return to. The obtained binarization result q is stored in the memory as a binary image.

【0093】●領域分割 count番目の領域のすべての画素についてステップS18〜
S26の処理が終了すると、ステップS27へ進み、二値化結
果qにより得られた二値画像から、画像の特徴に基づい
て「文字領域」「写真領域」「線画領域」「セパレー
タ」などの矩形領域を抽出する。そして、ステップS28
で、変数j=1をセットし、新たに抽出したcount_org個の
領域情報を、i+1番目以降のレコードとして領域情報テ
ーブルへ書込む。図16BはステップS28の処理が終了した
ときの領域情報テーブルの内容の一例を示している。
Area division Steps S18 to S for all pixels in the countth area
When the process of S26 is completed, the process proceeds to step S27, where the binarized image obtained by the binarization result q is a rectangle such as "character region", "photograph region", "line drawing region", "separator", etc. based on the characteristics of the image. Extract a region. And step S28
Then, the variable j = 1 is set, and the newly extracted count_org pieces of area information are written into the area information table as the records of the i + 1th and subsequent records. FIG. 16B shows an example of the contents of the area information table when the process of step S28 ends.

【0094】●符号化 続いて、符号化処理を行うが、まず、ステップS29で抽
出したcount_org個の領域の符号化が済んだかを判定す
る。そして、未処理の領域があればステップS30へ進
み、領域情報テーブルのcount+j番目の領域の判定結果
を表すコードが、「文字」「セパレータ」「線画」
「表」などの二値画像を表すコードであればステップS3
1へ進む。
Encoding Next, encoding processing is performed. First, it is determined whether the count_org areas extracted in step S29 have been encoded. Then, if there is an unprocessed area, the process proceeds to step S30, and the code indicating the determination result of the count + jth area in the area information table is "character""separator""linedrawing".
If it is a code representing a binary image such as "table", step S3
Go to 1.

【0095】符号化する領域が二値画像の場合、ステッ
プS31で前景濃度抽出処理を行う。具体的には、ヒスト
グラムテーブルhistfg[i]のすべてをクリアして、その
領域の二値画像を読込み、二値画像の画素値が‘0’に
対応する多値画像の画素値pのヒストグラムテーブルデ
ータ(つまりhisthg[p])をインクリメントして、ヒス
トグラムテーブルデータが最大値を示す濃度を前景濃度
fとする。
If the area to be encoded is a binary image, foreground density extraction processing is performed in step S31. Specifically, clear all of the histogram table histfg [i], read the binary image in that area, and use the histogram table of the pixel value p of the multi-valued image whose pixel value corresponds to '0'. Increment the data (that is, histhg [p]) and set the density at which the histogram table data shows the maximum value to the foreground density.
Let f.

【0096】続いて、ステップS32でcount+j番目の領域
情報と前景濃度fを符号化し、通信I/F12を介して通信回
線13へ送出する。次に、ステップS33でその領域の二値
画像をJBIG方式で符号化し、通信I/F12を介して通信回
線13へ送出した後、ステップS34へ進む。
Subsequently, in step S32, the count + jth area information and the foreground density f are encoded and sent to the communication line 13 via the communication I / F 12. Next, in step S33, the binary image in the area is encoded by the JBIG method and sent to the communication line 13 via the communication I / F 12, and then the process proceeds to step S34.

【0097】一方、符号化する領域が多値画像の場合
は、ステップS35で分離した領域の数count_orgが1か否
かを判定し、count_org≠1であればステップS38で、cou
nt+j番目の領域の「コード」を未分離を表すコードに変
更(図16Cのレコード4参照)した後、ステップS34へ進
む。
On the other hand, if the area to be encoded is a multi-valued image, it is determined whether the number of areas count_org separated in step S35 is 1 or not.
After changing the “code” in the nt + jth area to a code indicating unseparated (see record 4 in FIG. 16C), the process proceeds to step S34.

【0098】また、count_org=1(つまり分離された領
域がない)であればステップS36へ進んで、count+1番目
の領域情報を符号化し、通信I/F12を介して通信回線13
へ送出する。次に、ステップS37でその領域の多値画像
をJPEG方式で符号化し、通信I/F12を介して通信回線13
へ送出した後、ステップS34へ進む。
If count_org = 1 (that is, there is no separated area), the process proceeds to step S36, the count + 1th area information is encoded, and the communication line 13 is transmitted via the communication I / F 12.
Send to. Next, in step S37, the multi-valued image of the area is encoded by the JPEG method, and the communication line 13 is transmitted via the communication I / F 12.
After sending to, go to step S34.

【0099】続いて、ステップS34で変数jをインクリメ
ントした後、ステップS29へ戻り、j>count_orgになった
ら、領域情報テーブルから、その一番目のレコードと、
「文字」「セパレータ」「線画」「表」を表すコードが
記録されたレコードとを削除し、削除した分を詰めて領
域情報テーブルを再構成(図16D参照)し、領域数count
を計数する(図16Dの場合はcount=1になる)。
Then, after incrementing the variable j in step S34, the process returns to step S29, and when j> count_org, the first record from the area information table,
Delete the record in which the codes representing "character", "separator", "line drawing", and "table" are recorded, and reconstruct the region information table by filling in the deleted amount (see Fig. 16D) and count the number of regions.
Is counted (count = 1 in the case of FIG. 16D).

【0100】つまり、領域が分離された一番目のレコー
ド(領域)と、「未分離」以外のコードをもつレコード
(領域)を削除した後、ステップS3へ戻りcount=0(領
域分離すべき領域がない)になったら、すべての処理を
終了する。なお、図16Dの例では「未分離」の領域が残
っているので、再び、ステップS4以降の処理が実行され
る。
That is, after deleting the first record (area) in which the area is separated and the record (area) having a code other than "unseparated", the process returns to step S3 and count = 0 (area to be separated). If there is no), all processing ends. Note that, in the example of FIG. 16D, since the “unseparated” area remains, the processing from step S4 is executed again.

【0101】[まとめ]このように、本実施例によれ
ば、前述した実施例と同様の効果が期待できるほか、繰
返し領域を分割することにより、小領域内の平坦な領域
についても二値符号化するので、符号化効率を改善する
と同時に、文字や線画などを二値で再生できるため、文
字や線画などの劣化がなくなり、送信画像の画質向上を
図ることができる。
[Summary] As described above, according to this embodiment, the same effect as that of the above-described embodiments can be expected, and by dividing the repetitive area, the binary code is applied to the flat area in the small area. Since the encoding efficiency is improved, the character and the line drawing can be reproduced in binary at the same time, so that the character and the line drawing are not deteriorated and the image quality of the transmission image can be improved.

【0102】[0102]

【変形例】以上説明した各実施例においては、入力画像
を符号化して通信回線へ送出する画像送信装置に適用す
る例を説明したが、本発明はこれに限定されるものでは
なく、符号化した入力画像をハードディスク,光ディス
ク,光磁気ディスク,CD-ROMなどの記憶媒体に格納する
画像記憶装置にも適用することができる。
[Modification] In each of the above-described embodiments, an example in which an input image is encoded and applied to an image transmitting apparatus for transmitting to a communication line has been described, but the present invention is not limited to this and the encoding is performed. It can also be applied to an image storage device that stores the input image in a storage medium such as a hard disk, an optical disk, a magneto-optical disk, or a CD-ROM.

【0103】本発明が符号化対象とする画像の色空間と
ビット数は、上述した実施例に限定されるものではな
く、例えば、CIE1976 L*a*b*,YMCK,HSLなどの色空間
で、各4ビットや各5ビットなど任意のビット深さで構わ
ない。
The color space and the number of bits of the image to be coded by the present invention are not limited to those in the above-mentioned embodiment, and for example, in the color space such as CIE1976 L * a * b *, YMCK, HSL, etc. , Any bit depth such as 4 bits or 5 bits may be used.

【0104】また、適応的量子化は、二値化に限定され
ず、三値化であっても構わない。
Further, the adaptive quantization is not limited to binarization, but may be ternarization.

【0105】また、符号化方式は、上述した実施例に限
定されるものではなく、二値画像のためにMH符号化など
を用いても構わないし、多値画像の符号化にもフラクタ
ルやベクトル量子化などを採用しても構わない。
Also, the coding system is not limited to the above-mentioned embodiment, and MH coding or the like may be used for a binary image, and fractal or vector may be used for coding a multi-valued image. Quantization or the like may be adopted.

【0106】また、エッジ強調処理として、3×3フィル
タによる方法を説明したが、フィルタの構成などはこれ
に限定されず、5×5でも、それ以上でもよく、さらに、
フィルタによらない方法、例えばパターンマッチングの
ような手法を用いてもよい。
Further, although the method of using the 3 × 3 filter has been described as the edge emphasis processing, the configuration of the filter is not limited to this, and may be 5 × 5 or more.
A method that does not depend on a filter, for example, a method such as pattern matching may be used.

【0107】上述した各実施例によれば、画像を入力
し、入力画像の下地の状態を判定し、入力画像から下地
の状態によって最適な量子化を行い、入力画像のエッジ
を補正し、エッジ強調画像から下地の状態によって最適
な量子化を行い、これらの量子化結果を統合することで
領域判定に最適な量子化結果を生成し、統合された量子
化結果に基づいて領域判定を行うことによって、画像の
特性に最適な符号化をする複数の符号化手段を領域判定
手段の結果に従って正確に切替えることで、高い符号化
効率の優れた画質の画像符号化を行うことができる。
According to each of the above-described embodiments, an image is input, the background state of the input image is determined, optimal quantization is performed from the input image according to the background state, the edge of the input image is corrected, and the edge is corrected. Optimal quantization is performed from the emphasized image according to the background state, the optimal quantization result for region determination is generated by integrating these quantization results, and the region determination is performed based on the integrated quantization result. Thus, by accurately switching the plurality of coding means for performing the optimum coding according to the characteristics of the image in accordance with the result of the area determination means, it is possible to perform image coding with high image quality and high coding efficiency.

【0108】また、エッジ強調することにより、エッジ
部を多く含む文字領域の判定の精度を簡単な構成で向上
させることができる。
Further, by emphasizing the edges, it is possible to improve the accuracy of the determination of the character area including many edge portions with a simple structure.

【0109】また、画像から平坦を構成する画素を抽出
し、その頻度分布から画像の下地の状態を判定をするこ
とにより、下地が二値画像符号化によって効率よく符号
化できるかどうかを好適に判定することができる。
Further, it is preferable to extract whether or not the background can be efficiently coded by the binary image coding by extracting the pixels forming the flatness from the image and judging the state of the background of the image from the frequency distribution thereof. Can be determined.

【0110】また、抽出された下地画素の頻度分布から
画像の下地を判定することにより、画像を大局的に見る
ことができ、二値画像符号化を行える領域を好適に判定
できると同時に、動的算術符号化では、その面積が大き
くなることで、よりよい収束率が得られる。
Further, by determining the background of the image from the extracted frequency distribution of the background pixels, the image can be viewed as a whole, and the area in which the binary image encoding can be performed can be suitably determined, and at the same time, the motion can be determined. In the arithmetic arithmetic coding, the area is increased, so that a better convergence rate can be obtained.

【0111】また、画像の下地の状態が無地である場
合、下地濃度を抽出し、領域判定を好適に行うために、
下地濃度を考慮してする量子化するので量子化結果で領
域判定を行うことで、像域分離に有用な情報を提供する
ことができる。
In addition, in the case where the background of the image is plain, in order to extract the background density and appropriately perform the area determination,
Since quantization is performed in consideration of the background density, it is possible to provide information useful for image area separation by performing area determination based on the quantization result.

【0112】また、画像の下地が柄である場合、領域判
定が行えるように量子化することができるようになり、
画素値の分布が図8Aや図8Bに示したような場合でも、領
域判定が行えるようになる。
When the background of the image is a pattern, it can be quantized so that the area can be determined.
Even when the pixel value distribution is as shown in FIGS. 8A and 8B, the area determination can be performed.

【0113】また、平滑化手段を用いることで、ノイズ
を除去して画像から平坦を構成する画素を効率よく抽出
することができる。
Further, by using the smoothing means, it is possible to remove noise and efficiently extract the pixels forming the flatness from the image.

【0114】また、領域分割を繰返すことで領域を細分
化することができ、符号化効率をより一層高めることが
でき、画質の向上も図れる。
By repeating the region division, the region can be subdivided, the coding efficiency can be further enhanced, and the image quality can be improved.

【0115】以上によって、文字や線画領域における高
周波域の劣化を抑制し、復号された画像の画質を向上さ
せることができるなどの効果がある。
As described above, it is possible to suppress the deterioration of the high frequency area in the character or line drawing area and improve the quality of the decoded image.

【0116】なお、本発明は、複数の機器から構成され
るシステムに適用しても、一つの機器からなる装置に適
用してもよい。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device.

【0117】また、本発明は、システムあるいは装置に
プログラムを供給することによって達成される場合にも
適用できることはいうまでもない。
It goes without saying that the present invention can also be applied to the case where it is achieved by supplying a program to a system or an apparatus.

【0118】[0118]

【発明の効果】以上説明したように、本発明によれば、
例えば、画像を特性に基づいて入力画像を正しく領域分
割し、分割した領域に、その特性に応じた符号化を施す
画像処理装置およびその方法を提供することができる。
As described above, according to the present invention,
For example, it is possible to provide an image processing apparatus and a method for correctly dividing an input image into regions based on characteristics and performing encoding according to the characteristics of the divided areas.

【図面の簡単な説明】[Brief description of drawings]

【図1】画像符号化装置の構成例を示すブロック図、FIG. 1 is a block diagram showing a configuration example of an image encoding device,

【図2】本発明にかかる一実施例の画像処理装置を備え
た画像符号化装置の構成例を示すブロック図、
FIG. 2 is a block diagram showing a configuration example of an image coding apparatus including an image processing apparatus according to an embodiment of the present invention,

【図3】図2に示す下地判定部の構成例を示すブロック
図、
FIG. 3 is a block diagram showing a configuration example of a background determination unit shown in FIG.

【図4】最大頻度濃度幅の抽出方法を説明する図、FIG. 4 is a diagram illustrating a method of extracting a maximum frequency density range;

【図5】図2に示す適応的量子化部の構成例を示すブロ
ック図、
5 is a block diagram showing a configuration example of an adaptive quantizer shown in FIG.

【図6】本発明にかかる第2実施例の画像処理装置を備
えた画像符号化装置の構成例を示すブロック図、
FIG. 6 is a block diagram showing a configuration example of an image encoding device including an image processing device according to a second embodiment of the present invention,

【図7】図6に示す下地判定部の構成例を示すブロック
図、
7 is a block diagram showing a configuration example of a background determination unit shown in FIG.

【図8A】最大頻度濃度幅の抽出方法を説明する図、FIG. 8A is a diagram explaining a method of extracting a maximum frequency density range;

【図8B】最大頻度濃度幅の抽出方法を説明する図、FIG. 8B is a diagram illustrating a method of extracting the maximum frequency density range;

【図9】図6に示す適応的量子化部の構成例を示すブロ
ック図、
9 is a block diagram showing a configuration example of an adaptive quantization unit shown in FIG.

【図10】図6に示す二値画像符号化器の構成例を示す
ブロック図、
10 is a block diagram showing a configuration example of the binary image encoder shown in FIG. 6,

【図11】本発明にかかる第3実施例の画像処理装置を
備えた画像符号化装置の構成例を示すブロック図、
FIG. 11 is a block diagram showing a configuration example of an image encoding device equipped with the image processing device of the third embodiment according to the present invention;

【図12】第3実施例の符号化処理の一例を示すフロー
チャート、
FIG. 12 is a flowchart showing an example of the encoding process of the third embodiment,

【図13】第3実施例の符号化処理の一例を示すフロー
チャート、
FIG. 13 is a flowchart showing an example of the encoding process of the third embodiment,

【図14】第3実施例の符号化処理の一例を示すフロー
チャート、
FIG. 14 is a flowchart showing an example of the encoding process of the third embodiment,

【図15】第3実施例の符号化処理の一例を示すフロー
チャート、
FIG. 15 is a flowchart showing an example of the encoding process of the third embodiment,

【図16A】領域情報テーブルの内容の一例を示す図、FIG. 16A is a diagram showing an example of the contents of an area information table;

【図16B】領域情報テーブルの内容の一例を示す図、FIG. 16B is a diagram showing an example of the contents of the area information table;

【図16C】領域情報テーブルの内容の一例を示す図、FIG. 16C is a diagram showing an example of the contents of the area information table;

【図16D】領域情報テーブルの内容の一例を示す図で
ある。
FIG. 16D is a diagram showing an example of the contents of an area information table.

【符号の説明】[Explanation of symbols]

1 スキャナ 2 記憶装置 3 CPU 5 下地判定部 6 適応的量子化部 7 領域分割器 8 領域情報符号化器 9 多値画像符号化器 10 二値画像符号化器 11 合成器 12 通信インタフェイス(通信I/F) 13 通信回線 14 領域分割メモリ 1 scanner 2 storage device 3 CPU 5 background judgment unit 6 adaptive quantization unit 7 area divider 8 area information encoder 9 multi-valued image encoder 10 binary image encoder 11 combiner 12 communication interface (communication I / F) 13 Communication line 14 Area division memory

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 入力画像の下地の状態を判定する判定手
段と、 前記入力画像を補正する補正手段と、 前記判定手段の判定結果に基づいて、前記入力画像を量
子化するとともに前記補正手段により補正された画像を
量子化して、二つの量子化結果を統合する量子化手段
と、 統合された量子化結果に基づいて前記入力画像を領域分
割する分割手段と、 分割された各領域を、その領域の特性に応じて符号化す
る符号化手段とを有することを特徴とする画像処理装
置。
1. A determination means for determining a background state of an input image, a correction means for correcting the input image, and a quantization means for correcting the input image based on a determination result of the determination means. The corrected image is quantized, and a quantizing means for integrating the two quantization results, a dividing means for dividing the input image into regions based on the integrated quantization result, and An image processing apparatus comprising: an encoding unit that performs encoding according to a characteristic of a region.
【請求項2】 入力画像の下地の状態を判定する判定手
段と、 前記入力画像を補正する補正手段と、 前記判定手段の判定結果に基づいて前記入力画像を量子
化する第一の量子化手段と、 前記判定結果に基づいて前記補正手段により補正された
画像を量子化する第二の量子化手段と、 前記判定結果と前記入力画像と前記補正手段により補正
された画像とに基づいて、前記入力画像を量子化する第
三の量子化手段と、 前記第一から第三の量子化手段により得られた各量子化
結果を統合する統合手段と、 統合された量子化結果に基づいて前記入力画像を領域分
割する分割手段と、分割された各領域を、その領域の特
性に応じて符号化する符号化手段とを有することを特徴
とする画像処理装置。
2. A determination means for determining a background state of an input image, a correction means for correcting the input image, and a first quantization means for quantizing the input image based on a determination result of the determination means. A second quantizing means for quantizing the image corrected by the correcting means based on the determination result, based on the determination result, the input image and the image corrected by the correcting means, Third quantizing means for quantizing the input image; integrating means for integrating the respective quantization results obtained by the first to third quantizing means; and the input based on the integrated quantizing result An image processing apparatus comprising: a dividing unit that divides an image into regions, and an encoding unit that encodes each divided region according to the characteristics of the region.
【請求項3】 前記判定手段は、 入力画像から平坦を構成する画素を抽出する抽出手段
と、 抽出された平坦画素の値ごとに、その頻度を計数する計
数手段と、 前記計数手段により得られた頻度分布から前記入力画像
の下地状態を検出する検出手段とを含むことを特徴とす
る請求項1または請求項2に記載された画像処理装置。
3. The determining means includes: an extracting means for extracting pixels forming a flatness from an input image; a counting means for counting the frequency of each value of the extracted flat pixels; and a counting means for obtaining the frequency. 3. The image processing apparatus according to claim 1, further comprising a detection unit that detects a background state of the input image from the frequency distribution.
【請求項4】 前記判定手段は、 入力画像を平滑化する平滑化手段と、 平滑化された画像から平坦を構成する画素を抽出する抽
出手段と、 抽出された平坦画素の値ごとに、その頻度を計数する計
数手段と、 前記計数手段により得られた頻度分布から前記入力画像
の下地状態を検出する検出手段とを含むことを特徴とす
る請求項1または請求項2に記載された画像処理装置。
4. The determining means includes a smoothing means for smoothing an input image, an extracting means for extracting pixels forming a flatness from the smoothed image, and a smoothing means for extracting values of the extracted flat pixels. The image processing according to claim 1 or 2, further comprising: counting means for counting the frequency, and detection means for detecting the background state of the input image from the frequency distribution obtained by the counting means. apparatus.
【請求項5】 前記検出手段は、前記頻度分布から下地
の第一の濃度幅を検出し、検出した第一の濃度幅に基づ
いて下地が画像全体に占める占有率を算出し、前記第一
の濃度幅と前記占有率に基づいて下地状態を検出するこ
とを特徴とする請求項3または請求項4に記載された画像
処理装置。
5. The detecting means detects a first density range of the background from the frequency distribution, calculates an occupation rate of the background in the entire image based on the detected first density range, 5. The image processing apparatus according to claim 3 or 4, wherein the background state is detected based on the density width and the occupation ratio.
【請求項6】 前記検出手段は、さらに、前記頻度分布
から前記第一の濃度幅より狭い下地の第二の濃度幅を検
出することを特徴とする請求項5に記載された画像処理
装置。
6. The image processing apparatus according to claim 5, wherein the detection unit further detects a second density width of a background narrower than the first density width from the frequency distribution.
【請求項7】 前記補正手段は前記入力画像にエッジ強
調処理を施すことを特徴とする請求項1または請求項2に
記載された画像処理装置。
7. The image processing apparatus according to claim 1, wherein the correction unit performs edge enhancement processing on the input image.
【請求項8】 前記量子化手段は、前記判定手段により
判定された前記下地の濃度幅に基づいて、前記入力画像
および前記補正された画像を量子化し前記下地の量子化
画像を形成することを特徴とする請求項1に記載された
画像処理装置。
8. The quantizing means quantizes the input image and the corrected image based on the density range of the background determined by the determining means to form the quantized image of the background. The image processing apparatus according to claim 1, wherein
【請求項9】 前記第一および第二の量子化手段は、前
記判定手段により判定された前記下地の濃度幅に基づい
て、前記入力画像および前記補正された画像を量子化し
前記下地の量子化画像を形成することを特徴とする請求
項2に記載された画像処理装置。
9. The first and second quantizing means quantize the input image and the corrected image based on the density width of the background determined by the determining means, and quantize the background. 3. The image processing apparatus according to claim 2, which forms an image.
【請求項10】 前記第一および第二の量子化手段は、
前記下地状態に応じて前記第一の濃度幅または前記第二
の濃度幅を選択し、選択した濃度幅に基づいて前記入力
画像および前記補正された画像を量子化し前記下地の量
子化画像を形成することを特徴とする請求項6に記載さ
れた画像処理装置。
10. The first and second quantizing means are:
The first density range or the second density range is selected according to the background state, and the input image and the corrected image are quantized based on the selected density range to form the quantized image of the background. The image processing device according to claim 6, wherein
【請求項11】 前記第三の量子化手段は、前記判定手
段により判定された前記下地の濃度と前記入力画像と前
記補正された画像とに基づいて、前記入力画像を量子化
し前記下地の量子化画像を形成することを特徴とする請
求項2に記載された画像処理装置。
11. The third quantizing means quantizes the input image based on the density of the background determined by the determining means, the input image and the corrected image, and quantizes the background. The image processing apparatus according to claim 2, wherein the image processing apparatus forms a digitized image.
【請求項12】 前記第三の量子化手段は、前記入力画
像の注目画素の値と、その注目画素を補正した補正画素
の値とが前記下地の濃度を挟む場合、前記注目画素を前
記下地を構成する画素として量子化することを特徴とす
る請求項11に記載された画像処理装置。
12. The third quantizing means sets the pixel of interest to the background when the value of the pixel of interest of the input image and the value of a correction pixel obtained by correcting the pixel of interest sandwich the density of the background. 12. The image processing device according to claim 11, wherein the image processing device is quantized as pixels forming
【請求項13】 前記分割手段は、多値画像の特性をも
つ領域に対して繰返し領域分割を行うことを特徴とする
請求項1または請求項2に記載された画像処理装置。
13. The image processing apparatus according to claim 1, wherein the dividing unit performs repeated area division on an area having a characteristic of a multi-valued image.
【請求項14】 入力画像の下地の状態を判定する判定
ステップと、 前記入力画像を補正する補正ステップと、 前記判定ステップの判定結果に基づいて前記入力画像を
量子化する第一の量子化ステップと、 前記判定結果に基づいて前記補正ステップで補正した画
像を量子化する第二の量子化ステップと、 前記第一および第二の量子化ステップで得た各量子化結
果を統合する統合ステップと、 統合した量子化結果に基づいて前記入力画像を領域分割
する分割ステップと、 分割した各領域を、その領域の特性に応じて符号化する
符号化ステップとを有することを特徴とする画像処理方
法。
14. A determination step of determining a background state of an input image, a correction step of correcting the input image, and a first quantization step of quantizing the input image based on a determination result of the determination step. A second quantization step of quantizing the image corrected in the correction step based on the determination result, and an integration step of integrating the quantization results obtained in the first and second quantization steps An image processing method comprising: a dividing step of dividing the input image into areas based on the integrated quantization result; and an encoding step of encoding each divided area according to the characteristics of the area. .
【請求項15】 入力画像の下地の状態を判定する判定
ステップと、 前記入力画像を補正する補正ステップと、 前記判定ステップの判定結果に基づいて前記入力画像を
量子化する第一の量子化ステップと、 前記判定結果に基づいて前記補正ステップで補正した画
像を量子化する第二の量子化ステップと、 前記判定結果と前記入力画像と前記補正ステップで補正
した画像とに基づいて、前記入力画像を量子化する第三
の量子化ステップと、 前記第一から第三の量子化ステップで得た各量子化結果
を統合する統合ステップと、 統合された量子化結果に基づいて前記入力画像を領域分
割する分割ステップと、 分割された各領域を、その領域の特性に応じて符号化す
る符号化ステップとを有することを特徴とする画像処理
方法。
15. A determination step of determining a background state of an input image, a correction step of correcting the input image, and a first quantization step of quantizing the input image based on a determination result of the determination step. A second quantization step of quantizing the image corrected in the correction step based on the determination result, and the input image based on the determination result, the input image and the image corrected in the correction step A third quantization step of quantizing the input image, an integration step of integrating the quantization results obtained in the first to third quantization steps, and a region of the input image based on the integrated quantization result. An image processing method comprising: a dividing step of dividing, and an encoding step of encoding each divided area according to the characteristics of the area.
JP7134229A 1995-05-31 1995-05-31 Image processing unit and method therefor Pending JPH08331391A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP7134229A JPH08331391A (en) 1995-05-31 1995-05-31 Image processing unit and method therefor
US08/654,638 US5995665A (en) 1995-05-31 1996-05-29 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7134229A JPH08331391A (en) 1995-05-31 1995-05-31 Image processing unit and method therefor

Publications (1)

Publication Number Publication Date
JPH08331391A true JPH08331391A (en) 1996-12-13

Family

ID=15123450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7134229A Pending JPH08331391A (en) 1995-05-31 1995-05-31 Image processing unit and method therefor

Country Status (1)

Country Link
JP (1) JPH08331391A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005323370A (en) * 2004-04-30 2005-11-17 Microsoft Corp Adaptive compression of multi-level images
US7298914B2 (en) 2002-05-23 2007-11-20 Fuji Xerox Co., Ltd. Image processing device, method and recording medium for compressing image data using repeatability of data patterns
JP2021072482A (en) * 2019-10-29 2021-05-06 京セラドキュメントソリューションズ株式会社 Image processing apparatus, image processing method, and image processing program
JP2021072483A (en) * 2019-10-29 2021-05-06 京セラドキュメントソリューションズ株式会社 Image processing apparatus, image processing method, and image processing program
JP2021072484A (en) * 2019-10-29 2021-05-06 京セラドキュメントソリューションズ株式会社 Image processing apparatus, image processing method, and image processing program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7298914B2 (en) 2002-05-23 2007-11-20 Fuji Xerox Co., Ltd. Image processing device, method and recording medium for compressing image data using repeatability of data patterns
US7477791B2 (en) 2002-05-23 2009-01-13 Fuji Xerox Co., Ltd. Image processing device, method and recording medium for compressing image data
JP2005323370A (en) * 2004-04-30 2005-11-17 Microsoft Corp Adaptive compression of multi-level images
US8351694B2 (en) 2004-04-30 2013-01-08 Neiversan Networks Co. Llc Adaptive compression of multi-level images
US8620071B2 (en) 2004-04-30 2013-12-31 Neiversan Networks Co. Llc Adaptive compression of multi-level images
JP2021072482A (en) * 2019-10-29 2021-05-06 京セラドキュメントソリューションズ株式会社 Image processing apparatus, image processing method, and image processing program
JP2021072483A (en) * 2019-10-29 2021-05-06 京セラドキュメントソリューションズ株式会社 Image processing apparatus, image processing method, and image processing program
JP2021072484A (en) * 2019-10-29 2021-05-06 京セラドキュメントソリューションズ株式会社 Image processing apparatus, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
US5995665A (en) Image processing apparatus and method
JP5132517B2 (en) Image processing apparatus and image processing method
US6373981B1 (en) Method and apparatus for segmenting data to create mixed raster content planes
JP5132530B2 (en) Image coding apparatus, image processing apparatus, and control method thereof
US8452112B2 (en) Image encoding apparatus and method of controlling the same
JP4045913B2 (en) Image coding apparatus, image coding method, and image processing apparatus
JPH06223172A (en) Method and processor for image processing
JP6743092B2 (en) Image processing apparatus, image processing control method, and program
EP0613290B1 (en) Method and apparatus for binary image data compression
US7065254B2 (en) Multilayered image file
JPH08331391A (en) Image processing unit and method therefor
JP2910000B2 (en) Encoding method for binary natural image mixed still image
JPH08331392A (en) Image processing unit and method therefor
Akare et al. Compression of old marathi manuscript images using context-based, adaptive, lossless image coding
JPH10150575A (en) System and method for processing image
Deng et al. Low-bit-rate image coding using sketch image and JBIG
JPH10271497A (en) Image processor
JP2942243B2 (en) Image encoding apparatus and method
JPH05122535A (en) Image processor
JPH08298589A (en) Image processor of photograph/document mixed image
JPH08279913A (en) Method and equipment for picture communication
JP4116193B2 (en) Color image processing apparatus and color image processing method
JP2001103315A (en) Image coding method and image coder
JP3424197B2 (en) Image division method and image division device
JPH08307666A (en) Data processing unit for multi-gradation image with document and photograph in existence in mixture

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040416