JPH08331392A - Image processing unit and method therefor - Google Patents

Image processing unit and method therefor

Info

Publication number
JPH08331392A
JPH08331392A JP7134228A JP13422895A JPH08331392A JP H08331392 A JPH08331392 A JP H08331392A JP 7134228 A JP7134228 A JP 7134228A JP 13422895 A JP13422895 A JP 13422895A JP H08331392 A JPH08331392 A JP H08331392A
Authority
JP
Japan
Prior art keywords
image
background
area
input image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7134228A
Other languages
Japanese (ja)
Inventor
Mitsuru Maeda
充 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7134228A priority Critical patent/JPH08331392A/en
Priority to US08/654,638 priority patent/US5995665A/en
Publication of JPH08331392A publication Critical patent/JPH08331392A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE: To provide the image processing unit and its method in which an area of an input image is correctly divided, based on a characteristic of the image, and coding in response to a characteristic is applied to the divided areas. CONSTITUTION: A background decision section 5 decides a state of a background of an input image. An adaptive quantization section 6 binarizes an input imag based on a state of a background to generate a background binary image. An area divider 7 applies area division to the input image based on the background binary image. The divided area is coded by a multi-value image coder 9 or a binary image coder 10 in response to the characteristic.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像処理装置およびその
方法に関し、例えば、画像を領域分割して符号化する画
像処理装置およびその方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a method thereof, and more particularly, to an image processing apparatus and a method thereof for dividing an image into regions and encoding them.

【0002】[0002]

【従来の技術】近年、画像符号化技術が急速に進歩する
とともに、国際的な標準化が進められ、多値カラー画像
の非可逆符号化としてJPEG方式が、白黒二値画像の可逆
符号化としてはJBIG方式が標準化された。さらに新しい
符号化方式の標準化も進められている。
2. Description of the Related Art In recent years, with the rapid progress of image coding technology, international standardization has progressed, and the JPEG system has been used as a lossy coding for multivalued color images, and the JPEG system has been used as a lossless coding for black and white binary images. The JBIG method has been standardized. Furthermore, the standardization of new coding methods is also in progress.

【0003】図1は画像符号化装置の構成例を示すブロ
ック図で、1001は画像を入力するスキャナ、1002はユー
ザの指示に従って入力画像の出力先を選択するセレク
タ、1003は入力画像をJPEG符号化するJPEG符号化器、10
04は入力画像を二値化する二値化器、1005は二値画像を
符号化するJBIG符号化器、1006はユーザの指示に従って
符号の入力先を選択するセレクタ、1007は通信インタフ
ェイス、1008は電話回線やLANなどの通信回線である。
なお、セレクタ1002とセレクタ1006は同期して作動し、
セレクタ1002を介して符号化された画像は、セレクタ10
06を介して通信インタフェイス1007へ送られる。
FIG. 1 is a block diagram showing an example of the configuration of an image coding apparatus. 1001 is a scanner for inputting an image, 1002 is a selector for selecting an output destination of the input image according to a user's instruction, and 1003 is a JPEG code for the input image. JPEG encoder to convert, 10
04 is a binarizer for binarizing the input image, 1005 is a JBIG encoder for encoding the binary image, 1006 is a selector for selecting the input destination of the code according to the user's instruction, 1007 is a communication interface, 1008 Is a communication line such as a telephone line or a LAN.
In addition, the selector 1002 and the selector 1006 operate in synchronization,
The image coded through the selector 1002 is the selector 10
It is sent to the communication interface 1007 via 06.

【0004】このような構成において、ユーザは、カラ
ー画像を送信しようとするとき、まず、セレクタ1002の
出力先とセレクタ1006の入力先としてJPEG符号化器1003
を選択する。続いて、スキャナ1001を動作させて画像デ
ータを入力し、セレクタ1002を介してJPEG符号化器1003
に画像データを入力し、JPEG方式で符号化された符号デ
ータを得る。この符号データは、セレクタ1006を介して
通信インタフェイス1007へ入力さた後、通信インタフェ
イス1007により所定のプロトコルで通信回線1008へ送出
される。
In such a configuration, when the user wants to transmit a color image, first, the JPEG encoder 1003 is used as an output destination of the selector 1002 and an input destination of the selector 1006.
Select Next, the scanner 1001 is operated to input the image data, and the JPEG encoder 1003 is input via the selector 1002.
Image data is input to and the coded data encoded by the JPEG method is obtained. This code data is input to the communication interface 1007 via the selector 1006, and then sent out to the communication line 1008 by the communication interface 1007 according to a predetermined protocol.

【0005】また、ユーザは、白黒二値画像を送信しよ
うとするとき、まず、セレクタ1002の出力先として二値
化器1004を選択するとともに、セレクタ1006の入力先と
してJBIG符号化器1005を選択する。続いて、スキャナ10
01を動作させて画像データを入力し、セレクタ1002を介
して二値化器1004へ入力する。二値化器1004は、予め設
定された閾値と入力された画像データとを比較して、画
像データを二値化する。二値化された画像データは、JB
IG符号化器1005へ入力され、JBIG方式で符号化された符
号データになる。この符号データは、セレクタ1006を介
して通信インタフェイス1007に入力された後、通信イン
タフェイス1007により所定のプロトコルで通信回線1008
へ送出される。
When transmitting a black and white binary image, the user first selects the binarizer 1004 as the output destination of the selector 1002 and the JBIG encoder 1005 as the input destination of the selector 1006. To do. Then the scanner 10
01 is operated to input image data and input to the binarizer 1004 via the selector 1002. The binarizer 1004 binarizes the image data by comparing a preset threshold value with the input image data. The binarized image data is JB
The code data is input to the IG encoder 1005 and encoded by the JBIG method. This code data is input to the communication interface 1007 via the selector 1006, and then the communication interface 1007 uses the communication line 1008 according to a predetermined protocol.
Sent to

【0006】[0006]

【発明が解決しようとする課題】しかし、上述した技術
においては、次のような問題点がある。つまり、上記の
画像単位で符号化方式を切替える画像符号化装置におい
ては、画像に含まれる文字や線画部分もJPEG方式などで
多値符号化されるため、文字や線画の特徴であるエッジ
が鈍って、文字の品位を著しく低下させる欠点がある。
また、JBIG方式などで二値符号化した場合は、画像に含
まれる階調部分が二値化によってフラットになってしま
う欠点がある。
However, the above-mentioned technique has the following problems. In other words, in the image coding apparatus that switches the coding method for each image, the characters and line drawings included in the image are also multi-value coded by the JPEG method, etc. As a result, there is a drawback that the quality of characters is significantly deteriorated.
Further, when the binary encoding is performed by the JBIG method or the like, there is a drawback that the gradation part included in the image becomes flat by the binarization.

【0007】また、改良型のJPEG方式として、符号化単
位(8×8画素)ごとに画像の特徴を判定して、量子化係
数を切替えたり、符号化テーブルを切替える手法も提案
されているが、この方式においても、画像の特徴を判定
するための参照画素が少なく、正しい判定結果が得られ
ないことがある。
As an improved JPEG method, a method has been proposed in which the characteristics of an image are judged for each coding unit (8 × 8 pixels) and the quantization coefficient is switched or the coding table is switched. Even in this method, the number of reference pixels for determining the characteristics of the image is small, and a correct determination result may not be obtained.

【0008】また、多値画像を二値化して文字・線画領
域と写真などの領域を分離する方法を用いて、画像領域
を大域的に判定して符号化方式を切替える方法も考えら
れるが、固定閾値や可変閾値を用いて所定濃度以上の画
像領域を抽出する方法では、低コントラストの文字・線
画や白抜き文字に対応できないという欠点がある。
A method of binarizing a multi-valued image and separating a character / line drawing area from an area such as a photograph may be considered to globally determine the image area and switch the encoding method. The method of extracting an image area having a predetermined density or higher using a fixed threshold value or a variable threshold value has a drawback in that it cannot deal with low-contrast characters / line drawings and blank characters.

【0009】本発明は、上述の問題を解決するためのも
のであり、例えば、画像の特性に基づいて入力画像を正
しく領域分割し、分割した領域に、その特性に応じた符
号化を施すことができる画像処理装置およびその方法を
提供することを目的とする。
The present invention is intended to solve the above-mentioned problem. For example, the input image is correctly divided into regions based on the characteristics of the image, and the divided regions are encoded according to the characteristics. An object of the present invention is to provide an image processing apparatus and a method therefor.

【0010】[0010]

【課題を解決するための手段】および[Means for Solving the Problems] and

【作用】本発明は、前記の目的を達成する一手段とし
て、以下の構成を備える。
The present invention has the following structure as one means for achieving the above object.

【0011】本発明にかかる画像処理装置は、入力画像
の下地の状態を判定する判定手段と、前記判定手段の判
定結果に基づいて前記入力画像を量子化する量子化手段
と、量子化結果に基づいて前記入力画像を領域分割する
分割手段と、分割された各領域を、その領域の特性に応
じて符号化する符号化手段とを有することを特徴とす
る。
The image processing apparatus according to the present invention comprises a determination means for determining the state of the background of the input image, a quantization means for quantizing the input image based on the determination result of the determination means, and a quantization result. It is characterized in that it has a dividing means for dividing the input image into areas based on the input area, and an encoding means for encoding each divided area according to the characteristics of the area.

【0012】また、本発明にかかる画像処理方法は、入
力画像の下地の状態を判定する判定ステップと、前記判
定ステップの判定結果に基づいて前記入力画像を量子化
する量子化ステップと、量子化結果に基づいて前記入力
画像を領域分割する分割ステップと、分割した各領域
を、その領域の特性に応じて符号化する符号化ステップ
とを有することを特徴とする。
The image processing method according to the present invention further comprises a determination step of determining the state of the background of the input image, a quantization step of quantizing the input image based on the determination result of the determination step, and a quantization step. It is characterized by comprising a dividing step of dividing the input image into areas based on the result, and an encoding step of encoding each divided area according to the characteristics of the area.

【0013】[0013]

【実施例】以下、本発明にかかる一実施例の画像処理装
置を図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image processing apparatus according to an embodiment of the present invention will be described in detail below with reference to the drawings.

【0014】[0014]

【第1実施例】 [構成]図2は本発明にかかる一実施例の画像処理装置
を画像送信装置に適用した例を示すブロック図である。
First Embodiment [Structure] FIG. 2 is a block diagram showing an example in which an image processing apparatus according to an embodiment of the present invention is applied to an image transmitting apparatus.

【0015】同図において、3はCPUで、内蔵するROMや
記憶装置2などに格納されたプログラムに従い、バス4を
介して装置全体を制御する。なお、バス4を介して画像
データや制御信号がやり取りされる。
In FIG. 1, reference numeral 3 denotes a CPU, which controls the entire device via a bus 4 in accordance with a program stored in a built-in ROM, the storage device 2 or the like. Image data and control signals are exchanged via the bus 4.

【0016】また、1は画像を入力するスキャナ、2は画
像データなどを記憶する記憶装置、5は入力画像の下地
の状態を判定して下地の情報を出力する下地判定部、6
は入力画像を好適に量子化する適応的量子化部、7は量
子化結果に基づいて画像の特性が似通った領域を分離す
る領域分割器、14は領域分割器7から出力された領域分
割結果を格納する領域分割メモリ、8は領域分割結果を
符号化する領域情報符号化器、9は入力画像に含まれる
写真などの多値画像を符号化する多値画像符号化器、10
は入力画像に含まれる文字や線画などの二値画像を二値
化して符号化する二値画像符号化器、11は各符号化器か
ら出力される符号データを合成して出力する合成器、12
は通信インタフェイス(通信I/F)、13は電話回線やLAN
などの通信回線である。
Further, 1 is a scanner for inputting an image, 2 is a storage device for storing image data and the like, 5 is a background determination section for determining the background state of the input image and outputting background information, 6
Is an adaptive quantizer that appropriately quantizes the input image, 7 is a region divider that separates regions with similar image characteristics based on the quantization result, and 14 is the region division result output from the region divider 7. A region division memory for storing a region information encoder, 8 is a region information encoder for encoding the region division result, 9 is a multivalued image encoder for encoding a multivalued image such as a photograph included in the input image, 10
Is a binary image encoder that binarizes and encodes a binary image such as a character or line drawing included in the input image, 11 is a synthesizer that synthesizes and outputs code data output from each encoder, 12
Is a communication interface (communication I / F), 13 is a telephone line or LAN
Is a communication line such as.

【0017】以下では、入力画像を8ビット/画素の白黒
多値画像とし、多値画像符号化器9の符号化方式をJPEG
符号化方式とし、二値画像符号化器10の符号化方式をJB
IG符号化方式として説明するが、これらに限定されるも
のではない。
In the following, the input image is a black-and-white multivalued image of 8 bits / pixel, and the encoding method of the multivalued image encoder 9 is JPEG.
The coding method is JB.
Although the IG encoding method will be described, the present invention is not limited to these.

【0018】[下地判定部]図3は下地判定部5の構成例
を示すブロック図である。
[Background Determining Unit] FIG. 3 is a block diagram showing a configuration example of the background determining unit 5.

【0019】同図において、21はフレームメモリで、入
力された画像データを一画面分蓄積する。22は平坦画素
抽出器で、フレームメモリ21から注目画素と周辺画素と
を順に読出して、注目画素が平坦を構成する画素である
場合に、その画素値を出力する。平坦画素抽出器22の平
坦画素判定としては、既知の手法、例えば最小最大値抽
出法や「二値画像と濃淡画像の混在する原稿の二値化処
理方法」(鉄谷、越知、電子通信学会論文誌 1984/7 Vo
l.J67-B No.7 pp.781-788)に開示されている手法を用
いればよい。
In the figure, reference numeral 21 is a frame memory for accumulating input image data for one screen. Reference numeral 22 denotes a flat pixel extractor, which sequentially reads the target pixel and the peripheral pixels from the frame memory 21, and outputs the pixel value when the target pixel is a pixel forming a flatness. As the flat pixel determination of the flat pixel extractor 22, a known method, for example, a minimum / maximum value extraction method or a “binarization processing method for a document in which a binary image and a grayscale image are mixed” (Tetsuya, Ochi, IEICE Journal 1984/7 Vo
l.J67-B No.7 pp.781-788).

【0020】23は256個のカウンタで構成される頻度カ
ウンタで、各カウンタは各入力値に対応していて、平坦
画素抽出器22から出力された画素値に対応するカウンタ
がカウントアップする。24は最大頻度抽出器で、頻度カ
ウンタ23の中で最大のカウント値(頻度)をもつカウン
タに対応する値(0〜255)を出力する。25は最大頻度濃度
幅抽出器で、頻度カウンタ23の各カウント値をhist[i]
(i=0〜255)、最大頻度抽出器24から出力された値をb
(以下で「下地候補値」と呼ぶ)とするとき、図4に一
例を示すように、下地候補値b近傍において、予め設定
された閾値Th1より小さい頻度で、かつ、下地候補値bに
最も近い、画素値bt1(下地候補上限値)とbt0(下地候
補下限値)を求める。なお、下地候補下限値bt0と下地
候補上限値bt1とは、下地候補値b近傍において、閾値Th
1の直線と頻度曲線の交点から求めることができる。
Reference numeral 23 is a frequency counter composed of 256 counters. Each counter corresponds to each input value, and the counter corresponding to the pixel value output from the flat pixel extractor 22 counts up. A maximum frequency extractor 24 outputs a value (0 to 255) corresponding to the counter having the maximum count value (frequency) in the frequency counter 23. Reference numeral 25 is a maximum frequency density range extractor, which displays each count value of the frequency counter 23 in hist [i]
(i = 0 to 255), the value output from the maximum frequency extractor 24 is b
(Hereinafter, referred to as “background candidate value”), as shown in FIG. 4, as an example, in the vicinity of the background candidate value b, the frequency is smaller than a preset threshold Th1 and the background candidate value b is the highest. Pixel values bt1 (base candidate upper limit) and bt0 (base candidate lower limit) that are close to each other are obtained. The background candidate lower limit value bt0 and the background candidate upper limit value bt1 are the threshold values Th near the background candidate value b.
It can be obtained from the intersection of the straight line of 1 and the frequency curve.

【0021】また、37は差分器で、下地候補下限値bt0
と下地候補上限値bt1の差分w(下地濃度幅)を求める。
26は下地占有率算出器で、下地候補下限値bt0と下地候
補上限値bt1に挟まれた画素値に対応する頻度カウンタ2
3の各カウント値を加算した値を、画像全体の画素数で
除算して、下地の占有率を求める。27と28は比較器で、
比較器27は閾値Th2と下地濃度幅wとを比較し、比較器28
は閾値Th3と下地占有率とを比較して、入力値が閾値よ
り大きければ‘1’を、そうでなければ‘0’を出力す
る。29は比較器27の出力を反転するインバータ、30はイ
ンバータ29の出力と比較器28の出力とを論理積するAND
ゲートである。
Further, 37 is a differencer, which is the lower limit value bt0 of the background candidate.
And the difference w (background density range) between the background candidate upper limit value bt1.
A background occupancy calculator 26 is a frequency counter 2 corresponding to the pixel value sandwiched between the background candidate lower limit value bt0 and the background candidate upper limit value bt1.
The value obtained by adding each count value of 3 is divided by the number of pixels of the entire image to obtain the occupancy ratio of the background. 27 and 28 are comparators,
The comparator 27 compares the threshold Th2 with the background density width w, and the comparator 28
Compares the threshold value Th3 with the background occupancy rate and outputs '1' if the input value is larger than the threshold value, and outputs '0' otherwise. 29 is an inverter that inverts the output of the comparator 27, and 30 is an AND that ANDs the output of the inverter 29 and the output of the comparator 28.
It is a gate.

【0022】次に、下地判定部5の動作を説明する。Next, the operation of the background determination section 5 will be described.

【0023】処理開始に先立ち、CPU3は、フレームメモ
リ21および頻度カウンタ23をクリアする。続いて、CPU3
は、ユーザの指示に従って、スキャナ1または記憶装置2
から読込んだ白黒多値画像をフレームメモリ21に格納す
る。一画面分の画像がフレームメモリ21に格納される
と、平坦画素抽出器22は、フレームメモリ21から注目画
素とそれに隣接する八画素(参照画素)を順に読出し、
注目画素の値と各参照画素の値との最大の差分を求め、
その差分値が閾値Th4より小さい場合、平坦を構成する
画素として注目画素を出力する。頻度カウンタ23は、出
力された画素値に対応するカウンタをカウントアップす
る。
Prior to the start of processing, the CPU 3 clears the frame memory 21 and the frequency counter 23. Then, CPU3
The scanner 1 or the storage device 2 according to the user's instruction.
The black-and-white multivalued image read from is stored in the frame memory 21. When the image for one screen is stored in the frame memory 21, the flat pixel extractor 22 sequentially reads out the pixel of interest and eight pixels (reference pixels) adjacent thereto from the frame memory 21,
Find the maximum difference between the value of the pixel of interest and the value of each reference pixel,
When the difference value is smaller than the threshold value Th4, the pixel of interest is output as a pixel that constitutes flatness. The frequency counter 23 counts up the counter corresponding to the output pixel value.

【0024】そして、フレームメモリ21に格納された画
像のすべての画素について、平坦画素の抽出処理が終了
すると、最大頻度抽出器24は、頻度カウンタ23の中で最
大のカウント値をもつカウンタに対応する値、すなわち
下地候補値bを出力する。続いて、最大頻度濃度幅抽出
器25は、頻度カウンタ23のカウント内容から下地候補下
限値bt0と下地候補上限値bt1を求める。得られた下地候
補下限値bt0と下地候補上限値bt1から、差分器37は下地
濃度幅wを求め、下地濃度幅wは比較器27により閾値Th2
と比較される。
When the flat pixel extraction processing is completed for all the pixels of the image stored in the frame memory 21, the maximum frequency extractor 24 corresponds to the counter having the maximum count value in the frequency counter 23. Value, that is, the background candidate value b is output. Subsequently, the maximum frequency density width extractor 25 obtains the background candidate lower limit value bt0 and the background candidate upper limit value bt1 from the count content of the frequency counter 23. From the obtained background candidate lower limit value bt0 and background candidate upper limit value bt1, the subtractor 37 obtains the background density width w, and the background density width w is calculated by the comparator 27 as the threshold Th2.
Compared to.

【0025】一方、下地候補下限値bt0と下地候補上限
値bt1から、下地占有率算出器26は下地占有率を求め、
下地占有率は比較器28により閾値Th3と比較される。
On the other hand, the background occupancy calculator 26 obtains the background occupancy from the background candidate lower limit value bt0 and the background candidate upper limit value bt1,
The background occupancy is compared with the threshold Th3 by the comparator 28.

【0026】比較器27の出力はインバータ29により反転
されて、比較器28の出力とともにANDゲート30へ入力さ
れ、その論理積bg(下地判定フラグ)が出力される。
The output of the comparator 27 is inverted by the inverter 29 and input to the AND gate 30 together with the output of the comparator 28, and the logical product bg (background judgment flag) is output.

【0027】すなわち、下地濃度幅wが閾値Th2より小さ
くて、かつ、下地占有率が閾値Th3より大きいとき、下
地判定フラグbgは‘1’になり「無地の下地」を表す。
また、この条件を満たさないときは、下地判定フラグbg
は‘0’になり「柄をもつ下地」を表す。
That is, when the background density width w is smaller than the threshold value Th2 and the background occupancy rate is larger than the threshold value Th3, the background determination flag bg becomes "1" to represent "a plain background".
If this condition is not satisfied, the background judgment flag bg
Becomes "0" and represents "a background with a pattern".

【0028】[適応的量子化部]図5は適応的量子化部6
の構成例を示すブロック図である。
[Adaptive Quantizer] FIG. 5 shows the adaptive quantizer 6
3 is a block diagram showing a configuration example of FIG.

【0029】同図において、45と46はそれぞれ比較器
で、比較器45は、入力される注目画素Dと、下地判定部5
から入力される下地候補上限値bt1とを比較して、bt1>D
であれば‘1’を、そうでなければ‘0’を出力する。比
較器46は、注目画素Dと下地候補下限値bt0とを比較し
て、D>bt0であれば‘1’を、そうでなければ‘0’を出
力する。
In the figure, reference numerals 45 and 46 respectively denote comparators. The comparator 45 includes the pixel of interest D to be input and the background determination section 5.
Bt1> D
If so, output '1', otherwise output '0'. The comparator 46 compares the target pixel D with the background candidate lower limit value bt0, and outputs “1” if D> bt0 and outputs “0” otherwise.

【0030】また、49はANDゲート、52はANDゲート49の
出力を格納するフレームメモリである。
Further, 49 is an AND gate, and 52 is a frame memory for storing the output of the AND gate 49.

【0031】次に、適応的量子化部6の動作を説明す
る。
Next, the operation of the adaptive quantizer 6 will be described.

【0032】CPU3は、下地判定部5の処理が終了する
と、下地判定部5のフレームメモリ21から注目画素を順
に読出して適応的量子化部6へ入力し、比較器45と46に
比較を行わせる。両比較器の比較結果は、ANDゲート49
で論理積される。ANDゲート49の出力は、注目画素Dが下
地候補上限値bt1と下地候補下限値bt0の間にあれば
‘1’に、そうでなければ‘0’になる。従って、フレー
ムメモリ52には、データ‘1’で表された下地の二値画
像が格納されたことになる。
When the processing of the background determination section 5 is completed, the CPU 3 sequentially reads out the target pixel from the frame memory 21 of the background determination section 5, inputs it to the adaptive quantization section 6, and makes comparisons to the comparators 45 and 46. Let The comparison result of both comparators is AND gate 49
Is ANDed with. The output of the AND gate 49 is '1' if the target pixel D is between the background candidate upper limit value bt1 and the background candidate lower limit value bt0, and is '0' otherwise. Therefore, the background binary image represented by the data “1” is stored in the frame memory 52.

【0033】[領域分割器]適応的量子化部6によるフ
レームメモリ21に格納されたすべての画素の処理が終了
すると、CPU3は、下地判定フラグbgが‘1’(無地の下
地)のときは、領域分割器7を起動する。領域分割器7
は、フレームメモリ52に格納されたデータを読出して、
画像の特徴に基づいて「文字領域」「写真領域」「線画
領域」「セパレータ」などの矩形領域を抽出し、その領
域の位置座標(例えば左上のxy座標),矩形領域の大き
さ,領域の判定結果を表すコードを含む領域情報を出力
する。この領域情報は、領域分割メモリ14に格納され
る。
[Region Divider] When the processing of all the pixels stored in the frame memory 21 by the adaptive quantizing unit 6 is completed, the CPU 3 determines that the background determination flag bg is “1” (plain background). , Activate the area divider 7. Area divider 7
Reads the data stored in the frame memory 52,
Based on the characteristics of the image, a rectangular area such as “text area”, “photograph area”, “line drawing area”, “separator” is extracted, and the position coordinates (for example, the upper left xy coordinate) of that area, the size of the rectangular area, and the area The area information including the code indicating the determination result is output. This area information is stored in the area division memory 14.

【0034】また、CPU3は、下地判定フラグbgが‘0’
(柄をもつ下地)のときは、領域分割器7を動作させず
に、矩形領域の位置座標として(x,y)=(0,0)(原点)
を、矩形領域のサイズとして画像全体のサイズを、領域
の判定結果を表すコードとして「写真領域」のコードを
含む領域情報を領域分割メモリ14に格納する。つまり、
下地が柄をもつ画像については、領域分割を行わない。
Further, the CPU 3 sets the background judgment flag bg to "0".
In case of (base with pattern), the area divider 7 is not operated and the position coordinates of the rectangular area are (x, y) = (0,0) (origin)
The area division memory 14 stores area information including the size of the entire image as the size of the rectangular area and the code of the “photo area” as the code indicating the determination result of the area. That is,
Region division is not performed for an image whose background has a pattern.

【0035】なお、画像の領域分割方法としては、特開
昭62-226770「像域分離装置」や特開平3-126181「文書
画像の領域分割方法」などに開示された、画像を閾値で
二値化し、画素の塊から文字領域や写真、表などの領域
を判定する方法や、特開平4-248766「像域分離方式」に
開示された、下地が白の領域として文字と絵柄領域を分
離する方法などがある。
As an image area dividing method, there are two threshold values for an image, such as those disclosed in Japanese Patent Laid-Open No. 62-226770 “Image Area Separator” and Japanese Patent Laid-Open No. 3-126181 “Document image area dividing method”. A method of binarizing and determining a character area, a photograph, a table area, etc. from a block of pixels, and separating the character and pattern areas as a white background area disclosed in JP-A-4-248766 "Image Area Separation Method" There are ways to do it.

【0036】[画像データの送出]領域分割メモリ14に
領域情報を格納し終えると、CPU3は、下地判定部5から
出力された下地候補値bを、合成器11と通信I/F12を介し
て、通信回線13へ送出する。
[Sending of Image Data] After storing the area information in the area division memory 14, the CPU 3 uses the background candidate value b output from the background determination unit 5 via the synthesizer 11 and the communication I / F 12. , To the communication line 13.

【0037】続いて、CPU3は、領域分割メモリ14から順
に領域情報を読出し、読出した領域情報を領域情報符号
化器8へ入力して、符号化された領域情報を合成器11へ
送る。次に、領域情報により表される矩形領域が「写真
領域」であれば、下地判定部5のフレームメモリ21から
読出したその領域の画像データを多値画像符号化器9へ
入力して、JPEG符号化された画像データを合成器11へ送
る。また、読出した領域情報が「文字領域」「線画領
域」「セパレータ」の何れかであれば、適応的量子化部
6のフレームメモリ52から読出したその領域の画像デー
タ(データ‘0’で表されている)を二値画像符号化器1
0へ入力して、JBIG符号化された画像データを合成器11
へ送る。
Subsequently, the CPU 3 sequentially reads the area information from the area division memory 14, inputs the read area information to the area information encoder 8, and sends the encoded area information to the synthesizer 11. Next, if the rectangular area represented by the area information is a "photograph area", the image data of the area read from the frame memory 21 of the background determination unit 5 is input to the multi-valued image encoder 9, and JPEG The encoded image data is sent to the synthesizer 11. If the read area information is any one of "character area", "line drawing area", and "separator", the adaptive quantization unit
The image data (represented by data "0") of the area read from the frame memory 52 of 6 is the binary image encoder 1
Input to 0 and input the JBIG encoded image data to the synthesizer 11
Send to.

【0038】合成器11は、符号化された領域情報と、そ
の領域情報により表される矩形領域の画像データを符号
化した符号データとを合成して、通信インタフェイス12
を介して通信回線13へ送出する。
The synthesizer 11 synthesizes the coded area information and the coded data obtained by coding the image data of the rectangular area represented by the area information, and the communication interface 12
To the communication line 13 via.

【0039】[まとめ]このように、本実施例は、符号
化する入力画像の画素値の頻度分布に基づいて下地の判
定して、下地を抽出するとともに「無地の下地」か「柄
をもつ下地」かを判定する。そして、入力画像の下地が
無地の場合は、抽出した下地の濃度に基づいて入力画像
から二値画像を形成して、文字・線画領域と写真などの
領域を分離し、分離した領域に適した符号化方式でその
領域の画像データを符号化する。また、入力画像の下地
が柄をもつ場合は、領域分割を行わずに、画像全体を多
値画像符号化方式で符号化する。従って、本実施例によ
れば、次の効果を得ることができる。
[Summary] As described above, in this embodiment, the base is determined based on the frequency distribution of the pixel values of the input image to be encoded, the base is extracted, and the "plain base" or "pattern" is provided. It is determined whether or not it is a “base”. Then, when the background of the input image is plain, a binary image is formed from the input image based on the density of the extracted background, the character / line drawing area and the area such as the photograph are separated, and the separated area is suitable. The image data of the area is encoded by the encoding method. Also, when the background of the input image has a pattern, the entire image is encoded by the multi-valued image encoding method without performing region division. Therefore, according to this embodiment, the following effects can be obtained.

【0040】(1)画素値の分布から下地を抽出するの
で、下地の濃度が低い場合に原稿の裏面が透ける裏写り
による影響を抑制することができる (2)抽出した下地の濃度に基づいて、入力画像から二値
画像を形成して領域を分離するので、低コントラストの
文字・線画や白抜き文字も正しく分離することができる (3)領域に適した符号化方式でその領域の画像データを
符号化するので、文字や線画の特徴であるエッジが鈍っ
て、文字の品位を著しく低下させたり、階調部分が二値
化によってフラットになってしまうことがない (4)下地が柄をもつ場合は、画像全体を多値画像符号化
方式で符号化するので、下地の柄を含めた最適な符号化
を行うことができる なお、本実施例の領域抽出方法は、高い領域の判定精度
が得られるとともに、ネガポジ反転されたような画像に
ついても適切に文字・線画領域を抽出することができ
る。
(1) Since the background is extracted from the distribution of pixel values, it is possible to suppress the influence of the show-through which allows the back side of the original to show through when the background density is low. (2) Based on the extracted background density , Since a binary image is formed from the input image and the area is separated, it is possible to correctly separate low-contrast characters / line drawings and outline characters. (3) Image data of that area by the encoding method suitable for the area Since the encoding is used, the edges, which are the features of characters and line drawings, are not blunted, and the quality of characters is not significantly reduced, and the gradation part does not become flat due to binarization. If it has, the entire image is encoded by the multi-valued image encoding method, so that it is possible to perform the optimal encoding including the pattern of the background. In addition, the region extraction method of the present embodiment has a high region determination accuracy. As well as negative / positive reversal It is possible to appropriately extract the character / line drawing area from the image as described above.

【0041】[0041]

【第2実施例】以下、本発明にかかる第2実施例の画像処
理装置を説明する。なお、第2実施例において、第1実施
例と略同様の構成については、同一符号を付して、その
詳細説明を省略する。
Second Embodiment An image processing apparatus according to the second embodiment of the present invention will be described below. It should be noted that in the second embodiment, substantially the same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

【0042】[構成]図6は本発明にかかる第2実施例の
画像処理装置を画像送信装置に適用した例を示すブロッ
ク図で、図2に示した第1実施例と異なるのは、二値画像
符号化器10へ領域分割結果と二値画像が入力されるとと
もに、多値画像も入力されることである。
[Structure] FIG. 6 is a block diagram showing an example in which the image processing apparatus of the second embodiment according to the present invention is applied to an image transmitting apparatus. The difference from the first embodiment shown in FIG. This means that the area image division result and the binary image are input to the value image encoder 10, and the multi-valued image is also input.

【0043】なお、以下では、入力画像をRGB各色8ビッ
ト/画素のカラー多値画像とし、多値画像符号化器9の符
号化方式をDPCM符号化方式とし、二値画像符号化器10の
符号化方式をMMR符号化方式として説明するが、これら
に限定されるものではない。
In the following, the input image is a color multi-valued image of 8 bits / pixel for each RGB color, the multi-valued image encoder 9 is set to the DPCM coding method, and the binary image encoder 10 is set to The encoding method will be described as an MMR encoding method, but the present invention is not limited to these.

【0044】[下地判定部]図7は下地判定部5の構成例
を示すブロック図である。
[Background Determining Section] FIG. 7 is a block diagram showing a configuration example of the background determining section 5.

【0045】122は輝度生成器で、入力されたRGB画像デ
ータをCIE1976 L*a*b*均等色空間の輝度信号L*に変換す
る。123はフレームメモリで、一画面分のL*画像データ
を格納する。126は平滑化器で、フレームメモリ123から
画像データを読込んで3×3画素の平滑化を行う。124は
極小値算出器で、図8Aおよび図8Bに一例を示すように、
下地候補値bの近傍において、極小を示し、かつ、下地
候補値bに最も近い、画素値bv1(第二下地候補上限値)
とbv0(第二下地候補下限値)を求める。なお、以下で
は、最大頻度濃度幅抽出器25の出力bt0を第一下地候補
下限値、bt1を第一下地候補上限値と呼ぶ。
A brightness generator 122 converts the input RGB image data into a brightness signal L * in the CIE1976 L * a * b * uniform color space. A frame memory 123 stores L * image data for one screen. A smoothing device 126 reads image data from the frame memory 123 and smoothes 3 × 3 pixels. Reference numeral 124 is a minimum value calculator, and as shown in one example in FIGS. 8A and 8B,
Pixel value bv1 (second background candidate upper limit value) that shows a local minimum value in the vicinity of the background candidate value b and is closest to the background candidate value b
And bv0 (lower limit value of second background candidate) are obtained. In the following, the output bt0 of the maximum frequency density range extractor 25 is referred to as a first background candidate lower limit value, and bt1 is referred to as a first background candidate upper limit value.

【0046】次に、下地判定部5の動作について、第1実
施例と異なる部分を中心に説明する。
Next, the operation of the background determination section 5 will be described focusing on the points different from the first embodiment.

【0047】処理開始に先立ち、CPU3は、フレームメモ
リ21および頻度カウンタ23をクリアする。続いて、CPU3
は、ユーザの指示に従って、スキャナ1または記憶装置2
から読込んだカラー多値画像をフレームメモリ21に格納
する。一画面分の画像がフレームメモリ21に格納される
と、輝度生成器122は、フレームメモリ21から順にRGB画
像データを読出して、変換したL*画像データをフレーム
メモリ123に書込む。
Prior to the start of processing, the CPU 3 clears the frame memory 21 and the frequency counter 23. Then, CPU3
The scanner 1 or the storage device 2 according to the user's instruction.
The color multi-valued image read from is stored in the frame memory 21. When the image for one screen is stored in the frame memory 21, the luminance generator 122 sequentially reads the RGB image data from the frame memory 21, and writes the converted L * image data in the frame memory 123.

【0048】一画面分のL*画像データがフレームメモリ
123に格納されると、平滑化器126は、フレームメモリ12
3から注目画素とその周囲画素(3×3画素)を読出し
て、注目画素を平滑化する。なお、本実施例の平坦画素
抽出器22は、平滑化された注目画素と、それに隣接する
八画素の参照画素とから、注目画素が平坦を構成する画
素か否かを判定する。
L * image data for one screen is a frame memory
Once stored in 123, the smoother 126
The target pixel and its surrounding pixels (3 × 3 pixels) are read out from 3, and the target pixel is smoothed. The flat pixel extractor 22 of the present embodiment determines whether or not the target pixel is a flat pixel from the smoothed target pixel and the eight reference pixels adjacent thereto.

【0049】そして、フレームメモリ123に格納された
すべての画素について、平滑化処理と平坦画素の抽出処
理が終了すると、最大頻度抽出器24は下地候補値bを出
力し、最大頻度濃度幅抽出器25は第一下地候補下限値bt
0と第一下地候補上限値bt1を、極小値算出器124は第二
下地候補下限値bv0と第二下地候補上限値bv1を出力す
る。
When the smoothing process and the flat pixel extraction process are completed for all the pixels stored in the frame memory 123, the maximum frequency extractor 24 outputs the background candidate value b and the maximum frequency density range extractor. 25 is the lower limit value of the first base candidate bt
The minimum value calculator 124 outputs 0 and the first background candidate upper limit value bt1, and the second background candidate lower limit value bv0 and the second background candidate upper limit value bv1.

【0050】[適応的量子化部]図9は適応的量子化部6
の構成例を示すブロック図である。
[Adaptive Quantization Unit] FIG. 9 shows the adaptive quantization unit 6
3 is a block diagram showing a configuration example of FIG.

【0051】147と148はそれぞれセレクタで、下地判定
フラグbgに従って入力を選択し出力する。セレクタ148
は、第一または第二の下地候補下限値を選択し、選択し
た下地候補下限値を比較器46へ入力する。セレクタ147
は、第一または第二の下地候補上限値を選択し、選択し
た下地候補上限値を比較器45へ入力する。
Reference numerals 147 and 148 denote selectors for selecting inputs according to the background judgment flag bg and outputting them. Selector 148
Selects the first or second background candidate lower limit value and inputs the selected background candidate lower limit value to the comparator 46. Selector 147
Selects the first or second background candidate upper limit value and inputs the selected background candidate upper limit value to the comparator 45.

【0052】次に、適応的量子化部6の動作について、
第1実施例と異なる部分を中心に説明する。
Next, regarding the operation of the adaptive quantizer 6,
The description will focus on the parts that differ from the first embodiment.

【0053】CPU3は、下地判定部5の処理が終了する
と、下地判定部5のフレームメモリ123から注目画素を順
に読出して適応的量子化部6へ入力し、比較器45と46に
比較を行わせる。これらの比較器の比較結果は、ANDゲ
ート49で論理積され、論理積された結果はフレームメモ
リ52へ書込まれる。
When the processing of the background determination unit 5 is completed, the CPU 3 sequentially reads out the target pixel from the frame memory 123 of the background determination unit 5, inputs it to the adaptive quantization unit 6, and compares it with the comparators 45 and 46. Let The comparison results of these comparators are ANDed by the AND gate 49, and the ANDed result is written to the frame memory 52.

【0054】ここで、下地判定フラグbgが‘1’(柄を
もつ下地)のとき、セレクタ147は第一下地候補上限値b
t1を選択し、セレクタ148は第一下地候補下限値bt0を選
択するので、比較器45と46の動作は第1実施例と同様に
なる。つまり、ANDゲート49の出力は、注目画素Dが第一
下地候補上限値bt1と第一下地候補下限値bt0の間にあれ
ば‘1’に、そうでなければ‘0’になる。
Here, when the background determination flag bg is '1' (background with a pattern), the selector 147 determines the first background candidate upper limit value b.
Since t1 is selected and the selector 148 selects the first background candidate lower limit value bt0, the operations of the comparators 45 and 46 are the same as in the first embodiment. That is, the output of the AND gate 49 is '1' if the pixel of interest D is between the first background candidate upper limit value bt1 and the first background candidate lower limit value bt0, and is '0' otherwise.

【0055】また、下地判定フラグbgが‘0’(無地の
下地)のとき、セレクタ147は第二下地候補上限値bv1を
選択し、セレクタ148は第二下地候補下限値bv0を選択す
る。従って、ANDゲート49の出力は、注目画素Dが第二下
地候補上限値bv1と第二下地候補下限値bv0の間にあれば
‘1’に、そうでなければ‘0’になる。
When the background determination flag bg is "0" (plain background), the selector 147 selects the second background candidate upper limit value bv1 and the selector 148 selects the second background candidate lower limit value bv0. Therefore, the output of the AND gate 49 is '1' if the pixel of interest D is between the second background candidate upper limit value bv1 and the second background candidate lower limit value bv0, and is '0' otherwise.

【0056】従って、フレームメモリ52には、データ
‘1’で表された下地の二値画像が格納されたことにな
るが、下地が柄をもつ場合は、無地の場合に比べて、下
地候補値の範囲が広くなるので、柄を含めた下地が抽出
される。
Therefore, the binary image of the background represented by the data '1' is stored in the frame memory 52. However, when the background has a pattern, the background candidate is more than that of the plain case. Since the range of values becomes wide, the background including the pattern is extracted.

【0057】[領域分割器]適応的量子化部6によるフ
レームメモリ41に格納されたすべての画素の処理が終了
すると、CPU3は、第1実施例と異なり下地判定フラグbg
に関係なく、領域分割器7を起動する。領域分割器7は、
フレームメモリ52に格納されたデータを読出して、画像
の特徴に基づいて「文字領域」「写真領域」「線画領
域」「セパレータ」などの矩形領域を抽出し、その領域
の位置座標(例えば左上のxy座標),矩形領域の大き
さ,領域の判定結果を表すコードを含む領域情報を出力
する。この領域情報は、領域分割メモリ14に格納され
る。
[Region Divider] When the processing of all pixels stored in the frame memory 41 by the adaptive quantizing unit 6 is completed, the CPU 3 differs from the first embodiment in that the background judgment flag bg
Regardless of, the area divider 7 is activated. The area divider 7 is
The data stored in the frame memory 52 is read, rectangular areas such as “character area”, “photograph area”, “line drawing area”, and “separator” are extracted based on the characteristics of the image, and the position coordinates of that area (for example, the upper left corner) Area information including the (xy coordinates), the size of the rectangular area, and the code indicating the area determination result is output. This area information is stored in the area division memory 14.

【0058】[画像データの送出]適応的量子化部6に
よるフレームメモリ41に格納されたすべての画素の処理
し、さらに、領域分割メモリ14に領域情報を格納し終え
ると、CPU3は、下地判定部5から出力された下地候補値b
を、合成器11と通信I/F12を介して、通信回線13へ送出
する。
[Sending of image data] When all pixels stored in the frame memory 41 are processed by the adaptive quantizing unit 6 and the area information is stored in the area dividing memory 14, the CPU 3 determines the background. Substrate candidate value b output from section 5
To the communication line 13 via the synthesizer 11 and the communication I / F 12.

【0059】続いて、CPU3は、領域分割メモリ14から順
に領域情報を読出し、読出した領域情報を領域情報符号
化器8へ入力して、符号化された領域情報を合成器11へ
送る。次に、領域情報により表される矩形領域が「写真
領域」であれば、下地判定部5のフレームメモリ21から
読出したその領域の画像データを多値画像符号化器9へ
入力して、DPCM符号化された画像データを合成器11へ送
る。また、読出した領域情報が「文字領域」「線画領
域」「セパレータ」の何れかであれば、適応的量子化部
6のフレームメモリ52から読出したその領域の画像デー
タおよび下地判定部5のフレームメモリ21から読出した
その領域の画像データを二値画像符号化器10へ入力し
て、MMR符号化された画像データおよび前景色情報(詳
細は後述する)を合成器11へ送る。
Subsequently, the CPU 3 sequentially reads the area information from the area division memory 14, inputs the read area information to the area information encoder 8, and sends the encoded area information to the synthesizer 11. Next, if the rectangular area represented by the area information is a "photograph area", the image data of the area read from the frame memory 21 of the background determination unit 5 is input to the multi-valued image encoder 9, and the DPCM is used. The encoded image data is sent to the synthesizer 11. If the read area information is any one of "character area", "line drawing area", and "separator", the adaptive quantization unit
The image data of the area read from the frame memory 52 of 6 and the image data of the area read from the frame memory 21 of the background determination unit 5 are input to the binary image encoder 10, and the MMR encoded image data is input. And foreground color information (details will be described later) to the combiner 11.

【0060】合成器11は、符号化された領域情報、その
領域情報により表される矩形領域の画像データを符号化
した符号データ、前景色情報などを合成して、通信イン
タフェイス12を介して通信回線13へ送出する。
The synthesizer 11 synthesizes the coded area information, the coded data obtained by coding the image data of the rectangular area represented by the area information, the foreground color information, and the like, and through the communication interface 12. It is sent to the communication line 13.

【0061】[二値画像符号化器]図10は二値画像符号
化器10の構成例を示すブロック図である。
[Binary Image Encoder] FIG. 10 is a block diagram showing a configuration example of the binary image encoder 10.

【0062】同図において、161はラッチで、下地判定
部5のフレームメモリ21から順次入力されたRGB画像デー
タをラッチし、RGB画像データに同期して適応的量子化
部6のフレームメモリ52から入力された二値画像データ
が‘0’(下地以外)のとき、ラッチしたデータを出力
する。
In the figure, reference numeral 161 denotes a latch, which latches RGB image data sequentially input from the frame memory 21 of the background determination unit 5, and synchronizes with the RGB image data from the frame memory 52 of the adaptive quantization unit 6. When the input binary image data is '0' (other than the background), the latched data is output.

【0063】162は頻度メモリで、RGB各成分色ごとのメ
モリから構成され、それらのアドレス端子にはラッチ16
1からR,G,Bデータがそれぞれ入力される。163は入力デ
ータに1を加えて出力する加算器である。つまり、頻度
メモリ162にRGB画像データが入力されると、そのR,G,B
値をそれぞれアドレスとして、それぞれメモリに記憶さ
れたデータが出力される。頻度メモリ162から出力され
たデータは、加算器163により1が加算された後、再び、
頻度メモリ162に記憶される。つまり、頻度メモリ162に
は、下地を除く画像データのR,G,Bデータそれぞれの分
布が格納されることになる。なお、頻度メモリ162は、
符号化に先立って、CPU3によりクリアされる。
Reference numeral 162 is a frequency memory, which is composed of a memory for each RGB component color, and a latch 16 is provided at the address terminals thereof.
1 to R, G, B data are input respectively. An adder 163 adds 1 to the input data and outputs the result. That is, when RGB image data is input to the frequency memory 162, its R, G, B
The data stored in the memory is output using the values as addresses. The data output from the frequency memory 162 is added with 1 by the adder 163, and then, again,
It is stored in the frequency memory 162. That is, the frequency memory 162 stores the respective distributions of R, G, B data of image data excluding the background. The frequency memory 162 is
Cleared by CPU3 prior to encoding.

【0064】164は最大頻度抽出器で、頻度メモリ162に
記憶されたRGB各頻度が最大を示す各アドレスを、RGBデ
ータとして出力する。以下では、この頻度が最大を示す
RGBデータを入力画像の「前景色」と呼ぶ。165はMMR符
号化器で、適応的量子化部6のフレームメモリ52から入
力された二値画像データをMMR符号化する。
Reference numeral 164 denotes a maximum frequency extractor, which outputs each address stored in the frequency memory 162, at which each RGB frequency is maximum, as RGB data. Below, this frequency is maximum
RGB data is called the "foreground color" of the input image. Reference numeral 165 is an MMR encoder, which performs MMR encoding of the binary image data input from the frame memory 52 of the adaptive quantizer 6.

【0065】さて、読出した領域情報が「文字領域」
「線画領域」「セパレータ」の何れかであれば、CPU3
は、適応的量子化部6のフレームメモリ52からその領域
の二値画像データおよび下地判定部5のフレームメモリ2
1からその領域のRGB多値画像データを同期して読出し、
二値画像符号化器10へ入力する。
Now, the read area information is "character area".
If it is either "line drawing area" or "separator", CPU3
From the frame memory 52 of the adaptive quantizer 6 to the binary image data of the area and the frame memory 2 of the background determination unit 5.
Synchronously read RGB multi-valued image data of the area from 1,
Input to the binary image encoder 10.

【0066】そして、領域内のすべての画素について頻
度カウント処理が終了すると、最大頻度抽出器164は、
頻度メモリ162に記憶されたカウント結果から前景色を
抽出して、合成器11に出力する。続いて、CPU3は、フレ
ームメモリ52から領域内の二値画像データを読出して、
MMR符号化器165にMMR符号化させ、その符号データを合
成器11へ出力する。
When the frequency count processing is completed for all the pixels in the area, the maximum frequency extractor 164
The foreground color is extracted from the count result stored in the frequency memory 162 and output to the synthesizer 11. Subsequently, the CPU 3 reads the binary image data in the area from the frame memory 52,
The MMR encoder 165 performs MMR encoding and outputs the encoded data to the synthesizer 11.

【0067】[まとめ]以上説明したように、本実施例
によれば、第1実施例と同様の効果を期待できるほか、
二組の下地濃度下限値と下地濃度上限値を設定するの
で、入力画像の下地が柄をもつ場合でも、精度良く領域
判定を行うことができ、分割した各領域に、その特性に
適した方式の符号化を施すことができる。
[Summary] As described above, according to this embodiment, the same effect as that of the first embodiment can be expected.
Since two sets of background density lower limit value and background density upper limit value are set, even if the background of the input image has a pattern, it is possible to accurately determine the area, and a method suitable for the characteristics of each divided area Can be encoded.

【0068】なお、以上では、カラー画像から輝度信号
を生成して領域分割を行う例を説明したが、これに限定
されず、輝度信号の代わりにG信号を用いても構わない
し、RGB各色ごとに同様の操作をしても構わない。ま
た、均等色空間としてCIE1976 L*u*v*やYIQを用いても
構わない。さらに、プリスキャンにより領域判定を行
い、その後、カラー画像を読込むように構成しても構わ
ない。
Although an example in which a luminance signal is generated from a color image and area division is performed has been described above, the present invention is not limited to this, and a G signal may be used instead of the luminance signal, and each RGB color may be used. The same operation as above may be performed. Further, CIE1976 L * u * v * or YIQ may be used as the uniform color space. Further, the area may be determined by prescanning, and then the color image may be read.

【0069】[0069]

【第3実施例】以下、本発明にかかる第3実施例の画像処
理装置を説明する。なお、第3実施例において、第1実施
例と略同様の構成については、同一符号を付して、その
詳細説明を省略する。
Third Embodiment An image processing apparatus according to the third embodiment of the present invention will be described below. In addition, in the third embodiment, substantially the same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

【0070】[構成]図11は本発明にかかる第3実施例
の画像処理装置を画像送信装置に適用した例を示すブロ
ック図である。
[Structure] FIG. 11 is a block diagram showing an example in which the image processing apparatus of the third embodiment according to the present invention is applied to an image transmitting apparatus.

【0071】本実施例は、端末203から入力されたユー
ザの指示に基づいて、第1実施例および第2実施例で説明
した符号化処理を、プログラムメモリ202に格納された
ソフトウェアにより行う例である。なお、CPU3は、この
符号化処理に必要な充分なワークメモリを含んでいる。
The present embodiment is an example in which the encoding processing described in the first and second embodiments is performed by software stored in the program memory 202 based on the user's instruction input from the terminal 203. is there. The CPU 3 includes a sufficient work memory necessary for this encoding process.

【0072】また、本実施例では、入力画像を8ビット/
画素の白黒多値画像とし、多値画像の符号化方式をJPEG
符号化方式とし、二値画像の符号化方式をJBIG符号化方
式として説明するが、これに限定されるものではない。
In this embodiment, the input image is 8 bits /
A black-and-white multi-valued image of pixels, and the JPEG encoding method
The encoding method will be described as a binary image encoding method as a JBIG encoding method, but the present invention is not limited to this.

【0073】[処理手順]図12から図15は符号化処理の
一例を示すフローチャートで、端末203から符号化が指
示された場合に、プログラムメモリ202に格納されたプ
ログラムに従って、CPU3が実行するものである。
[Processing Procedure] FIGS. 12 to 15 are flowcharts showing an example of the encoding process, which is executed by the CPU 3 in accordance with the program stored in the program memory 202 when the terminal 203 instructs the encoding. Is.

【0074】●初期化 ステップS1で記憶装置204から画像データを読込み、一
画面分の画像データの読込みが終了すると、ステップS2
で、領域数count=1をセットし、領域情報テーブルの一
番目のレコードとして、矩形領域の左上を表す「位置座
標」として(0,0)を、矩形領域のサイズを表す「領域サ
イズ」として画像サイズを、領域の判定結果を表す「コ
ード」として未分離に対応するコードを格納する。図16
AはステップS2の処理が終了したときの領域情報テーブ
ルの内容の一例を示し、「領域サイズ」として3,072×
4,096画素が格納された一例を示している。
Initialization When the image data is read from the storage device 204 in step S1 and the reading of the image data for one screen is completed, step S2
Then, set the number of areas count = 1, and as the first record of the area information table, set (0,0) as the "position coordinate" that represents the upper left corner of the rectangular area, and the A code corresponding to unseparated is stored as the image size, which is a “code” indicating the determination result of the area. Fig. 16
A shows an example of the contents of the area information table when the process of step S2 is completed, and the “area size” is 3,072 ×
An example in which 4,096 pixels are stored is shown.

【0075】続いて、ステップS3でcountの値を判定し
て、count≠0であればステップS4へ進み、ヒストグラム
テーブルhist[i](i=0〜255)のすべてをクリアする。
Subsequently, the value of count is determined in step S3, and if count ≠ 0, the process proceeds to step S4, and all histogram tables hist [i] (i = 0 to 255) are cleared.

【0076】●平坦画素抽出 続いて、平坦画素の抽出処理を行うが、まず、ステップ
S5で領域テーブルのcount番目に記録された矩形領域の
すべての画素について、平坦画素抽出処理が済んだか否
かを判定する。そして、未処理の画素があればステップ
S6へ進み、領域情報テーブルのcount番目に記録された
矩形領域の画像データを順に読込み、注目画素pとその
周囲画素xiとの差分の絶対値が最大を示す値smを求め
る。次に、ステップS7で、最大差分値smと閾値Th7とを
比較して、sm≧Th7であればステップS9へ進み、sm<Th7
であれば注目画素pが平坦を構成する画素として、ステ
ップS8でヒストグラムテーブルのhist[p]をインクリメ
ントする。そして、ステップS9で注目画素を次の画素に
移動した後、ステップS5へ戻る。
Flat pixel extraction Next, a flat pixel extraction process is performed. First, step
In S5, it is determined whether or not the flat pixel extraction processing has been completed for all the pixels in the count area of the rectangular area recorded in the area table. And if there are unprocessed pixels, step
In step S6, the image data of the rectangular area recorded in the count-th area of the area information table is sequentially read, and the value sm indicating the maximum absolute value of the difference between the target pixel p and its surrounding pixels xi is obtained. Next, in step S7, the maximum difference value sm is compared with the threshold value Th7, and if sm ≧ Th7, the process proceeds to step S9, sm <Th7
If so, the pixel of interest p is regarded as a pixel forming a flatness, and hist [p] of the histogram table is incremented in step S8. Then, after moving the target pixel to the next pixel in step S9, the process returns to step S5.

【0077】●下地抽出 count番目の領域のすべての画素についてステップS6〜S
9の処理が終了すると、ステップS10へ進み、ヒストグラ
ムテーブルの中で最大値(頻度)を示すhist[i](i=0〜2
55)を求め、そのパラメータiを下地候補値bとする(す
なわちhist[b]が最大値)。次に、ステップS11で、下地
候補下限値bt0と下地候補上限値bt1を求め、さらに、次
式により下地濃度幅wを求める。 w = bt1 - bt0 …(1)
● Background extraction Steps S6 to S for all pixels in the countth area
When the process of 9 is completed, the process proceeds to step S10, and hist [i] (i = 0 to 2 indicating the maximum value (frequency) in the histogram table is displayed.
55) is obtained, and the parameter i is set as the background candidate value b (ie hist [b] is the maximum value). Next, in step S11, the background candidate lower limit value bt0 and the background candidate upper limit value bt1 are obtained, and further, the background density width w is obtained by the following equation. w = bt1-bt0… (1)

【0078】続いて、ステップS12で、下地候補下限値b
t0から下地候補上限値bt1の範囲に含まれるhist[i]をす
べて加算し、領域内の画素数mで割り、下地占有率sを求
める。 s = sum / m = Σhist[i] / m …(2) ただし、Σ演算はi=bt0〜bt1
Subsequently, in step S12, the background candidate lower limit value b
All hist [i] included in the range from t0 to the base candidate upper limit value bt1 are added and divided by the number of pixels m in the area to obtain the base occupation rate s. s = sum / m = Σhist [i] / m (2) However, Σ operation is i = bt0 ~ bt1

【0079】続いて、ステップS13で、下地占有率sと閾
値Th2、下地濃度幅wと閾値Th3を比較して、s>Th2かつw<
Th3であれば下地があると判定してステップS13へ進み、
下地下限値b0にbt0を、下地上限値b1にbt1を代入する。
また、下地占有率sと下地濃度幅wが上記の条件を満たさ
ない場合は、下地がないと判定してステップS014へ進
み、hist[i]の極小値から第二の下地候補下限値bv0と下
地候補上限値bv1とを求め、ステップS15で下地下限値b0
にbv0を、下地上限値b1にbv1を代入する。
Subsequently, in step S13, the background occupancy s is compared with the threshold Th2, and the background density width w is compared with the threshold Th3, and s> Th2 and w <
If it is Th3, it is determined that there is a base, and the process proceeds to step S13,
Substitute bt0 for the base lower limit value b0 and bt1 for the base upper limit value b1.
If the background occupancy s and the background density width w do not satisfy the above conditions, it is determined that there is no background, and the process proceeds to step S014, where the minimum value of hist [i] is set to the second background candidate lower limit value bv0. The background candidate upper limit value bv1 is obtained, and in step S15 the background lower limit value b0
Substitute bv0 for and base upper limit value b1 for bv1.

【0080】●量子化 続いて、適応的量子化処理を行うが、まず、ステップS1
7で領域テーブルのcount番目に記録された矩形領域のす
べての画素について、量子化処理が済んだか否かを判定
する。そして、未処理の画素があればステップS18へ進
み、領域情報テーブルのcount番目に記録された矩形領
域の画像データを順に読込み、注目画素p,下地下限値b
0および下地上限値b1を比較して、b0<p<b1であればステ
ップS20で二値化結果qを‘1’にし、そうでなければス
テップS19でqを‘0’にする。
Quantization Subsequently, adaptive quantization processing is performed. First, step S1
In step 7, it is determined whether or not the quantization process has been completed for all the pixels in the count area of the rectangular area recorded in the area table. Then, if there is an unprocessed pixel, the process proceeds to step S18, the image data of the rectangular area recorded in the count-th area of the area information table is sequentially read, and the pixel of interest p and the background lower limit value b
0 is compared with the background upper limit value b1. If b0 <p <b1, the binarization result q is set to '1' in step S20, and otherwise q is set to '0' in step S19.

【0081】続いて、ステップS26で注目画素を次の画
素に移動した後、ステップS17へ戻る。なお、得られた
二値化結果qは二値画像としてメモリに記憶される。
Subsequently, after the target pixel is moved to the next pixel in step S26, the process returns to step S17. The obtained binarization result q is stored in the memory as a binary image.

【0082】●領域分割 count番目の領域のすべての画素についてステップS18〜
S26の処理が終了すると、ステップS27へ進み、二値化結
果qにより得られた二値画像から、画像の特徴に基づい
て「文字領域」「写真領域」「線画領域」「セパレー
タ」などの矩形領域を抽出する。そして、ステップS28
で、変数j=1をセットし、新たに抽出したcount_org個の
領域情報を、i+1番目以降のレコードとして領域情報テ
ーブルへ書込む。図16BはステップS28の処理が終了した
ときの領域情報テーブルの内容の一例を示している。
Area division Steps S18-) for all pixels in the count-th area
When the process of S26 is completed, the process proceeds to step S27, where the binarized image obtained by the binarization result q is a rectangle such as "character region", "photograph region", "line drawing region", "separator", etc. based on the characteristics of the image. Extract a region. And step S28
Then, the variable j = 1 is set, and the newly extracted count_org pieces of area information are written into the area information table as the records of the i + 1th and subsequent records. FIG. 16B shows an example of the contents of the area information table when the process of step S28 ends.

【0083】●符号化 続いて、符号化処理を行うが、まず、ステップS29で抽
出したcount_org個の領域の符号化が済んだかを判定す
る。そして、未処理の領域があればステップS30へ進
み、領域情報テーブルのcount+j番目の領域の判定結果
を表すコードが、「文字」「セパレータ」「線画」
「表」などの二値画像を表すコードであればステップS3
1へ進む。
Encoding Next, encoding processing is performed. First, it is determined whether the count_org areas extracted in step S29 have been encoded. Then, if there is an unprocessed area, the process proceeds to step S30, and the code indicating the determination result of the count + jth area in the area information table is "character""separator""linedrawing".
If it is a code representing a binary image such as "table", step S3
Go to 1.

【0084】符号化する領域が二値画像の場合、ステッ
プS31で前景濃度抽出処理を行う。具体的には、ヒスト
グラムテーブルhistfg[i]のすべてをクリアして、その
領域の二値画像を読込み、二値画像の画素値が‘0’に
対応する多値画像の画素値pのヒストグラムテーブルデ
ータ(つまりhisthg[p])をインクリメントして、ヒス
トグラムテーブルデータが最大値を示す濃度を前景濃度
fとする。
If the area to be encoded is a binary image, foreground density extraction processing is performed in step S31. Specifically, clear all of the histogram table histfg [i], read the binary image in that area, and use the histogram table of the pixel value p of the multi-valued image whose pixel value corresponds to '0'. Increment the data (that is, histhg [p]) and set the density at which the histogram table data shows the maximum value to the foreground density.
Let f.

【0085】続いて、ステップS32でcount+j番目の領域
情報と前景濃度fを符号化し、通信I/F12を介して通信回
線13へ送出する。次に、ステップS33でその領域の二値
画像をJBIG方式で符号化し、通信I/F12を介して通信回
線13へ送出した後、ステップS34へ進む。
Subsequently, in step S32, the count + jth area information and the foreground density f are encoded and sent to the communication line 13 via the communication I / F 12. Next, in step S33, the binary image in the area is encoded by the JBIG method and sent to the communication line 13 via the communication I / F 12, and then the process proceeds to step S34.

【0086】一方、符号化する領域が多値画像の場合
は、ステップS35で分離した領域の数count_orgが1か否
かを判定し、count_org≠1であればステップS38で、cou
nt+j番目の領域の「コード」を未分離を表すコードに変
更(図16Cのレコード4参照)した後、ステップS34へ進
む。
On the other hand, when the area to be encoded is a multi-valued image, it is determined whether the number of areas count_org separated in step S35 is 1 or not.
After changing the “code” in the nt + jth area to a code indicating unseparated (see record 4 in FIG. 16C), the process proceeds to step S34.

【0087】また、count_org=1(つまり分離された領
域がない)であればステップS36へ進んで、count+1番目
の領域情報を符号化し、通信I/F12を介して通信回線13
へ送出する。次に、ステップS37でその領域の多値画像
をJPEG方式で符号化し、通信I/F12を介して通信回線13
へ送出した後、ステップS34へ進む。
If count_org = 1 (that is, there is no separated area), the process proceeds to step S36, the count + 1th area information is encoded, and the communication line 13 is transmitted via the communication I / F 12.
Send to. Next, in step S37, the multi-valued image of the area is encoded by the JPEG method, and the communication line 13 is transmitted via the communication I / F 12.
After sending to, go to step S34.

【0088】続いて、ステップS34で変数jをインクリメ
ントした後、ステップS29へ戻り、j>count_orgになった
ら、領域情報テーブルから、その一番目のレコードと、
「文字」「セパレータ」「線画」「表」を表すコードが
記録されたレコードとを削除し、削除した分を詰めて領
域情報テーブルを再構成(図16D参照)し、領域数count
を計数する(図16Dの場合はcount=1になる)。
Then, after incrementing the variable j in step S34, the process returns to step S29, and when j> count_org, the first record from the area information table,
Delete the record in which the codes representing "character", "separator", "line drawing", and "table" are recorded, and reconstruct the region information table by filling in the deleted amount (see Fig. 16D) and count the number of regions.
Is counted (count = 1 in the case of FIG. 16D).

【0089】つまり、領域が分離された一番目のレコー
ド(領域)と、「未分離」以外のコードをもつレコード
(領域)を削除した後、ステップS3へ戻りcount=0(領
域分離すべき領域がない)になったら、すべての処理を
終了する。なお、図16Dの例では「未分離」の領域が残
っているので、再び、ステップS4以降の処理が実行され
る。
That is, after deleting the first record (area) in which the area has been separated and the record (area) having a code other than "unseparated", the process returns to step S3 and count = 0 (area to be separated). If there is no), all processing ends. Note that, in the example of FIG. 16D, since the “unseparated” area remains, the processing from step S4 is executed again.

【0090】[まとめ]このように、本実施例によれ
ば、前述した実施例と同様の効果が期待できるほか、繰
返し領域を分割することにより、小領域内の平坦な領域
についても二値符号化するので、符号化効率を改善する
と同時に、文字や線画などを二値で再生できるため、文
字や線画などの劣化がなくなり、送信画像の画質向上を
図ることができる。
[Summary] As described above, according to this embodiment, the same effect as that of the above-described embodiments can be expected, and by dividing the repetitive area, the binary code is applied to the flat area in the small area. Since the encoding efficiency is improved, the character and the line drawing can be reproduced in binary at the same time, so that the character and the line drawing are not deteriorated and the image quality of the transmission image can be improved.

【0091】[0091]

【変形例】以上説明した各実施例においては、入力画像
を符号化して通信回線へ送出する画像送信装置に適用す
る例を説明したが、本発明はこれに限定されるものでは
なく、符号化した入力画像をハードディスク,光ディス
ク,光磁気ディスク,CD-ROMなどの記憶媒体に格納する
画像記憶装置にも適用することができる。
[Modification] In each of the above-described embodiments, an example in which an input image is encoded and applied to an image transmitting apparatus for transmitting to a communication line has been described, but the present invention is not limited to this and the encoding is performed. It can also be applied to an image storage device that stores the input image in a storage medium such as a hard disk, an optical disk, a magneto-optical disk, or a CD-ROM.

【0092】本発明が符号化対象とする画像の色空間と
ビット数は、上述した実施例に限定されるものではな
く、例えば、CIE1976 L*a*b*,YMCK,HSLなどの色空間
で、各4ビットや各5ビットなど任意のビット深さで構わ
ない。
The color space and the number of bits of the image to be coded by the present invention are not limited to those in the above-mentioned embodiment, and for example, in the color space such as CIE1976 L * a * b *, YMCK, HSL, etc. , Any bit depth such as 4 bits or 5 bits may be used.

【0093】また、適応的量子化は、二値化に限定され
ず、三値化であっても構わない。
The adaptive quantization is not limited to binarization, and may be ternarization.

【0094】また、符号化方式は、上述した実施例に限
定されるものではなく、二値画像のためにMH符号化など
を用いても構わないし、多値画像の符号化にもフラクタ
ルやベクトル量子化などを採用しても構わない。
Further, the coding system is not limited to the above-described embodiment, and MH coding or the like may be used for a binary image, and fractal or vector coding may be used for coding a multi-valued image. Quantization or the like may be adopted.

【0095】上述した各実施例によれば、画像を入力
し、入力画像の下地の状態を判定し、入力画像から下地
の状態によって最適な量子化を行い、その量子化結果に
基づいて領域判定を行うことによって、画像の特性に最
適な符号化をする複数の符号化手段を領域判定手段の結
果に従って正確に切替えることで、高い符号化効率の優
れた画質の画像符号化を行うことができる。
According to each of the above-described embodiments, an image is input, the background state of the input image is determined, optimal quantization is performed from the input image according to the background state, and the area determination is performed based on the quantization result. By accurately switching the plurality of coding means for performing the optimum coding according to the characteristics of the image according to the result of the area determination means, it is possible to perform the image coding with high image quality and high coding efficiency. .

【0096】また、画像から平坦を構成する画素を抽出
し、その頻度分布から画像の下地の状態を判定をするこ
とにより、下地が二値画像符号化によって効率よく符号
化できるかどうかを好適に判定することができる。
Further, by extracting the pixels forming the flatness from the image and judging the state of the background of the image from the frequency distribution thereof, it is preferable to determine whether the background can be efficiently coded by binary image coding. Can be determined.

【0097】また、抽出された下地画素の頻度分布から
画像の下地を判定することにより、画像を大局的に見る
ことができ、二値画像符号化を行える領域を好適に判定
できると同時に、動的算術符号化では、その面積が大き
くなることで、よりよい収束率が得られる。
Further, by determining the background of the image from the extracted frequency distribution of the background pixels, the image can be viewed as a whole, and the area in which the binary image encoding can be performed can be appropriately determined, and at the same time, the motion can be determined. In the arithmetic arithmetic coding, the area is increased, so that a better convergence rate can be obtained.

【0098】また、画像の下地の状態が無地である場
合、下地濃度を抽出し、領域判定を好適に行うために、
下地濃度を考慮してする量子化するので量子化結果で領
域判定を行うことで、像域分離に有用な情報を提供する
ことができる。
Further, when the background of the image is plain, in order to extract the background density and suitably perform the area determination,
Since quantization is performed in consideration of the background density, it is possible to provide information useful for image area separation by performing area determination based on the quantization result.

【0099】また、画像の下地が柄である場合、領域判
定が行えるように量子化することができるようになり、
画素値の分布が図8Aや図8Bに示したような場合でも、領
域判定が行えるようになる。
When the background of the image is a pattern, it can be quantized so that the area can be determined.
Even when the pixel value distribution is as shown in FIGS. 8A and 8B, the area determination can be performed.

【0100】また、平滑化手段を用いることで、ノイズ
を除去して画像から平坦を構成する画素を効率よく抽出
することができる。
Further, by using the smoothing means, it is possible to remove noise and efficiently extract the pixels forming the flatness from the image.

【0101】また、領域分割を繰返すことで領域を細分
化することができ、符号化効率をより一層高めることが
でき、画質の向上も図れる。
By repeating the area division, the area can be subdivided, the coding efficiency can be further improved, and the image quality can be improved.

【0102】以上によって、文字や線画領域における高
周波域の劣化を抑制し、復号された画像の画質を向上さ
せることができるなどの効果がある。
As described above, it is possible to suppress the deterioration of the high frequency area in the character and line drawing areas and improve the quality of the decoded image.

【0103】なお、本発明は、複数の機器から構成され
るシステムに適用しても、一つの機器からなる装置に適
用してもよい。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of one device.

【0104】また、本発明は、システムあるいは装置に
プログラムを供給することによって達成される場合にも
適用できることはいうまでもない。
It goes without saying that the present invention can also be applied to the case where it is achieved by supplying a program to a system or an apparatus.

【0105】[0105]

【発明の効果】以上説明したように、本発明によれば、
例えば、画像を特性に基づいて入力画像を正しく領域分
割し、分割した領域に、その特性に応じた符号化を施す
画像処理装置およびその方法を提供することができる。
As described above, according to the present invention,
For example, it is possible to provide an image processing apparatus and a method for correctly dividing an input image into regions based on characteristics and performing encoding according to the characteristics of the divided areas.

【図面の簡単な説明】[Brief description of drawings]

【図1】画像符号化装置の構成例を示すブロック図、FIG. 1 is a block diagram showing a configuration example of an image encoding device,

【図2】本発明にかかる一実施例の画像処理装置を備え
た画像符号化装置の構成例を示すブロック図、
FIG. 2 is a block diagram showing a configuration example of an image coding apparatus including an image processing apparatus according to an embodiment of the present invention,

【図3】図2に示す下地判定部の構成例を示すブロック
図、
FIG. 3 is a block diagram showing a configuration example of a background determination unit shown in FIG.

【図4】最大頻度濃度幅の抽出方法を説明する図、FIG. 4 is a diagram illustrating a method of extracting a maximum frequency density range;

【図5】図2に示す適応的量子化部の構成例を示すブロ
ック図、
5 is a block diagram showing a configuration example of an adaptive quantizer shown in FIG.

【図6】本発明にかかる第2実施例の画像処理装置を備
えた画像符号化装置の構成例を示すブロック図、
FIG. 6 is a block diagram showing a configuration example of an image encoding device including an image processing device according to a second embodiment of the present invention,

【図7】図6に示す下地判定部の構成例を示すブロック
図、
7 is a block diagram showing a configuration example of a background determination unit shown in FIG.

【図8A】最大頻度濃度幅の抽出方法を説明する図、FIG. 8A is a diagram explaining a method of extracting a maximum frequency density range;

【図8B】最大頻度濃度幅の抽出方法を説明する図、FIG. 8B is a diagram illustrating a method of extracting the maximum frequency density range;

【図9】図6に示す適応的量子化部の構成例を示すブロ
ック図、
9 is a block diagram showing a configuration example of an adaptive quantization unit shown in FIG.

【図10】図6に示す二値画像符号化器の構成例を示す
ブロック図、
10 is a block diagram showing a configuration example of the binary image encoder shown in FIG. 6,

【図11】本発明にかかる第3実施例の画像処理装置を
備えた画像符号化装置の構成例を示すブロック図、
FIG. 11 is a block diagram showing a configuration example of an image encoding device equipped with the image processing device of the third embodiment according to the present invention;

【図12】第3実施例の符号化処理の一例を示すフロー
チャート、
FIG. 12 is a flowchart showing an example of the encoding process of the third embodiment,

【図13】第3実施例の符号化処理の一例を示すフロー
チャート、
FIG. 13 is a flowchart showing an example of the encoding process of the third embodiment,

【図14】第3実施例の符号化処理の一例を示すフロー
チャート、
FIG. 14 is a flowchart showing an example of the encoding process of the third embodiment,

【図15】第3実施例の符号化処理の一例を示すフロー
チャート、
FIG. 15 is a flowchart showing an example of the encoding process of the third embodiment,

【図16A】領域情報テーブルの内容の一例を示す図、FIG. 16A is a diagram showing an example of the contents of an area information table;

【図16B】領域情報テーブルの内容の一例を示す図、FIG. 16B is a diagram showing an example of the contents of the area information table;

【図16C】領域情報テーブルの内容の一例を示す図、FIG. 16C is a diagram showing an example of the contents of the area information table;

【図16D】領域情報テーブルの内容の一例を示す図で
ある。
FIG. 16D is a diagram showing an example of the contents of an area information table.

【符号の説明】[Explanation of symbols]

1 スキャナ 2 記憶装置 3 CPU 5 下地判定部 6 適応的量子化部 7 領域分割器 8 領域情報符号化器 9 多値画像符号化器 10 二値画像符号化器 11 合成器 12 通信インタフェイス(通信I/F) 13 通信回線 14 領域分割メモリ 1 scanner 2 storage device 3 CPU 5 background judgment unit 6 adaptive quantization unit 7 area divider 8 area information encoder 9 multi-valued image encoder 10 binary image encoder 11 combiner 12 communication interface (communication I / F) 13 Communication line 14 Area division memory

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 入力画像の下地の状態を判定する判定手
段と、 前記判定手段の判定結果に基づいて、前記入力画像を量
子化する量子化手段と、 量子化結果に基づいて前記入力画像を領域分割する分割
手段と、 分割された各領域を、その領域の特性に応じて符号化す
る符号化手段とを有することを特徴とする画像処理装
置。
1. A determination unit that determines a background state of an input image, a quantization unit that quantizes the input image based on a determination result of the determination unit, and an input image based on the quantization result. An image processing apparatus comprising: a dividing unit that divides a region, and an encoding unit that encodes each divided region according to the characteristics of the region.
【請求項2】 前記判定手段は、 入力画像から平坦を構成する画素を抽出する抽出手段
と、 抽出された平坦画素の値ごとに、その頻度を計数する計
数手段と、 前記計数手段により得られた頻度分布から前記入力画像
の下地状態を検出する検出手段とを含むことを特徴とす
る請求項1に記載された画像処理装置。
2. The determining means includes an extracting means for extracting pixels forming a flatness from an input image, a counting means for counting the frequency of each value of the extracted flat pixels, and a counting means for obtaining the frequency. 2. The image processing apparatus according to claim 1, further comprising a detection unit that detects a background state of the input image from the frequency distribution.
【請求項3】 前記判定手段は、 入力画像を平滑化する平滑化手段と、 平滑化された画像から平坦を構成する画素を抽出する抽
出手段と、 抽出された平坦画素の値ごとに、その頻度を計数する計
数手段と、 前記計数手段により得られた頻度分布から前記入力画像
の下地状態を検出する検出手段とを含むことを特徴とす
る請求項1に記載された画像処理装置。
3. The determining means includes a smoothing means for smoothing an input image, an extracting means for extracting a pixel forming a flatness from the smoothed image, and a extracting means for each value of the extracted flat pixel. 2. The image processing apparatus according to claim 1, further comprising: counting means for counting the frequency, and detection means for detecting the background state of the input image from the frequency distribution obtained by the counting means.
【請求項4】 前記検出手段は、前記頻度分布から下地
の第一の濃度幅を検出し、検出した第一の濃度幅に基づ
いて下地が画像全体に占める占有率を算出し、前記第一
の濃度幅と前記占有率に基づいて下地状態を検出するこ
とを特徴とする請求項2または請求項3に記載された画像
処理装置。
4. The detecting means detects a first density range of the background from the frequency distribution, calculates an occupancy rate of the background in the entire image based on the detected first density range, and 4. The image processing apparatus according to claim 2 or 3, wherein the background state is detected based on the density width and the occupation ratio.
【請求項5】 前記検出手段は、さらに、前記頻度分布
から前記第一の濃度幅より狭い下地の第二の濃度幅を検
出することを特徴とする請求項4に記載された画像処理
装置。
5. The image processing apparatus according to claim 4, wherein the detection unit further detects a second density range of a background narrower than the first density range from the frequency distribution.
【請求項6】 前記量子化手段は、前記判定手段により
判定された前記下地の濃度幅に基づいて、前記入力画像
を量子化し前記下地の量子化画像を形成することを特徴
とする請求項1に記載された画像処理装置。
6. The quantizing means quantizes the input image based on the density range of the background determined by the determining means to form the quantized image of the background. The image processing device described in.
【請求項7】 前記分割手段は、多値画像の特性をもつ
領域に対して繰返し領域分割を行うことを特徴とする請
求項1に記載された画像処理装置。
7. The image processing apparatus according to claim 1, wherein the dividing unit performs repeated area division on an area having a characteristic of a multi-valued image.
【請求項8】 入力画像の下地の状態を判定する判定ス
テップと、 前記判定ステップの判定結果に基づいて前記入力画像を
量子化する量子化ステップと、 量子化結果に基づいて前記入力画像を領域分割する分割
ステップと、 分割した各領域を、その領域の特性に応じて符号化する
符号化ステップとを有することを特徴とする画像処理方
法。
8. A determination step of determining a background state of an input image, a quantization step of quantizing the input image based on the determination result of the determination step, and a region of the input image based on the quantization result. An image processing method comprising: a dividing step of dividing; and an encoding step of encoding each divided area according to the characteristics of the area.
JP7134228A 1995-05-31 1995-05-31 Image processing unit and method therefor Pending JPH08331392A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP7134228A JPH08331392A (en) 1995-05-31 1995-05-31 Image processing unit and method therefor
US08/654,638 US5995665A (en) 1995-05-31 1996-05-29 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7134228A JPH08331392A (en) 1995-05-31 1995-05-31 Image processing unit and method therefor

Publications (1)

Publication Number Publication Date
JPH08331392A true JPH08331392A (en) 1996-12-13

Family

ID=15123427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7134228A Pending JPH08331392A (en) 1995-05-31 1995-05-31 Image processing unit and method therefor

Country Status (1)

Country Link
JP (1) JPH08331392A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7298914B2 (en) 2002-05-23 2007-11-20 Fuji Xerox Co., Ltd. Image processing device, method and recording medium for compressing image data using repeatability of data patterns

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7298914B2 (en) 2002-05-23 2007-11-20 Fuji Xerox Co., Ltd. Image processing device, method and recording medium for compressing image data using repeatability of data patterns
US7477791B2 (en) 2002-05-23 2009-01-13 Fuji Xerox Co., Ltd. Image processing device, method and recording medium for compressing image data

Similar Documents

Publication Publication Date Title
US5995665A (en) Image processing apparatus and method
US6556711B2 (en) Image processing apparatus and method
US6373981B1 (en) Method and apparatus for segmenting data to create mixed raster content planes
JP5132517B2 (en) Image processing apparatus and image processing method
US8452112B2 (en) Image encoding apparatus and method of controlling the same
EP0613290B1 (en) Method and apparatus for binary image data compression
US6486981B1 (en) Color image processing method and apparatus thereof
JPH0556282A (en) Image coder
US7065254B2 (en) Multilayered image file
JPH08331391A (en) Image processing unit and method therefor
JP2910000B2 (en) Encoding method for binary natural image mixed still image
JPH08331392A (en) Image processing unit and method therefor
JPH118848A (en) Image encoding method and device therefor
Deng et al. Low-bit-rate image coding using sketch image and JBIG
JPH06178122A (en) Adaptive encoding device for color image
JPH10150575A (en) System and method for processing image
JPH06284281A (en) Picture processor
JPH10271497A (en) Image processor
JP2942243B2 (en) Image encoding apparatus and method
JPH08298589A (en) Image processor of photograph/document mixed image
JP3327684B2 (en) Color image processing method and apparatus
JPH08279913A (en) Method and equipment for picture communication
JPH05122535A (en) Image processor
JP2001103315A (en) Image coding method and image coder
JP3004272B2 (en) Color image coding method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040416