JPH0654180A - Method and device for image area separation - Google Patents

Method and device for image area separation

Info

Publication number
JPH0654180A
JPH0654180A JP4221931A JP22193192A JPH0654180A JP H0654180 A JPH0654180 A JP H0654180A JP 4221931 A JP4221931 A JP 4221931A JP 22193192 A JP22193192 A JP 22193192A JP H0654180 A JPH0654180 A JP H0654180A
Authority
JP
Japan
Prior art keywords
area
image
run
background
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4221931A
Other languages
Japanese (ja)
Other versions
JP3073837B2 (en
Inventor
Masaji Tamura
正司 田村
Masaru Onishi
勝 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP04221931A priority Critical patent/JP3073837B2/en
Publication of JPH0654180A publication Critical patent/JPH0654180A/en
Application granted granted Critical
Publication of JP3073837B2 publication Critical patent/JP3073837B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To accurately separate the border of character and photographic areas by deciding both of the areas by whether a no-background picture element extracted by comparing a value obtained by calculating the difference between an average signal level and a maximum signal level within a window including an attention picture element and a threshold value satisfies a prescribed condition or not. CONSTITUTION:Concerning input document image data, the difference between the average signal level and the maximum signal level within the window of 4X4 picture element with the attention picture element in a center is calculated by their calculation circuits 1 and 2. A no-background picture element separation circuit 3 compares the calculation result and the prescribed threshold value to decide whether the attention picture element is no-background color or not. When the deicision is the no-background picture element, an edge picture element deciding circuit 4 decides whether the attention picture element is an edge picture element or not by the calculation result of the circuits 1 and 2. Next, an area deciding circuit 7 calculates through the use of the run length value and the edge counting value of run and edge counters 5 and 6 to decide whether to be the characer or photographic image area in accordance with the values satisfy the prescribed condition or not. Thus, the of both of the areas can accurately be separated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば、複写機等の画
像処理装置で文字部と写真部が混在した多階調文書画像
の文字領域と写真領域を分離する画像領域分離装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image area separating apparatus for separating a character area and a photographic area of a multi-gradation document image in which a character portion and a photograph portion are mixed in an image processing apparatus such as a copying machine.

【0002】[0002]

【従来の技術】複写機等の画像処理装置で、文字画像に
代表される2値画像と写真画像に代表される階調画像を
含む文書画像を処理する場合、文字画像では信号レベル
の変化が急峻であるのに対し、写真画像は信号レベルの
変化がゆるやかであるため、文字画像と写真画像では画
像の持つ特徴が異なる。そのため、複写する際に文字画
像にはエッジ強調、写真画像には色変換などの所望の画
像処理を行うなど、文字領域と写真領域を分離して処理
する必要が生じる。
2. Description of the Related Art When an image processing apparatus such as a copying machine processes a document image including a binary image typified by a character image and a gradation image typified by a photographic image, a change in signal level occurs in the character image. In contrast to a steep image, a photographic image has a gradual change in signal level, and therefore the character image and the photographic image have different characteristics. Therefore, when copying, it is necessary to separately process the character area and the photographic area, such as performing edge enhancement on the character image and desired image processing such as color conversion on the photographic image.

【0003】従来の機器搭載用の領域分割法について以
下に説明する。画像の領域分割アルゴリズムを搭載する
画像関連機器として、ファクシミリ装置やディジタル複
写機の様なスキャナとプリンタ一体型の機器が考えられ
る。ディジタル複写機では、スキャナ部分で読み取った
原稿画像をそのままあるいは所定の画像処理を施した
後、プリンタ部分で用紙に記録する。一方、ファクシミ
リ装置では、スキャナ部分で読み取った原稿画像を通信
回線を介して伝送し、受信側のファクシミリ装置内のプ
リンタ部分で用紙に記録するという大まかな流れを追っ
ており、スキャナ部分からプリンタ部分へデータが流れ
るという点においてディジタル複写機と共通である。
A conventional area dividing method for equipment mounting will be described below. As an image-related device equipped with an image area division algorithm, a device integrated with a scanner and a printer, such as a facsimile machine or a digital copying machine, can be considered. In a digital copying machine, a document image read by a scanner unit is recorded as it is or after a predetermined image processing is performed on a sheet by a printer unit. On the other hand, in the facsimile machine, the rough flow of transmitting the original image read by the scanner part through the communication line and recording it on the paper by the printer part in the receiving side facsimile device is followed. It is common with the digital copying machine in that data flows.

【0004】画像関連機器での画像処理として領域分割
が必要な理由は、原稿画像に文字や図形などの2値画
像、あるいは写真などの中間画像、網点形成による疑似
中間調画像が含まれていることが挙げられる。以下、簡
単のために2値画像を文字画像、中間調画像を写真画
像、疑似中間調画像を網点画像と呼ぶ。ファクシミリ装
置及びディジタル複写機の多くの場合、スキャナ部分で
は原稿全体を中間調画像として読み取るが、プリンタ部
分では2値画像として記録するため、読み取った原稿画
像に対して2値化処理を行う必要が生じる。また2値化
の際画質の劣化を防止するために、文字画像には解像度
の保存、写真画像には階調性の再現、網点画像にはモア
レ縞の低減といった画像の性質に応じた要求があり、こ
れらの画像を一つの方法で良好に2値化するのは困難で
ある。従って、読み取り画像に対して領域分割を施し文
字画像、写真画像、網点画像を分離し、各々の画像に適
した2値化処理を行うことが一般的である。
The reason why the area division is necessary for the image processing in the image-related equipment is that the original image includes a binary image such as characters and figures, an intermediate image such as a photograph, and a pseudo halftone image by halftone dot formation. Can be mentioned. Hereinafter, for simplicity, the binary image is referred to as a character image, the halftone image is referred to as a photographic image, and the pseudo halftone image is referred to as a halftone image. In many facsimile machines and digital copiers, the scanner section reads the entire original as a halftone image, but the printer section records it as a binary image, so it is necessary to perform binarization processing on the read original image. Occurs. Further, in order to prevent deterioration of image quality during binarization, it is necessary to save resolution for character images, reproduce gradation for photographic images, and reduce moire fringes for halftone images according to image characteristics. However, it is difficult to properly binarize these images by one method. Therefore, it is general that the read image is divided into areas to separate character images, photographic images, and halftone dot images, and binarization processing suitable for each image is performed.

【0005】また、画像関連機器に領域分割などの画像
処理装置を搭載するには、機器の特性を考慮して以下の
ような制約を受けることが多い。 (1)使用するメモリを最少限にとどめて処理を行う。 (2)スキャナ部分からの入力データに対してリアルタ
イムに近い高速処理を行う。 (1)は全体の装置コストを低減するための制約であ
り、特にファクシミリ装置での処理に要求される。また
(2)は、処理の高速性が必要であるのと同時に(1)
の制約に負うところもある。少ないメモリで処理を実現
するためには、スキャナあるいは通信回線からの入力デ
ータに対して数行毎の逐次処理が必要になる。また、こ
れらの条件の他に、領域分割の精度が保証される必要が
ある。以下に、文字画像と写真画像が混在する文字画像
から各領域を分離する手法として既に報告されている機
器搭載に適した領域分割法について説明する。
Further, in order to mount an image processing apparatus such as area division on image-related equipment, the following restrictions are often taken into consideration in consideration of the characteristics of the equipment. (1) Processing is performed with the minimum memory used. (2) Perform high-speed processing in real time on input data from the scanner section. (1) is a constraint for reducing the overall apparatus cost, and is particularly required for processing by a facsimile apparatus. In addition, (2) requires high-speed processing, and at the same time (1)
There are some restrictions. In order to realize the processing with a small memory, it is necessary to sequentially process the data input from the scanner or the communication line every several lines. In addition to these conditions, the accuracy of area division needs to be guaranteed. An area dividing method suitable for mounting on a device, which has already been reported as a method for separating each area from a character image in which a character image and a photographic image are mixed, will be described below.

【0006】従来例1.非背景画素のランレングスを用
いる方法 文字画像と写真画像が混在する画像を主走査方向にスキ
ャンした場合、文字画像を構成する画素については非背
景画素のランレングスが短く、写真画像を構成する画素
については非背景画素のランレングスが長いという特徴
を用いた方法である。ライン逐次処理で実時間処理が行
えると共に、方式が単純で回路も構成し易いという特徴
がある。この方式を実現する場合のブロック図の例を図
22に示す。図22に従ってアルゴリズムの概要を説明
する。色相検出部では、各画素毎にY,M,C,K,
W,B,G,Rの8色の色相のいずれかを検出する。ブ
ロック化部では、数画素例えば4×4から8×8画素程
度に各画素をブロック化する。ここで作られたブロック
毎にブロック判定部で最大頻度色を判定し、それをブロ
ック色に判定する。また非背景のブロックについて、主
走査ランカウント部でブロックのランレングスを計測
し、判定及び抽出部で所定のしきい値以下ならば文字画
像候補に、しきい値以上ならば写真画像候補に判定す
る。また副走査方向のエッジ検出部では、注目ブロック
近傍の数ブロックの範囲にエッジを含むブロックがある
場合は文字画像部候補に判定し、エッジを含むブロック
がない場合は写真画像部候補に判定する。この処理は、
主走査方向のランレングスの判定で文字に含まれる横方
向の線が写真画像部に誤判定されることを防止するため
に、補正の意味で用いられる。この手法を用いることに
より写真と文字は良好に分離される。しかし、複数の画
素をブロック化して判定しているため、写真と背景の境
界部分の判定が厳密でない。これは各領域毎に適切な2
値化を行うような場合、境界領域で2値化方法の違いに
よるブロック歪の原因になる。また、文字サイズや写真
サイズによってランレングスの適切なしきい値が設定し
にくく、汎化するために動的しきい値決定法を導入する
などの工夫が必要である。
Conventional Example 1. Method of using run length of non-background pixels When an image in which a character image and a photographic image are mixed is scanned in the main scanning direction, the run length of non-background pixels is short and the pixels that make up a photographic image Is a method using the feature that the run length of the non-background pixel is long. There is a feature that real-time processing can be performed by line sequential processing, and the system is simple and the circuit can be easily constructed. FIG. 22 shows an example of a block diagram for implementing this method. The outline of the algorithm will be described with reference to FIG. In the hue detection unit, Y, M, C, K,
Any of the eight hues of W, B, G and R is detected. The blocking unit blocks each pixel into several pixels, for example, 4 × 4 to 8 × 8 pixels. The maximum frequency color is determined by the block determination unit for each block created here, and is determined as the block color. For non-background blocks, the main scan run count unit measures the run length of the block, and the judgment and extraction unit judges it as a character image candidate if it is below a predetermined threshold, and if it is above the threshold, it is judged as a photographic image candidate To do. The sub-scanning edge detection unit determines a character image portion candidate when there is a block including an edge in the range of several blocks near the target block, and determines a photographic image portion candidate when there is no block including an edge. . This process
This is used in the sense of correction in order to prevent the lateral line included in a character from being erroneously determined by the photographic image portion in the run length determination in the main scanning direction. By using this method, photographs and characters are well separated. However, since a plurality of pixels are divided into blocks for determination, the boundary between the photograph and the background is not strictly determined. This is appropriate for each area 2
When the binarization is performed, it causes block distortion in the boundary area due to the difference in the binarization method. In addition, it is difficult to set an appropriate run length threshold depending on the character size and photo size, and it is necessary to introduce a dynamic threshold determination method for generalization.

【0007】従来例2.小領域内の最大濃度差を用いる
方法 文字画像は濃度変化が急峻で背景と非背景画素にピーク
を持ち、写真画像は濃度分布が比較的平坦で濃度変化が
緩やかであるという特徴を利用した方式である。この方
式は、入力画像を数画素からなるブロック、あるいは画
素を逐次処理するために注目画素の周囲数画素を参照す
るウィンドウ単位に処理を行う。また、ラインを逐次処
理するため実時間処理が行えると共に、4ライン程度の
メモリと簡単な論理回路で実現できるという特徴があ
る。図23にこの方法を実現する場合のブロック図を示
す。図23に従ってアルゴリズムの概要を説明する。処
理系は3ラインのラインバッファを持ち、入力画像信号
が格納される。これを注目画素を中心にした例えば5×
3画素のウィンドウについて分割する。次に像域分離部
(画像領域分離部)で、ウィンドウ内の最大濃度差が所
定のしきい値T1以上ならば網点の可能性があるとして
網点判定を行う。網点判定の概略は、2値化後の0→1
あるいは1→0変化点数を計測し変化点数が所定のしき
い値以上ならば網点候補に、しきい値以下ならば非網点
候補に判定する。また、この時網点判定の精度を向上さ
せるためにパターンマッチングを用いた判定も併用す
る。次に、しきい値T1との比較で文字または写真画像
候補に判定された画素を含むウィンドウは、ウィンドウ
内の最大濃度差が、T1より大きい値であるT4以上の
時文字領域に、T4以下の時写真領域に細分される。ま
た、像域分離A変数は新たに導入された変数であり、網
点領域に属する度合いの強さを表す。ある網点領域候補
に対してメモリ2に格納された近傍画素の画像分離A変
数を参照して、ヒステリシスを持った網点検出を行う。
同様に文字領域候補のある画素に対してメモリ3に格納
された周囲8画素の像域分離Bを変数を参照すること
で、ヒステリシスを持った文字領域の検出を行う。領域
の検出にヒステリシスを持たせたのは、誤判定領域を減
少させることが目的の一つである。この方法を用いてウ
ィンドウ内の最大濃度差を用いて文字領域と写真領域を
分離すると、写真に含まれる濃度変化の急峻な領域が文
字に誤判定される。これは像域分離B変数を用いること
で減少するが、排除することはできていない。このこと
は、最終的に各画像領域を2値化して再度統合する場合
は問題にならないと考えられるが、文字画像と写真画像
の分離精度という点では改善の余地がある。
Conventional example 2. Method that uses the maximum density difference in a small area Character image has a sharp density change with peaks in the background and non-background pixels, and a photographic image has a relatively flat density distribution and a gentle density change Is. In this method, an input image is processed in a block made up of several pixels, or in window units in which several pixels around a pixel of interest are referred to in order to sequentially process pixels. Further, since the lines are sequentially processed, real-time processing can be performed, and at the same time, it can be realized by a memory of about 4 lines and a simple logic circuit. FIG. 23 shows a block diagram for implementing this method. The outline of the algorithm will be described with reference to FIG. The processing system has a line buffer of 3 lines and stores an input image signal. This is centered on the pixel of interest, for example 5 ×
Divide the window of 3 pixels. Next, in the image area separating unit (image area separating unit), if the maximum density difference in the window is equal to or larger than a predetermined threshold value T1, it is determined that there is a possibility of a halftone dot and a halftone dot determination is performed. The outline of halftone dot judgment is 0 → 1 after binarization.
Alternatively, the number of change points of 1 → 0 is measured, and if the number of change points is a predetermined threshold value or more, it is determined as a halftone dot candidate, and if it is less than the threshold value, it is determined as a non-dot dot candidate. At this time, the determination using pattern matching is also used in order to improve the accuracy of the halftone dot determination. Next, a window including pixels determined to be a character or a photographic image candidate by comparison with the threshold value T1 has a maximum density difference in the window of T4 or more, which is a value larger than T1, and is less than T4 in the character area. When subdivided into the photo area. The image area separation A variable is a newly introduced variable and represents the degree of belonging to the halftone dot area. For a certain halftone dot area candidate, the halftone dot detection with hysteresis is performed by referring to the image separation A variable of the neighboring pixels stored in the memory 2.
Similarly, for a pixel having a character area candidate, the image area separation B of the surrounding 8 pixels stored in the memory 3 is referred to a variable to detect a character area having hysteresis. One of the purposes of providing the area detection with hysteresis is to reduce the erroneous determination area. When the character area and the photograph area are separated by using the maximum density difference in the window using this method, the area in the photograph where the density change is sharp is erroneously determined as a character. This is reduced by using the image area separation B variable, but it cannot be eliminated. This is not considered to be a problem when the image areas are finally binarized and integrated again, but there is room for improvement in terms of separation accuracy between the character image and the photographic image.

【0008】従来例3.その他の従来手法 文字画像、写真画像を含む画像を分離する方法として、
既に報告されているものを図24に示す。図24の方法
はいずれもブロック毎の処理を行うものであり、ブロッ
ク内の最大濃度差を用いる方式、パターンマッチングを
用いる方式、エッジを形成する画素の量を計算する方式
がある。また文字領域と写真領域の分離については、#
1はブロックまたは注目画素を含むウィンドウ内の最大
濃度差を用いている。前述のようにこの方法では、写真
内の濃度変化が急峻な部分を文字として誤判定する。#
2ではエッジを形成する画素を含まないブロックを写真
に判定しているため、写真内のエッジ部分の画素が文字
もしくは網点に誤判定される。#4はブロック内のエッ
ジ画素密度を用いて画像の種類を判定するため、写真内
のエッジを含む画素が文字または網点に誤判定され、さ
らにつぶれた文字を検出できない。さらに、これらいず
れの方法も3×3あるいは4×4といったブロックサイ
ズに制約されるため、高精度の分離は不可能である。
Conventional example 3. Other conventional methods As a method of separating images including character images and photographic images,
Those already reported are shown in FIG. All of the methods in FIG. 24 perform processing for each block, and there are a method of using the maximum density difference in the block, a method of using pattern matching, and a method of calculating the amount of pixels forming an edge. For the separation of text area and photo area, see #
1 uses the maximum density difference in the window including the block or the pixel of interest. As described above, according to this method, the portion in the photograph where the density change is sharp is erroneously determined as a character. #
In No. 2, since a block that does not include pixels forming an edge is determined to be a photograph, pixels at the edge portion in the photograph are erroneously determined to be characters or halftone dots. In # 4, since the image type is determined using the edge pixel density in the block, pixels including edges in the photograph are erroneously determined to be characters or halftone dots, and further blurred characters cannot be detected. Furthermore, since any of these methods is limited to a block size of 3 × 3 or 4 × 4, high-precision separation is impossible.

【0009】従来例4.次に、図25は例えば、特開昭
58−3374号公報に示された従来の画像領域分離方
式を示すブロック図であり、図において109,110
は画像メモリ、111はブロックメモリ、112は2値
化回路、113は画質判定回路、114は組織的ディザ
のしきい値メモリ、115は一定しきい値のメモリ、1
16はしきい値メモリの切り替え回路、117,118
はスイッチである。
Conventional example 4. Next, FIG. 25 is a block diagram showing a conventional image area separation system disclosed in, for example, Japanese Patent Laid-Open No. 58-3374.
Is an image memory, 111 is a block memory, 112 is a binarization circuit, 113 is an image quality judgment circuit, 114 is a threshold memory for systematic dither, 115 is a fixed threshold memory, and 1 is a memory.
Reference numeral 16 is a threshold value memory switching circuit, 117 and 118.
Is a switch.

【0010】次に動作について説明する。まず、スイッ
チ117,118が図の位置にあったとき、原稿から読
み取られた画像情報は、スイッチ117のa側を経て画
像メモリ109に記憶される。1ブロックを4×4の1
6画素で構成した場合に4走査線に相当する画情報が記
憶されたところでスイッチ117はa側からb側に、ス
イッチ118はb側からa側に切り替わり、画情報を画
像メモリ110に書き込みしながら、同時に画像メモリ
109の内容を順次処理してゆく。画像メモリ109の
内容については、まず1ブロック相当の面情報がブロッ
ク・メモリ111に転送される。次にブロック・メモリ
111の内容から、画質判定回路113によりブロック
内の各画素のうち濃度レベルが最大のものと最少のもの
とを識別し、その差をあらかじめ定められたしきい値m
と比較して、写真領域であるか、文字領域であるかを判
定する。
Next, the operation will be described. First, when the switches 117 and 118 are at the positions shown in the figure, the image information read from the document is stored in the image memory 109 via the side a of the switch 117. 1 block is 4 × 4
When the image information corresponding to four scanning lines is stored in the case of the configuration of 6 pixels, the switch 117 is switched from the a side to the b side and the switch 118 is switched from the b side to the a side, and the image information is written in the image memory 110. Meanwhile, the contents of the image memory 109 are sequentially processed at the same time. Regarding the contents of the image memory 109, first, surface information corresponding to one block is transferred to the block memory 111. Next, from the contents of the block memory 111, the image quality judgment circuit 113 discriminates each pixel in the block having the maximum density level and the one having the minimum density level, and the difference between them is determined by a predetermined threshold value m.
It is determined whether it is a photograph area or a character area by comparing with.

【0011】切り替え回路116は、画質判定回路の判
定結果に基づき2値化のしきい値として、写真領域であ
れば組織的ディザのしきい値メモリ114、あるいは文
字領域であれば一定しきい値のメモリ115のいずれか
を選択する。2値化回路112は、このようにして選択
されたしきい値メモリ114あるいは115のいずれか
のしきい値データと、ブロック・メモリ111内の各画
素の濃度レベルとを比較して、比較結果を2値信号とし
て出力する。
The switching circuit 116 sets a threshold value for binarization on the basis of the judgment result of the image quality judging circuit, as a threshold value memory 114 for systematic dither in the photograph area, or a fixed threshold value in the character area. Any of the memories 115 of FIG. The binarization circuit 112 compares the threshold value data of either the threshold value memory 114 or 115 thus selected with the density level of each pixel in the block memory 111, and outputs the comparison result. Is output as a binary signal.

【0012】画像メモリ109の内容がすべて処理さ
れ、画像メモリ110に次の4走査線相当の画像情報が
記憶されると、スイッチ117はb側からa側にスイッ
チ118はa側からb側に切り替わり、画像メモリ11
0の内容が処理されるというように順次画像情報を2値
化処理してゆく。
When all the contents of the image memory 109 have been processed and the image information corresponding to the next four scanning lines has been stored in the image memory 110, the switch 117 moves from side b to side a and the switch 118 moves from side a to side b. Switching, image memory 11
The image information is sequentially binarized such that the contents of 0 are processed.

【0013】[0013]

【発明が解決しようとする課題】従来の画像領域分離方
式は以上のように構成されているので、写真画像に含ま
れる物体の輪郭などの濃度レベルの変化が急峻な領域が
文字領域に誤判定され、かすれ文字など2値画像であり
ながら濃度レベルの変化が緩やかな領域が写真領域に誤
判定される。そのため、画像全体として領域の分離精度
が低いという問題点があった。また、画像を複数画素か
らなるブロックに分割して処理を行っているため、写真
画像あるいは文字画像の境界領域での領域判定の精度が
低いという問題点があった。
Since the conventional image area separation method is configured as described above, an area where the density level of the object such as the contour of a photographic image is sharply changed is erroneously determined as a character area. Thus, a region such as a faint character, which is a binary image and has a gentle change in density level, is erroneously determined as a photographic region. Therefore, there is a problem that the region separation accuracy is low in the entire image. Further, since the image is divided into blocks each having a plurality of pixels for processing, there is a problem that the accuracy of the area determination in the boundary area of the photographic image or the character image is low.

【0014】この発明は上記のような問題点を解決する
ためになされたもので、写真画像領域に含まれる濃度レ
ベルの変化が急峻な領域を写真領域に、かすれ文字を文
字領域に正しく判定し、分離できるとともに、文字領域
及び写真領域の境界を正確に分離できる画像領域分離装
置及びその方法を得ることを目的にしている。
The present invention has been made in order to solve the above problems, and correctly determines a region in a photographic image region where the density level changes sharply as a photographic region and a blurred character as a character region. It is an object of the present invention to provide an image area separating apparatus and method capable of separating the boundary between a character area and a photo area with accuracy.

【0015】[0015]

【課題を解決するための手段】第1の発明に係る画像領
域分離装置は、写真及び文字等の異なる複数種類の非背
景領域とこの非背景領域が存在しない背景領域とからな
る画像情報から写真や文字等の異なる複数種類の非背景
領域を分離する為に考えられたものであり、以下の要素
を有するものである。 (a)背景色画素から構成される背景領域と非背景色画
素から構成され、写真や文字等の異なる複数種類の非背
景領域等を有する画像情報を走査することによりこれを
入力する入力手段、(b)上記入力手段により各走査毎
に入力した画像情報の中から、非背景色画素を検出する
非背景色画素分離手段、(c)上記非背景色画素分離手
段により分離された走査方向に一つ以上連続する非背景
色画素を一つのランとしその長さを検出するラン検出手
段、(d)上記非背景色画素分離手段により分離された
非背景色画素が非背景領域のエッジを構成するエッジ画
素であるかを判定するエッジ画素判定手段、(e)上記
ラン検出手段により、検出されたランの中でエッジ画素
判定手段によりエッジ画素として判定された非背景色画
素の割合に基づき、ラン検出手段により検出されたラン
が写真や文字等の異なる種類の非背景領域のうちのいず
れの種類の非背景領域に属するランであるかを示すラン
の属性を判定する領域判定手段。
An image area separating apparatus according to a first aspect of the present invention uses an image information consisting of a plurality of types of non-background areas having different pictures and characters and a background area where the non-background areas do not exist. This is intended to separate a plurality of types of non-background regions having different characters, characters, etc., and has the following elements. (A) Input means for inputting by scanning image information having a plurality of types of non-background areas, such as a background area composed of background color pixels and non-background color pixels and having different pictures, characters, etc. (B) non-background color pixel separation means for detecting non-background color pixels from the image information input for each scan by the input means, and (c) in the scanning direction separated by the non-background color pixel separation means. Run detecting means for detecting the length of one or more continuous non-background color pixels as one run, and (d) the non-background color pixels separated by the non-background color pixel separating means constitute an edge of the non-background area. Edge pixel determining means for determining whether the pixel is an edge pixel to be processed, or (e) based on a ratio of non-background color pixels determined as edge pixels by the edge pixel determining means in the run detected by the run detecting means. Region determining means for determining attributes of the run indicating which run belonging to the non-background area of any type of the different kinds of non-background regions are like photos or text run that is detected by the run detection means.

【0016】第2の発明に係る画像領域分離装置は、第
1の発明に係る画像領域分離装置にさらに領域判定手段
により判定された隣接する複数のランの属性を互いに参
照してランの属性を補正する領域属性補正手段を備えた
ものである。
The image area separating apparatus according to the second invention further refers to the image area separating apparatus according to the first invention by referring to the attributes of a plurality of adjacent runs judged by the area judging means to each other. This is provided with a region attribute correcting means for correcting.

【0017】第3の発明に係る画像領域分離方法は、以
下の工程を有するものである。 (a)写真や文字等の複数種類の非背景領域とそれ以外
の背景領域から構成された画像情報をライン毎に走査し
て入力する入力工程、(b)上記入力工程により入力し
た画像情報の各ラインの中から非背景領域を検出する非
背景領域検出工程、(c)上記非背景領域検出工程によ
り検出した非背景領域の中から、非背景領域のエッジと
なる部分を検出するエッジ検出工程、上記非背景領域検
出工程とエッジ検出工程により、検出された非背景領域
とそのエッジとなる部分の割合に基づいて非背景領域検
出工程により検出された非背景領域の種類を判定する領
域判定工程。
The image area separating method according to the third invention has the following steps. (A) An input step of scanning and inputting image information composed of a plurality of types of non-background areas such as photographs and characters and other background areas line by line, and (b) inputting the image information input by the input step. A non-background area detecting step of detecting a non-background area from each line, and (c) an edge detecting step of detecting a portion which becomes an edge of the non-background area from the non-background area detected by the non-background area detecting step. An area determination step of determining the type of the non-background area detected by the non-background area detection step based on the ratio of the detected non-background area and the edge portion thereof by the non-background area detection step and the edge detection step .

【0018】[0018]

【作用】第1の発明における画像領域分離装置は、領域
判定手段においてラン検出手段が検出したランの属性を
判定する。ここでランの属性とは、そのランが写真領域
や文字領域等の複数種類の非背景領域のうちのいずれの
背景領域に属するランであるかを示す情報であり、領域
判定手段はこの属性をエッジ画素判定手段により判定さ
れたエッジ画素が、そのランの中にどのぐらい含まれて
いるかという割合に基づいて文字領域か写真領域かを判
定する。ラン検出手段で検出されたランの中のエッジ画
素の割合が多い場合には、文字領域として判定し、ラン
検出手段により検出したランの中のエッジ画素として判
定された割合が小さい場合には写真領域として判定す
る。一般に文字は白と黒が鮮明に分かれており、これに
対して写真は白と黒がおだやかに変化していく場合が多
い。従って、ラン検出手段により一つのランに属する連
続した非背景色画素の中でエッジ画素として判定された
非背景色画素の割合が多い場合には、文字であると判定
することが可能になる。反対に写真領域の場合は文字領
域とは異なり、非背景色画素が連続し、かつ、なだらか
な変化を呈するためにエッジ画素であると判定される部
分が少ないため、ランの中でエッジ画素として判定され
た非背景色画素の割合が小さい場合には、写真領域であ
ると判定することが可能になる。このように、領域判定
手段は、非背景色画素から成る主走査方向のランを、各
ランにおけるエッジ画素含有率が高いと該ランを文字領
域に判定し、エッジ画素含有率が低いと写真領域に判定
する。
In the image area separating device according to the first aspect of the present invention, the attribute of the run detected by the run detecting means in the area determining means is determined. Here, the run attribute is information indicating which of the plurality of types of non-background areas such as a photo area and a text area the run belongs to, and the area determination means determines this attribute. It is determined whether the edge pixel determined by the edge pixel determination means is a character area or a photograph area based on the ratio of how much the edge pixel is included in the run. If the proportion of edge pixels in the run detected by the run detection means is high, it is determined as a character area, and if the proportion of edge pixels in the run detected by the run detection means is small, a photograph is taken. Judge as an area. In general, characters are clearly divided into black and white, whereas in photographs, white and black often change gently. Therefore, when the ratio of the non-background color pixels determined as the edge pixels among the continuous non-background color pixels belonging to one run by the run detection means is large, it can be determined as a character. On the other hand, in the case of the photo area, unlike the text area, non-background color pixels are continuous, and since there are few parts that are determined to be edge pixels because they exhibit a smooth change, they are treated as edge pixels in the run. When the determined ratio of the non-background color pixels is small, it is possible to determine that it is a photograph area. As described above, the area determination unit determines a run in the main scanning direction composed of non-background color pixels as a character area when the edge pixel content rate in each run is high, and determines the run as a character area when the edge pixel content rate is low. To judge.

【0019】第2の発明に係る画像領域分離装置は、第
1の発明に於ける画像領域分離装置に対して更に、領域
属性補正手段を備えており、この領域属性補正手段は、
領域判定手段により、判定された隣接する複数のランの
属性を参照してランの属性を補正するものであり、前述
した領域判定手段のみでは、そのランの属性が正しく判
定されない場合を考慮して、そのランに隣接するランの
属性を参照することにより、そのランの属性を補正する
ことにより、ランの属性を正しく判定しようとするもの
である。たとえば、前述したように非背景色画素から成
る主走査方向のランを、各ランにおけるエッジ画素含有
率が高いと該ランを文字領域に判定し、エッジ画素含有
率が低いと写真領域に判定するが、領域属性補正手段は
注目するランに対して、副走査方向に隣接するランが文
字領域であるか写真領域であるかを参照して注目するラ
ンの属性を補正する。
The image area separating apparatus according to the second invention further comprises area attribute correcting means in addition to the image area separating apparatus according to the first invention, and the area attribute correcting means comprises:
The area determination unit refers to the attributes of a plurality of adjacent runs that have been determined, and corrects the attribute of the run. Considering the case where the attributes of the run cannot be correctly determined only by the area determination unit described above. , The attribute of a run is corrected by referring to the attribute of the run adjacent to the run, and the attribute of the run is correctly determined. For example, as described above, a run in the main scanning direction composed of non-background color pixels is determined to be a character region if the edge pixel content rate in each run is high, and is determined to be a photographic area if the edge pixel content rate is low. However, the area attribute correction unit corrects the attribute of the run of interest by referring to whether the adjacent run in the sub-scanning direction is a character region or a photo region.

【0020】第3の発明に係る画像領域分離方法は、入
力工程により背景領域と複数種類の非背景領域から構成
された画像情報をライン毎に入力したのちに、非背景領
域検出工程が各ラインの中から非背景領域を検出する。
更にエッジ検出工程は非背景領域検出工程により検出さ
れた非背景領域の中から非背景領域のエッジとなる部分
を検出する。そして、領域判定工程は非背景領域のエッ
ジとなる部分の割合に基づいて非背景領域の種類が写真
領域であるか文字領域であるかの判定を行う。領域判定
工程が行う領域の種類の判定方法は、第1の発明で述べ
た領域判定手段における領域の種類の判定方法と同様の
原理を用いているものであり、ここではその説明を省略
する。
In the image area separating method according to the third aspect of the invention, after inputting image information composed of a background area and a plurality of types of non-background areas for each line in the input step, a non-background area detecting step is performed for each line. Detect non-background areas from inside.
Further, the edge detecting step detects a portion which is an edge of the non-background area from the non-background area detected by the non-background area detecting step. Then, the area determination step determines whether the type of the non-background area is a photo area or a text area based on the ratio of the edge portion of the non-background area. The area type determination method performed by the area determination step uses the same principle as the area type determination method in the area determination means described in the first aspect of the invention, and a description thereof will be omitted here.

【0021】[0021]

【実施例】実施例1.まず、この実施例に係わる画像領
域分離装置の概要について述べる。この実施例は画像デ
ータを入力し、注目画素を含むN×Nのウィンドウにつ
いてウィンドウ内の平均信号レベル値Dav,最大信号
レベル差Ddifを求め、Davを所定のしきい値T1
と比較することにより非背景色画素を抽出し、該非背景
色画素についてそれまでの主走査方向の非背景色画素列
のランレングスCrunが0である時Dav<T1/2
またはDdif>T2(T2は所定のしきい値)、Cr
unが0でない時はDdif>T2を満足する場合、注
目画素を画像中のエッジを構成する画素であると判定す
る。また、主走査により同一ランに含まれるエッジを構
成する画素数CedgがランレングスCrunに対して
所定の割合以上である場合、このランを画像中の文字領
域、それ以下である場合写真領域に判定する。(ただ
し、ここでの”<,>”は画像信号が輝度値で表されて
いる場合に成り立つ。)
EXAMPLES Example 1. First, an outline of the image area separating apparatus according to this embodiment will be described. In this embodiment, image data is input, an average signal level value Dav within the window and a maximum signal level difference Ddif are calculated for an N × N window including a target pixel, and Dav is set to a predetermined threshold value T1.
When the non-background color pixel is extracted by comparing with the non-background color pixel, and the run length Crun of the non-background color pixel column in the main scanning direction up to that point is 0, Dav <T1 / 2
Or Ddif> T2 (T2 is a predetermined threshold value), Cr
When un is not 0 and Ddif> T2 is satisfied, the pixel of interest is determined to be a pixel forming an edge in the image. If the number Cedg of pixels forming an edge included in the same run by the main scanning is equal to or more than a predetermined ratio with respect to the run length Crun, this run is determined as a character region in the image, and if it is less than that, the photo region is determined. To do. (However, “<,>” here is valid when the image signal is represented by a luminance value.)

【0022】以下、この発明の一実施例を図について説
明する。図1において、1は注目画素を中心としたウィ
ンドウ内の平均信号レベルを算出する平均信号レベル算
出回路、2は該ウィンドウ内の最大信号レベル差を算出
する最大信号レベル差算出回路、3は平均信号レベル算
出回路1で算出したウィンドウ内の平均信号レベルをも
とに注目画素が非背景色画素かどうかを判定する非背景
色画素分離回路、4は注目画素が画像中のエッジ部分を
構成する画素かどうかを判定するエッジ画素判定回路、
5は非背景色画素分離回路3で非背景色画素と判定され
た画素について主走査方向の連続数を係数するランカウ
ンタ、6はエッジ画素判定回路4でエッジを構成する画
素と判定された画素が同一ランの中で何画素あるかを計
数するエッジ画素カウンタ、7は非背景色画素からなる
ランについてランカウンタ5、エッジカウンタ6の計数
値をもとに該ランが文字領域であるか写真領域であるか
を判定する領域判定回路、8は入力される4ライン分の
画像信号を保持するラインバッファでありライン単位の
リングバッファを構成する。
An embodiment of the present invention will be described below with reference to the drawings. In FIG. 1, 1 is an average signal level calculation circuit for calculating an average signal level within a window centered on a pixel of interest, 2 is a maximum signal level difference calculation circuit for calculating a maximum signal level difference within the window, and 3 is an average. A non-background color pixel separation circuit 4 for determining whether or not the pixel of interest is a non-background color pixel based on the average signal level in the window calculated by the signal level calculation circuit 1. Reference numeral 4 constitutes the edge part in the image of the pixel of interest. Edge pixel determination circuit for determining whether or not a pixel
Reference numeral 5 is a run counter that counts the number of consecutive pixels in the main scanning direction that are determined as non-background color pixels by the non-background color pixel separation circuit 3, and 6 is a pixel that is determined by the edge pixel determination circuit 4 as a pixel forming an edge. Is an edge pixel counter that counts the number of pixels in the same run, and 7 is a photograph showing whether the run is a character area based on the count values of the run counter 5 and the edge counter 6 for a run consisting of non-background color pixels. An area determination circuit for determining whether the area is an area, and 8 is a line buffer for holding an input image signal for four lines, and constitutes a ring buffer for each line.

【0023】次に図2はこの実施例による画像領域分離
装置で扱う画素ウィンドウの構成を示す図である。図2
において、画素ウィンドウは4×4画素からなり、11
は画素ウィンドウ内の注目画素である。
Next, FIG. 2 is a diagram showing the structure of a pixel window handled by the image area separating apparatus according to this embodiment. Figure 2
, The pixel window consists of 4 × 4 pixels, and
Is the pixel of interest in the pixel window.

【0024】次に、この発明による画像領域分離装置の
動作を、参照画素ウィンドウサイズを図2に示すような
4×4画素の大きさにし、画像信号が輝度値で入力され
る場合について、図1に沿って説明する。
Next, the operation of the image area separation device according to the present invention will be described with reference to the case where the reference pixel window size is set to the size of 4 × 4 pixels as shown in FIG. A description will be given according to 1.

【0025】画像領域分離装置に文字、写真混在の多階
調からなる文書画像データが入力されると4ライン分の
データがラインバッファ8に保存される。ラインバッフ
ァ8からは、注目画素を中心とした4×4画素の輝度デ
ータが平均信号レベル算出回路1及び最大信号レベル差
算出回路2に入力される。平均信号レベル算出回路1で
は以下の(式1)の演算を行い平均輝度レベルDavを
算出し、演算結果を非背景色画素分離回路3及びエッジ
画素判定回路4に送出する。
When document image data consisting of multiple gradations of characters and photographs are input to the image area separating device, data for four lines is stored in the line buffer 8. From the line buffer 8, 4 × 4 pixel luminance data centered on the pixel of interest is input to the average signal level calculation circuit 1 and the maximum signal level difference calculation circuit 2. The average signal level calculation circuit 1 calculates the average luminance level Dav by performing the calculation of the following (formula 1), and sends the calculation result to the non-background color pixel separation circuit 3 and the edge pixel determination circuit 4.

【0026】[0026]

【数1】 [Equation 1]

【0027】ここで、Dijは画素輝度を示す値であ
り、画素輝度は図3に示すように、ここでは0〜255
の値をとるものとする。即ち、画像情報が白と黒で構成
されている場合には、輝度が0の場合を黒とし、輝度が
255の場合には白とし、その間が灰色を示すものとす
る。なお、ここで輝度とは従来例で述べた濃度とは反対
の概念であり、輝度が0の場合には、濃度が255であ
り、輝度が255の場合には、濃度を0というものとす
る。
Here, Dij is a value indicating the pixel brightness, and the pixel brightness is 0 to 255 here as shown in FIG.
Shall take the value of. That is, when the image information is composed of white and black, the case where the brightness is 0 is black, the case where the brightness is 255 is white, and the interval is gray. It should be noted that here, the brightness is an opposite concept to the density described in the conventional example. When the brightness is 0, the density is 255, and when the brightness is 255, the density is 0. .

【0028】また、最大信号レベル算出回路2ではウィ
ンドウ内の画素の最大輝度値Dmax、最小輝度値Dm
inを用いて以下の(式2)の演算を行い、ウィンドウ
内の最大輝度差Ddifを算出し、演算結果をエッジ画
素判定回路4に送出する。 Ddif=Dmax−Dmin (式2) 例えば、この(式2)を図2を用いて説明すると、画素
ウィンドウの輝度が各画素についてD11〜D44まで
の16種類存在している場合、D32が最大輝度値Dm
axを示し、D44が最少輝度値Dminを示す場合、
DdifはD32−D44で計算されることになる。
In the maximum signal level calculation circuit 2, the maximum brightness value Dmax and the minimum brightness value Dm of the pixels in the window are set.
The following formula (2) is calculated using in, the maximum brightness difference Ddif in the window is calculated, and the calculation result is sent to the edge pixel determination circuit 4. Ddif = Dmax-Dmin (Equation 2) For example, when this (Equation 2) is described with reference to FIG. 2, when there are 16 types of pixel window luminances D11 to D44, D32 is the maximum luminance. Value Dm
ax and D44 is the minimum brightness value Dmin,
Ddif will be calculated in D32-D44.

【0029】次に非背景色画素分離回路3では、平均信
号レベル算出回路1から得られた該ウィンドウの平均濃
度値Davを所定のしきい値T1と比較することによ
り、(式3)を満たすとき注目する画素を非背景色画素
に判定する。 Dav<T1 (式3) 例えば、この(式3)を図3を用いて説明すると、T1
を輝度が230の場合に設定した場合に、輝度230か
ら255の間、即ちBの範囲は背景色画素と判定され、
輝度0から輝度230の間、即ち範囲Fの間は非背景色
画素として判定されることになる。
Next, in the non-background color pixel separation circuit 3, the equation (3) is satisfied by comparing the average density value Dav of the window obtained from the average signal level calculation circuit 1 with a predetermined threshold value T1. At this time, the pixel of interest is determined to be a non-background color pixel. Dav <T1 (Equation 3) For example, this (Equation 3) will be described with reference to FIG.
When the brightness is set to 230, the range between the brightness 230 and 255, that is, the range of B is determined as the background color pixel,
Between the brightness 0 and the brightness 230, that is, in the range F, the pixel is determined as a non-background color pixel.

【0030】注目画素が非背景画素であると判定された
場合、エッジ画素判定回路4では平均濃度値Dav及び
最大輝度差値Ddifを用いて注目画素が画像のエッジ
を構成する画素であるかどうかを判定する。
When it is determined that the target pixel is a non-background pixel, the edge pixel determination circuit 4 uses the average density value Dav and the maximum brightness difference value Ddif to determine whether the target pixel is a pixel forming an edge of the image. To judge.

【0031】次にランカウンタ5の動作について説明す
る。図4において、Xは画像情報の中の背景領域であ
り、Yは非背景領域である。ここでは、説明を簡単にす
るために、非背景領域Yを矩形領域とし、その主走査方
向におけるランレングスをLとする。又、Rは非背景領
域Yによって構成されるそれぞれのランを示している。
又、P1は画素ウィンドウの注目画素が非背景領域Yの
エッジにある場合を示し、P2は画素ウィンドウの注目
画素が非背景領域Yの領域内にある場合を示している。
ランカウンタ5は画素ウィンドウがP1の位置にくるま
では値が0を示しており、画素ウィンドウがP1の位置
に来た場合に非背景領域Yがスタートしていることによ
り、そのランカウンタをカウントアップし始める。その
後画素ウィンドウの注目画素がP1からP2に移動し、
更に、非背景領域Yを通過するまでランカウンタがカウ
ントアップされることにより、ランの中に含まれる非背
景色画素の数がランカウンタによりカウントされること
になる。
Next, the operation of the run counter 5 will be described. In FIG. 4, X is a background area in the image information, and Y is a non-background area. Here, in order to simplify the description, the non-background area Y is a rectangular area, and the run length in the main scanning direction is L. Further, R indicates each run constituted by the non-background area Y.
P1 shows the case where the pixel of interest of the pixel window is at the edge of the non-background region Y, and P2 shows the case where the pixel of interest of the pixel window is inside the region of the non-background region Y.
The run counter 5 has a value of 0 until the pixel window reaches the position of P1, and when the pixel window reaches the position of P1, the non-background area Y is started, and thus the run counter is counted up. Begin to. After that, the pixel of interest in the pixel window moves from P1 to P2,
Further, the run counter is counted up until it passes through the non-background area Y, so that the number of non-background color pixels included in the run is counted by the run counter.

【0032】ランカウンタ5が0であることは、これま
での走査部分は非背景色画素ではなく、ランカウンタ5
が1になるということは、注目画素が孤立点もしくはラ
ンの先頭の点であることを意味する。エッジ画素判定回
路4はランカウンタ5を参照して、ランカウンタ5の値
が0の時(式4)と(式5)を、ランカウンタ5の値が
0でない時(式5)を実行する。 Dav<T1/2 (式4) Ddif>T2 (式5)
The fact that the run counter 5 is 0 means that the scan portion up to now is not the non-background color pixel but the run counter 5
When 1 becomes 1, it means that the pixel of interest is an isolated point or the start point of the run. The edge pixel determination circuit 4 refers to the run counter 5 and executes (equation 4) and (equation 5) when the value of the run counter 5 is 0, and executes when the value of the run counter 5 is not 0 (equation 5). . Dav <T1 / 2 (Equation 4) Ddif> T2 (Equation 5)

【0033】図5は(式4)と(式5)の意味を説明す
るための図である。図5(a)は非背景色画素から構成
された写真領域の例を示す図であり、図5(b)は、文
字領域の例を示した図である。まず、(式5)の意味に
ついて図5(b)の文字領域の例を用いて説明する。図
5(b)の文字領域の場合のように、白と黒の画素がた
びたび変化するような場合には、画素ウィンドウの最大
輝度差Ddifは大きな値をとることになる。従って文
字領域がスタートする場合、及び文字領域が終了する場
合には、(式5)を用いてそのエッジを検出することが
可能である。しかしながら、(式5)のみを用いてエッ
ジを検出しようとする場合、図5(a)に示すように、
白と黒の画素がおだやかに変化する写真領域の場合に
は、最大輝度差Ddifがいずれの画素ウィンドウの場
合でも、T2というしきい値を越えない場合が有り得
る。たとえば、図5(a)において、S1の位置から実
際のランレングスがスタートしているにも係わらず、
(式5)のみをエッジの判定に用いている場合には、最
悪の場合、S1からS2におけるすべての位置におい
て、画素ウィンドウの最大輝度差DdifがT2を越え
ずに、エッジと判定されない場合が存在する。このよう
な、不都合を改善するために(式4)を用いている。す
なわち(式4)は画素ウィンドウの平均輝度レベルDa
vがしきい値T1/2の値よりも小さい場合に、すなわ
ち画素ウィンドウの平均輝度がある輝度よりも小さくな
ってより黒に近づいてきた場合に、その画素をエッジと
して判定するものである。例えば、図5(a)において
は、仮にS3において、画素ウィンドウがしきい値T1
/2よりも小さな平均輝度レベルDavとして算出され
た場合に、この位置をエッジとして判定することが可能
である。このようにして、ウィンドウの平均濃度値Da
vがT1/2より大きい場合も注目画素をエッジに該当
させる。注目画素がエッジを構成する画素であると判定
した場合は、ランカウンタ5及びエッジカウンタ6のカ
ウンタ値を1増加させる。すなわち以下の計算を行う。 ランレングス値Crun=Crun+1 エッジ計数値Cedg=Cedg+1 また、注目画素がエッジを構成する画素でないと判定さ
れた場合は、ランカウンタ5のみを1増加させる。
FIG. 5 is a diagram for explaining the meaning of (Equation 4) and (Equation 5). FIG. 5 (a) is a diagram showing an example of a photographic region composed of non-background color pixels, and FIG. 5 (b) is a diagram showing an example of a character region. First, the meaning of (Equation 5) will be described using the example of the character area in FIG. When the white and black pixels frequently change as in the case of the character area in FIG. 5B, the maximum brightness difference Ddif of the pixel window has a large value. Therefore, when the character area starts and when the character area ends, the edge can be detected using (Equation 5). However, when an edge is to be detected using only (Equation 5), as shown in FIG.
In the case of a photographic area in which white and black pixels change gently, there is a possibility that the maximum brightness difference Ddif does not exceed the threshold value T2 in any pixel window. For example, in FIG. 5A, although the actual run length starts from the position of S1,
When only (Equation 5) is used for edge determination, in the worst case, the maximum brightness difference Ddif of the pixel window does not exceed T2 and is not determined as an edge at all positions from S1 to S2. Exists. (Equation 4) is used to improve such inconvenience. That is, (Equation 4) is the average luminance level Da of the pixel window.
When v is smaller than the threshold value T1 / 2, that is, when the average luminance of the pixel window becomes smaller than a certain luminance and becomes closer to black, the pixel is determined as an edge. For example, in FIG. 5A, if the pixel window is the threshold value T1 in S3.
When the average brightness level Dav smaller than / 2 is calculated, this position can be determined as an edge. In this way, the average density value Da of the window is
Even when v is larger than T1 / 2, the pixel of interest corresponds to an edge. When it is determined that the target pixel is a pixel forming an edge, the count values of the run counter 5 and the edge counter 6 are incremented by 1. That is, the following calculation is performed. Run length value Crun = Crun + 1 Edge count value Cedg = Cedg + 1 When it is determined that the pixel of interest is not a pixel forming an edge, only the run counter 5 is incremented by 1.

【0034】以上の動作を、主走査方向へ注目画素を1
画素づつ順次ずらしながら非背景色画素分離回路3で注
目画素が背景画素であると判定されるまで行う。ランカ
ウンタ5が0でない時、即ち非背景色画素のランが連続
している時、次の注目画素が非背景色画素分離回路3で
背景画素と判定された場合、それまでのランカウンタ5
のランレングス値Crunとエッジカウンタ6のエッジ
計数値Cedgを用いて領域判定回路7で(式6)の演
算を行いラン中のエッジ画素含有率を求め、所定のしき
い値T3について(式6)が成り立つとき該ランを文字
画像領域に属すると判定する。また(式6)が成り立た
ないとき該ランを写真画像領域に属すると判定する。 Cedg*10/Crun>T3 (式6)
With the above operation, the target pixel is set to 1 in the main scanning direction.
The non-background color pixel separation circuit 3 sequentially shifts the pixels one by one until the target pixel is determined to be a background pixel. When the run counter 5 is not 0, that is, when the runs of the non-background color pixels are continuous, when the next pixel of interest is determined to be the background pixel by the non-background color pixel separation circuit 3, the run counter 5 up to that point
The run length value Crun and the edge count value Cedg of the edge counter 6 are used to calculate the (Expression 6) in the area determination circuit 7 to obtain the edge pixel content rate in the run, and the predetermined threshold value T3 (Expression 6). ), The run is determined to belong to the character image area. When (Equation 6) does not hold, it is determined that the run belongs to the photographic image area. Cedg * 10 / Crun> T3 (Equation 6)

【0035】上記(式6)の意味を図5を用いて説明す
る。図5に示すように、写真領域の場合には、E1のみ
がエッジとして判定されたものとする。S1からS2の
ランレングスが10であり、エッジが1個であると判定
された場合は、(式6)は1×10/10となり、T3
を5とした場合には、(式6)が成り立たないために、
このランは写真領域であると判定する。又、図5(b)
に示すように、E1〜E8の8個の非背景色画素がエッ
ジであると判定された場合には、(式6)は8×10/
10となり、T3が同じく5であるとした場合には、
(式6)が成り立ち、このランを文字画像領域に属する
と判定することになる。このようにして得られた、ラン
が文字領域か写真領域かという属性に基づいて原画像を
分離し、画像の2値化や先鋭化など文字画像、写真画像
それぞれに適した画像処理を領域別に施す。
The meaning of the above (formula 6) will be described with reference to FIG. As shown in FIG. 5, in the case of the photograph area, it is assumed that only E1 is determined as the edge. When the run length from S1 to S2 is 10 and it is determined that there is one edge, (Equation 6) becomes 1 × 10/10, and T3
If is set to 5, (Equation 6) does not hold, so
This run is determined to be a photographic area. Also, FIG. 5 (b)
As shown in, when it is determined that the eight non-background color pixels E1 to E8 are edges, (Equation 6) is 8 × 10 /
If it is 10 and T3 is also 5,
(Equation 6) is established, and it is determined that this run belongs to the character image area. The original image is separated based on the attribute of whether the run is a text area or a photo area obtained in this way, and image processing suitable for each of the character image and the photographic image such as binarization and sharpening of the image is performed for each area. Give.

【0036】以上のように、この実施例は、画像中の注
目画素を中心にしたN×N画素のウィンドウについて、
ウィンドウ内の画像信号の最大レベル値と最小レベル値
の差を求める最大信号レベル差検出手段と、該ウィンド
ウ内の画像信号の平均レベル値を求める平均信号レベル
検出手段を備えると共に、前記平均信号レベル値を用い
て非背景色画素を分離する非背景色画素判定手段と、前
記平均信号レベル値と最大信号レベル差値を用いて注目
画素が画像中のエッジを構成する画素であるか判定する
エッジ判定手段と、連続する非背景色画素のランレング
スを計測するランレングス計測手段と、前記エッジ判定
手段でエッジを構成すると判定された画素を同一ラン中
で計数するエッジ画素数手段と、前記ランレングス計測
手段及びエッジ画素数計数手段の計測結果に基づいて注
目する非背景色画素からなるランを文字領域であるか写
真領域であるかを判定するラン属性判定手段を備えたこ
とを特徴とする。
As described above, according to this embodiment, with respect to the window of N × N pixels centering on the pixel of interest in the image,
The maximum signal level difference detecting means for obtaining the difference between the maximum level value and the minimum level value of the image signal in the window, and the average signal level detecting means for obtaining the average level value of the image signal in the window are provided. Non-background color pixel determining means for separating non-background color pixels using a value, and an edge for determining whether the target pixel is a pixel forming an edge in an image using the average signal level value and the maximum signal level difference value Determining means, run length measuring means for measuring run lengths of consecutive non-background color pixels, edge pixel number means for counting pixels determined to form an edge by the edge determining means in the same run, and Based on the measurement results of the length measuring means and the edge pixel number counting means, whether the run consisting of the non-background color pixels of interest is a character area or a photograph area is determined. Characterized by comprising a run attribute determination means for constant.

【0037】この実施例によれば、画像領域分離装置を
入力される画像データにおいて、注目画素を含むN×N
画素のウィンドウを用いて処理するようにしたので、注
目画素1画素だけを対象に領域属性判定を行う場合に比
べて周囲画素を参照することにより精度の高い文字領域
と写真領域の分離が行えるだけでなく、文書内の画像ノ
イズ点を文字または写真領域候補として誤抽出すること
がなくなる。また、注目画素を含むN×N画素のブロッ
ク単位で処理する場合に比べて、画像領域での分離精度
が向上する。
According to this embodiment, in the image data input to the image area separation device, N × N including the target pixel is included.
Since the processing is performed using the pixel window, the character area and the photograph area can be separated with high accuracy by referring to the surrounding pixels, as compared with the case where the area attribute determination is performed only for one pixel of interest. In addition, image noise points in the document will not be erroneously extracted as characters or photographic area candidates. In addition, the separation accuracy in the image region is improved as compared with the case of processing in blocks of N × N pixels including the target pixel.

【0038】また、ウィンドウ内の平均信号レベル値D
av、最大信号レベル差値Ddifについてそれまでの
主走査方向の非背景色画素列のランレングスCrunが
0である時Dav<T1/2またはDdif>T2(T
2は所定のしきい値)、Crunが0でない時はDdi
f>T2を満足する場合、注目画素を画像中のエッジを
構成する画素であると判定することにより、画像中のエ
ッジ近傍部分の画素を良好な精度で抽出することができ
る。
The average signal level value D in the window
av, when the run length Crun of the non-background color pixel row in the main scanning direction is 0 for the maximum signal level difference value Ddif, Dav <T1 / 2 or Ddif> T2 (T
2 is a predetermined threshold), Drun when Crun is not 0
When f> T2 is satisfied, it is possible to extract the pixel in the vicinity of the edge in the image with good accuracy by determining that the pixel of interest is a pixel forming the edge in the image.

【0039】また、主走査により同一ランに含まれるエ
ッジを構成する画素数CedgがランレングスCrun
に対して所定の割合T3以上である場合、このランを画
像中の文字領域、それ以下である場合写真領域に判定す
ることにより、主走査方向の画素間の連結情報を参照し
ながら領域判定を行えるので、注目画素だけあるいは正
方形ブロックなどの小領域単位で領域判定を行う場合に
比べて、領域判定の精度が向上する。
Further, the number of pixels Cedg forming the edge included in the same run by the main scan is the run length Crun.
On the other hand, when the ratio is equal to or higher than the predetermined ratio T3, the run is determined as the character region in the image, and when it is less than the photo region, the region determination is performed with reference to the connection information between pixels in the main scanning direction. Since it can be performed, the accuracy of the area determination is improved as compared with the case where the area determination is performed only for the pixel of interest or in small area units such as a square block.

【0040】実施例2.前記実施例では、注目画素を含
むウィンドウを4×4画素の正方形のものを示したが、
3×3や8×8など任意のサイズでよく、形状も正方形
以外でもよい。
Example 2. In the above-described embodiment, the window including the target pixel is a 4 × 4 pixel square window.
Any size such as 3 × 3 or 8 × 8 may be used, and the shape may be other than square.

【0041】実施例3.また前記実施例では、ウィンド
ウ内の画像の特徴として平均信号レベルを算出する際、
ウィンドウ内の画像信号レベルを単純に相加平均をとる
ものを示したが、注目画素と参照画素との位置に応じた
重み付けを施して参照するようにしてもよい。
Example 3. In the above embodiment, when calculating the average signal level as a feature of the image in the window,
Although the image signal level in the window is simply taken as the arithmetic mean, it may be referred to by weighting according to the positions of the target pixel and the reference pixel.

【0042】実施例4.また前記実施例では、非背景色
画素分離回路3で画素分離のために使用したしきい値T
1として所定の値を用いるものを示したが、文書画像の
上方数ライン分のデータあるいは画像全体を一度走査す
ることで得られる特徴などから背景画素と非背景画素を
分離するしきい値を動的に決定するようにしてもよい。
例えば新聞や色がついた紙面から文字や写真等を入力す
る場合は、新聞の紙の色やあらかじめ着色された色等に
より、背景色画素が輝度255すなわち、白を示さない
ものがある。この場合には、文書画像の最初の数ライン
をあらかじめ分析する。すなわち文書画像の最初の数ラ
インには、非背景色画素が存在していることは、一般的
に少ないため、最初の数ラインのデータは背景色画素か
ら構成されているものと考えることができる。あるいは
画像全体を一度走査することにより、全体の背景色画素
の輝度を知ることが可能になる。このように、背景色画
素の平均輝度をあらかじめ知ることにより、例えば、そ
の輝度が255ではなく235程度であるということが
分かった場合には、しきい値T1が今まで通り230で
ある場合には背景色と見なされる範囲が輝度230と2
35の間という非常に狭い範囲になってしまい、実際に
は背景色であるにもかかわらず、多少のかすれやゴミ等
により、それが非背景色画素であると判定されてしまう
ことが多くなる。このような場合には、しきい値T1の
値を230から例えば200に変化させることにより、
前述したような、背景色画素と非背景色画素の分離誤り
を防ぐことが可能になる。
Example 4. In the above embodiment, the threshold value T used for pixel separation in the non-background color pixel separation circuit 3 is used.
Although a predetermined value is used as 1, the threshold value for separating the background pixel and the non-background pixel is changed from the data obtained by scanning the upper few lines of the document image or the feature obtained by scanning the entire image once. You may make a decision.
For example, when a character, a photograph, or the like is input from a newspaper or a colored paper surface, the background color pixel may not show the luminance 255, that is, white, depending on the color of the newspaper paper or the color that is colored in advance. In this case, the first few lines of the document image are analyzed in advance. That is, since there are generally few non-background color pixels in the first few lines of a document image, it can be considered that the data of the first few lines are composed of background color pixels. . Alternatively, by scanning the entire image once, it is possible to know the brightness of the entire background color pixel. In this way, by knowing the average luminance of the background color pixels in advance, for example, when it is found that the luminance is about 235 instead of 255, when the threshold value T1 is 230 as before, The range considered to be the background color is luminance 230 and 2
It becomes a very narrow range of 35, and although it is actually a background color, it is often determined as a non-background color pixel due to some blur or dust. . In such a case, by changing the value of the threshold T1 from 230 to 200, for example,
As described above, it is possible to prevent the separation error between the background color pixel and the non-background color pixel.

【0043】実施例5.また前記実施例では、画像信号
を輝度値で表したものを用いたが、濃度値など他の画素
データ表現方法を用いるようにしてもよい。
Example 5. Further, in the above-described embodiment, the one in which the image signal is represented by the brightness value is used, but other pixel data expressing method such as the density value may be used.

【0044】実施例6.また前記実施例では、エッジ画
素判定回路4でのエッジ画素判定のためにウィンドウ内
の最大信号レベル差値を用いるものを示したが、ラプラ
シアンなどの他のエッジ検出手段を用いてもよい。
Example 6. In the above-described embodiment, the maximum signal level difference value in the window is used for the edge pixel determination in the edge pixel determination circuit 4, but other edge detection means such as Laplacian may be used.

【0045】実施例7.次に、上記実施例1の改良例に
ついて説明する。まず、この実施例に係わる画像領域分
離装置の概要について説明する。この実施例は、画像デ
ータを入力し、注目画素を含むN×Nのウィンドウにつ
いてウィンドウ内の平均信号レベル値Dav、最大信号
レベル差Ddifを求め、Davを所定のしきい値T1
と比較することにより、非背景色画素を抽出し、該非背
景色画素についてそれまでの主走査方向の非背景色画素
列のランレングスCrunが0である時、Dav<T1
/2またはDdif>T2(T2は所定のしきい値)、
Crunが0でない時はDdif>T2を満足する場
合、注目画素を画像中のエッジを構成する画素であると
判定する。また、主走査により同一ランに含まれるエッ
ジを構成する画素数CedgがランレングスCrunに
対して所定の割合以上である場合、このランを画像中の
文字領域、それ以下である場合写真領域に判定する。ま
た、副走査方向に隣接する前後行の非背景色画素からな
るランが文字領域であるか写真領域であるかを参照し注
目する非背景色画素から成るランに関する判定結果を補
正する。(ただし、ここでの”<,>”は画像信号が輝
度値で表されている場合に成り立つ。)
Example 7. Next, an improved example of the first embodiment will be described. First, an outline of the image area separation device according to this embodiment will be described. In this embodiment, image data is input, an average signal level value Dav in the window and a maximum signal level difference Ddif are calculated for an N × N window including a target pixel, and Dav is set to a predetermined threshold value T1.
When the non-background color pixel is extracted and the run length Crun of the non-background color pixel column in the main scanning direction up to that point is 0, Dav <T1
/ 2 or Ddif> T2 (T2 is a predetermined threshold value),
When Crun is not 0, when Ddif> T2 is satisfied, the pixel of interest is determined to be a pixel forming an edge in the image. If the number Cedg of pixels forming an edge included in the same run by the main scanning is equal to or more than a predetermined ratio with respect to the run length Crun, this run is determined as a character region in the image, and if it is less than that, the photo region is determined. To do. Further, the determination result regarding the run including the non-background color pixel of interest is corrected by referring to whether the run including the non-background color pixels in the preceding and following rows adjacent in the sub-scanning direction is a character area or a photograph area. (However, “<,>” here is valid when the image signal is represented by a luminance value.)

【0046】以下、この発明の一実施例を図について説
明する。図6において、1から8は、実施例1において
説明したものと同様のものであり、ここではその説明を
省略する。また、9は領域判定回路7で注目するランが
文字領域であるか写真領域であるか判定した結果につい
て、注目する画素を含むライン及び隣接するラインの計
3ライン分のデータを格納する領域属性バッファ、10
は領域属性バッファ9に保存されている注目する主走査
方向の行に含まれる全てのランの領域属性に関する情報
を、隣接する行に含まれる注目するランに隣接するラン
の領域属性に関する情報を参照して補正する領域属性補
正回路である。
An embodiment of the present invention will be described below with reference to the drawings. In FIG. 6, 1 to 8 are the same as those described in the first embodiment, and the description thereof is omitted here. A region attribute 9 stores a total of three lines of data including a line including a pixel of interest and an adjacent line as a result of determining whether the run of interest is a character region or a photo region by the region determination circuit 7. Buffer, 10
Refers to the area attribute information of all the runs contained in the row in the main scanning direction of interest stored in the area attribute buffer 9, and the area attribute of the run adjacent to the run of interest contained in the adjacent row. This is a region attribute correction circuit for performing correction.

【0047】図7に領域属性バッファの構成を示す。こ
こで領域属性バッファはinfo_bufで示してい
る。領域属性バッファは、注目行及びその前行と次行の
3ライン分のデータを常時格納している。各ライン毎に
主走査方向の画素数の1/3程度のサイズnのラン番号
バッファがある。領域分割部で注目行に対して主走査方
向のスキャンを行いランを検出すると、ラン番号0,
1,…,のバッファ領域に順次そのランの開始点のアド
レスと属性を書き込む。また、ランの検出を終了すると
そのランの終了点のアドレスを書き込む。開始アドレス
及び終了アドレスは主走査方向の画素番号が記録され
る。また、属性は文字領域または写真領域に対応する番
号を表す数値が格納される。さらに、注目行のスキャン
が終了した場合は、属性補正部での処理のためにデータ
終了を示す数値が次のラン番号の開始アドレス領域に書
き込まれる。
FIG. 7 shows the structure of the area attribute buffer. Here, the area attribute buffer is indicated by info_buf. The area attribute buffer always stores data for three lines including the line of interest, the line preceding the line of interest, and the next line. There is a run number buffer of size n which is about 1/3 of the number of pixels in the main scanning direction for each line. When the run is detected by scanning the line of interest in the main scanning direction in the area dividing unit, the run number 0,
The address and attribute of the start point of the run are sequentially written in the buffer areas 1 ,. When the run detection is completed, the address of the end point of the run is written. Pixel numbers in the main scanning direction are recorded as the start address and the end address. Further, as the attribute, a numerical value representing a number corresponding to the character area or the photograph area is stored. Further, when the scanning of the line of interest is completed, a numerical value indicating the end of data is written in the start address area of the next run number for the processing in the attribute correction unit.

【0048】次にこの実施例による画像領域分離装置の
動作について説明するが、図6に示す1〜8の各部につ
いては、実施例1に示したものと同様の動作を行うた
め、ここではその説明を省略し、特に異なる部分につい
て以下に説明する。実施例1で述べたように、領域判定
回路7はランが文字画像領域に属するか、写真画像領域
に属するかを判定し、その属性に関する情報を出力する
ことになるが、このようにして得られた、ランが文字領
域に属するか写真領域に属するかという属性に関する情
報及びそのランの主走査方向のアドレス値を注目するラ
ンを含むラインとそのラインに隣接するラインに関し
て、領域属性バッファ9に保存する。領域属性補正回路
10では領域属性バッファ9に保存されている注目ライ
ンに含まれる全てのランの領域属性に関する情報を、そ
のランに隣接する前ラインのラン及び後ラインのランの
領域属性に関する情報を参照して、図8に示される規則
に従って補正する。
Next, the operation of the image area separating apparatus according to this embodiment will be described. Since the respective parts 1 to 8 shown in FIG. 6 perform the same operations as those shown in the first embodiment, the operation will be omitted here. Description is omitted, and particularly different parts will be described below. As described in the first embodiment, the area determination circuit 7 determines whether the run belongs to the character image area or the photographic image area, and outputs the information regarding the attribute. The information on the attribute of whether the run belongs to the character area or the photo area and the line including the run for which the address value of the run in the main scanning direction is noted and the line adjacent to the line are stored in the area attribute buffer 9. save. The area attribute correction circuit 10 obtains information about area attributes of all runs included in the line of interest stored in the area attribute buffer 9 and information about area attributes of runs of preceding lines and runs of subsequent lines adjacent to the run. Reference is made and correction is performed according to the rule shown in FIG.

【0049】以下、この隣接領域の属性情報を使用した
補正について説明する。領域分割部の処理の結果、主走
査方向の注目行とその前後の行を合わせた3ライン分の
属性情報が属性バッファに蓄えられた時点で、注目行に
対する属性補正を行う。属性補正は、注目行に含まれる
ランを注目行の1つ前の行と1つ後の行に隣接して含ま
れるランの属性を参照することによって行う。図7に属
性補正の規則を示す。ここで、属性補正を行おうとする
注目行のランを注目ラン、1つ前の行のランで注目ラン
に隣接するランを前行ラン、1つ後の行のランで注目ラ
ンに隣接するランを次行ランと呼ぶ。
The correction using the attribute information of the adjacent area will be described below. As a result of the processing of the area dividing unit, when the attribute information for three lines including the target line in the main scanning direction and the lines before and after the target line is stored in the attribute buffer, the attribute correction for the target line is performed. The attribute correction is performed by referring to the attributes of the runs included in the run included in the target line and adjacent to the line immediately preceding and the line after the target line. FIG. 7 shows the rule of attribute correction. Here, the run of the target line for which attribute correction is to be performed is the run of interest, the run adjacent to the target run by the run of the preceding line is the preceding run, and the run adjacent to the target run is the run of the subsequent line. Is called the next run.

【0050】ある注目ランに対して前行ランと次行ラン
のいずれもが存在しない場合、つまり注目ランが孤立し
た領域の時、属性補正は行わない。また前行ランの属性
が写真領域で注目ランが文字領域である時、注目ランを
写真領域に補正する。これは、文書画像内で写真領域と
文字領域が隣接していると考えにくいためで、特に写真
領域の境界部分が領域分割で文字領域に誤判定されるこ
とに対する補正の意味を持つ。従って、既に属性補正済
みの前行ランの属性を優先し注目行を写真領域に補正す
る。また、次行ランが写真領域の場合も注目ランの属性
を写真に補正する。これも領域分割部で文字領域に誤判
定される写真領域の境界の属性を補正するためである。
When neither the preceding run nor the following run exists for a certain target run, that is, when the target run is an isolated region, no attribute correction is performed. When the attribute of the preceding run is the photo area and the run of interest is the text area, the run of interest is corrected to the photo area. This is because it is unlikely that the photo area and the character area are adjacent to each other in the document image, and in particular, it has a meaning of correction for erroneously determining the boundary portion of the photo area as a character area due to area division. Therefore, the attribute of the preceding run, which has already been attribute-corrected, is prioritized and the line of interest is corrected to the photographic area. Also, when the next run is a photograph area, the attribute of the noticed run is corrected to a photograph. This is also for correcting the attribute of the boundary of the photo area that is erroneously determined to be a character area by the area dividing unit.

【0051】前行ランと注目ランの属性が共に写真領域
の場合、次行ランは写真領域である可能性が高く属性補
正の必要がある。しかし、処理全体の流れとして次行を
注目行にした時に前記補正処理によって補正されるた
め、ここでは補正を行わない。さらに、属性が*で表さ
れている箇所は文字領域であっても写真領域であって
も、他の組合せを用いた補正または次のスキャンライン
に対する補正で属性補正が行われる。従って、ある行に
注目した属性補正の段階では、これらは文字領域、写真
領域のいずれでも構わない。
When the attributes of the preceding run and the run of interest are both in the photographic area, the next run is likely to be in the photographic area and requires attribute correction. However, since the correction is performed by the correction process when the next line is focused on in the flow of the entire process, no correction is performed here. Furthermore, whether the attribute is represented by * is the character area or the photograph area, the attribute correction is performed by correction using another combination or correction for the next scan line. Therefore, at the stage of attribute correction focusing on a certain line, these may be either the character region or the photo region.

【0052】以上のようにして補正された注目するラン
の領域属性に関する情報を参照して、原画像に対して文
字領域と写真領域の領域分離を行い、分離された各画像
データ領域毎に2値化するなどの画像処理を施す。
By referring to the information regarding the area attribute of the run of interest corrected as described above, the character area and the photograph area are separated from the original image, and 2 are separated for each separated image data area. Image processing such as digitization is performed.

【0053】以上のように、この実施例は副走査方向に
隣接するランが文字領域を構成するランであるか写真領
域を構成するランであるかを参照して、注目するランが
文字領域であるか写真領域であるかを示すランの属性を
補正するラン属性補正手段を備えたことを特徴とする。
As described above, in this embodiment, the run adjacent to each other in the sub-scanning direction is a run forming a character area or a run forming a photograph area, and the run of interest is the character area. The present invention is characterized in that a run attribute correction means for correcting the attribute of a run indicating whether there is a photo area or a photo area is provided.

【0054】この実施例によれば、領域判定を行った注
目するランについて副走査方向に隣接するランの領域属
性に関する情報を参照してその領域属性を補正すること
により、副走査方向の領域間の連結情報を参照しながら
領域判定を行えるので、領域分離の精度が向上する。
According to this embodiment, the area attribute in the sub-scanning direction is corrected by referring to the information regarding the area attribute of the adjacent run in the sub-scanning direction with respect to the target run for which the area determination has been performed. Since the area determination can be performed with reference to the connection information of, the accuracy of area separation is improved.

【0055】実施例8.前記実施例では、領域属性補正
回路10で注目するランの領域属性を補正するときに、
領域属性バッファ9に保存された注目ラインの前後3ラ
イン分の領域属性に関する情報を用いたが、注目ライン
の前2ライン後1ラインの計4ラインを参照してもよ
く、参照方法はこの限りでない。
Example 8. In the above embodiment, when the area attribute correction circuit 10 corrects the area attribute of the run of interest,
Although the information about the area attributes for three lines before and after the line of interest stored in the region attribute buffer 9 is used, a total of four lines before the line of interest and two lines after the line of interest may be referred to. Not.

【0056】実施例9.また前記実施例では、非背景色
画素列から成る全てのランについて領域属性補正を行う
ものを示したが、領域判定回路7における領域判定次に
しきい値T3による文字領域、写真領域の分離の代わり
に、複数のしきい値を設けてエッジ画素含有率から明ら
かに文字領域であるランと文字領域か写真領域か断定で
きないラン、明らかに写真領域であるランに分類するな
どして、文字領域か写真領域か断定できないランのみを
領域属性補正回路10にて領域属性の決定を行うように
してもよい。
Example 9. Further, in the above-mentioned embodiment, the area attribute correction is carried out for all the runs consisting of the non-background color pixel row. However, the area judgment in the area judgment circuit 7 is performed next, instead of separating the character area and the photograph area by the threshold value T3. In addition, a plurality of thresholds are set to classify into a run that is clearly a text region and a run that cannot be determined to be a text region or a photo region based on the edge pixel content rate, and a run that is clearly a photo region. The area attribute correction circuit 10 may determine the area attribute only for a run that cannot be determined as a photograph area.

【0057】実施例10.次に、実施例1と7のシミュ
レーションの具体例について説明する。まず、シミュレ
ーション環境について説明する。図9において、50は
イメージスキャナ、51,52,53はコンピュータ、
54はカラープリンタである。このシミュレーションを
実行するために、先ず、プログラムの作成、及び実行の
ためにワークステーション52を使用する。又、画像デ
ータの取り込みは、カラーイメージスキャナ50を用い
る。このイメージスキャナは、読取線密度は最高320
dpi、色分解精度はRGB各色256階調である。ま
た処理結果のハードコピーのためにカラープリンタ54
を使用する。このプリンタは記録線密度は150dp
i、色分解精度はYMC各色256階調である。また、
プログラムの作成にはC言語を用い、汎用のウィンドウ
システムのライブラリを使用してCRTへの表示も行え
るようにした。
Example 10. Next, a specific example of the simulations of Examples 1 and 7 will be described. First, the simulation environment will be described. In FIG. 9, 50 is an image scanner, 51, 52 and 53 are computers,
Reference numeral 54 is a color printer. To perform this simulation, the workstation 52 is first used to create and execute the program. The color image scanner 50 is used to capture the image data. This image scanner has a maximum read line density of 320
The resolution of the dpi is 256 gradations for each color of RGB. In addition, a color printer 54 is provided for hard copy of the processing result.
To use. This printer has a recording linear density of 150 dp
i, the color separation accuracy is 256 gradations for each color of YMC. Also,
The program was created in C language, and a general-purpose window system library was used so that it could be displayed on a CRT.

【0058】図10から図12にシミュレーションに使
用した原画像の記録例を掲載する。画像はいずれも各画
素8ビット/色でスキャナで読み取ったものを使用して
いる。図10は、電子写真学会テストチャートの198
8年版No.5及びその説明書から構成した文書画像
で、画像サイズは592×700画素である。図11か
ら図12は、SCIDの画像サンプルに文章を組み合わ
せて作成した文章画像であり、図11は661×904
画素、図12は682×925画素のサイズである。
10 to 12 show examples of recording the original image used in the simulation. Each image uses an image read by a scanner with each pixel having 8 bits / color. FIG. 10 shows 198 of the Electrophotographic Society test chart.
8th edition No. The image size is 592 × 700 pixels. 11 to 12 are sentence images created by combining sentences with SCID image samples, and FIG. 11 shows 661 × 904.
The pixel has a size of 682 × 925 pixels in FIG.

【0059】次に、シミュレーション結果について説明
する。まず、しきい値の最適化について説明する。図1
0〜図12の3種類の画像について、しきい値T2とし
きい値T3に対する画像領域の平均検出率を求めた結果
を図13と図14に示す。図13は写真領域の検出率で
あり、図14は文字領域の検出率である。図13から、
写真の検出率はT2とT3に依存して変化するが、検出
率が最大になるように各T3に対する最適のT2を選択
した場合、最大検出率は同程度の値である。この理由
は、エッジ含有率のしきい値T3の増加に対して、エッ
ジ画素判定しきい値T2を小さくすると、結果的にある
非背景ランに含まれるエッジ画素が増加するためであ
る。従って、判定結果に及ぼされるT3の増加の影響
を、T2を最適化することで吸収できる。また、図14
から、各T3に対してT2が大きくなるほど文字の検出
率が低下し、また、T3自体が増加するにつれて文字の
検出率が低下することがわかる。これは、T2,T3の
増加につれてエッジ画素であると判定する基準が厳しく
なり、文字の中でも非背景画素が比較的密集している領
域が写真領域に誤判定されるためである。これらの結果
から、文字領域と写真領域の検出率が共に高い最適なし
きい値の組は、T2が40、T3が5の場合である。ま
た、この時の領域検出率は、写真領域が99.3%、文
字領域が100%である。
Next, the simulation result will be described. First, the optimization of the threshold will be described. Figure 1
13 and 14 show the results of obtaining the average detection rates of the image regions with respect to the threshold values T2 and T3 for the three types of images of 0 to FIG. FIG. 13 shows the detection rate of the photo area, and FIG. 14 shows the detection rate of the character area. From FIG.
Although the detection rate of a photograph changes depending on T2 and T3, when the optimum T2 for each T3 is selected so that the detection rate becomes maximum, the maximum detection rate is about the same value. The reason for this is that when the edge pixel determination threshold value T2 is decreased with respect to the increase of the edge content rate threshold value T3, the number of edge pixels included in a certain non-background run increases as a result. Therefore, the influence of T3 increase on the determination result can be absorbed by optimizing T2. In addition, FIG.
From this, it can be seen that the character detection rate decreases as T2 increases for each T3, and that the character detection rate decreases as T3 itself increases. This is because as T2 and T3 increase, the criterion for determining that the pixel is an edge pixel becomes stricter, and a region in which non-background pixels are relatively dense among characters is erroneously determined as a photographic region. From these results, the optimum threshold value group in which the detection rates of the character area and the photograph area are both high is when T2 is 40 and T3 is 5. The area detection rate at this time is 99.3% for the photograph area and 100% for the character area.

【0060】次に、画像分割結果について説明する。図
10〜図12の各原画像に対して本方式を用いて領域分
割を行った結果を図15から図17に示す。ここで、各
しきい値はT1を230、T2を40、T3を5にし
た。図15から図20において図15、図17、図19
は、原画像から写真領域だけを抽出した結果である。ま
た図16、図18、図20は原画像から文字領域だけを
抽出した結果である。領域分割結果から文字領域及び写
真領域と背景の分離は概ね良好に行えることがわかる。
しかし、写真領域の上端の主走査方向数ライン分の領域
が文字領域に誤判定されている。これはウィンドウを使
った特徴抽出処理の段階で、写真領域の端点については
図21に示すような画素配列になるためDdif値が大
きくなり、注目画素がエッジを含む画素に判定される。
この注目画素を含む主走査方向の非背景ランでは、ラン
を構成する全ての画素がエッジ画素に判定されCedg
値が増加し、(式6)を満たすために文字領域であると
判定される。これに対して、副走査方向の処理に伴う属
性補正では1ライン分の補正が行われるに留まってお
り、写真領域の上端の文字領域への誤判定を完全に補正
することができていない。例えば画像全体を2値化する
場合は、写真の端点を文字領域と同じく尖鋭化すること
になるので、この誤判定は問題になることはない。ま
た、図16ではタイトル文字のアンダーラインが同じ原
因で文字領域に判定されている。この場合も尖の性質を
考えると判定結果に問題はない。これに対し、例えば領
域分割の結果を圧縮、符号化して利用する場合、小領域
に多くの視覚的な情報を含んでいる文字領域は圧縮率よ
りも伸張後の画質を重視し、写真領域は圧縮率を重視す
る符号化法を用いることが一般的である。この場合、図
表などの罫線を含む画像を領域分割すると本方式では罫
線は文字領域に判定される。視覚的な情報量が少ない罫
線は、伸張後の画質よりも圧縮率を重視した方法で符号
化すべきである。従って、罫線を圧縮率よりも伸張後の
画質を重視すべき文字領域に判定するのは好ましくない
ので、本手法を画像の圧縮、符号化の前処理として使用
する場合は改善の余地がある。
Next, the image division result will be described. FIGS. 15 to 17 show the results obtained by performing area division on the original images of FIGS. 10 to 12 using this method. Here, the respective threshold values were T1 = 230, T2 = 40, and T3 = 5. 15 to 20, in FIGS.
Is the result of extracting only the photographic area from the original image. Further, FIGS. 16, 18 and 20 show the results of extracting only the character area from the original image. From the area division result, it can be seen that the character area, the photograph area and the background can be separated well.
However, an area for several lines in the main scanning direction at the upper end of the photograph area is erroneously determined as a character area. This is a stage of feature extraction processing using a window, and since the pixel array at the end points of the photographic area is as shown in FIG. 21, the Ddif value becomes large, and the pixel of interest is determined to be a pixel including an edge.
In the non-background run in the main scanning direction including this pixel of interest, all the pixels that make up the run are determined as edge pixels, and Cedg
Since the value increases and (Equation 6) is satisfied, the character area is determined. On the other hand, in the attribute correction accompanying the processing in the sub-scanning direction, correction for only one line is performed, and it is not possible to completely correct erroneous determination of the character area at the upper end of the photo area. For example, when the entire image is binarized, the end points of the photograph are sharpened similarly to the character area, so this erroneous determination does not pose a problem. Further, in FIG. 16, the underline of the title character is determined to be the character area due to the same cause. Also in this case, there is no problem in the determination result considering the nature of the cusps. On the other hand, for example, when compressing and coding the result of area division and using it, the character area containing much visual information in the small area emphasizes the image quality after decompression rather than the compression rate, and the photo area It is common to use an encoding method that emphasizes the compression rate. In this case, when an image including ruled lines such as a diagram is divided into regions, the ruled lines are determined as character regions in this method. A ruled line having a small amount of visual information should be encoded by a method in which the compression rate is more important than the image quality after decompression. Therefore, it is not preferable to determine the ruled line as a character area in which the image quality after decompression is more important than the compression rate, and there is room for improvement when the present method is used as preprocessing for image compression and encoding.

【0061】次に、アルゴリズムの高速化について説明
する。前述したしきい値の最適化の結果、T3が5の時
良好な領域分割結果が得られることが確認された。T3
は、参照したウィンドウ内にエッジを含む画素が含まれ
る割合に対するしきい値である。従って、T3が5の場
合、(式6)は(式7)で置き換えることができる。 (Crun>>1)−Cedg≧0 ならば 写真領域のラン (式7) (Crun>>1)−Cedg<0 ならば 文字領域のラン ここで、”>>1”は右方向への1ビットシフトを表
す。(式6)を(式7)で置き換えることにより、画像
中の各ラン毎に行われていた乗算と除算をビットシフト
と減算に置き換えることができるので、アルゴリズムの
高速化を図ることができる。(式6)を(式7)で置き
換えたアルゴリズムを図10〜図12に示した原画像ま
でに適用してシミュレーションを行ったところ、処理速
度が平均10%向上した。また、これにより本方式の回
路化を行う場合にも回路の簡単化が可能になる。
Next, speeding up of the algorithm will be described. As a result of the optimization of the threshold value described above, it was confirmed that a good area division result was obtained when T3 was 5. T3
Is a threshold value for the ratio of pixels including edges in the referenced window. Therefore, when T3 is 5, (Equation 6) can be replaced by (Equation 7). If (Crun >> 1) -Cedg ≧ 0, run of photograph area (Equation 7) If (Crun >> 1) -Cedg <0, run of character area Here, “>> 1” is 1 to the right. Represents a bit shift. By replacing (Equation 6) with (Equation 7), the multiplication and division performed for each run in the image can be replaced with bit shift and subtraction, so that the algorithm can be speeded up. When an algorithm in which (Equation 6) is replaced by (Equation 7) is applied to the original images shown in FIGS. 10 to 12 and a simulation is performed, the processing speed is improved by 10% on average. Further, this makes it possible to simplify the circuit even when the circuit of this system is implemented.

【0062】また、(式4)も(式8)で置き換えるこ
とができる。 Dav<(T1>>1) (式8) ここで”>>1”は右方向への1ビットシフトを表す。
(式4)を(式8)で置き換えることにより除算(T1
/2)をビットシフトに置き換えることができるのでア
ルゴリズムの高速化を図ることができるとともに、しき
い値T1を(式3)と共通化して用いることができるの
でしきい値をあらかじめ記憶する記憶領域が少なくてす
む。
Further, (Equation 4) can be replaced by (Equation 8). Dav <(T1 >> 1) (Equation 8) Here, “>> 1” represents 1-bit shift to the right.
By substituting (Equation 8) for (Equation 4), division (T1
/ 2) can be replaced with a bit shift to speed up the algorithm, and since the threshold T1 can be used in common with (Equation 3), a storage area for storing the threshold in advance Need less

【0063】実施例11.上記実施例においては、非背
景領域が文字領域と写真領域を含む場合を示したが、文
字領域は2値画像領域の一例であり、記号、図形、表等
その他の2値画像領域の場合でもよい。また、写真領域
は中間調画像領域の一例であり、絵、イラスト、テレビ
画像等その他の中間調画像領域の場合でもよい。また、
2値画像領域と中間調画像領域が完全に分離して存在し
ている場合ばかりでなく、同一領域に混在している場合
でもよい。
Example 11. In the above embodiment, the case where the non-background area includes the character area and the photograph area is shown, but the character area is an example of the binary image area, and even in the case of other binary image areas such as symbols, figures, and tables. Good. The photographic area is an example of a halftone image area, and may be another halftone image area such as a picture, an illustration, or a television image. Also,
Not only the case where the binary image area and the halftone image area exist completely separately, but also the case where they exist in the same area.

【0064】実施例12.上記実施例においては白黒の
場合を例にして説明したが、カラーの場合でもよい。例
えば、カラーの場合は、シアン、マゼンタ、イエロー
(あるいは青、赤、黄)の三原色に対して、それぞれ上
記実施例で述べた動作を行うとともに、これらの三種類
の結果について総合判断を行うようにすればよい。
Example 12 In the above embodiment, the case of black and white has been described as an example, but the case of color may be used. For example, in the case of color, the operation described in the above embodiment is performed for each of the three primary colors of cyan, magenta, and yellow (or blue, red, and yellow), and a comprehensive judgment is made on these three types of results. You can do this.

【0065】[0065]

【発明の効果】以上のように、第1から第3の発明によ
れば、文字等の2値画像と写真等の中間調画像を従来に
比べて、より良好な精度で抽出することが出来るという
効果がある。このように2値画像と中間調画像との領域
を精度よく分離することにより、この画像領域分離装置
及びその方法をファクシミリ装置やデジタル複写機等に
用いることにより、原稿画像に忠実な出力画像を得る装
置を得ることが可能となる。
As described above, according to the first to third inventions, a binary image such as a character and a halftone image such as a photograph can be extracted with better accuracy than in the conventional case. There is an effect. By accurately separating the areas of the binary image and the halftone image in this manner, the image area separating device and method thereof are used in a facsimile machine, a digital copying machine, etc., so that an output image faithful to the original image can be obtained. It is possible to obtain a device to obtain.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例による画像領域分離装置の
構成を示すブロック回路図である。
FIG. 1 is a block circuit diagram showing a configuration of an image area separation device according to an embodiment of the present invention.

【図2】この発明の一実施例による画像領域分離装置で
扱う画素ウィンドウの構成を示す図である。
FIG. 2 is a diagram showing a configuration of a pixel window handled by an image area separation device according to an embodiment of the present invention.

【図3】この発明の一実施例による画素の判定領域を示
す図である。
FIG. 3 is a diagram showing a pixel determination region according to an embodiment of the present invention.

【図4】この発明の一実施例による動作を説明するため
の図である。
FIG. 4 is a diagram for explaining an operation according to the embodiment of the present invention.

【図5】この発明の一実施例による写真領域と文字領域
の輝度を示す図である。
FIG. 5 is a diagram showing the brightness of a photograph area and a character area according to an embodiment of the present invention.

【図6】この発明の一実施例による画像領域分離装置の
構成を示すブロック回路図である。
FIG. 6 is a block circuit diagram showing a configuration of an image area separation device according to an embodiment of the present invention.

【図7】この発明の一実施例による領域属性バッファの
一例を示す図である。
FIG. 7 is a diagram showing an example of an area attribute buffer according to an embodiment of the present invention.

【図8】この発明の一実施例による画像領域分離装置の
領域属性補正回路内で注目するランに対して領域属性を
補正する場合の規則の例を示す図である。
FIG. 8 is a diagram showing an example of rules for correcting a region attribute for a run of interest in a region attribute correction circuit of an image region separating apparatus according to an embodiment of the present invention.

【図9】この発明の具体例を示すシミュレーション環境
を説明するための図である。
FIG. 9 is a diagram for explaining a simulation environment showing a specific example of the present invention.

【図10】この発明の一実施例によるシミュレーション
に使用した原画像を示す図である。
FIG. 10 is a diagram showing an original image used in a simulation according to an embodiment of the present invention.

【図11】この発明の一実施例によるシミュレーション
に使用した原画像を示す図である。
FIG. 11 is a diagram showing an original image used for a simulation according to an embodiment of the present invention.

【図12】この発明の一実施例によるシミュレーション
に使用した原画像を示す図である。
FIG. 12 is a diagram showing an original image used for a simulation according to an embodiment of the present invention.

【図13】この発明の一実施例によるエッジ判定しきい
値T2と写真領域の検出率の関係を示す図である。
FIG. 13 is a diagram showing a relationship between an edge determination threshold value T2 and a detection rate of a photo area according to an embodiment of the present invention.

【図14】この発明の一実施例によるエッジ判定しきい
値T2と文字領域の検出率の関係を示す図である。
FIG. 14 is a diagram showing a relationship between an edge determination threshold value T2 and a character area detection rate according to an embodiment of the present invention.

【図15】この発明の一実施例により図10に示した原
画像から写真領域を抽出した結果を示す図である。
FIG. 15 is a diagram showing a result of extracting a photographic area from the original image shown in FIG. 10 according to an embodiment of the present invention.

【図16】この発明の一実施例により図10に示す原画
像から文字領域を抽出した結果を示す図である。
16 is a diagram showing a result of extracting character regions from the original image shown in FIG. 10 according to an embodiment of the present invention.

【図17】この発明の一実施例により図11に示した原
画像から写真領域を抽出した結果を示す図である。
FIG. 17 is a diagram showing a result of extracting a photographic area from the original image shown in FIG. 11 according to an embodiment of the present invention.

【図18】この発明の一実施例により図11に示す原画
像から文字領域を抽出した結果を示す図である。
FIG. 18 is a diagram showing a result of extracting a character area from the original image shown in FIG. 11 according to an embodiment of the present invention.

【図19】この発明の一実施例により図12に示した原
画像から写真領域を抽出した結果を示す図である。
FIG. 19 is a diagram showing a result of extracting a photographic area from the original image shown in FIG. 12 according to an embodiment of the present invention.

【図20】この発明の一実施例により図12に示す原画
像から文字領域を抽出した結果を示す図である。
20 is a diagram showing a result of extracting a character area from the original image shown in FIG. 12 according to the embodiment of the present invention.

【図21】この発明の一実施例により誤って判定された
部分のメカニズムを示す図である。
FIG. 21 is a diagram showing a mechanism of a portion erroneously determined according to an embodiment of the present invention.

【図22】従来のランレングスを用いた領域分割法のブ
ロック図である。
FIG. 22 is a block diagram of a conventional area division method using run length.

【図23】従来の濃度変化を用いた領域分割のブロック
図である。
FIG. 23 is a block diagram of conventional area division using density change.

【図24】従来の文書画像に対するその他の領域分割方
法を示す図である。
FIG. 24 is a diagram showing another conventional area dividing method for a document image.

【図25】従来の画像領域分離方式を示すブロック図で
ある。
FIG. 25 is a block diagram showing a conventional image area separation method.

【符号の説明】[Explanation of symbols]

1 平均信号レベル算出回路 2 最大信号レベル差算出回路 3 非背景色画素分離回路 4 エッジ画素判定回路 5 ランカウンタ 6 エッジカウンタ 7 領域判定回路 8 ラインバッファ 9 領域属性バッファ 10 領域属性補正回路 11 注目画素 1 Average Signal Level Calculation Circuit 2 Maximum Signal Level Difference Calculation Circuit 3 Non-Background Color Pixel Separation Circuit 4 Edge Pixel Judgment Circuit 5 Run Counter 6 Edge Counter 7 Area Judgment Circuit 8 Line Buffer 9 Area Attribute Buffer 10 Area Attribute Correction Circuit 11 Target Pixel

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 以下の要素を有する画像領域分離装置 (a)背景色画素から構成される背景領域と非背景色画
素から構成され異なる複数種類の非背景領域とを有する
画像情報を入力する入力手段、 (b)上記入力手段により入力した画像情報の中から非
背景色画素を検出する非背景色画素分離手段、 (c)上記非背景色画素分離手段により分離された所定
の方向にひとつ以上連続する非背景色画素をランとしそ
の長さを検出するラン検出手段、 (d)上記非背景色画素分離手段により分離された非背
景色画素が非背景領域のエッジを構成するエッジ画素で
あるかを判定するエッジ画素判定手段、 (e)上記ラン検出手段により検出されたランの中の上
記エッジ画素判定手段でエッジ画素として判定された非
背景色画素の割合に基づき、そのランが異なる種類の非
背景領域のうちのいずれの種類の非背景領域に属するラ
ンであるかを示すランの属性を判定する領域判定手段。
1. An image area separating device having the following elements: (a) Input for inputting image information having a background area composed of background color pixels and a plurality of different kinds of non-background areas composed of non-background color pixels. Means, (b) non-background color pixel separating means for detecting non-background color pixels from the image information input by the input means, (c) one or more in a predetermined direction separated by the non-background color pixel separating means Run detection means for detecting the length of continuous non-background color pixels as runs, and (d) the non-background color pixels separated by the non-background color pixel separation means are edge pixels forming edges of the non-background area. (E) based on the ratio of non-background color pixels determined as edge pixels by the edge pixel determination means in the run detected by the run detection means, Emissions are different types of area determination means for determining an attribute of the run indicating which run belonging to the non-background area of any type of non-background regions.
【請求項2】 上記画像領域分離装置はさらに、領域判
定手段により判定された隣接する複数のランの属性を参
照して、ランの属性を補正する領域属性補正手段を備え
たことを特徴とする画像領域分離装置。
2. The image area separation device further comprises area attribute correction means for correcting the attribute of a run by referring to the attributes of a plurality of adjacent runs determined by the area determination means. Image region separation device.
【請求項3】 以下の工程を有する画像領域分離方法 (a)背景領域と複数種類の非背景領域から構成された
画像情報をライン毎に入力する入力工程、 (b)上記入力工程により入力した画像情報の各ライン
の中から非背景領域を検出する非背景領域検出工程、 (c)上記非背景領域検出工程により検出した非背景領
域の中から非背景領域のエッジとなる部分を検出するエ
ッジ検出工程、 (d)上記非背景領域検出工程とエッジ検出工程により
検出された非背景領域とそのエッジとなる部分の割合に
基づいて非背景領域検出工程により検出された非背景領
域の種類を判定する領域判定工程。
3. An image area separating method having the following steps: (a) an input step of inputting image information composed of a background area and a plurality of types of non-background areas line by line; (b) inputting by the input step. A non-background area detecting step of detecting a non-background area from each line of the image information, and (c) an edge detecting a portion which becomes an edge of the non-background area from the non-background area detected by the non-background area detecting step. Detection step, (d) determining the type of the non-background area detected by the non-background area detection step based on the ratio of the non-background area detected by the non-background area detection step and the edge detection step to the edge portion thereof Region determination step to be performed.
JP04221931A 1992-07-29 1992-07-29 Image region separation device and image region separation method Expired - Fee Related JP3073837B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04221931A JP3073837B2 (en) 1992-07-29 1992-07-29 Image region separation device and image region separation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04221931A JP3073837B2 (en) 1992-07-29 1992-07-29 Image region separation device and image region separation method

Publications (2)

Publication Number Publication Date
JPH0654180A true JPH0654180A (en) 1994-02-25
JP3073837B2 JP3073837B2 (en) 2000-08-07

Family

ID=16774407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04221931A Expired - Fee Related JP3073837B2 (en) 1992-07-29 1992-07-29 Image region separation device and image region separation method

Country Status (1)

Country Link
JP (1) JP3073837B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0993179A2 (en) 1998-10-08 2000-04-12 Sharp Kabushiki Kaisha Image-processing apparatus and image-processing method
JP2001076154A (en) * 1999-08-23 2001-03-23 Xerox Corp Method for segmenting digital image and digital image processor
JP2004246478A (en) * 2003-02-12 2004-09-02 Fuji Xerox Co Ltd Image search device
JP2004537220A (en) * 2001-07-24 2004-12-09 ヒューレット・パッカード・カンパニー Equipment for processing digital images
JP2008185844A (en) * 2007-01-30 2008-08-14 Kyocera Corp Portable electronic equipment
US7426291B2 (en) 2002-07-29 2008-09-16 Seiko Epson Corporation Apparatus and method for binarizing images of negotiable instruments using a binarization method chosen based on an image of a partial area
JP2019096067A (en) * 2017-11-22 2019-06-20 富士通株式会社 Character region extracting program, character region extracting device and character region extracting method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0993179A2 (en) 1998-10-08 2000-04-12 Sharp Kabushiki Kaisha Image-processing apparatus and image-processing method
US6631210B1 (en) 1998-10-08 2003-10-07 Sharp Kabushiki Kaisha Image-processing apparatus and image-processing method
JP2001076154A (en) * 1999-08-23 2001-03-23 Xerox Corp Method for segmenting digital image and digital image processor
JP4627845B2 (en) * 1999-08-23 2011-02-09 ゼロックス コーポレイション Digital image segmentation method and digital image processing apparatus
JP2004537220A (en) * 2001-07-24 2004-12-09 ヒューレット・パッカード・カンパニー Equipment for processing digital images
US7426291B2 (en) 2002-07-29 2008-09-16 Seiko Epson Corporation Apparatus and method for binarizing images of negotiable instruments using a binarization method chosen based on an image of a partial area
JP2004246478A (en) * 2003-02-12 2004-09-02 Fuji Xerox Co Ltd Image search device
JP2008185844A (en) * 2007-01-30 2008-08-14 Kyocera Corp Portable electronic equipment
JP2019096067A (en) * 2017-11-22 2019-06-20 富士通株式会社 Character region extracting program, character region extracting device and character region extracting method

Also Published As

Publication number Publication date
JP3073837B2 (en) 2000-08-07

Similar Documents

Publication Publication Date Title
US6424742B2 (en) Image processing apparatus for discriminating image field of original document plural times and method therefor
US6587115B2 (en) Method of an apparatus for distinguishing type of pixel
JP4170353B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, program, and recording medium
US20060165285A1 (en) Image processing apparatus, image forming apparatus, image reading process apparatus, image processing method, image processing program, and computer-readable storage medium
JP3636332B2 (en) Image processing method and image processing apparatus
US8345310B2 (en) Halftone frequency determination method and printing apparatus
US7411699B2 (en) Method and apparatus to enhance digital image quality
JPH03208467A (en) Picture area identification system for picture processing unit
US6775031B1 (en) Apparatus and method for processing images, image reading and image forming apparatuses equipped with the apparatus, and storage medium carrying programmed-data for processing images
US20060152765A1 (en) Image processing apparatus, image forming apparatus, image reading process apparatus, image processing method, image processing program, and computer-readable storage medium
US6868183B1 (en) Image processing apparatus, image forming apparatus, and image processing method depending on the type of original image
JPH1127542A (en) Color-type discriminating device
JP3073837B2 (en) Image region separation device and image region separation method
JPH0818785A (en) Image output device
JPS6359272A (en) Picture processor
JPH10108012A (en) Image area separating device
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP4179998B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP3183787B2 (en) Halftone area determination device
JP3064896B2 (en) Image processing device
JPH02199588A (en) Image area identifying device
JP2900343B2 (en) Image processing device
JPH05344330A (en) Picture area discriminating device
KR100514734B1 (en) Method and apparatus for improvement of digital image quality
KR100484170B1 (en) Method and apparatus for improvement of digital image quality

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000509

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040520

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080602

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090602

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100602

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees