JP2003259115A - Image processor, image reader, image forming device, and color copying machine - Google Patents

Image processor, image reader, image forming device, and color copying machine

Info

Publication number
JP2003259115A
JP2003259115A JP2002059083A JP2002059083A JP2003259115A JP 2003259115 A JP2003259115 A JP 2003259115A JP 2002059083 A JP2002059083 A JP 2002059083A JP 2002059083 A JP2002059083 A JP 2002059083A JP 2003259115 A JP2003259115 A JP 2003259115A
Authority
JP
Japan
Prior art keywords
pixel
color
white
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002059083A
Other languages
Japanese (ja)
Inventor
Shinji Yamakawa
愼二 山川
Yasunobu Shirata
康伸 白田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002059083A priority Critical patent/JP2003259115A/en
Publication of JP2003259115A publication Critical patent/JP2003259115A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor, an image reader, an image forming device, and a color copying machine which do not emphasize image data in a specified period. <P>SOLUTION: A filter 321 computes coefficient groups A and B (Fig. 6) and outputs (minimum value of arithmetic result/16 + pixel of interest) to edge extraction 322 and outputs (maximum value of arithmetic result/16 + pixel of interest) to white area extraction 323. The coefficient groups A and B are Laplacian, so they are divided by a specified coefficient (16) and added to a pixel of interest for correction. The minimum value of the arithmetic result is outputted to the edge extraction 322 since a white level can possibly not be extracted sufficiently when the structure of a character is in a hair line shape. The maximum value of the arithmetic result is outputted to the white area extraction 323 to make it easy to extract a pattern when the pattern is in the structure of a hair line pattern (e.g. output of a copying machine). <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像データの文字
を検出して適切な画像処理を行う画像処理装置、画像読
取装置、画像形成装置およびカラー複写装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image reading apparatus, an image forming apparatus and a color copying apparatus which detect characters in image data and perform appropriate image processing.

【0002】[0002]

【従来の技術】近年、カラー画像データをデジタル的に
処理し、カラー出力可能なカラープリンタや、カラー原
稿を色分解して電気的に読み取り、取得したカラー画像
データを用紙上に複写するカラー複写機などのカラー印
刷可能な画像処理装置が広く利用されている。これらの
カラープリンタ、カラー複写機などの画像処理装置の普
及に伴い、カラー画像の出力品質の向上が求められてい
る。例えば、原稿が黒一色であった場合、黒を再生する
信号として、イエロー、マゼンダ、シアン、ブラックの
各信号が発生するが、各色が重ね合わせで再現されるた
め、各色間のずれによって黒線ににじみが発生し、ぼや
けて見えてしまうことがある。このような出力品質の低
下を防止するために、画像補正、画質調整をフィルタを
切り替えることにより、画像中の黒文字、黒線の特徴を
生かす方法が提案されている。このフィルタの切り替え
として、文字や写真により切り替えるものや、エッジ量
(ラプラシアン)でフィルタの係数制御するものがあ
る。フィルタ係数の設定としては、万線パターンを文字
エッジとして検出しないようにし、万線パターンを強調
しないようなものを設定する必要がある。また、複数の
フィルタ係数を特定の条件で切り換えることにより、補
正を行うものもある。
2. Description of the Related Art In recent years, color printers capable of digitally processing color image data and outputting in color, and color copying in which color originals are color-separated and electrically read, and the acquired color image data is copied onto paper. Image processing devices capable of color printing, such as printing machines, are widely used. With the spread of image processing apparatuses such as these color printers and color copying machines, it is required to improve the output quality of color images. For example, if the original is a single color of black, the signals of yellow, magenta, cyan, and black are generated as the signals for reproducing black. Blurring may occur and the image may appear blurry. In order to prevent such a reduction in output quality, a method has been proposed in which the characteristics of black characters and black lines in an image are utilized by switching filters for image correction and image quality adjustment. As for the switching of the filter, there are a method of switching by a character or a photograph and a method of controlling the coefficient of the filter by the edge amount (Laplacian). It is necessary to set the filter coefficient so that the line pattern is not detected as a character edge and the line pattern is not emphasized. Further, there is also a method of performing correction by switching a plurality of filter coefficients under specific conditions.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、画像読
み取り部のレンズのMTF(周波数特性)などにより、
読み取られた画像データ自体がぼけていることもあり、
このように画像データ自体がほけている場合、画像デー
タを強調するようなフィルタをかけてから、画像データ
の再現を行う方法が一般的であるが、均一にフィルタを
施すと、絵柄部も強調されてしまうことになる。特に、
複写機の出力で採用されている万線パターンは、強調し
てしまうと文字との判別が難しくなる。また、フィルタ
を切り替えることで行われる画像補正では、600dp
i読み取りで、400dpiの万線パターンと600d
piの万線パターンの両方を強調しないようなようなフ
ィルタ係数を設定することは難しく、また、複数のフィ
ルタ係数を用いる場合には、切り替えを誤判定してしま
う恐れがある。そこで、本発明の第1の目的は、複数種
のフィルタ(係数)にて演算を行い、特定の周波数特性
をもつ画像データを強調しないようにする画像処理装
置、画像読取装置、画像形成装置およびカラー複写装置
を提供することである。本発明の第2の目的は、複数の
フィルタで400dpiの万線周期を強調しないフィル
タ係数と600dpiの万線周期強調しないフィルタ係
数で、フィルタ演算を行い、その結果により、フィルタ
係数を切り替える画像処理装置、画像読取装置、画像形
成装置およびカラー複写装置を提供することである。本
発明の第3の目的は、エッジ抽出手段においては、万線
パターンでは黒を強調しないフィルタを選択して、白地
領域検出においては、白を強調しないフィルタを選択し
て、万線パターンを文字としないようにすることができ
る画像処理装置、画像読取装置、画像形成装置およびカ
ラー複写装置を提供することである。
However, due to the MTF (frequency characteristic) of the lens of the image reading unit,
The scanned image data itself may be blurred,
When the image data itself is unraveled in this way, it is common to apply a filter that emphasizes the image data and then reproduce the image data. Will be done. In particular,
If the line pattern used in the output of the copying machine is emphasized, it will be difficult to distinguish it from a character. Further, in the image correction performed by switching the filter, 600 dp
i reading, 400 dpi line pattern and 600d
It is difficult to set a filter coefficient that does not emphasize both the line patterns of pi, and when using a plurality of filter coefficients, switching may be erroneously determined. Therefore, a first object of the present invention is to perform an operation with a plurality of types of filters (coefficients) so as not to emphasize image data having a specific frequency characteristic, an image processing apparatus, an image reading apparatus, an image forming apparatus, and A color copying apparatus is provided. A second object of the present invention is to carry out a filter operation with a filter coefficient that does not emphasize a 400-dpi line cycle and a filter coefficient that does not emphasize a 600-dpi line cycle with a plurality of filters, and perform image processing to switch the filter coefficient according to the result. To provide an apparatus, an image reading apparatus, an image forming apparatus, and a color copying apparatus. A third object of the present invention is to select a filter that does not emphasize black in the line pattern in the edge extraction means and a filter that does not emphasize white in the white background area detection to select the line pattern as a character. An image processing apparatus, an image reading apparatus, an image forming apparatus, and a color copying apparatus can be provided.

【0004】[0004]

【課題を解決するための手段】請求項1記載の発明で
は、画像データを受領する画像データ受領手段と、前記
画像データ受領手段で受領した画像データの補正を複数
のフィルタにより行う補正手段と、前記複数のフィルタ
のフィルタ演算を行うフィルタ演算手段と、前記複数の
フィルタのフィルタ係数を格納するフィルタ係数格納手
段と、前記フィルタ演算手段による演算結果に基づい
て、前記補正手段が補正を行う際のフィルタ係数を決定
するフィルタ係数決定手段と、前記補正手段による補正
結果に基づいて、画像データのエッジ抽出処理を行うエ
ッジ抽出手段と、を備えたことにより、前記第1および
前記第2の目的を達成する。請求項2記載の発明では、
請求項1記載の発明において、前記フィルタ係数決定手
段は、前記フィルタ演算手段による演算結果の画像濃度
の最小値に基づいて、前記フィルタ係数を決定すること
により、前記第1および前記第2の目的を達成する。
According to a first aspect of the present invention, image data receiving means for receiving image data, correction means for correcting the image data received by the image data receiving means by a plurality of filters, and Filter operation means for performing filter operation of the plurality of filters, filter coefficient storage means for storing filter coefficients of the plurality of filters, and when the correction means performs correction based on the operation result by the filter operation means Since the filter coefficient determining means for determining the filter coefficient and the edge extracting means for performing the edge extracting process of the image data based on the correction result by the correcting means are provided, the first and second objects are achieved. To achieve. According to the invention of claim 2,
In the invention according to claim 1, the filter coefficient determination means determines the filter coefficient based on the minimum value of the image density of the calculation result by the filter calculation means, thereby achieving the first and second objects. To achieve.

【0005】請求項3記載の発明では、画像データを受
領する画像データ受領手段と、前記画像データ受領手段
で受領した画像データの補正を複数のフィルタにより行
う補正手段と、前記複数のフィルタのフィルタ演算を行
うフィルタ演算手段と、前記複数のフィルタのフィルタ
係数を格納するフィルタ係数格納手段と、前記フィルタ
演算手段による演算結果に基づいて、前記補正手段が補
正を行う際のフィルタ係数を決定するフィルタ係数決定
手段と、前記補正手段による補正結果に基づいて、画像
データの白地領域抽出処理を行う領域抽出手段と、を備
えたことにより、前記第3の目的を達成する。請求項4
記載の発明では、請求項3記載の発明において、前記フ
ィルタ係数決定手段は、前記フィルタ演算手段による演
算結果の画像濃度の最大値に基づいて、前記フィルタ係
数を決定することにより、前記第3の目的を達成する。
According to the third aspect of the invention, the image data receiving means for receiving the image data, the correcting means for correcting the image data received by the image data receiving means by a plurality of filters, and the filter of the plurality of filters. A filter calculation unit that performs a calculation, a filter coefficient storage unit that stores the filter coefficients of the plurality of filters, and a filter that determines a filter coefficient when the correction unit makes a correction based on the calculation result of the filter calculation unit. The third object is achieved by including the coefficient determining means and the area extracting means for performing the white background area extracting process of the image data based on the correction result by the correcting means. Claim 4
According to a third aspect of the invention, in the third aspect of the invention, the filter coefficient determining means determines the filter coefficient based on the maximum value of the image density of the calculation result by the filter calculating means, thereby the third coefficient. Achieve the purpose.

【0006】請求項5記載の発明では、請求項1、請求
項2、請求項3、請求項4のうちいずれか1記載の画像
処理装置に、原稿画像を色分解して読み取り、画像デー
タを生成して前記画像データ受領手段に送信するカラー
画像データ読取手段をさらに備えたことにより、前記第
1、前記第2および前記第3の目的を達成する。請求項
6記載の発明では、請求項1、請求項2、請求項3、請
求項4のうちいずれか1に記載の画像処理装置に、前記
画像データを用紙上にカラー画像形成するカラー画像形
成手段をさらに備えたことにより、前記第1、前記第2
および前記第3の目的を達成する。請求項7記載の発明
では、請求項1、請求項2、請求項3、請求項4のうち
いずれか1に記載の画像処理装置に、原稿画像を色分解
して読み取り、画像データを生成して前記画像データ受
領手段に送信するカラー画像データ読取手段と、前記画
像データを用紙上にカラー画像形成するカラー画像形成
手段と、をさらに備えたことにより、前記第1、前記第
2および前記第3の目的を達成する。請求項8記載の発
明では、請求項6記載の画像形成装置または請求項7記
載のカラー複写装置に、外部装置からのプリント指示を
受信するプリント指示受信手段をさらに備え、前記画像
データ受領手段は、前記外部装置から前記画像データを
受領し、前記カラー画像形成手段は、前記プリント指示
受信手段によって受信したプリント指示に基づいて、前
記カラー画像形成手段によるカラー画像形成を実行する
ことにより、前記第1、前記第2および前記第3の目的
を達成する。
According to a fifth aspect of the invention, the image processing apparatus according to any one of the first, second, third, and fourth aspects separates the original image into colors and reads the image data to obtain image data. By further comprising color image data reading means for generating and transmitting to the image data receiving means, the first, second and third objects are achieved. According to a sixth aspect of the present invention, a color image formation is performed in the image processing apparatus according to any one of the first, second, third and fourth aspects, in which the image data is formed as a color image on a sheet. By further comprising means, the first and second
And to achieve the third object. According to a seventh aspect of the present invention, the image processing apparatus according to any one of the first, second, third, and fourth aspects performs color separation of an original image and reads the original image to generate image data. By further including color image data reading means for transmitting the image data to the image data receiving means, and color image forming means for forming a color image of the image data on a sheet, whereby the first, second, and the first Achieve the purpose of 3. According to an eighth aspect of the invention, the image forming apparatus according to the sixth aspect or the color copying apparatus according to the seventh aspect further includes print instruction receiving means for receiving a print instruction from an external device, and the image data receiving means is The image data is received from the external device, and the color image forming unit executes the color image formation by the color image forming unit based on the print instruction received by the print instruction receiving unit. 1, achieve the second and third objects.

【0007】[0007]

【発明の実施の形態】以下、本発明の好適な実施の形態
について、図1ないし図30を参照して詳細に説明す
る。図1は、本実施の形態に係る画像処理装置の概略構
成を示した図である。図1では、画像処理装置の一例と
してデジタルフルカラー複写機(以下、単にカラー複写
機という)が示されている。カラー画像読み取り装置
(以下、スキャナという)200は、コンタクトガラス
202上の原稿180の画像を照明ランプ205、ミラ
ー群204A、204B、204Cなど、およびレンズ
206を介してカラーセンサ207に結像して、原稿の
カラー画像情報を、例えば、ブルー(以下、Bとい
う)、グリーン(以下、Gという)およびレッド(以
下、Rという)の色分解光毎に読み取り、電気的な画像
信号に変換する。カラーセンサ207は、本実施例で
は、3ラインCCD(光電変換素子)センサで構成され
ており、B、G、Rの画像を色ごとに読み取りする。ス
キャナ200で得たB、G、Rの色分解画像信号強度レ
ベルを基にして、図示省略された画像処理ユニットにて
色変換処理を行い、ブラック(以下、Bkという)、シ
アン(以下、Cという)、マゼンダ(以下、Mという)
およびイエロー(以下、Yという)の記録色情報を含む
カラー画像データを得る。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described in detail below with reference to FIGS. 1 to 30. FIG. 1 is a diagram showing a schematic configuration of an image processing apparatus according to this embodiment. In FIG. 1, a digital full-color copying machine (hereinafter, simply referred to as a color copying machine) is shown as an example of the image processing apparatus. A color image reading device (hereinafter referred to as a scanner) 200 forms an image of an original 180 on a contact glass 202 on a color sensor 207 via an illumination lamp 205, mirror groups 204A, 204B, 204C, etc., and a lens 206. The color image information of the original is read for each color-separated light of blue (hereinafter referred to as B), green (hereinafter referred to as G) and red (hereinafter referred to as R), and converted into an electrical image signal. In this embodiment, the color sensor 207 is composed of a 3-line CCD (photoelectric conversion element) sensor, and reads B, G, and R images for each color. Based on the B, G, and R color-separated image signal intensity levels obtained by the scanner 200, color conversion processing is performed by an image processing unit (not shown), and black (hereinafter referred to as Bk), cyan (hereinafter referred to as C) ), Magenta (hereinafter referred to as M)
Color image data including recording color information of yellow and yellow (hereinafter, Y) is obtained.

【0008】このカラー画像データを用い、次に述べる
カラー画像記録装置(以下、カラープリンタという)4
00によって、Bk、C、M、Yの画像を中間転写ベル
ト上に重ねて形成し、そして転写紙に転写する。スキャ
ナ200は、カラープリンタ400の動作とタイミング
をとったスキャナースタート信号を受けて、照明ランプ
205やミラー群204A、204B、204Cなどか
らなる照明・ミラー光学系が左矢印方向へ原稿走査し、
1回走査毎に1色の画像データを得る。そして、その都
度、カラープリンタ400で順次、顕像化しつつ、これ
らを中間転写ベルト上に重ね合わせて、4色のフルカラ
ー画像を形成する。
Using the color image data, a color image recording device (hereinafter referred to as a color printer) 4 described below is used.
00, Bk, C, M, and Y images are formed on the intermediate transfer belt in an overlapping manner, and then transferred to a transfer paper. The scanner 200 receives a scanner start signal in time with the operation of the color printer 400, and an illumination / mirror optical system including an illumination lamp 205 and mirror groups 204A, 204B, and 204C scans the document in the direction of the left arrow,
Image data of one color is obtained for each scanning. Then, each time, while being visualized by the color printer 400, these are superposed on the intermediate transfer belt to form a full-color image of four colors.

【0009】カラープリンタ400の露光手段としての
書き込み光学ユニット401は、スキャナ200からの
カラー画像データを光信号に変換して、原稿画像に対応
した光書き込みを行い、感光体ドラム414に静電潜像
を形成する。書き込み光学ユニット401は、レーザー
発光器441、これを発光駆動する発光駆動制御部(図
示省略)、ポリゴンミラー443、これを回転駆動する
回転用モータ444、fθレンズ442、反射ミラー4
46などで構成されている。感光体ドラム414は、図
中矢印で示すように反時計廻りの向きに回転するが、そ
の周りには、感光体クリーニングユニット421、除電
ランプ414M、帯電器419、感光体ドラム414上
の潜像電位を検知する電位センサー414D、リボルバ
ー現像装置420の選択された現像器、現像濃度パター
ン検知器414P、中間転写ベルト415などが配置さ
れている。
A writing optical unit 401 as an exposing means of the color printer 400 converts color image data from the scanner 200 into an optical signal and performs optical writing corresponding to an original image, and an electrostatic latent image is formed on the photosensitive drum 414. Form an image. The writing optical unit 401 includes a laser light emitter 441, a light emission drive controller (not shown) that drives the laser light emitter 441, a polygon mirror 443, a rotation motor 444 that rotationally drives the polygon mirror 443, an fθ lens 442, and a reflection mirror 4.
It is composed of 46 and the like. The photoconductor drum 414 rotates in a counterclockwise direction as shown by an arrow in the figure. A potential sensor 414D that detects a potential, a selected developing device of the revolver developing device 420, a development density pattern detector 414P, an intermediate transfer belt 415, and the like are arranged.

【0010】リボルバー現像装置420は、Bk現像器
420K、C現像器420C、M現像器420M、Y現
像器420Yと、各現像器を図中矢印で示すように反時
計回りの向きに回転させるリボルバー回転駆動部(図示
省略)などからなる。これら各現像器は、静電潜像を顕
像化するために、現像剤の穂を感光体ドラム414の表
面に接触させて回転する現像スリーブ420KS、42
0CS、420MS、420YSと、現像剤を組み上げ
・撹拌するために回転する現像パドルなどで構成されて
いる。待機状態では、リボルバー現像装置420はBk
現像器420Kで現像を行う位置にセットされており、
コピー動作が開始されると、スキャナ200で所定のタ
イミングからBk画像データの読み取りがスタートし、
この画像データに基づき、レーザー光による光書き込み
・潜像形成が始まる。以下、Bk画像データによる静電
潜像をBk潜像という。C、M、Yの各画像データにつ
いても同様に、C潜像、M潜像、Y潜像という。このB
k潜像の先端部から現像可能とすべく、Bk現像器42
0Kの現像位置に潜像先端部が到達する前に、現像スリ
ーブ420KSを回転開始して、Bk潜像をBkトナー
で現像する。そして、以後、Bk潜像領域の現像動作を
続けるが、潜像後端部がBk潜像位置を通過した時点
で、速やかに、Bk現像器420Kによる現像位置から
次の色の現像器による現像位置まで、リボルバー現像装
置420を駆動して回動させる。この回動動作は、少な
くとも、次のカラー画像データによる潜像先端部が到達
する前に完了させる。
The revolver developing device 420 includes a Bk developing device 420K, a C developing device 420C, an M developing device 420M, a Y developing device 420Y, and a revolver for rotating each developing device in a counterclockwise direction as shown by an arrow in the figure. The rotary drive unit (not shown) is included. These developing devices rotate the developing sleeves 420KS and 42KS by bringing the brush of the developer into contact with the surface of the photoconductor drum 414 to visualize the electrostatic latent image.
0CS, 420MS, 420YS, and a developing paddle that rotates for assembling and stirring the developer. In the standby state, the revolver developing device 420 is set to Bk.
It is set to the position where development is performed with the developing device 420K,
When the copy operation is started, the scanner 200 starts reading the Bk image data at a predetermined timing,
Based on this image data, optical writing and latent image formation by laser light starts. Hereinafter, the electrostatic latent image based on the Bk image data is referred to as a Bk latent image. Similarly, each of the C, M, and Y image data is referred to as a C latent image, an M latent image, and a Y latent image. This B
In order to enable development from the tip of the k latent image, the Bk developing device 42
Before the latent image front end reaches the development position of 0K, the developing sleeve 420KS starts rotating to develop the Bk latent image with Bk toner. After that, the developing operation of the Bk latent image area is continued, but when the trailing edge of the latent image passes the Bk latent image position, the development of the next color from the developing position of the Bk developing device 420K is promptly performed. The revolver developing device 420 is driven and rotated to the position. This rotation operation is completed at least before the leading edge of the latent image by the next color image data arrives.

【0011】像の形成サイクルが開始されると、感光体
ドラム414は矢印で示すように反時計回りの向きに回
動し、中間転写ベルト415は図示しない駆動モータに
より、時計回りの向きに回動する。中間転写ベルト41
5の回動に伴って、Bkトナー像形成、Cトナー像形
成、Mトナー像形成およびYトナー像形成が順次行わ
れ、最終的に、Bk、C、M、Yの順に中間転写ベルト
415上に重ねてトナー像が形成される。Bk像の形成
は、以下のようにして行われる。すなわち、帯電器41
9がコロナ放電によって、感光体ドラム414を負電荷
で約−700Vに一様に帯電する。続いて、レーザー発
光器441は、Bk信号に基づいてラスタ露光を行う。
このようにラスタ像が露光されたとき、当初、一様に荷
電された感光体ドラム414の露光された部分について
は、露光光量に比例する電荷が消失し、静電潜像が形成
される。リボルバー現像装置420内のトナーは、フェ
ライトキャリアとの撹拌によって負極性に帯電され、ま
た、リボルバー現像装置420のBkの現像スリーブ4
20KSは、感光体ドラム414の金属基体層に対して
図示しない電源回路によって、負の直流電位と交流とが
重畳された電位にバイアスされている。この結果、感光
体ドラム414の電荷が残っている部分には、トナーが
付着せず、電荷のない部分、つまり、露光された部分に
はBkトナーが吸着され、潜像と相似なBk可視像が形
成される。中間転写ベルト415は、駆動ローラ415
D、転写対向ローラ415T、クリーニング対向ローラ
415Cおよび従動ローラ群に張架されており、図示し
ない駆動モータにより回動駆動される。感光体ドラム4
14上に形成したBkトナー像は、感光体ドラム414
と接触状態で等速駆動している中間転写ベルト415の
表面に、ベルト転写コロナ放電器(以下、ベルト転写部
という)416によって転写される。以下、感光体ドラ
ム414から中間転写ベルト415へのトナー像転写
を、ベルト転写と称する。感光体ドラム414上の若干
の未転写残留トナーは、感光体ドラム414の再使用に
備えて、感光体クリーニングユニット421で清掃され
る。ここで回収されたトナーは、回収パイプを経由して
図示しない排トナータンクに蓄えられる。
When the image forming cycle is started, the photosensitive drum 414 rotates counterclockwise as indicated by an arrow, and the intermediate transfer belt 415 rotates clockwise by a drive motor (not shown). Move. Intermediate transfer belt 41
With the rotation of 5, the Bk toner image formation, the C toner image formation, the M toner image formation, and the Y toner image formation are sequentially performed, and finally, on Bk, C, M, and Y in this order on intermediate transfer belt 415. And a toner image is formed thereon. The Bk image is formed as follows. That is, the charger 41
9 corona discharges the photosensitive drum 414 to a negative charge and uniformly charges the photosensitive drum 414 to about −700V. Then, the laser light emitter 441 performs raster exposure based on the Bk signal.
When the raster image is exposed in this manner, in the exposed portion of the photosensitive drum 414 that is initially uniformly charged, the charge proportional to the amount of exposure light disappears and an electrostatic latent image is formed. The toner in the revolver developing device 420 is negatively charged by stirring with the ferrite carrier, and the Bk developing sleeve 4 of the revolver developing device 420 is charged.
20 KS is biased by a power supply circuit (not shown) with respect to the metal base layer of the photoconductor drum 414 to a potential in which a negative DC potential and an alternating current are superimposed. As a result, the toner does not adhere to the portion of the photoconductor drum 414 where the electric charge remains, and the Bk toner is adsorbed to the portion having no electric charge, that is, the exposed portion, and Bk visible similar to the latent image. An image is formed. The intermediate transfer belt 415 is driven by the drive roller 415.
D, a transfer opposing roller 415T, a cleaning opposing roller 415C, and a driven roller group are stretched and driven to rotate by a drive motor (not shown). Photoconductor drum 4
Bk toner image formed on the photosensitive drum 414
The image is transferred by a belt transfer corona discharger (hereinafter, referred to as a belt transfer unit) 416 onto the surface of the intermediate transfer belt 415 which is driven at a constant speed in contact with. Hereinafter, the toner image transfer from the photoconductor drum 414 to the intermediate transfer belt 415 will be referred to as belt transfer. A small amount of untransferred residual toner on the photoconductor drum 414 is cleaned by the photoconductor cleaning unit 421 in preparation for reuse of the photoconductor drum 414. The toner collected here is stored in an exhaust toner tank (not shown) via a collection pipe.

【0012】なお、中間転写ベルト415には、感光体
ドラム414に順次形成するBk、C、M、Yのトナー
像を、同一面に順次、位置合わせして、4色重ねのベル
ト転写画像を形成し、その後、転写紙にコロナ放電転写
器にて一括転写を行う。ところで、感光体ドラム414
側では、Bk画像の形成工程の次に、C画像の形成工程
に進むが、所定のタイミングから、スキャナ200によ
るC画像データの読み取りが始まり、その画像データに
よるレーザー光書き込みで、C潜像の形成を行う。C現
像器420Cは、その現像位置に対して、先のBk潜像
後端部が通過した後で、かつ、C潜像先端部が到達する
前に、リボルバー現像装置420の回転動作を行い、C
潜像をCトナーで現像する。以降、C潜像領域の現像を
続けるが、潜像後端部が通過した時点で、先のBk現像
器の場合と同様にリボルバー現像装置420を駆動し
て、C現像器420Cを送り出し、次のM現像器420
Mを現像位置に位置させる。この動作もやはり、次のM
潜像先端部が現像部に到達する前に行う。なお、Mおよ
びYの各像の形成工程については、それぞれの画像デー
タの読み取り、潜像形成、現像の動作が、上述のBk像
や、C像の工程に準ずるので説明は省略する。
On the intermediate transfer belt 415, the Bk, C, M, and Y toner images sequentially formed on the photoconductor drum 414 are sequentially aligned on the same surface to form a belt transfer image of four-color superposition. After being formed, it is collectively transferred onto a transfer paper by a corona discharge transfer device. By the way, the photosensitive drum 414
On the side, the process of forming a Bk image is followed by the process of forming a C image. At a predetermined timing, the reading of the C image data by the scanner 200 starts, and the C latent image of the C latent image is written by the laser light writing by the image data. Form. The C developing device 420C rotates the revolver developing device 420 with respect to the developing position after the trailing end of the previous Bk latent image has passed and before the leading end of the C latent image reaches. C
Develop the latent image with C toner. After that, the development of the C latent image area is continued, but at the time when the trailing edge of the latent image passes, the revolver developing device 420 is driven as in the case of the previous Bk developing device to send out the C developing device 420C, and M developing device 420
Position M at the development position. This operation is also the next M
This is performed before the leading edge of the latent image reaches the developing section. The steps of forming the M and Y images are the same as the steps of reading the image data, forming the latent image, and developing according to the steps of the Bk image and the C image described above.

【0013】ベルトクリーニング装置415Uは、入口
シール、ゴムブレード、排出コイルおよび、これら入口
シールやゴムブレードの接離機構により構成される。1
色目のBk画像をベルト転写した後の2、3、4色目の
画像をベルト転写している間は、ブレード接離機構によ
って、中間転写ベルト面から入口シール、ゴムブレード
などは離間させておく。紙転写コロナ放電器(以下、紙
転写器という)417は、中間転写ベルト415上の重
ねトナー像を転写紙に転写するべく、コロナ放電方式に
て、AC+DCまたは、DC成分を転写紙および中間転
写ベルト415に印加するものである。
The belt cleaning device 415U comprises an inlet seal, a rubber blade, a discharge coil, and a contact / separation mechanism for the inlet seal and the rubber blade. 1
During the belt transfer of the images of the second, third, and fourth colors after the Bk image of the color is transferred onto the belt, the entrance seal, the rubber blade, etc. are separated from the surface of the intermediate transfer belt by the blade contact / separation mechanism. The paper transfer corona discharger (hereinafter, referred to as a paper transfer device) 417 transfers AC + DC or DC component to the transfer paper and the intermediate transfer by the corona discharge method in order to transfer the superimposed toner image on the intermediate transfer belt 415 to the transfer paper. It is applied to the belt 415.

【0014】給紙バンク内の転写紙カセット482に
は、各種サイズの転写紙が収納されており、指定された
サイズの用紙を収納しているカセットから、給紙コロ4
83によってレジストローラ対418R方向に給紙・搬
送される。なお、符号412B2は、OHP用紙や厚紙
などを手差しするための給紙トレイを示している。像形
成が開始される時期に、転写紙は前述のいずれかの転写
紙カセット482から給送され、レジストローラ対41
8Rのニップ部にて待機している。そして、紙転写器4
17に中間転写ベルト415上のトナー像の先端がさし
かかるときに、丁度、転写紙先端がこの像の先端に一致
するようにレジストローラ対418Rが駆動され、紙と
像との合わせが行われる。このようにして、転写紙が中
間転写ベルト上の色重ね像と重ねられて、正電位につな
がれた紙転写器417の上を通過する。このとき、コロ
ナ放電電流で転写紙が正電荷で荷電され、トナー画像の
殆どが転写紙上に転写される。続いて、紙転写器417
の左側に配置した図示しない除電ブラシによる分離除電
器を通過するときに、転写紙は除電され、中間転写ベル
ト415から剥離されて紙搬送ベルト422に移る。中
間転写ベルト415の面から4色重ねトナー像を一括転
写された転写紙は、紙搬送ベルト422で定着器423
に搬送され、所定温度にコントロールされた定着ローラ
423Aと加圧ローラ423Bのニップ部でトナー像を
溶融定着され、排出ロール対424で本体外に送り出さ
れ、図示省略のコピートレイに表向きにスタックされ
る。
Transfer paper cassettes 482 in the paper feed bank contain transfer papers of various sizes, and the paper feed roller 4 is loaded from the cassette that stores papers of a specified size.
The sheet is fed and conveyed in the direction of the registration roller pair 418R by 83. Reference numeral 412B2 indicates a paper feed tray for manually inserting OHP paper or thick paper. At the time when image formation is started, the transfer paper is fed from any of the transfer paper cassettes 482 described above, and the registration roller pair 41
Standby at 8R nip. And the paper transfer device 4
When the front end of the toner image on the intermediate transfer belt 415 approaches 17 the registration roller pair 418R is driven so that the front end of the transfer paper coincides with the front end of this image, and the paper and image are aligned. In this way, the transfer paper is superposed on the color superposed image on the intermediate transfer belt and passes over the paper transfer device 417 which is connected to the positive potential. At this time, the transfer paper is positively charged by the corona discharge current, and most of the toner image is transferred onto the transfer paper. Then, the paper transfer device 417
When passing through a separation static eliminator by a static eliminator brush (not shown) disposed on the left side of the sheet, the transfer sheet is destaticized, separated from the intermediate transfer belt 415, and transferred to the paper transport belt 422. The transfer paper on which the four-color superposed toner images are collectively transferred from the surface of the intermediate transfer belt 415 is fixed to the fixing device 423 by the paper transport belt 422.
The toner image is melted and fixed at the nip portion of the fixing roller 423A and the pressure roller 423B, which are controlled to a predetermined temperature, is sent to the outside of the main body by the discharge roll pair 424, and is stacked face up on a copy tray (not shown). It

【0015】なお、ベルト転写後の感光体ドラム414
は、ブラシローラ、ゴムブレードなどからなる感光体ク
リーニングユニット421で表面をクリーニングされ、
また、除電ランプ414Mで均一に除電される。また、
転写紙にトナー像を転写した後の中間転写ベルト415
は、再び、ベルトクリーニング装置415Uのブレード
接離機構でブレードを押圧して表面をクリーニングす
る。リピートコピーの場合には、スキャナの動作および
感光体への画像形成は、1枚目の4色目画像工程に引き
続き、所定のタイミングで2枚目の1色目画像工程に進
む。中間転写ベルト415の方は、1枚目の4色重ね画
像の転写紙への一括転写工程に引き続き、表面がベルト
クリーニング装置415Uでクリーニングされた領域
に、2枚目のBkトナー像がベルト転写されるようにす
る。その後は、1枚目と同様動作になる。
Incidentally, the photosensitive drum 414 after the belt transfer.
Is cleaned on its surface by a photoconductor cleaning unit 421 including a brush roller and a rubber blade,
Further, the static elimination lamp 414M uniformly eliminates the static electricity. Also,
Intermediate transfer belt 415 after the toner image is transferred onto the transfer paper
Again presses the blade with the blade contacting / separating mechanism of the belt cleaning device 415U to clean the surface. In the case of repeat copy, the operation of the scanner and the image formation on the photosensitive member proceed to the first color image process of the second sheet at a predetermined timing after the fourth color image process of the first sheet. The intermediate transfer belt 415 transfers the second Bk toner image to the area where the surface is cleaned by the belt cleaning device 415U, following the batch transfer process of the first four-color superimposed image onto the transfer paper. To be done. After that, the same operation as the first sheet is performed.

【0016】図1に示すカラー複写機は、パ−ソナルコ
ンピュ−タなどのホスト装置から、LAN(Local
Area Network)またはパラレルI/F
(インターフェース)を通じてプリントデ−タが与えら
れるとそれをカラープリンタ400でプリントアウト
(画像出力)でき、しかもスキャナ200で読み取った
画像データを遠隔のファクシミリに送信し、受信する画
像データもプリントアウトできる複合機能つきのカラー
複写機である。このカラー複写機は、構内交換器PBX
を介して公衆電話網に接続され、公衆電話網を介して、
ファクシミリ交信やサ−ビスセンタの管理サ−バと交信
することができる。
The color copying machine shown in FIG. 1 is connected to a LAN (Local) from a host device such as a personal computer.
Area Network) or parallel I / F
When print data is given through the (interface), it can be printed out (image output) by the color printer 400, and the image data read by the scanner 200 can be transmitted to a remote facsimile and the received image data can also be printed out. It is a color copier with multiple functions. This color copier is a private branch exchange PBX.
Connected to the public telephone network via
Facsimile communication and communication with the management server of the service center are possible.

【0017】図2は、図1のカラー複写機の電気システ
ムの概略構成を示したブロック図である。図2では、メ
インコントローラ10を中心に、カラー複写機の制御装
置が図示されている。メインコントローラ10は、カラ
ー複写機全体を制御する。メインコントローラ10に
は、オペレータに対する表示と、オペレータからの機能
設定入力制御を行う操作/表示ボードOPB、エディタ
15、スキャナ200およびオプションのADF(Au
to Document Feder)の制御、原稿画
像を画像メモリに書き込む制御、および、画像メモリか
らの作像を行う制御などを行うスキャナコントローラ1
2、プリンタコントローラ16、画像処理ユニット(以
下、IPUという)300、ならびに、カラープリンタ
400内にあって荷電、露光、現像、給紙、転写、定着
ならびに転写紙搬送を行う作像エンジンの制御を行うエ
ンジンコントローラ13などの分散制御装置が接続され
ている。各分散制御装置とメインコントローラ10は、
必要に応じて機械の状態、動作指令のやりとりを行って
いる。また、紙搬送などに必要なメインモータ、各種ク
ラッチも、メインコントロ−ラ10内の図示しないドラ
イバに接続されている。
FIG. 2 is a block diagram showing a schematic configuration of an electric system of the color copying machine shown in FIG. In FIG. 2, the control device of the color copying machine is shown centering on the main controller 10. The main controller 10 controls the entire color copying machine. The main controller 10 includes an operation / display board OPB for displaying information to the operator and controlling input of function settings from the operator, an editor 15, a scanner 200, and an optional ADF (Au).
to Document Feeder), control for writing a document image in the image memory, control for forming an image from the image memory, and the like.
2. Control of the printer controller 16, the image processing unit (hereinafter referred to as IPU) 300, and the image forming engine in the color printer 400 that performs charging, exposure, development, paper feeding, transfer, fixing, and transfer paper transportation. A distributed control device such as an engine controller 13 for performing the operation is connected. Each distributed control device and main controller 10
The machine status and operation commands are exchanged as necessary. Further, the main motor and various clutches required for paper conveyance and the like are also connected to a driver (not shown) in the main controller 10.

【0018】カラープリンタ400には、給紙トレイか
らの給紙をはじめとして、感光体ドラム414の荷電、
レーザ書込みユニットによる画像露光、現像、転写、定
着および排紙を行なう機構要素を駆動する電気回路およ
び制御回路、ならびに各種センサ等がある。プリンタコ
ントローラ16は、パソコンなどの外部装置からの画像
およびプリント指示するコマンドを解析し、画像データ
として、印刷できる状態にビットマップ展開し、メイン
コントローラ10を介して、カラープリンタ400を駆
動して画像データをプリントアウトする。画像およびコ
マンドをLANおよびパラレルI/Fを通じて受信し動
作するために、LANコントロール19とパラレルI/
Fコントロール18がある。FAXコントローラ17
は、ファクシミリ送信指示があるときには、メインコン
トローラ10を介してスキャナ200およびIPU30
0を駆動して原稿の画像を読み取り、画像データを通信
コントロール20および構内交換機PBXを介して、フ
ァクシミリ通信回線に送出する。通信回線からファクシ
ミリの呼びを受け画像データを受信すると、メインコン
トローラ10を介して、カラープリンタ400を駆動し
て画像データをプリントアウトする。
In the color printer 400, charging of the photosensitive drum 414, charging of the photosensitive drum 414,
There are electric circuits and control circuits for driving mechanical elements that perform image exposure, development, transfer, fixing and paper discharge by a laser writing unit, and various sensors. The printer controller 16 analyzes an image from an external device such as a personal computer and a command to print, develops a bitmap into image data as a printable state, and drives the color printer 400 via the main controller 10 to drive the image. Print out the data. In order to receive and operate images and commands via LAN and parallel I / F, LAN control 19 and parallel I / F
There is an F control 18. FAX controller 17
When there is a facsimile transmission instruction, the scanner 200 and the IPU 30 are transmitted via the main controller 10.
0 is driven to read the image of the original, and the image data is sent to the facsimile communication line via the communication control 20 and the private branch exchange PBX. When receiving a facsimile call from the communication line and receiving image data, the color printer 400 is driven through the main controller 10 to print out the image data.

【0019】図3は、画像処理ユニット(IPU)30
0の構成を示したブロック図である。スキャナ200が
発生するR、G、B画像データは、インターフェイス3
51を介してIPU300に与えられる。なお、Bまた
はR単色の記録をBRユニット355が指示する時に
は、R、G、B画像データの選択と集成が行われるが、
このモードの画像記録処理の説明は省略する。IPU3
00に与えられたR、G、B画像データは、RGBγ補
正310で、反射率データ(R、G、Bデータ)から濃
度データ(R、G、Bデータ)に変換される。原稿認識
320は、この濃度R、G、Bデータに基づいて、それ
らのデータが宛てられる画像領域が文字エッジ領域(文
字や線画のエッジ領域)、網点領域、低線数網点領域、
絵柄領域(写真や絵の領域&文字領域でない領域&網点
領域でない)のいずれかの領域であるかを判定し、C/
P信号およびB/C信号を、RGBフィルタ330およ
びインターフェイス353を介してメインコントローラ
10に与える。ここで、C/P信号は、2ビット信号で
あり、「3」が低線数網点領域を、「2」が網点領域
を、「1」が文字エッジ領域を、「0」が絵柄領域を示
すものとする。また、B/C信号は、1ビット信号であ
り、「H」(=1)が無彩領域を、「L」(=0)が有
彩領域を示すものとする。
FIG. 3 shows an image processing unit (IPU) 30.
It is a block diagram showing the composition of 0. The R, G, B image data generated by the scanner 200 is stored in the interface 3
It is given to the IPU 300 via 51. When the BR unit 355 instructs recording of B or R single color, R, G, B image data is selected and assembled.
Description of the image recording process in this mode is omitted. IPU3
The R, G, B image data given to 00 is converted from the reflectance data (R, G, B data) to the density data (R, G, B data) by the RGBγ correction 310. In the document recognition 320, based on the density R, G, B data, the image area to which these data are addressed is a character edge area (edge area of a character or a line drawing), a halftone dot area, a low frequency halftone dot area,
It is determined whether the area is a picture area (a picture or picture area & not a character area & not a halftone area), and C /
The P signal and the B / C signal are given to the main controller 10 via the RGB filter 330 and the interface 353. Here, the C / P signal is a 2-bit signal, "3" is a low frequency halftone dot area, "2" is a halftone dot area, "1" is a character edge area, and "0" is a pattern. It shall indicate the area. The B / C signal is a 1-bit signal, and “H” (= 1) indicates an achromatic area and “L” (= 0) indicates a chromatic area.

【0020】図4は、図3の原稿認識320の機能構成
を示したブロック図である。原稿認識320は、文字エ
ッジ検出、絵柄検出および有彩/無彩検出を行って、文
字エッジ領域あるいは絵柄領域を表すC/P信号、およ
び有彩領域/無彩領域を表すB/C信号を発生する。原
稿認識320は、大別すると、フィルタ321、エッジ
抽出322、白領域抽出323、網点抽出324、色判
定325および総合判定326からなる。なお、ここで
は、スキャナ200の読み取り密度が600dpi程度
の場合を例として説明する。
FIG. 4 is a block diagram showing the functional arrangement of the document recognition 320 shown in FIG. The document recognition 320 performs character edge detection, pattern detection, and chromatic / achromatic detection to generate a C / P signal representing a character edge area or a pattern area and a B / C signal representing a chromatic area / achromatic area. Occur. The document recognition 320 is roughly divided into a filter 321, an edge extraction 322, a white area extraction 323, a halftone dot extraction 324, a color determination 325, and a comprehensive determination 326. Here, a case where the reading density of the scanner 200 is about 600 dpi will be described as an example.

【0021】フィルタ321は、主に文字のエッジ抽出
のために、スキャナ200が発生するG画像データを補
正する。ここで、スキャナ200で読み取ったデータ
は、レンズなどの特性でボケているので、エッジ強調フ
ィルタをかける。ただ、ここでは、単純に原稿上の像エ
ッジを強調し、複写機に広く普及している、階調表現の
ための万線パターンを強調しない必要がある。万線パタ
ーンを強調してしまうと、絵柄(万線パターンによる階
調表現領域)をエッジとして抽出し、最終的に文字エッ
ジと誤判定する可能性があるので、強調しないようにす
る必要がある。また、600dpiで読み取った600
dpiまたは400dpiの万線パターンを示す図5の
ように、600dpiの万線パターンAと400dpi
の万線パターンBは、繰返し周期が異なるので、同一の
フィルタ係数で強調しないようにするのは難しい。その
ため、後段の特徴量検出(エッジ抽出、白領域抽出)に
応じて2つの係数の演算結果の最大値または、最小値の
どちらかを使用する。なお、図5において、主走査方向
xの白1ブロック幅と、それに接する黒1ブロック幅と
の和が、万線ピッチ(定幅:所定数の画素)すなわち万
線周期であり、低濃度中間調の時には白ブロック幅が広
がり、黒ブロック幅が狭くなる。高濃度中間調になるに
つれて、白ブロック幅が狭くなり、黒ブロック幅が広が
る。
The filter 321 corrects the G image data generated by the scanner 200 mainly for extracting the edge of the character. Here, since the data read by the scanner 200 is blurred due to the characteristics of the lens, an edge emphasis filter is applied. However, here, it is necessary to simply emphasize the image edge on the original and not to emphasize the line pattern that is widely used in copying machines for gradation expression. If the line pattern is emphasized, the pattern (gradation expression area by the line pattern) may be extracted as an edge, and it may be erroneously determined to be a character edge, so it is necessary not to emphasize it. . Also, 600 read at 600 dpi
As shown in FIG. 5, which shows a parallel line pattern of 600 dpi or 400 dpi, a parallel line pattern A of 600 dpi and 400 dpi
Since the line pattern B of No. 2 has a different repetition period, it is difficult to prevent the line pattern B from being emphasized by the same filter coefficient. Therefore, either the maximum value or the minimum value of the calculation results of the two coefficients is used according to the subsequent feature amount detection (edge extraction, white area extraction). In FIG. 5, the sum of the width of one white block in the main scanning direction x and the width of one black block in contact with it is the line pitch (constant width: a predetermined number of pixels), that is, the line cycle, and the low density intermediate In tones, the white block width widens and the black block width narrows. The white block width becomes narrower and the black block width becomes wider as the density becomes higher.

【0022】本実施の形態では、フィルタ321の画素
マトリクスを、主走査方向xの画素数7×副走査方向y
(スキャナ200の機械的な原稿走査方向)の画素数5
として、図4のフィルタ321のブロックに示すよう
に、各画素宛てに各重み付け係数a1〜a7、b1〜b
7、c1〜c7、d1〜d7、e1〜e7を宛てた2組
の係数グループ(係数マトリクス)A、Bがある。図6
は、係数グループの一例を示した図である。図6に示す
係数グループAは、図5の600dpiの万線パターン
Aの強調を抑制し、しかも文字のエッジを強調するフィ
ルタ処理用の係数である。一方、図6に示す係数グルー
プBは、図5の400dpiの万線パターンBの強調を
抑制し、しかも文字のエッジを強調するフィルタ処理用
の係数である。
In the present embodiment, the pixel matrix of the filter 321 is set to the number of pixels in the main scanning direction x 7 × the sub scanning direction y.
Number of pixels 5 (mechanical scanning direction of scanner 200)
As shown in the block of the filter 321, the weighting factors a1 to a7 and b1 to b are assigned to the respective pixels.
7, c1 to c7, d1 to d7, and e1 to e7, there are two sets of coefficient groups (coefficient matrices) A and B. Figure 6
FIG. 4 is a diagram showing an example of coefficient groups. The coefficient group A shown in FIG. 6 is a filter processing coefficient that suppresses the emphasis of the line pattern A of 600 dpi in FIG. 5 and further emphasizes the edge of the character. On the other hand, the coefficient group B shown in FIG. 6 is a filter processing coefficient that suppresses the emphasis of the 400 dpi line pattern B of FIG. 5 and emphasizes the edge of the character.

【0023】なお、図6に示す各係数グループA、B
は、横方向が主走査方向xの並び、縦方向が副走査方向
yの並びとなっている。係数グループA、Bのグループ
内第1行の係数が、図4のフィルタ321のブロックの
係数マトリクスの第1行の係数a1〜a7であり、係数
グループA、Bの第3行の中央の「20」が、フィルタ
321のブロックの係数マトリクスの第3行c1〜c7
の中央の画素の係数、すなわち注目画素の係数c4であ
る。係数マトリクスの各係数に、それに宛てられる画素
の画像データが表す値を乗算した積(総計7×5=35
個)の総和(積和値)が、注目画素(c4が宛てられた
画素)をフィルタ321で処理した画像データ値とし
て、エッジ抽出322および白領域抽出323に与えら
れる。ここで、注目画素とは、現在処理対象の画素であ
り、それが順次にx方向にそしてy方向に位置が異なる
ものに更新される。
The coefficient groups A and B shown in FIG.
Is arranged in the horizontal scanning direction x and the vertical direction is arranged in the sub scanning direction y. The coefficients of the first row in the coefficient groups A and B are the coefficients a1 to a7 of the first row of the coefficient matrix of the block of the filter 321 in FIG. 20 ”is the third row c1 to c7 of the coefficient matrix of the block of the filter 321.
Is the coefficient of the pixel in the center of, i.e., the coefficient c4 of the pixel of interest. The product obtained by multiplying each coefficient of the coefficient matrix by the value represented by the image data of the pixel addressed to it (total 7 × 5 = 35
The sum (product sum value) of the individual pixels is given to the edge extraction 322 and the white area extraction 323 as an image data value obtained by processing the pixel of interest (the pixel addressed to c4) by the filter 321. Here, the pixel of interest is a pixel that is currently a processing target, and is sequentially updated to have a different position in the x direction and the y direction.

【0024】係数グループAは、図5に示す600dp
iの万線パターンAの万線ピッチで負の係数(小さい値
の係数)が分布し、それらの間に0(やや大きい値の係
数)が分布し、そしてエッジ強調のために注目画素には
20(極めて大きな係数)が宛てられている。これによ
り、画像データ(注目画素)が万線パターンAの領域の
黒/白間エッジである時には、それに宛てて導出される
加重平均値(積和値)は、万線パターンAではない文字
エッジである時に比べて、かなり低い値になる。一方、
係数グループBは、図5に示す400dpiの万線パタ
ーンBの万線ピッチで負の係数(小さい値の係数)が分
布し、それらの間に0(やや大きい値の係数)が分布
し、そしてエッジ強調のために注目画素には20(極め
て大きな係数)が宛てられている。これにより、画像デ
ータ(注目画素)が万線パターンBの領域の黒/白間エ
ッジである時には、それに宛てて導出される加重平均値
(積和値)は、万線パターンBではない文字エッジであ
る時に比べて、かなり低い値になる。
The coefficient group A is 600 dp shown in FIG.
Negative coefficients (coefficients with small values) are distributed at the parallel pitch of the parallel pattern A of i, 0 (coefficients with slightly large values) are distributed between them, and the pixel of interest is focused on the pixel of interest for edge enhancement. 20 (very large coefficient) is addressed. As a result, when the image data (pixel of interest) is the black / white edge of the area of the line pattern A, the weighted average value (product sum value) derived to it is a character edge that is not the line pattern A. It is much lower than when it is. on the other hand,
Coefficient group B has negative coefficients (coefficients with small values) distributed at the line pitch of line pattern B of 400 dpi shown in FIG. 5, and 0s (coefficients with slightly large values) are distributed between them, and 20 (very large coefficient) is assigned to the pixel of interest for edge enhancement. As a result, when the image data (pixel of interest) is the black / white edge of the area of the line pattern B, the weighted average value (product sum value) derived to it is a character edge that is not the line pattern B. It is much lower than when it is.

【0025】なお、フィルタ321では、係数グループ
Aと係数グループBの演算を行い、エッジ抽出322
に、(演算結果の最小値/16+注目画素)を出力し
て、白領域抽出323には、(演算結果の最大値/16
+注目画素)を出力する。係数グループA、Bは、ラプ
ラシアンなので所定の係数(16)で割って、注目画素
に足し合わせて補正を行う。エッジ抽出322に演算結
果の最小値を出力するのは、文字の構造が万線形状をし
ている場合に、白レベルが十分に抽出できないことがあ
るのを避けるためである。白領域抽出323に演算結果
の最大値を出力するのは、絵柄が万線パターンの構造の
ときに(例えば、複写機の出力)、より絵柄を抽出しや
すいように、最大値を出力する。このことにより、エッ
ジ抽出ではよりエッジを拾いやすくし、白領域抽出では
より絵柄として拾いやすくしている。本実施の形態で
は、一例として2つの係数で説明したが、これに限られ
るものではなく、3つ以上の係数でも同様の効果が得ら
れる。
In the filter 321, the coefficient group A and the coefficient group B are calculated, and the edge extraction 322 is performed.
Is output to (minimum value of calculation result / 16 + pixel of interest), and white area extraction 323 displays (maximum value of calculation result / 16)
+ (Target pixel) is output. Since the coefficient groups A and B are Laplacian, they are divided by a predetermined coefficient (16) and added to the pixel of interest for correction. The minimum value of the calculation result is output to the edge extraction 322 in order to avoid that the white level may not be sufficiently extracted when the character structure has a parallel line shape. The maximum value of the calculation result is output to the white region extraction 323 when the pattern has a line pattern structure (for example, output of a copying machine), the maximum value is output so that the pattern can be extracted more easily. This makes it easier to pick up edges in edge extraction, and easier to pick up as a pattern in white area extraction. In the present embodiment, two coefficients are described as an example, but the present invention is not limited to this, and the same effect can be obtained with three or more coefficients.

【0026】次に、エッジ抽出322について説明す
る。図4に示すように、エッジ抽出322は、3値化3
22a、黒画素連続検出322b、白画素連続検出32
2c、近傍画素検出322dおよび孤立点除去322e
から構成されている。なお、図4には、一例としてエッ
ジ処理にG画像データを参照する態様を示したが、この
Gデータに限らず、輝度データであってもよく、濃い薄
いを表現する信号なら適応可能であるとする。文字領域
は、高レベル濃度の画素と、低レベル濃度の画素(以
下、黒画素、白画素と呼ぶ)が多く、かつ、エッジ部分
では、これらの黒画素および白画素が連続している。エ
ッジ抽出322は、このような黒画素および白画素それ
ぞれの連続性に基づいて文字エッジを検出する。
Next, the edge extraction 322 will be described. As shown in FIG. 4, the edge extraction 322 is a ternarization 3
22a, black pixel continuous detection 322b, white pixel continuous detection 32
2c, neighboring pixel detection 322d, and isolated point removal 322e
It consists of Note that FIG. 4 shows an example in which G image data is referred to in the edge processing, but the present invention is not limited to this G data and may be luminance data, as long as it is a signal expressing dark and light. And In the character area, there are many high-level density pixels and low-level density pixels (hereinafter referred to as black pixels and white pixels), and at the edge portion, these black pixels and white pixels are continuous. The edge extraction 322 detects a character edge based on the continuity of each of such black pixels and white pixels.

【0027】まず、3値化322aについて説明する。
3値化322aで2種の閾値TH1およびTH2を用い
て、フィルタ321が文字エッジ強調のフィルタ処理を
したG画像データ(エッジ抽出322の入力データ)を
3値化する。閾値TH1およびTH2は、例えば、画像
データが0から255までの256階調(0=白)を表
す場合、TH1=20、TH2=80というように設定
する。3値化322aでは、入力データ<TH1である
ときには該データが宛てられる画素を白画素と、TH1
≦入力データ<TH2であるときには中間調画素と、T
H2≦入力データであるときには黒画素と、というよう
に表す3値化データに入力データを変換する。
First, the ternarization 322a will be described.
In the ternarization 322a, the two types of thresholds TH1 and TH2 are used to ternarize the G image data (input data of the edge extraction 322) that has been filtered by the filter 321 for character edge enhancement. The thresholds TH1 and TH2 are set as TH1 = 20 and TH2 = 80, for example, when the image data represents 256 gradations from 0 to 255 (0 = white). In the ternarization 322a, when the input data <TH1, the pixel to which the data is addressed is a white pixel and TH1
When ≦ input data <TH2, the halftone pixel and T
When H2 ≦ input data, the input data is converted into ternary data which is expressed as black pixels.

【0028】黒画素連続検出322bおよび白画素連続
検出322cが、3値化データに基づいて、黒画素が連
続する箇所および白画素が連続する箇所を、それぞれパ
ターンマッチングにより検出する。このパターンマッチ
ングには、本実施の形態では、図7に示す3×3画素マ
トリクスのパターンBPa〜BPdおよびWPa〜WP
dを用いる。図7に示すパターンにおいて、黒丸は上述
の黒画素であることを示し、白丸は上述の白画素である
ことを示し、いずれの丸印もない空白画素は、黒画素、
中間調画素、白画素のいずれであるか問わないものであ
ることを示している。なお、3×3画素マトリクスの中
心の画素が注目画素である。黒画素連続検出322b
は、3値化データの内容の分布が、図7に示す黒画素分
布パターンBPa〜BPdのいずれかにマッチングする
と、その時の注目画素を「黒連続画素」として、それを
表すデータを該注目画素に与える。同様に、白画素連続
検出322cは、図7に示す白画素分布パターンWPa
〜WPdのいずれかにマッチングすると、その時の注目
画素を「白連続画素」として、それをあらわすデータを
該注目画素に与える。
The black pixel continuous detection 322b and the white pixel continuous detection 322c detect the continuous black pixels and the continuous white pixels by pattern matching based on the ternary data. In this embodiment, for this pattern matching, the patterns BPa to BPd and WPa to WP of the 3 × 3 pixel matrix shown in FIG. 7 are used.
d is used. In the pattern shown in FIG. 7, black circles indicate the above black pixels, white circles indicate the above white pixels, and blank pixels without any circles indicate black pixels,
It indicates that it does not matter whether it is a halftone pixel or a white pixel. The pixel at the center of the 3 × 3 pixel matrix is the target pixel. Black pixel continuous detection 322b
When the distribution of the contents of the ternary data matches any of the black pixel distribution patterns BPa to BPd shown in FIG. Give to. Similarly, the white pixel continuous detection 322c is performed by the white pixel distribution pattern WPa shown in FIG.
When any one of ˜WPd is matched, the pixel of interest at that time is set as a “white continuous pixel”, and data representing it is given to the pixel of interest.

【0029】次の近傍画素検出322dは、黒画素連続
検出322bおよび白画素連続検出322cの検出結果
について、この近傍画素検出322dでの注目画素の近
傍に黒連続画素または白連続画素があるか否かを調べる
ことにより、該注目画素が、エッジ領域と非エッジ領域
のいずれにあるかを判定する。すなわち、本実施の形態
では、5×5画素マトリクスのブロックで、その内部に
黒連続画素と白連続画素がそれぞれ1つ以上存在すると
きに、そのブロックをエッジ領域と判定し、そうでない
ときに、そのブロックを非エッジ領域と判定する。さら
に、文字エッジは連続して存在するので、孤立点除去3
22eは、孤立しているエッジを非エッジ領域に補正す
る。そして、エッジ領域と判定した画素に対して「1」
(エッジ領域)なるedge信号を出力し、非エッジ領
域と判定した画素に対して「0」(非エッジ領域)なる
edge信号を出力する。
The next adjacent pixel detection 322d determines whether or not there is a black continuous pixel or a white continuous pixel in the vicinity of the target pixel in the adjacent pixel detection 322d, based on the detection results of the black pixel continuous detection 322b and the white pixel continuous detection 322c. By checking whether the pixel of interest is in the edge area or the non-edge area, it is determined. That is, in the present embodiment, when a block of a 5 × 5 pixel matrix has at least one black continuous pixel and one white continuous pixel, the block is determined to be an edge region, and if not, , Determine that the block is a non-edge region. Further, since character edges exist continuously, isolated point removal 3
22e corrects an isolated edge into a non-edge region. Then, “1” is set for the pixel determined to be the edge region.
The edge signal of (edge region) is output, and the edge signal of “0” (non-edge region) is output to the pixel determined to be the non-edge region.

【0030】次に、白領域抽出323について説明す
る。図8は、白領域抽出323の構成を示したブロック
図である。まず、2値化323aについて説明する。2
値化323aは、フィルタ321の画像濃度データ(G
画像データ)のエッジ強調出力を、閾値thwsbで2
値化して、白パターンマッチング323d(後述の図1
1のステップ7)が参照する白データの生成のための2
値化白判定信号を発生する。なお、エッジ強調出力は、
本実施の形態では0から255の256階調であり、0
が濃度の無い白であり、閾値thwsbの一例は、50
であって、エッジ強調出力の値がthwsb=50より
小さければ、2値化323aが「2値化白」と判定し、
2値化白判定信号「1」を発生する。エッジ強調出力の
値がthwsb=50以上のときは2値化白判定信号
「0」を発生する。
Next, the white area extraction 323 will be described. FIG. 8 is a block diagram showing the configuration of the white area extraction 323. First, the binarization 323a will be described. Two
The binarization 323a is performed by the image density data (G
2) the edge emphasis output of (image data) with a threshold value thwsb
The digitized white pattern matching 323d (see FIG.
2 for generation of white data referred to in step 7) of 1.
Generate a binarized white judgment signal. The edge emphasis output is
In this embodiment, there are 256 gradations from 0 to 255, and
Is white with no density, and an example of the threshold value thwsb is 50
If the value of the edge emphasis output is smaller than thwsb = 50, the binarization 323a is determined to be "binarization white",
A binarized white determination signal "1" is generated. When the value of the edge emphasis output is thwsb = 50 or more, the binarized white determination signal "0" is generated.

【0031】RGB白抽出323bは、1.)RGB白
地検出、2.)色地検出および3.)谷白画素検出を行
って、画像データが白領域か否かを判定する。 1.)RGB白地検出について RGB白地検出323bでは、R、G、B画像データで
白地領域を検出することにより、白背景分離の動作をア
クティブにする。すなわち、白背景分離の処理を起動す
る。具体的には、図9のパターンWBPに示すように、
3×3画素マトリックスのR、G、B画像データのすべ
てが閾値thwssより小さければ、注目画素(3×3
画素マトリックスの中心画素)が白領域と判定して白パ
ターンマッチング323d(後述の図11のステップ3
が参照する白地判定信号)をアクティブ「1」にする。
これは、ある程度の広がりがある白画素領域があるかを
検出するものである。なお、R、G、B画像データのそ
れぞれも、本実施の形態では0から255の256階調
であり、0が濃度の無い基底レベルであり、閾値thw
ss<thwsbであって、thwssの一例は、40
であって、R、G、B画像データのすべてがthwss
=40より小さいと、「白地」と判定し白地判定信号
「1」を発生する。R、G、B画像データのいずれかが
thwss=40以上のときは白地判定信号「0」を発
生する。
The RGB white extraction 323b is 1. ) RGB white background detection, 2. 2.) Color background detection and 3. ) Valley white pixel detection is performed to determine whether the image data is a white area. 1. ) RGB white background detection In the RGB white background detection 323b, the white background separation operation is activated by detecting a white background area in the R, G, and B image data. That is, the process of separating the white background is activated. Specifically, as shown in the pattern WBP of FIG.
If all of the R, G, B image data of the 3 × 3 pixel matrix is smaller than the threshold value thwss, the pixel of interest (3 × 3
It is determined that the central pixel of the pixel matrix is a white region, and white pattern matching 323d (step 3 in FIG. 11 described later).
(White background determination signal) referred to by is set to active "1".
This is to detect whether there is a white pixel area having a certain extent of spread. Note that each of the R, G, and B image data also has 256 gradations from 0 to 255 in the present embodiment, 0 is a base level with no density, and the threshold value thw
ss <thwsb, and an example of thwss is 40
And all of the R, G, B image data is thwss
If it is less than 40, it is determined that the white background is present and a white background determination signal "1" is generated. When any of the R, G, and B image data is thwss = 40 or more, the white background determination signal “0” is generated.

【0032】2.)色地検出について 薄い色を白背景と判定しないようにするために、色地を
検出する。 A.ここではまず、注目画素を中心とする5×5画素マ
トリックスの各画素の符号を、図10のパターンMPp
に示すものとすると、注目画素となる中心画素c3(M
Ca〜MCdの×印画素)のRGB差(1画素宛ての
R、G、B画像データの最大値と最小値との差)が閾値
thcより大きいと色画素判定信号aを「1」(色画
素)とし、閾値thc以下のときは「0」(白黒画素)
とする。 B.注目画素の片側の周辺画素群△(図10のMCa〜
MCdの中)のいずれかの画素のR、G、B画像データ
がすべて閾値thwc以下であると、一方側の白判定信
号bを「1」(白画素)とし、閾値thwcを超えると
きは「0」(非白画素)とする。ここでは、閾値thw
cは一例として20であるとする。 C.注目画素の他方側の周辺画素群□(図10のMCa
〜MCdの中)のいずれかの画素のR、G、B画像デー
タがすべて閾値thwc以下である場合、他方側の白判
定信号cを「1」(白画素)とし、閾値thwcを超え
るときは「0」(非白画素)とする。 D.図10のパターンMCa〜MCdのいずれかにおい
て、a AND (bとcのエクスクルーシブノア)=
「1」が成立すると、すなわち、a=「1」(注目画素
が色画素)、かつ、bとcが一致(注目画素の両側とも
に白画素、または、両側ともに非白画素)のとき、注目
画素宛ての、色地判定信号dを「1」(色地)とする。
この色地判定信号dは、白パターンマッチング323d
(後述の図11のステップ6)で、参照される。
2. ) Color gamut detection In order to prevent a light color from being determined as a white background, a color ground is detected. A. First, the code of each pixel of the 5 × 5 pixel matrix centered on the pixel of interest is set to the pattern MPp in FIG.
, The center pixel c3 (M
If the RGB difference (difference between the maximum value and the minimum value of the R, G, and B image data for one pixel) of Ca to MCd) is larger than the threshold value thc, the color pixel determination signal a is set to “1” (color). Pixel), and when the threshold value is less than or equal to thc, “0” (black and white pixel)
And B. Peripheral pixel group on one side of the pixel of interest Δ (MCa-
If the R, G, B image data of any of the pixels (in the MCd) are all less than or equal to the threshold value thwc, the white determination signal b on one side is set to "1" (white pixel), and if it exceeds the threshold value thwc, " 0 ”(non-white pixel). Here, the threshold thw
It is assumed that c is 20 as an example. C. Peripheral pixel group on the other side of the target pixel □ (MCa in FIG.
When the R, G, B image data of any of the pixels (in the MCd) is less than or equal to the threshold value thwc, the white determination signal c on the other side is set to "1" (white pixel), and when the threshold value thwc is exceeded. It is set to “0” (non-white pixel). D. In any of the patterns MCa to MCd in FIG. 10, a AND (exclusive NOR of b and c) =
If “1” is satisfied, that is, if a = “1” (the target pixel is a color pixel) and b and c match (white pixels on both sides of the target pixel, or non-white pixels on both sides), The color background determination signal d addressed to the pixel is set to "1" (color background).
This color background determination signal d is the white pattern matching 323d.
(Step 6 of FIG. 11 described later) is referred to.

【0033】上述のパターンマッチングの処理A.〜
D.を行うのは、黒文字のまわりがRGB読み取り位置
のずれでわずかながらに色付きになるとき、そこを色と
拾わないためである。黒文字のまわりの色付きの位置で
は、bとcのエクスクルーシブノアが「0」(注目画素
の両側の一方が白画素、他方が非白画素)となり、この
場合は、色地判定信号d=「0」(非色地)となる。加
えて、周辺を白地で囲まれた注目画素が色画素のときに
は、色地判定信号d=「1」(色地)となり、線が込み
入ったところでも、薄い色画素を色地として検出するこ
とができる。すなわち、線が込み入ったところでは、本
来白いところが完全に白に読み取られないが、上述の処
理A.でRGB差が小さいと色画素と判定しないので、
閾値thwcを濃度で見るべき白地よりも厳しく設定し
て(例えばthwss=40、thwsb=50に対
し、thwc=20)、処理B.〜D.で白背景か否を
厳密にチェックして薄い色画素を色地として正確に検出
することができる。
Process of Pattern Matching A. ~
D. The reason for doing so is that when the surroundings of black characters are slightly colored due to the deviation of the RGB reading position, they are not picked up as colors. At the colored position around the black character, the exclusive NOR of b and c is “0” (one of both sides of the target pixel is a white pixel, the other is a non-white pixel), and in this case, the color-ground determination signal d = “0”. "(Non-colored background). In addition, when the pixel of interest surrounded by a white background is a color pixel, the color-ground determination signal d = “1” (color-ground) is set, and a light-color pixel is detected as a color-ground even when a line is complicated. You can That is, when a line is complicated, an originally white part cannot be completely read as white, but the above-mentioned process A. Therefore, if the RGB difference is small, it is not judged as a color pixel.
The threshold value thwc is set to be stricter than the white background to be viewed in terms of density (for example, thwss = 40 and thwsb = 50, but thwc = 20), and the process B. ~ D. Therefore, it is possible to accurately check whether or not it is a white background, and accurately detect a light color pixel as a color background.

【0034】3.)谷白画素検出について 谷白画素検出では、上述のRGB白地検出で検出できな
い小さな白領域の谷白画素を、図9に示すG画像データ
の5×5画素マトリクス分布RDPaおよびRDPbに
基づいて検出する。具体的には、5×5画素マトリクス
分布RDPaに基づいて、miny=min(G[1]
[2],G[1][3],G[1][4],G[5]
[2],G[5][3],G[5][4])を算出す
る。すなわち、図9に示す5×5画素マトリクス分布R
DPaの黒丸を付した画素群の中の最低濃度minyを
摘出する。そして、maxy=max(G[3]
[2],G[3][3],G[3][4])を算出す
る。すなわち、図9に示す5×5画素マトリクス分布R
DPaの白丸を付した画素群の中の最高濃度maxyを
摘出する。
3. ) Valley white pixel detection In the valley white pixel detection, valley white pixels in a small white area that cannot be detected by the above-described RGB white background detection are detected based on the 5 × 5 pixel matrix distributions RDPa and RDPb of the G image data shown in FIG. To do. Specifically, based on the 5 × 5 pixel matrix distribution RDPa, miny = min (G [1]
[2], G [1] [3], G [1] [4], G [5]
[2], G [5] [3], G [5] [4]) are calculated. That is, the 5 × 5 pixel matrix distribution R shown in FIG.
The minimum density miny in the pixel group marked with a black circle of DPa is extracted. Then, maxy = max (G [3]
[2], G [3] [3], G [3] [4]) are calculated. That is, the 5 × 5 pixel matrix distribution R shown in FIG.
The maximum density maxy in the pixel group marked with a white circle of DPa is extracted.

【0035】次に、mint=min(G[2]
[1],G[3][1],G[4][1],G[2]
[5],G[3][5],G[4][5])を算出す
る。すなわち、図9に示すもう1つの5×5画素マトリ
クス分布RDPbの黒丸を付した画素群の中の最低濃度
mintを摘出する。そして、maxt=max(G
[2][3],G[3][3],G[4][3])を算
出する。すなわち、図9に示す5×5画素マトリクス分
布RDPbの白丸を付した画素群の中の最高濃度max
tを摘出する。ここで、min( )は最小値を検出す
る関数である。また、max( )は、最大値を検出す
る関数である。次に、OUT=((miny−max
y)>0)#((mint−maxt)>0)を算出す
る。すなわち、(miny=maxy)と(mint−
maxt)のうち、正値であって大きいほうの値を谷検
出値OUTとし、このOUTの値がある閾値以上である
と、注目画素(RDPaまたはRDPbの中心画素)を
谷白画素と検出する。このように画像の谷状態を検出し
て、1.)RGB白地検出では、検出しにくいところを
補う。
Next, mint = min (G [2]
[1], G [3] [1], G [4] [1], G [2]
[5], G [3] [5], G [4] [5]) are calculated. That is, the lowest density mint in the pixel group marked with black circles of another 5 × 5 pixel matrix distribution RDPb shown in FIG. 9 is extracted. Then, maxt = max (G
[2] [3], G [3] [3], G [4] [3]) are calculated. That is, the maximum density max in the pixel group with white circles in the 5 × 5 pixel matrix distribution RDPb shown in FIG.
Extract t. Here, min () is a function for detecting the minimum value. Further, max () is a function for detecting the maximum value. Next, OUT = ((miny-max
y)> 0) # ((mint-maxt)> 0) is calculated. That is, (miny = maxy) and (mint-
maxt) is a positive and larger value as a valley detection value OUT, and if the value of this OUT is equal to or larger than a threshold value, the pixel of interest (center pixel of RDPa or RDPb) is detected as a valley white pixel. . In this way, the valley state of the image is detected, and 1. ) In the RGB white background detection, a part that is difficult to detect is supplemented.

【0036】次に、白判定323cについて説明する。
ここでは、白判定に用いる状態変数MS、SS[I]の
更新を行う。図11は、白判定に用いる状態変数MS、
SS[I]の更新の処理手順を示したフローチャートで
ある。ここで、状態変数MSは処理対象ライン(注目ラ
イン)の画素宛てのもの、状態変数SS[I]は処理対
象ラインの1ライン前(処理済ライン)の画素宛てのも
のであり、いずれも白地の白の程度を表す4bitの白
地情報であり、図11の処理手順によって生成されるも
のである。状態変数MSおよび状態変数SS[I]が表
す値の最高値は15に定めてあり、これが最も白い程度
を意味し、最低値は0である。すなわち、状態変数MS
および状態変数SS[I]は、白の程度を示すデータで
あり、それが表す値が大きいほど、強い白を意味する。
複写動作開始時に、状態変数MSおよび状態変数SS
[I]はともに0に初期化される。
Next, the white judgment 323c will be described.
Here, the state variables MS and SS [I] used for white determination are updated. FIG. 11 shows a state variable MS used for white determination,
7 is a flowchart showing a processing procedure for updating SS [I]. Here, the state variable MS is for the pixel of the processing target line (target line), and the state variable SS [I] is for the pixel of one line before the processing target line (processed line). It is 4-bit white background information indicating the degree of whiteness, and is generated by the processing procedure of FIG. 11. The maximum value represented by the state variable MS and the state variable SS [I] is set to 15, which means the whitest degree, and the minimum value is 0. That is, the state variable MS
The state variable SS [I] is data indicating the degree of white, and the larger the value it represents, the stronger the white.
At the start of the copying operation, the state variable MS and the state variable SS
Both [I] are initialized to 0.

【0037】まず、処理対象である注目画素の1ライン
前の状態変数、すなわち白地情報SS[I]と注目画素
の同一ライン上の1画素前の画素(先行画素:処理済画
素)の状態変数、すなわち白地情報MSとを比較して
(ステップ1)、1ライン前の白地情報SS[I]の方
が大きい場合(ステップ1;Y)、それを注目画素の仮
の白地情報MSとする(ステップ2)。白地情報SS
[I]の方が大きくない場合(ステップ1;N)、先行
画素の状態変数MSを注目画素の仮の白地情報MSとす
る。これは、周辺画素の白地情報より白に近い情報を選
択することを意味する。複写動作を開始してから、前述
の1.)RGB白地検出で白領域、すなわち白地を検出
すると〔1.)RGB白地検出の出力である白地判定信
号=「1」〕、注目画素の1ライン前の画素の白地情報
SS[I]を15に更新し(ステップ3、ステップ
4)、注目画素の白地情報MSも15とする(ステップ
5)。そして、注目画素の白地情報MSは、図12に示
すラインメモリLMPの現ライン(注目ライン)用のラ
インメモリの注目画素の主走査位置(F)に書き込ま
れ、1ライン前の画素宛ての白地情報SS[I]は、図
12に示すラインメモリLMPの、前1ライン用のライ
ンメモリの注目画素の主走査位置(F)に書き込まれる
(ステップ3〜5)。次に、1ライン前の画素宛ての白
地情報SS[I]を、1ライン前の画素に以下のように
伝搬させる(ステップ14〜17)。なお、[I]は注
目画素の主走査位置を意味し、[I−1]は主走査方向
xでそれより1画素前の画素(注目画素の直前の画素)
の位置を意味する。
First, the state variable one line before the target pixel to be processed, that is, the state variable of the pixel one pixel before on the same line as the white background information SS [I] and the target pixel (preceding pixel: processed pixel) That is, when the white background information SS [I] of one line before is compared with the white background information MS (step 1) is larger (step 1; Y), it is set as the temporary white background information MS of the target pixel ( Step 2). White background information SS
When [I] is not larger (step 1; N), the state variable MS of the preceding pixel is set as the temporary white background information MS of the pixel of interest. This means that information that is closer to white than white background information of peripheral pixels is selected. After starting the copying operation, the above 1. ) When a white area, that is, a white background is detected by RGB white background detection, [1. ) White background determination signal output from RGB white background detection = “1”], white background information SS [I] of the pixel one line before the target pixel is updated to 15 (steps 3 and 4), and the white background information of the target pixel is updated. The MS is also set to 15 (step 5). Then, the white background information MS of the target pixel is written in the main scanning position (F) of the target pixel of the line memory for the current line (target line) of the line memory LMP shown in FIG. The information SS [I] is written in the main scanning position (F) of the pixel of interest in the line memory for the previous one line of the line memory LMP shown in FIG. 12 (steps 3 to 5). Next, the white background information SS [I] addressed to the pixel one line before is propagated to the pixel one line before as follows (steps 14 to 17). Note that [I] means the main scanning position of the pixel of interest, and [I-1] is the pixel one pixel before in the main scanning direction x (the pixel immediately before the pixel of interest).
Means the position of.

【0038】SS[I−1]<SS[I]−1の場合、
SS[I−1]=SS[I]−1をラインメモリにセッ
トする(ステップ14、ステップ15)。すなわち、注
目画素より1ライン前のラインにおいて、主走査方向で
注目画素の位置(F)より1画素前(E)の白地情報S
S[I−1]よりも注目画素の位置(F)の白地情報S
S[I]から1を減算した値「SS[I]−1」のほう
が大きい(白程度が強い)と、1ライン前のライン上の
注目画素の位置(F)より1画素前の画素(E)宛ての
白地情報SS[I−1]を、注目画素の位置(F)の白
地情報SS[I]より1だけ白強度を下げた値に更新す
る。
When SS [I-1] <SS [I] -1,
SS [I-1] = SS [I] -1 is set in the line memory (steps 14 and 15). That is, in the line one line before the target pixel, the white background information S one pixel before (E) the position (F) of the target pixel in the main scanning direction.
White background information S at the position (F) of the pixel of interest rather than S [I-1]
When the value "SS [I] -1" obtained by subtracting 1 from S [I] is larger (white degree is stronger), the pixel (pixel) one pixel before the position (F) of the target pixel on the line one line before ( The white background information SS [I-1] addressed to E) is updated to a value obtained by reducing the white intensity by 1 from the white background information SS [I] at the position (F) of the pixel of interest.

【0039】次に、J=J+1で(ステップ16)、J
=MSとならないので(ステップ17;N)、ステップ
14に戻り、SS[I−2]<SS[I]−2の場合、
SS[I−2]=SS[I]−2をラインメモリにセッ
トする(ステップ15)。次にまた、J=J+1で(ス
テップ16)、J=MSとならないので(ステップ1
7;N)、ステップ14に戻り、SS[I−3]<SS
[I]−3の場合、SS[I−3]=SS[I]−3を
ラインメモリにセットする(ステップ15)。以下同様
にして、最後に、SS[I−15]<SS[I]−15
の場合、SS[I−15]=SS[I]−15をライン
メモリにセットする(ステップ15)。これらの白地情
報SS[I]の値の下限値MINは0であり、0未満に
なるときには、0にとどめる。これは後述のステップ1
3においても同様である。
Next, when J = J + 1 (step 16), J
= MS does not hold (step 17; N), so return to step 14 and if SS [I-2] <SS [I] -2,
SS [I-2] = SS [I] -2 is set in the line memory (step 15). Next, again, J = J + 1 (step 16), and J = MS is not satisfied (step 1
7; N), returning to step 14, SS [I-3] <SS
If [I] -3, SS [I-3] = SS [I] -3 is set in the line memory (step 15). In the same manner, finally, SS [I-15] <SS [I] -15
In the case of, SS [I-15] = SS [I] -15 is set in the line memory (step 15). The lower limit value MIN of the value of the white background information SS [I] is 0, and when it is less than 0, it is kept at 0. This is step 1 below
The same is true for 3.

【0040】これらのステップ14〜17の処理によ
り、1ライン前かつ注目画素の主走査位置より前の白地
情報SSが、注目画素の白地情報MSを、それから主走
査方向xの1画素の位置ずれにつき1の低減率で下げた
値に更新され、注目画素の白地情報が1ライン前の主走
査方向xで主走査の後方に、前述の低減率で伝搬する
(白伝搬処理)。これは、1ライン前の白地情報のほう
が小さい値である場合である。例えば1ライン前の画素
が前述の1.)RGB白地検出で白地(白領域)と検出
したものであるときにはそれの白地情報は15であって
最高値であるので書換えは行われない。
By the processing of these steps 14 to 17, the white background information SS one line before and the main scanning position of the target pixel is shifted from the white background information MS of the target pixel by one pixel in the main scanning direction x. The white background information of the pixel of interest is propagated to the rear of the main scan in the main scanning direction x one line before at the reduction ratio (white propagation processing). This is a case where the white background information one line before has a smaller value. For example, if the pixel one line before is 1. ) When the white background (white area) is detected by the RGB white background detection, the white background information of the white background is 15, which is the maximum value, and therefore rewriting is not performed.

【0041】注目画素を更新してそれが白地でないもの
になると〔前述の1.)RGB白地検出の出力である白
地判定信号=「0」〕、ステップ3からステップ6以下
に進み、注目画素が色地〔前述の2.)色地検出の出力
である色地判定信号d=「1」〕でなく(非色地であ
り)、2値化白〔前述の2値化323aの出力である2
値化白判定信号=「1」〕であり、しかも、ステップ1
およびステップ2で仮に定めた注目画素の状態変数すな
わち白地情報MSが閾値thw1(例えば13)以上、
である場合に、注目画素宛ての白地情報MSを+1する
(ステップ6〜10)。すなわち、1だけ白程度が強い
値に更新する。白地情報MSの最高値maxは15に定
めてあり、15を超える場合には15にとどめる(ステ
ップ9、ステップ10)。この経路を進んできたときに
も、前述のステップ5およびステップ14〜17を実行
する。すなわち、白伝搬処理を行う。
When the pixel of interest is updated and becomes a non-white background [1. ) White background determination signal output from RGB white background detection = "0"], the process proceeds from step 3 to step 6 and thereafter, and the pixel of interest is the color background [see 2. ) Not the color-ground determination signal d = “1”] which is the output of the color-ground detection (a non-color-ground) and the output of the binarized white [the above-mentioned binarization 323a 2
The binarized white determination signal = “1”] and step 1
And the state variable of the pixel of interest provisionally determined in step 2, that is, the white background information MS is equal to or greater than the threshold value thw1 (for example, 13),
If it is, the white background information MS addressed to the pixel of interest is incremented by 1 (steps 6 to 10). That is, the white level is updated to a strong value by one. The maximum value max of the white background information MS is set to 15, and when it exceeds 15, it is limited to 15 (steps 9 and 10). Even when this route has been advanced, the above-mentioned step 5 and steps 14 to 17 are executed. That is, white propagation processing is performed.

【0042】注目画素が非色地かつ2値化白ではある
が、白地情報MSがthw1(例えば7)未満、thw
2(例えば1)以上、かつ、谷白画素である時には、状
態変数MSをそのままの値に保持する(ステップ8、ス
テップ11、ステップ12)。この経路を進んできたと
きにも、前述のステップ5およびステップ14〜17を
実行する。すなわち、白伝搬処理を行う。上記条件のい
ずれにも一致しない場合、すなわち注目画素が色地また
は非2値化白のときは、注目画素の白地情報MSを−1
する(ステップ13)。すなわち白程度が1だけ弱い白
地情報に更新する。白地情報MSの最低値MINは0で
あり、0未満になる場合には0にとどめる。この経路を
進んできたときにも、前述のステップ5およびステップ
14〜17を実行する。すなわち、白伝搬処理を行う。
Although the pixel of interest is a non-colored background and is binarized white, the white background information MS is less than thw1 (for example, 7), thw
When the number of pixels is 2 (for example, 1) or more and the number of pixels is a valley white pixel, the state variable MS is held at the same value (step 8, step 11, step 12). Even when this route has been advanced, the above-mentioned step 5 and steps 14 to 17 are executed. That is, white propagation processing is performed. When none of the above conditions are met, that is, when the pixel of interest is a color background or non-binarized white, the white background information MS of the pixel of interest is set to -1.
(Step 13). That is, the white background information is updated to have a weak white degree of 1. The minimum value MIN of the white background information MS is 0, and when it is less than 0, it is kept at 0. Even when this route has been advanced, the above-mentioned step 5 and steps 14 to 17 are executed. That is, white propagation processing is performed.

【0043】以上の白地情報MSの生成により、ライン
メモリLMP上において、状態変数(白地情報)MSを
介して周辺画素に白情報を伝搬させることができる。こ
の白地情報MSの生成は前述のように、色データ(R、
G、B画像データのすべて)が閾値thwss=40よ
り小さいとき白地と表すRGB白地判定信号に基づいた
図11のステップ3〜5、ステップ14〜17の系統
の、色対応の白地情報MSの生成を含み、しかも、濃度
データ(G画像データ)のエッジ強調出力(フィルタ3
21の出力)が、閾値thwsb=50より小さいとき
白地と2値化白判定信号に基づいた、図11のステップ
7〜13、ステップ5およびステップ14〜17の系統
の濃度対応の白地情報MSの生成を含む。
By generating the white background information MS as described above, the white information can be propagated to the peripheral pixels on the line memory LMP via the state variable (white background information) MS. The generation of the white background information MS is performed by the color data (R,
Generation of color-corresponding white background information MS of the system of steps 3 to 5 and steps 14 to 17 of FIG. In addition, the edge emphasis output of the density data (G image data) (filter 3
21) is smaller than the threshold value thwsb = 50, the white background information MS corresponding to the density of the system of steps 7 to 13, step 5 and steps 14 to 17 of FIG. 11 based on the white background and the binarized white determination signal. Including generation.

【0044】この白判定323cは、まずRGB白抽出
323bの中の1.)RGB白地検出で、白領域を検出
するまで、すなわち前述の1.)RGB白地検出が白地
判定信号「1」を発生しこれに対応して色対応の白地情
報MSの生成(ステップ3〜5、ステップ14〜17)
を開始するまでは動作(ステップ4の実行)しない。こ
れは、白領域との判定が得られない領域を、フィルタ3
21のエッジ強調処理後G画像データの後述する白パタ
ーンマッチングにて白画素(白ブロック)と誤判定する
ことを防ぐためである。
The white judgment 323c is first made in the step 1 in the RGB white extraction 323b. ) Until the white area is detected by RGB white background detection, that is, the above 1. ) RGB white background detection generates a white background determination signal "1" and correspondingly generates white background information MS corresponding to color (steps 3 to 5 and steps 14 to 17).
The operation (execution of step 4) is not performed until the start of. This is because the area that cannot be determined as a white area is filtered by the filter 3
This is to prevent erroneous determination as a white pixel (white block) in the white pattern matching of the G image data after the edge enhancement process 21 of FIG.

【0045】薄い色地上の文字にエッジ強調フィルタ3
21をかけると、文字周辺のデータが本来の画像データ
(色地)より、レベルの低い値(白)となるので、フィ
ルタ321のエッジ強調処理後のデータで白パターンマ
ッチングをすると、すなわち濃度対応の白地情報MSの
生成(ステップ7〜13、ステップ5およびステップ1
4〜17)のみに基づいて白領域判定をすると、色地上
の文字周辺を白地と誤判定しやすいが、上述の色対応の
白地情報MSの生成(ステップ3〜5、ステップ14〜
17)によって白領域との判定が得られる領域に、後述
の白画素(白ブロック)を判定するための白パターンマ
ッチングを適用するように白地情報MSを最高値とし、
ステップ3で白地でないときには、さらにステップ6以
下で詳細に白地条件をチェックして白パターンマッチン
グを適用するか否を決定するための1つのパラメータで
ある白地情報MSを調整するので、フィルタ321のエ
ッジ強調処理後G画像データの後述する白パターンマッ
チングにて白画素(白ブロック)と誤判定することを防
いでいる。
Edge enhancement filter 3 for light colored letters
When 21 is applied, the data around the character has a lower value (white) than the original image data (color background). Therefore, if white pattern matching is performed on the data after the edge enhancement processing of the filter 321, that is, density correspondence Generation of white background information MS (steps 7 to 13, step 5 and step 1)
If the white area is determined based only on 4 to 17), it is easy to erroneously determine the area around the characters on the color ground as a white background, but the white background information MS corresponding to the above-described color is generated (steps 3 to 5, step 14 to
17) The white background information MS is set to the highest value so that white pattern matching for determining a white pixel (white block) described later is applied to an area that can be determined to be a white area by 17),
When it is not a white background in step 3, the white background condition is checked in detail in step 6 and subsequent steps, and the white background information MS, which is one parameter for determining whether to apply the white pattern matching, is adjusted. Therefore, the edge of the filter 321 is adjusted. The white pattern (white block) is prevented from being erroneously determined by the white pattern matching of the post-emphasizing G image data, which will be described later.

【0046】例えば、色画素の可能性が高いときには、
白地情報MSを下げ(ステップ13)、色画素の疑いも
あるときには白地情報MSをホールド(変更無し)にし
て(ステップ11〜13)、後述の白パターンマッチン
グにて白画素(白ブロック)と誤判定することを防ぎ、
文字周辺のデータが本来の画像データ(色地)より、レ
ベルの低い値(白)となるのを防止している。文字が密
なところは上述の処理(ステップ3〜5、ステップ6〜
10およびステップ14〜17)によって白地情報MS
を更新し伝搬させるので、密な文字領域が絵柄と誤判定
される可能性が低減する。また、込み入った文字(例え
ば、「書」)などの文字の中は、1.)RGB白地検出
で白検出ができない場合があるが、そのときに3.)谷
白画素検出にて白と検出し、白地情報MSをステップ1
2のYESの出力がステップ5に直進する経路でホール
ドして、白地傾向にとどめるので、込み入った文字の中
が絵柄と誤判定される可能性が低減する。
For example, when the possibility of color pixels is high,
The white background information MS is lowered (step 13), and when there is a suspicion of a color pixel, the white background information MS is held (no change) (steps 11 to 13), and a white pixel (white block) is erroneously determined by white pattern matching described later. Prevent judgment,
This prevents the data around the characters from becoming a lower value (white) than the original image data (color background). Where the characters are dense, the above-mentioned processing (steps 3-5, 6-)
10 and steps 14 to 17), white background information MS
Is updated and propagated, the possibility that a dense character area is erroneously determined as a pattern is reduced. Also, among characters such as complicated characters (for example, “calligraphy”), 1. ) White may not be detected by RGB white background detection. At that time, 3. ) It is detected as white by the valley white pixel detection, and the white background information MS is detected in step 1
Since the YES output of 2 holds in the straight path to step 5 and keeps the tendency toward the white background, the possibility that a complicated character is erroneously determined as a pattern is reduced.

【0047】また、前述したように、注目画素が周辺を
白地で囲まれた色画素のときには、前述の2.)色地検
出の出力である色地判定信号d=「1」(色地)とな
り、線が込み入ったところでも、薄い色画素を色地とし
て検出することができ、注目画素周辺が白かを見る閾値
thwcを低く設定して(thwc=20)、薄い色画
素(注目画素)の周辺が白背景か否を厳密にチェックし
て薄い色画素を色地として検出することができるので、
込み入った文字の中が絵柄と誤判定される可能性をさら
に低減することができる。
Further, as described above, when the pixel of interest is a color pixel surrounded by a white background, the above 2. ) Color gamut determination signal d = “1” (color ground), which is the output of the color gamut detection, can detect a light color pixel as a color ground even when a line is complicated, and whether the surroundings of the pixel of interest are white Since the viewing threshold thwc is set low (thwc = 20), it is possible to strictly check whether or not the periphery of the light color pixel (pixel of interest) is the white background and detect the light color pixel as the color background.
It is possible to further reduce the possibility that a complicated character is erroneously determined as a design.

【0048】また、薄い色画素を色地としてより厳密に
検出できることにより、色地と検出したときには図11
のステップ6からステップ13に進んで、状態変数MS
を下げて色地を白と判定する可能性を低減できるのに加
えて、ステップ3で参照する白地判定信号を生成する時
の閾値thwss(例えば40)に対して、ステップ7
で参照する2値化白判定信号を生成する場合の閾値th
wsb(例えば50)を大きい値として、色地と判定し
なかった場合(ステップ6;N)には、2値化323a
で白と見なす確率を高くして、図11のステップ7から
ステップ10に進んで、状態変数MSを上げて白領域と
判定する可能性を高くしている。
Further, since the light color pixel can be detected more strictly as the color background, when it is detected as the color background, FIG.
Go to step 13 from step 6
In addition to reducing the possibility that the color background is determined to be white, the threshold value thwss (for example, 40) at the time of generating the white background determination signal referred to in step 3 is compared with step 7
Threshold value th in the case of generating the binarized white determination signal referred to in
If wsb (for example, 50) is set to a large value and it is not determined to be a color background (step 6; N), binarization 323a
Then, the probability of being considered as white is increased, and the process proceeds from step 7 to step 10 in FIG. 11 to increase the state variable MS to increase the possibility of determining a white area.

【0049】すなわち、1.)RGB白地検出で閾値t
hwss=40で、白と判定する確率が低い厳しい白判
定を行って、そこで白地と判定すると、図11のステッ
プ3からステップ4以下の処理により、状態変数MSを
上げて文字背景を白と判定する可能性を高くしている。
厳しい白判定で白地との判定が出なかったときには、逆
に、薄い色画素も色地として検出する信頼性が高い厳し
い色地判定、すなわち2.)色地検出の結果を参照し、
それが色地との判定にならないときには、もう一度、今
度は白と判定する確率が高い閾値thwsb=50の甘
い白判定、すなわち2値化323aを参照してそれが白
の判定である場合、状態変数MSを上げて文字背景を白
と判定する可能性を高くしている(ステップ6〜1
0)。この処理(ステップ6〜10)があるので、色地
と検出される薄い色画素よりもさらに薄い背景濃度ム
ラ、例えば裏映りのような原稿の地にムラがある場合
に、原稿の細かい地ムラに連動して状態変数MSが2値
的に大きく変化するのが抑制され、次の白パターンマッ
チング323dでの白画素か否かの判定が走査方向に細
かく変動するのが抑制される。その結果、背景が薄い色
地のときに、裏映りのような原稿の細かい地ムラに連動
して細かい色抜け(白背景)が現われることがなくな
る。
That is, 1. ) Threshold t for RGB white background detection
When hwss = 40, a strict white determination with a low probability of white determination is performed, and when the white background is determined, the state variable MS is increased and the character background is determined to be white by the processing from step 3 to step 4 in FIG. Is more likely to.
If the white background is not determined by the strict white determination, conversely, the highly reliable strict color background determination in which light color pixels are also detected as the color background, that is, 2. ) Referring to the result of color background detection,
When it is not judged as a color background, once again, if it is a white judgment with reference to the binarization 323a, that is, a white judgment with a threshold thwsb = 50 that has a high probability of being judged as white, that is, the state is white, The variable MS is increased to increase the possibility that the character background is determined to be white (steps 6-1).
0). Since this processing (steps 6 to 10) is performed, when the background density unevenness is lighter than the light color pixel detected as the color background, for example, when there is unevenness on the background of the original such as show-through, fine background unevenness of the original. It is possible to prevent the state variable MS from greatly changing in a binary manner in conjunction with the above, and to prevent the determination as to whether or not it is a white pixel in the next white pattern matching 323d from finely changing in the scanning direction. As a result, when the background is a light-colored background, fine color loss (white background) does not appear in association with fine background unevenness of the document such as show-through.

【0050】次に、白パターンマッチング323dにつ
いて説明する。注目画素を中心とする5×5画素単位の
ブロックで連続した白画素が存在するか否かで、背景が
白かを判断する。そのために、注目画素に関して以下の
式が満たされる時に、注目画素を白画素と仮に定めて、
白パターンマッチングを行う。 (非色画素&(白地情報MS≧thw1(13))&2
値化白)# (非色画素&(白地情報MS≧thw2(1))&谷白
画素&2値化白) ここで、この条件式を満たすかのチェックを行う注目画
素は、図11のステップ5およびステップ14〜17の
白伝搬処理対象となり、その処理過程を経たものであ
り、上記条件式の中の「白地情報MS」が、白伝搬処理
後のチェックを行う注目画素の白地情報MS[I]であ
る。このMS[I]は、白伝搬処理を終えた白地情報で
あって、そのIは、チェックを行う注目画素の主走査方
向xの位置であり、白判定323cで状態変数MSを算
出する注目画素の主走査方向xの位置とは別物である。
Next, the white pattern matching 323d will be described. Whether or not the background is white is determined depending on whether or not there are continuous white pixels in a block of 5 × 5 pixels centering on the pixel of interest. Therefore, when the following formula is satisfied for the target pixel, the target pixel is provisionally defined as a white pixel,
Perform white pattern matching. (Non-color pixel & (white background information MS ≧ thw1 (13)) & 2
Quantized white) # (non-color pixel & (white background information MS ≧ thw2 (1)) & valley white pixel & binarized white) Here, the pixel of interest for which it is checked whether this conditional expression is satisfied is the step of FIG. 5 and the white propagation processing target of steps 14 to 17 has been through the processing process, and the “white background information MS” in the above conditional expression is the white background information MS [of the target pixel to be checked after the white propagation processing. I]. This MS [I] is the white background information after the white propagation processing is completed, and its I is the position in the main scanning direction x of the target pixel to be checked, and the target pixel for calculating the state variable MS in the white determination 323c. Is different from the position in the main scanning direction x.

【0051】上記条件式の中の「非色画素」は、2.)
色地検出の出力である色地判定信号dが「0」であるこ
と、「2値化白」は2値化323aの2値化白判定信号
が「1」(2値化白)であること、および、「谷白画
素」は、3.)谷白画素検出の検出結果が谷白画素であ
ること、をそれぞれ意味し、#は論理和(OR:また
は)を意味する。白パターンマッチング323dは、上
記条件式で判定した出力(白画素か否か)に対し、図1
2の縦横斜めの連続性パターンPMPa〜PMPdのい
ずれかに該当するかをチェックするものである。パター
ンPMPa〜PMPdに付した白丸は、白画素であるこ
とを意味する。他の空白画素は、白画素であるか否かは
不問である。注目画素を中心とする5×5画素マトリク
スの白画素分布が図12のパターンPMPa、PMP
b、PMPcまたはPMPdに該当すると、注目画素が
白パターン画素であると判定する。
The "non-color pixel" in the above condition is 2. )
The color-ground determination signal d that is the output of the color-ground detection is "0", and the "binarized white" is "1" (binarized white) for the binarized white judgment signal of the binarization 323a. And “Tanihaku pixel” are 3. ) It means that the detection result of the valley white pixel detection is a valley white pixel, and # means a logical sum (OR: or). The white pattern matching 323d corresponds to the output (whether it is a white pixel or not) determined by the above-mentioned conditional expression.
It is checked whether any of the two vertical, horizontal, and diagonal continuity patterns PMPa to PMPd corresponds. White circles attached to the patterns PMPa to PMPd mean that the pixels are white pixels. It does not matter whether the other blank pixels are white pixels or not. The white pixel distribution of the 5 × 5 pixel matrix centering on the target pixel is the pattern PMPa, PMP of FIG.
If it corresponds to b, PMPc, or PMPd, it is determined that the pixel of interest is a white pattern pixel.

【0052】次に、グレー判定について説明する。R、
G、B、Y、M、C、Bkの色相分割を行い、色相毎に
濃度の低い画素を検出する。なお、色相分割は、後述の
色判定と同一である。ここで、フィルタ後のGデータを
thgrと比較して、Gデータより大きいか、または、
RGB白抽出の色画素検出で色画素であるかのどちらか
を満たしていれば、下記の演算を行い、下記条件を満た
していれば、グレー画素とする。なお、色毎に閾値を変
えているのは各インクの最大濃度が異なるためである。 4.1).R−Y色相領域境界(ry) R−2*G+B>0 4.2).Y−G色相領域境界(yg) 11*R−8*G−3*B>0 4.3).G−C色相領域境界(gc) 1*R−5*G+4*B<0 4.4).C−B色相領域境界(cb) 8*R−14*G+6*B<0 4.5).B−M色相領域境界(bm) 9*R−2*G−7*B<0 4.6).M−R色相領域境界(mr) R+5*G−6*B<0
Next, the gray judgment will be described. R,
Hue division of G, B, Y, M, C, and Bk is performed, and a pixel with low density is detected for each hue. The hue division is the same as the color determination described later. Here, the filtered G data is compared with thgr and is greater than the G data, or
If either of the color pixels is detected in the RGB white extraction color pixel detection, the following calculation is performed, and if the following conditions are satisfied, the pixel is determined to be a gray pixel. The reason why the threshold is changed for each color is that the maximum density of each ink is different. 4.1). RY hue region boundary (ry) R-2 * G + B> 0 4.2). Y-G hue region boundary (yg) 11 * R-8 * G-3 * B> 0 4.3). G-C hue region boundary (gc) 1 * R-5 * G + 4 * B <0 4.4). CB hue region boundary (cb) 8 * R-14 * G + 6 * B <0 4.5). B-M hue region boundary (bm) 9 * R-2 * G-7 * B <0 4.6). MR hue region boundary (mr) R + 5 * G-6 * B <0

【0053】4.7).Y画素画素判定(gry) (色画素である)&(ry==1)&(yg==0)&
(RGBの最大値<thmaxy) 4.8).G画素判定(grg) (色画素である)&(yg==1)&(gc==0)&
(RGBの最大値<thmaxg) 4.9).C画素判定(grc) (色画素である)&(gc==1)&(cb==0)&
(RGBの最大値<thmaxc) 4.10).B画素判定(grb) (色画素である)&(cb==1)&(bm==0)&
(RGBの最大値<thmaxb) 4.11).M画素判定(grm) (色画素である)&(bm==1)&(mr==0)&
RGBの最大値<thmaxm) 4.12).R画素判定(grr) (色画素である)&(mr==1)&(ry==0)&
(RGBの最大値<thmaxr) 4.13).色画素でない時(grbk) (RGBの最大値<thmaxbk) 4.14).グレー画素判定 上記4.7).〜4.14).のいずれかの条件を満た
す時にグレー画素とする。
4.7). Y pixel pixel determination (gry) (color pixel) & (ry == 1) & (yg == 0) &
(Maximum RGB value <thmaxy) 4.8). G pixel determination (grg) (is a color pixel) & (yg == 1) & (gc == 0) &
(Maximum RGB value <thmaxg) 4.9). C pixel determination (grc) (color pixel) & (gc == 1) & (cb == 0) &
(Maximum value of RGB <thmaxc) 4.10). B pixel determination (grb) (which is a color pixel) & (cb == 1) & (bm == 0) &
(Maximum value of RGB <thmaxb) 4.11). M pixel determination (grm) (color pixel) & (bm == 1) & (mr == 0) &
Maximum value of RGB <thmaxm) 4.12). R pixel determination (grr) (color pixel) & (mr == 1) & (ry == 0) &
(Maximum RGB value <thmaxr) 4.13). When not a color pixel (grbk) (RGB maximum value <thmaxbk) 4.14). Gray pixel determination 4.7). ~ 4.14). When any one of the conditions is satisfied, a gray pixel is set.

【0054】次に、グレーパターンマッチング323f
について説明する。Dをグレー画素として、bkはグレ
ー画素より濃いところとして、下記のパターンマッチン
グを行う。複写原稿は、薄い200線の万線パターン、
300線の万線であるので、複写原稿もグレー検出する
ように下記のようなパターンを採用している。下記パタ
ーンに一致したものは、グレー画素となる(図13
(a)、(b)、(c)参照)。
Next, gray pattern matching 323f
Will be described. The following pattern matching is performed, where D is a gray pixel and bk is darker than the gray pixel. The copy manuscript has a thin 200-line parallel pattern,
Since it is a line of 300 lines, the following pattern is adopted so that the copy original is also detected in gray. Those that match the following pattern become gray pixels (Fig. 13).
(See (a), (b), (c)).

【0055】次に、4.)白パターン補正について説明
する。白画素パターンマッチングで孤立(1×1、1×
2、2×1、2×2、1×3、3×1の白画素)してい
るアクティブ画素を非アクティブにする。このことによ
り、孤立している画素を除去する。 5.)白膨張 白画素パターンマッチングの補正の結果を7×41のO
Rを行う。 6.)白収縮 白膨張の結果の1×33のANDを行う。白膨張と白収
縮を行うことにより、白画素パターンマッチングの補正
結果に対して膨張と小面積で存在する非アクティブ画素
の除去をする。この判定結果は、白地と境界部分に対し
て、非白地側の境界領域を含む結果となる。言いかえる
と、白地よりも大きな領域となる。 7.)白補正 白ブロック補正では、ブロックパターンBCPの×を付
した注目画素を中心とした15×11画素において、四
隅の各6×4画素領域それぞれに1つ以上の白候補ブロ
ックが存在するときに、注目ブロックに白ブロック補正
データを与える。このことにより、白地に囲まれた領域
を白領域とする。
Next, 4. ) The white pattern correction will be described. Isolated by white pixel pattern matching (1x1, 1x
2, 2 × 1, 2 × 2, 1 × 3, 3 × 1 white pixels) are deactivated. This removes isolated pixels. 5. ) The result of correction of white expanded white pixel pattern matching is set to O of 7 × 41.
Perform R. 6. ) AND of 1 × 33 of the result of white contraction and white expansion. By performing white expansion and white contraction, expansion and removal of inactive pixels existing in a small area are performed for the correction result of white pixel pattern matching. This determination result is a result including a boundary area on the non-white background side with respect to the white background and the boundary portion. In other words, the area is larger than the white background. 7. ) White correction In white block correction, when one or more white candidate blocks are present in each 6 × 4 pixel area at four corners in 15 × 11 pixels centered on a pixel of interest marked with × in the block pattern BCP. , White block correction data is given to the block of interest. As a result, the area surrounded by the white background becomes the white area.

【0056】8.)グレー膨張 グレーパターンマッチングの結果に対して、11×11
のOR処理をする。このことにより、グレー領域に対し
てやや大きな領域となる。 9.)判定 白補正の結果がアクティブまたは、収縮結果がアクティ
ブでかつグレー膨張結果が非アクティブの場合に白背景
とする。次式のように表現することができる。 白補正の結果 # (白収縮の結果 & !グレー膨張
の結果) ここで、白補正の結果では、白地に書き込まれた領域を
確実に白領域と判定して、白収縮の結果 & !グレー
膨張の結果の結果では、濃い黒文字周辺を白領域とし
て、濃度の薄いところを非白領域としている。
8. ) 11 × 11 for the result of gray expanded gray pattern matching
OR processing of. This makes the area slightly larger than the gray area. 9. ) A white background is used when the judgment white correction result is active or when the contraction result is active and the gray expansion result is inactive. It can be expressed as the following equation. Result of white correction # (Result of white contraction &! Result of gray expansion) Here, in the result of white correction, the area written on the white background is definitely judged as a white area, and the result of white contraction &! In the result of the gray expansion, the dark black character periphery is a white area, and the light density area is a non-white area.

【0057】図14の丸Bp1〜Bp4で囲んだ黒の突
出部は、上述の注目ブロックを中心とした15×11画
素において、四隅の各6×4画素領域それぞれに1つ以
上の白候補ブロックが存在するときに、注目ブロックに
白ブロック補正データを与える白ブロック補正によって
白ブロックに置き換えることができる。丸Bp1〜Bp
4で囲んだ黒の突出部のように白地で囲まれた黒領域
を、白領域とすることは、そこを絵柄部と判定する可能
性を低減する。後述の総合判定326では、非白領域は
絵柄と判定するが、丸Bp1〜Bp4で囲んだ黒の突出
部のように白地で囲まれた黒領域を絵柄と誤判定する可
能性が減る。さらに、白収縮の結果、グレー膨張の結果
にて、黒地と白地境界を白領域(文字領域)と判定する
ので、濃い文字エッジは、文字の太さにかかわらず白地
判定するので、文字エッジを正しく文字エッジと判定す
ることが可能となる。濃度の薄い部分は文字エッジと判
定しなくなる。
The black protrusions surrounded by circles Bp1 to Bp4 in FIG. 14 are one or more white candidate blocks in each 6 × 4 pixel area at four corners in 15 × 11 pixels centered on the above-mentioned block of interest. , The white block can be replaced with the white block by the white block correction that gives the white block correction data to the target block. Round Bp1 to Bp
Setting a black area surrounded by a white background such as a black protrusion surrounded by 4 as a white area reduces the possibility that the black area is determined as a pattern portion. In a comprehensive determination 326 described later, the non-white area is determined to be a pattern, but the possibility of erroneously determining a black area surrounded by a white background such as a black protrusion surrounded by circles Bp1 to Bp4 to be a pattern is reduced. Further, the white contraction result and the gray expansion result determine the boundary between the black background and the white background as a white area (character area), so a dark character edge is determined as a white background regardless of the character thickness. It is possible to correctly determine the character edge. Areas with low density are no longer judged as character edges.

【0058】次に、文字/写真判定レベルの調整につい
て説明する。白領域抽出323では、白判定323cで
RGB白抽出323bの白地判定信号、色地判定信号d
および谷白画素判定信号ならびに2値化323aの2値
化白判定信号に対応する、白の程度をあらわす状態変数
である白地情報MSを生成する。そして、白パターンマ
ッチング323dで、該色地判定信号d、白地情報M
S、2値化白判定信号および谷白画素判定信号に基づい
て注目画素が白画素か否を仮に定めて、注目画素を含む
画素マトリスクに対する白画素分布パターンマッチング
によって白画素か否を確定する。この結果と、グレーパ
ターンマッチング323fの結果とを用いて、白補正3
23gの注目画素が黒地と白地境界との境界(白領域:
文字領域)であるかを判定する。
Next, the adjustment of the character / photo judgment level will be described. In the white area extraction 323, the white background determination signal and the color background determination signal d of the RGB white extraction 323b in the white determination 323c.
And white background information MS, which is a state variable representing the degree of white, corresponding to the valley white pixel determination signal and the binarized white determination signal of the binarization 323a. Then, in the white pattern matching 323d, the color background determination signal d and the white background information M
Based on the S-binarized white determination signal and the valley white pixel determination signal, it is temporarily determined whether the pixel of interest is a white pixel, and white pixel distribution pattern matching is performed on the pixel matrix including the pixel of interest to determine whether the pixel is a white pixel. Using this result and the result of the gray pattern matching 323f, the white correction 3
The target pixel of 23 g is a boundary between a black background and a white background (white area:
Character area) is determined.

【0059】RGB白抽出323bの白地判定信号(図
11のステップ3)は、注目画素のR、G、B画像デー
タのすべてが閾値thwss=40より小さいと「1」
(白地)である。この閾値thwssを大きくすると大
きい値の白地情報MSを定める確率が高くなり、「白領
域」(黒地と白地との境界:文字領域)を摘出する確率
が高くなる。すなわち、絵柄領域を摘出する確率が低下
する。閾値thwssを小さくするとこの逆となる。2
値化323aの2値化白判定信号(図11のステップ
7)は、フィルタ321のG画像データのエッジ強調出
力が閾値thwsb=50より小さければ、「1」(2
値化白)である。この閾値thwsbを大きくすると大
きい値の白地情報MSを定める確率が高くなり、「白領
域」を摘出する確率が高くなる。すなわち、絵柄領域を
摘出する確率が低下する。閾値thwsbを小さくする
とこの逆となる。
The white background determination signal of RGB white extraction 323b (step 3 in FIG. 11) is "1" when all of the R, G, and B image data of the target pixel are smaller than the threshold value thwss = 40.
(White background). When the threshold value thwss is increased, the probability that the white background information MS having a large value is determined increases, and the probability that the “white area” (border between the black background and the white background: character area) is extracted increases. That is, the probability of extracting the pattern area is reduced. If the threshold value thwss is reduced, the opposite is true. Two
The binarized white determination signal of the binarization 323a (step 7 in FIG. 11) is “1” (2 if the edge emphasis output of the G image data of the filter 321 is smaller than the threshold thwsb = 50.
Quantized white). If the threshold value thwsb is increased, the probability that the white background information MS having a large value is determined increases, and the probability that the “white area” is extracted increases. That is, the probability of extracting the pattern area is reduced. If the threshold value thwsb is reduced, the opposite is true.

【0060】「白領域」の画像データには後工程で、文
字画像を鮮明に表すための画像処理が施されるので、閾
値thwssおよびthwsbを大きくすると、文字に
優先度が高い画像処理が施される。非白領域すなわち絵
柄(写真)領域の画像データには後工程で、写真や絵柄
を忠実に表すための画像処理が施されるので、閾値th
wssおよびthwsbを小さくすると、絵柄(写真)
に優先度が高い画像処理が施される。ところで、RGB
白抽出323bの色地判定信号d(図11のステップ
6)が「1」(色地)であると、白地情報MSを低く
し、「白領域」を摘出する確率が低くなる。すなわち、
絵柄領域を摘出する確率が高くなる。2.)色地検出で
色地判定信号dを生成する処理B.およびC.で用いる
閾値thwc(例えば20)を小さくすると、周辺画素
(図10の三角(△)と四角(□))を同時に色画素と
検出する確率、すなわち(bとcのエクスクルーシブノ
ア)=「1」となる確率が高くなって、色地判定信号d
=「1」(色地)を得る確率も高くなり、「白領域」を
摘出する確率が低くなる。すなわち、絵柄領域を摘出す
る確率が高くなる。
Since the image data of the "white area" is subjected to the image processing for clearly expressing the character image in the later step, if the thresholds thwss and thwsb are increased, the image processing having a high priority is applied to the character. To be done. Since the image data for the non-white area, that is, the picture (photo) area is subjected to image processing for faithfully representing the picture or the picture in a later step, the threshold value th
If wss and thwsb are reduced, the design (photo)
Is subjected to image processing with high priority. By the way, RGB
When the color background determination signal d (step 6 in FIG. 11) of the white extraction 323b is "1" (color background), the white background information MS is lowered and the probability of extracting the "white area" is lowered. That is,
The probability of extracting the picture area increases. 2. ) Process for generating color background determination signal d by color background detection B. And C.I. If the threshold value thwc (for example, 20) used in step 1 is reduced, the probability that peripheral pixels (triangle (Δ) and square (□) in FIG. 10) are simultaneously detected as color pixels, that is, (exclusive NOR of b and c) = “1” The probability that the color ground determination signal d
= The probability of obtaining "1" (color background) is also high, and the probability of extracting the "white area" is low. That is, the probability of extracting the pattern area is increased.

【0061】そこで、本実施の形態では、図2の操作/
表示部OPBによって、キー入力による入力モードのメ
ニュー表示ならびに液晶ディスプレに表示されたメニュ
ー画面上のキー画像(パラメータ指定キーおよびアップ
・ダウンキー)の操作によって調整するパラメータ調整
の中の「文字/写真レベル」の調整に基づき、閾値th
wss、thwsbおよびthwcを図15のように調
整する。
Therefore, in this embodiment, the operation / operation of FIG.
"Character / Photograph" in the parameter adjustment that is adjusted by operating the keypad (parameter specification key and up / down key) on the menu screen of the input mode by the key input on the display unit OPB and the menu screen displayed on the liquid crystal display. Threshold th based on the adjustment of “level”
Adjust wss, thwsb and thwc as shown in FIG.

【0062】すなわち、オペレータが操作/表示部OP
Bにて調整設定するパラメータ「文字/写真レベル」の
標準値(デフォルト)は「3」であり、このデフォルト
値が、文字/写真レベルと閾値thwss、thwsb
およびthwcとの関係を表す変換テーブルとともに、
図3に示すROM(リード・オンリ・メモ)358に書
き込まれており、図3に示すIPU300に電源が投入
され、CPU(中央処理装置)357がIPU300の
初期化をするときに、CPU357がROM358から
文字/写真レベルのデフォルト値を読み出して、それに
対応する閾値thwss、thwsbおよびthwcを
変換テーブルから読み出してRAM(ランダム・アクセ
ス・メモリ)356の各閾値宛てレジスタに書き込ん
で、白領域抽出323での処理に用いる。その後、操作
/表示部OPBからの入力で文字/写真レベルの調整が
あり、調整後の値Aがメインコントローラ10からCP
U357に与えられると、CPU357は、調整後の値
Aに対応するパラメータthwss、thwsbおよび
thwcの各値を、ROM358の変換テーブルから読
み出して、RAM356の、パラメータ宛てレジスタに
書き込む。
That is, the operator operates the operation / display unit OP.
The standard value (default) of the parameter "text / photo level" adjusted and set in B is "3", and this default value is the text / photo level and the thresholds thwss, thwsb.
And a conversion table showing the relationship with thwc,
The data is written in the ROM (Read Only Memo) 358 shown in FIG. 3, and when the IPU 300 shown in FIG. 3 is powered on and the CPU (Central Processing Unit) 357 initializes the IPU 300, the CPU 357 causes the ROM 358. The default value of the character / photo level is read from, the corresponding threshold values thwss, thwsb, and thwc are read from the conversion table, and are written in the respective threshold value registers of the RAM (random access memory) 356. Used for processing. After that, the character / photo level is adjusted by input from the operation / display unit OPB, and the adjusted value A is sent from the main controller 10 to the CP.
When given to U357, the CPU 357 reads the values of the parameters thwss, thwsb, and thwc corresponding to the adjusted value A from the conversion table of the ROM 358, and writes them in the parameter-addressed register of the RAM 356.

【0063】閾値を標準値thwss=40、thws
b=50、thwc=20に設定しているときに、操作
/表示部OPBを使ってオペレータが「文字/写真レベ
ル」の値をi(例えば1)だけ大きく「Up(アッ
プ)」すると、閾値thwss、thwsbおよびth
wcが2i(2)分、文字優先方向に変更した値に定め
られる。逆に、オペレータが「文字/写真レベル」の値
をi(例えば1)だけ小さく「Down(ダウン)」す
ると、閾値thwss、thwsbおよびthwcが2
i(2)分、写真優先方向に変更した値に定められる。
The threshold value is a standard value thwss = 40, thws
When b = 50 and thwc = 20 are set, if the operator uses the operation / display unit OPB to increase the value of “text / photo level” by i (for example, 1) and “Up (up)”, the threshold value is increased. thwss, thwsb and th
wc is set to a value changed in the character priority direction by 2i (2). On the contrary, when the operator decreases the value of “text / photo level” by i (for example, 1) and “Down”, the thresholds thwss, thwsb and thwc are 2
i (2) is set to a value changed in the photo priority direction.

【0064】次に、網点抽出324について説明する。
図16は、網点抽出324の構成を示した図である。第
1網点ピーク検出部324aは、G画像データを用い
て、所定の大きさの二次元局所領域内の画素濃度情報か
ら、網点ドットの一部を形成する画素(網点ピーク画素
と呼ぶ)を検出する回路である。局所領域に関して、次
の二つの条件が同時に成立するときに、領域の中心画素
を網点ピーク画素として検出する。条件1は、中心画素
の濃度レベルが局所領域内で最大(山ピーク)または最
小(谷ピーク)であることを条件とする。条件2は、中
心画素に対し点対称関係にある全ての画素のペアについ
て、画素ペアの濃度レベルの平均と中心画素の濃度レベ
ルとの差の絶対値が、閾値Th以上であることを条件と
する。
Next, the halftone dot extraction 324 will be described.
FIG. 16 is a diagram showing the configuration of the halftone dot extraction 324. The first halftone dot peak detection unit 324a uses the G image data to form a pixel that forms part of a halftone dot dot from the pixel density information in the two-dimensional local area of a predetermined size (referred to as a halftone dot peak pixel). ) Is a circuit for detecting. Regarding the local area, when the following two conditions are satisfied at the same time, the central pixel of the area is detected as a halftone dot peak pixel. Condition 1 is that the density level of the central pixel is maximum (peak peak) or minimum (valley peak) in the local region. The condition 2 is that the absolute value of the difference between the average of the density levels of the pixel pairs and the density level of the central pixel is equal to or more than the threshold value Th for all pairs of pixels having a point-symmetrical relationship with the central pixel. To do.

【0065】ここで、図17を参照しながら第1網点ピ
ーク検出324aの検出処理を具体的に説明する。図1
7は、局所領域として5×5画素マトリクス(一般化し
て示すとM×M画素マトリクス)のマスクを採用した例
である。5×5画素マトリクスの各画素の符号を、図1
0のパターンMPpで示すものとすると、注目画素とな
る中心画素c3の濃度Lcが、その周囲画素の濃度L1
〜L8と比較して最大または最小であるとともに、ab
s(2Lc−L1−L8)≧Lth、かつ、abs(2
Lc−L2−L7)≧Lth、かつ、abs(2Lc−
L3−L6)≧Lth、かつ、abs(2Lc−L4−
L5)≧Lthのときに、マスクの中心画素(Lc)を
網点ピーク画素として検出する。abs関数は絶対値を
とることを意味する。Lthは閾値(固定値)である。
Here, the detection processing of the first halftone dot peak detection 324a will be specifically described with reference to FIG. Figure 1
7 is an example in which a mask of a 5 × 5 pixel matrix (M × M pixel matrix in generalized form) is adopted as the local area. The code of each pixel of the 5 × 5 pixel matrix is shown in FIG.
If the pattern MPp of 0 is used, the density Lc of the central pixel c3, which is the pixel of interest, is the density L1 of the surrounding pixels
~ Maximum or minimum compared to L8 and ab
s (2Lc-L1-L8) ≧ Lth, and abs (2
Lc-L2-L7) ≧ Lth, and abs (2Lc-
L3-L6) ≧ Lth, and abs (2Lc-L4-
When L5) ≧ Lth, the central pixel (Lc) of the mask is detected as a halftone dot peak pixel. The abs function means to take an absolute value. Lth is a threshold value (fixed value).

【0066】具体的には、周囲画素は、図17に示す周
囲画素分布パターンMPaまたはMPbの、4角形を付
記した画素とする。周囲画素分布パターンMPaとMP
bに基づいた上述の網点ピーク画素検出のどちらかが、
網点ピーク画素と検出した時に、そのときの注目画素
(中心画素c3)に網点ピーク画素を表す検出信号を与
える。2つのパターンを用いるのは、網点の線数に幅広
く対応するためである。パターンMPaは、L1=b
2、L2=b3、L3=b4、L4=c2、L5=c
4、L6=d2、L7=d3、L8=d4と定めたもの
である。ここで、L1=b2とは、画素b2の濃度を、
上述の網点ピーク画素検出演算のL1の値とすることを
意味する。パターンMPbは、L1=b2、L2=a
3、L3=b4、L4=c1、L5=c5、L6=d
2、L7=e3、L8=d4と定めたものである。
Specifically, the surrounding pixels are pixels to which a quadrangle of the surrounding pixel distribution pattern MPa or MPb shown in FIG. 17 is added. Surrounding pixel distribution pattern MPa and MP
Either of the halftone dot peak pixel detections described above based on b
When it is detected as a halftone dot peak pixel, a detection signal representing the halftone dot peak pixel is given to the target pixel (center pixel c3) at that time. The reason why two patterns are used is to widely correspond to the number of halftone dots. The pattern MPa is L1 = b
2, L2 = b3, L3 = b4, L4 = c2, L5 = c
4, L6 = d2, L7 = d3, L8 = d4. Here, L1 = b2 means the density of the pixel b2,
This means setting the value to L1 in the above-mentioned halftone dot peak pixel detection calculation. The pattern MPb has L1 = b2 and L2 = a.
3, L3 = b4, L4 = c1, L5 = c5, L6 = d
2, L7 = e3 and L8 = d4.

【0067】また、複写の場合、副走査方向yの拡大、
縮小はスキャナ200の原稿走査速度の低・高で行うの
で、スキャナ200からは、副走査方向yの拡大、縮小
があった画像データが与えられる。そこで、縮小のとき
には、上述のパターンMPa、MPbに換えて、図17
上に示すパタン―ンMPc、MPdを用いる。拡大のと
きには、図17上に示すパタ―ンMPe、MPfを用い
る。なお、パタ―ンMPe、MPfにおいて、三角印を
与えた画素を上述の「周囲画素」に加えてもよい。
In the case of copying, enlargement in the sub-scanning direction y,
Since the reduction is performed at low and high document scanning speeds of the scanner 200, the scanner 200 supplies the image data that has been enlarged or reduced in the sub-scanning direction y. Therefore, at the time of reduction, instead of the patterns MPa and MPb described above,
The patterns MPc and MPd shown above are used. At the time of enlargement, the patterns MPe and MPf shown in FIG. 17 are used. In addition, in the patterns MPe and MPf, the pixels given the triangle marks may be added to the above-mentioned “surrounding pixels”.

【0068】第2網点ピーク検出部324bは、Bデー
タを用いて網点ピーク検出するものであって、機能は、
第1網点ピーク検出部324aと同じである。第1網点
ピーク検出部324aは、G画像データを用いるのでほ
とんどの色に対して反応するが、Yに対しては反応しな
いので第2網点ピーク検出部324bでは、B画像デー
タを使用して、Yの網点ピークを検出することを目的と
している補助的なものである。
The second halftone dot peak detector 324b detects halftone dot peaks using B data, and has the function of:
This is the same as the first halftone dot peak detector 324a. Since the first halftone dot peak detector 324a uses G image data, it reacts with most colors, but does not react with Y, so the second halftone dot peak detector 324b uses B image data. In addition, it is an auxiliary object for detecting the halftone dot peak of Y.

【0069】網点領域検出部324dは、第1網点ピー
ク検出部324a、第2網点ピーク検出部324bのど
ちらかにより検出された山と谷の網点ピーク画素を、所
定の大きさの二次元の小領域毎に計数し、山と谷の網点
ピーク画素の合計を小領域の計数値Pとする。この計数
値Pが閾値Pthより大きいときに、小領域の全画素
(または画素単位の処理の場合、小領域の中心画素の
み)を網点領域と判定する。判定の結果は一時記憶手段
324fに記憶される。
The halftone dot area detecting unit 324d determines the peak and valley halftone dot peak pixels detected by either the first halftone dot peak detecting unit 324a or the second halftone dot peak detecting unit 324b to have a predetermined size. Counting is performed for each two-dimensional small area, and the sum of halftone dot peak pixels of peaks and valleys is set as the count value P of the small area. When the count value P is larger than the threshold value Pth, all the pixels in the small area (or only the central pixel of the small area in the case of pixel unit processing) are determined as the halftone dot area. The determination result is stored in the temporary storage unit 324f.

【0070】ここで、図18(a)を参照しながら、第
3網点ピーク検出部324cの検出処理を具体的に説明
する。この第3網点ピーク検出部324cは、100線
以下、65線(新聞の網点)以上の検出を目的としてい
る。局所領域として7×7画素マトリクス(一般化して
示すとM×M画素マトリクス)のマスクを採用した例で
ある。これを図19のパターンに示すものとすると、注
目画素となる中心画素群の濃度Lcが、その周囲画素の
濃度群L1〜L8と比較して最大または最小であるとと
もに、abs(2Lc−L1−L8)≧Lth、かつ、
abs(2Lc−L2−L7)≧Lth、かつ、abs
(2Lc−L3−L6)≧Lth、かつ、abs(2L
c−L4−L5)≧Lthのときに、マスクの中心画素
(Lc)を網点ピーク画素として検出する。abs関数
は絶対値をとることを意味する。Lthは閾値(固定
値)である。
Here, the detection processing of the third halftone dot peak detector 324c will be specifically described with reference to FIG. The third halftone dot peak detector 324c is intended to detect 100 lines or less and 65 lines (newspaper dots). This is an example in which a mask of a 7 × 7 pixel matrix (M × M pixel matrix in generalized form) is used as the local area. If this is shown in the pattern of FIG. 19, the density Lc of the central pixel group that is the pixel of interest is maximum or minimum as compared with the density groups L1 to L8 of the surrounding pixels, and abs (2Lc-L1- L8) ≧ Lth, and
abs (2Lc-L2-L7) ≧ Lth, and abs
(2Lc-L3-L6) ≧ Lth, and abs (2L
When c−L4−L5) ≧ Lth, the central pixel (Lc) of the mask is detected as a halftone dot peak pixel. The abs function means to take an absolute value. Lth is a threshold value (fixed value).

【0071】ここで、マスクの中心画素(Lc)が最大
値の時の網点ピーク画素を網点山ピーク画素として、周
期チェック324gに出力する。また、マスクの中心画
素(Lc)が最小値の時の網点ピーク画素を網点谷ピー
ク画素として、周期チェック324hに出力する。具体
的には、周囲画素は、図18(a)に示す周囲画素分布
パターンとした画素とする。周囲画素分布パターンに基
づいた上述の網点ピーク画素検出のどちらかを網点ピー
ク画素として検出した時に、そのときの注目画素(中心
画素d4)に網点ピーク画素を表す検出信号を与える。
2つのパターンを用いるのは、網点の網点面積率に幅広
く対応するためである。
The halftone dot peak pixel when the central pixel (Lc) of the mask has the maximum value is output to the cycle check 324g as the halftone dot peak pixel. Further, the halftone dot peak pixel when the central pixel (Lc) of the mask has the minimum value is output to the cycle check 324h as the halftone dot peak pixel. Specifically, the surrounding pixels are pixels having the surrounding pixel distribution pattern shown in FIG. When any one of the above-described halftone dot peak pixel detections based on the surrounding pixel distribution pattern is detected as a halftone dot peak pixel, a detection signal representing the halftone dot peak pixel is given to the target pixel (center pixel d4) at that time.
The reason why two patterns are used is to widely correspond to the halftone dot area ratio.

【0072】Lcの濃度は周辺画素を参照して、Lc=
Min(d4,d3、d5、c4、e4)のように求め
る。このLcが周辺画素に対して最大値の場合、パター
ンは、L1=Max(a1、a2、b1)、L2=Ma
x(a3、a4、a5)、L3=Max(a6、a7、
c7)、L4=Max(c1、d1、e1)、L5=M
ax(c7、d7、e7)、L6=Max(f1、g
1、g2)、L7=Max(g3、g4、g5)、L8
=Max(g6、g7、f7)と定めたものである。こ
こで、L1=Max(a1、a2、b1)とは、画素a
1、a2、b1の濃度の最大値を、上述の網点ピーク画
素検出演算のL1の値とすることを意味する。Lc=M
in(d4、d3、d5、c4、e4)とは、d4、d
3、d5、c4、e4の濃度(画像データ)の最小値を
意味する。
For the density of Lc, Lc =
It is calculated as Min (d4, d3, d5, c4, e4). When this Lc is the maximum value with respect to the peripheral pixels, the pattern is L1 = Max (a1, a2, b1), L2 = Ma.
x (a3, a4, a5), L3 = Max (a6, a7,
c7), L4 = Max (c1, d1, e1), L5 = M
ax (c7, d7, e7), L6 = Max (f1, g
1, g2), L7 = Max (g3, g4, g5), L8
= Max (g6, g7, f7). Here, L1 = Max (a1, a2, b1) means the pixel a
This means that the maximum value of the densities of 1, a2, and b1 is set as the value of L1 in the above-mentioned halftone dot peak pixel detection calculation. Lc = M
in (d4, d3, d5, c4, e4) means d4, d
It means the minimum value of the density (image data) of 3, d5, c4, and e4.

【0073】また、Lc=Max(d4,d3、d5、
c4、e4)で、このLcが周辺画素に対して最小値の
場合、パターンは、L1=Min(a1、a2、b
1)、L2=Min(a3、a4、a5)、L3=Ma
x(a6、a7、c7)、L4=Max(c1、d1、
e1)、L5=Max(c7、d7、e7)、L6=M
ax(f1、g1、g2)、L7=Max(g3、g
4、g5)、L8=Max(g6、g7、f7)と定め
たものである。
Further, Lc = Max (d4, d3, d5,
c4, e4), if Lc is the minimum value for the surrounding pixels, the pattern is L1 = Min (a1, a2, b
1), L2 = Min (a3, a4, a5), L3 = Ma
x (a6, a7, c7), L4 = Max (c1, d1,
e1), L5 = Max (c7, d7, e7), L6 = M
ax (f1, g1, g2), L7 = Max (g3, g
4, g5) and L8 = Max (g6, g7, f7).

【0074】また、複写の場合、副走査方向yの拡大、
縮小はスキャナ200の原稿走査速度の低・高で行うの
で、スキャナ200からは、副走査方向yの拡大、縮小
があった画像データが与えられる。そこで、縮小のとき
には、図18(b)に示すパタン―ンを用いる。拡大の
ときには、図18(a)に示すパタ―ンを用いる。第3
網点ピーク検出部324cの演算式は、1画素のデータ
で演算するのではなく、複数の画素(min、maxの
演算)で、対象となる画素を参照する。これは、低線数
の網点は濃淡の周期が大きくなるので、1画素で決定す
るのでは周辺画素を参照することにより、ノイズ(ご
み)の影響を少なし、かつ、算術演算量を減らし、他の
ブロックと共通に演算式を使えるようにしているので、
ハード化が容易である。
In the case of copying, enlargement in the sub-scanning direction y,
Since the reduction is performed at low and high document scanning speeds of the scanner 200, the scanner 200 supplies the image data that has been enlarged or reduced in the sub-scanning direction y. Therefore, at the time of reduction, the pattern shown in FIG. 18 (b) is used. When enlarging, the pattern shown in FIG. 18 (a) is used. Third
The calculation formula of the halftone dot peak detection unit 324c does not calculate with the data of one pixel, but refers to the target pixel with a plurality of pixels (calculation of min and max). This is because halftone dots with a low number of lines have a large shading period. Therefore, when determining with one pixel, by referring to peripheral pixels, the influence of noise (dust) is reduced and the amount of arithmetic calculation is reduced. , Since we are making it possible to use arithmetic expressions in common with other blocks,
Easy to harden.

【0075】周期チェック324gでは、網点山ピーク
と網点山ピークの周期をチェックする。主走査1次元方
向に網点山ピークの間隔をチェックをする。網点ピーク
検出の検出対象の網点は、検出線数100線以下のなの
で、網点山ピークは、8以上となる。8未満の場合は小
さな文字を誤判定している場合がほとんどある(600
dpi読み取り時)。図20(a)に示すように、L1
が6で、L2が10であれば、L1間隔の網点山ピーク
は、小さな文字である場合がほとんどなので、網点山ピ
ークを除去する。L2間隔は、低線数網点である場合が
ほとんどなので、除去はしない。周期チェックで、図2
0(a)が、図20(b)のように補正される。周期チ
ェック324hでは、網点谷ピークを、周期チェック3
24gと同様に行う。網点山ピークと網点谷ピークを独
立に行うのは、網点面積率50%近傍においては、網点
山ピークと網点谷ピークが交互に現れ、正確な周期が現
れないために独立に行っている。周期チェック324
g、周期チェック324hの出力をOR324iで論理
和して、網点領域検出部324eに入力する。
In the period check 324g, the period between the halftone dot peak and the halftone dot peak is checked. Check the interval of the halftone dot peaks in the one-dimensional main scanning direction. Since the number of detected halftone dots in halftone dot peak detection is 100 or less, the halftone dot peak is 8 or more. If it is less than 8, it is almost always the case that a small character is misjudged (600
(when reading dpi). As shown in FIG. 20A, L1
Is 6 and L2 is 10, the halftone dot peaks at L1 intervals are mostly small characters, so the halftone dot peaks are removed. Since the L2 interval is mostly a low frequency halftone dot, it is not removed. Figure 2 in the cycle check
0 (a) is corrected as shown in FIG. 20 (b). In the cycle check 324h, the halftone dot valley peak is checked in the cycle check 3
Do the same as for 24 g. The halftone dot peak and the halftone dot peak are performed independently because the halftone dot peak and the halftone dot peak appear alternately in the vicinity of the halftone dot area ratio of 50%, and an accurate cycle does not appear independently. Is going. Cycle check 324
g, the output of the cycle check 324h is logically ORed by the OR 324i and input to the halftone dot area detection unit 324e.

【0076】網点領域検出ぶ324eは、周期チェック
324g、324hをOR324iで論理和して、山と
谷の網点ピーク画素を、所定の大きさの二次元の小領域
毎に計数し、山と谷の網点ピーク画素の合計を小領域の
計数値Pとする。この計数値Pが閾値Pthより大きい
ときに、小領域の全画素(または画素単位の処理の場
合、小領域の中心画素のみ)を網点領域と判定する。判
定の結果は、一時記憶手段324fに記憶される。さら
に、網点領域検出ぶ324eは周期チェック324g、
324hをOR324iで論理和して、山と谷の網点ピ
ーク画素を、所定の大きさの二次元の小領域毎に計数
し、山と谷の網点ピーク画素の合計を小領域の計数値P
とする。この計数値Pが閾値Pthより大きいときに、
小領域の全画素(または画素単位の処理の場合、小領域
の中心画素のみ)を網点領域と判定する。判定の結果は
一時記憶手段324jに記憶される。
The halftone dot area detection unit 324e ORs the period checks 324g and 324h with the OR 324i, counts the halftone dot peak pixels of the peaks and valleys for each two-dimensional small area of a predetermined size, and calculates the peaks. Let the sum of the halftone dot peak pixels of the and valley be the count value P of the small area. When the count value P is larger than the threshold value Pth, all the pixels in the small area (or only the central pixel of the small area in the case of pixel unit processing) are determined as the halftone dot area. The result of the determination is stored in the temporary storage unit 324f. Further, the halftone dot area detection unit 324e has a period check 324g,
324h is ORed by OR 324i, and the peak peak pixels of the peaks and valleys are counted for each two-dimensional small area of a predetermined size, and the sum of the peak peak pixels of the peaks and valleys is the count value of the small area. P
And When the count value P is larger than the threshold value Pth,
All the pixels in the small area (or only the central pixel of the small area in the case of pixel-based processing) are determined as the halftone dot area. The determination result is stored in the temporary storage unit 324j.

【0077】網点領域検出部324dまたは網点領域検
出部324eのどちらかが、網点領域ならば、注目して
いる小領域の近傍の処理済み領域の網点/非網点判定結
果(周辺の特徴情報)に応じて、閾値Pthを変化させ
る。本実施の形態においては、閾値Pthとして、二つ
の値TH1、TH2(TH1>TH2とする)が用意さ
れ、一時記憶手段324fに記憶されている注目小領域
近傍の処理済み領域の判定結果によって、その一方の値
を選択する。すなわち、近傍の領域が非網点領域と判定
された場合には、線画領域である可能性が高いので、誤
検出を減らすために条件が厳しくなるTH1の方を閾値
Pthとして選択する。これに対し、近傍領域が網点領
域であると判定された場合には、網点領域である可能性
が高いので、条件が緩くなるTH2のほうを閾値Pth
として用いる。なお、閾値Pthの初期値としてはTH
1を選択する。
If either the halftone dot area detection unit 324d or the halftone dot area detection unit 324e is the halftone dot area, the halftone dot / non-halftone dot judgment result (periphery) of the processed area in the vicinity of the small area of interest. The threshold value Pth is changed in accordance with the feature information). In the present embodiment, two values TH1 and TH2 (TH1> TH2) are prepared as the threshold value Pth, and according to the determination result of the processed area in the vicinity of the target small area stored in the temporary storage unit 324f, Select one of these values. That is, when the neighboring area is determined to be the non-halftone dot area, it is highly likely that it is a line drawing area. Therefore, TH1 which has a stricter condition is selected as the threshold Pth in order to reduce erroneous detection. On the other hand, when it is determined that the neighborhood area is the halftone dot area, it is highly likely that the neighborhood area is the halftone dot area.
Used as. The initial value of the threshold Pth is TH
Select 1.

【0078】図17のAMPに上記で説明した小領域の
分布を示す。小領域分布パターンAMPのS1〜S4の
それぞれは、例えば4×4画素の大きさの小領域(ブロ
ック)であり、S4が注目している小領域、S1、S2
およびS3は処理済みの小領域であるとする。S1、S
2およびS3のすべてが網点領域であると判定されてい
る時には、TH2がS4の判定のための閾値Pthとし
て用いられる。S1、S2およびS3の一つでも非網点
領域と判定されているときは、閾値PthとしてTH1
が選択される。網点領域と判定したときに“1”で、非
網点と判定した時に“0”の網点領域検出信号htが網
点抽出324から出力される。なお、これは一例であっ
て、S1、S2およびS3のいずれか一つの小領域でも
網点領域と判定されたときにTH2を選択し、すべてが
非網点領域と判定されたときにのみTH1を選択するよ
うにしてもよい。さらに、参照する近傍領域をS1の
み、あるいはS2のみとすることもできる。この出力結
果は、網点抽出結果である。
The distribution of the small areas described above is shown in the AMP of FIG. Each of S1 to S4 of the small area distribution pattern AMP is, for example, a small area (block) having a size of 4 × 4 pixels, and the small areas of interest in S4 are S1 and S2.
And S3 are processed small areas. S1, S
When it is determined that 2 and S3 are all halftone dot areas, TH2 is used as the threshold Pth for the determination of S4. If even one of S1, S2, and S3 is determined to be a non-halftone dot area, TH1 is set as the threshold Pth.
Is selected. A halftone dot area detection signal ht of "1" when it is determined to be a halftone dot area and "0" when it is determined to be a non-halftone dot is output from the halftone dot extraction 324. Note that this is an example, and TH2 is selected when any one of the small areas S1, S2, and S3 is determined to be a halftone dot area, and TH1 is selected only when all are determined to be non-halftone dot areas. May be selected. Further, the neighboring area to be referred to may be only S1 or only S2. This output result is a halftone dot extraction result.

【0079】網点領域検出部324eが網点領域なら
ば、注目している小領域の近傍の処理済み領域の網点/
非網点判定結果(周辺の特徴情報)に応じて、閾値Pt
hを変化させる。本実施の形態においては、閾値Pth
として、二つの値TH1、TH2(TH1>TH2とす
る)が用意され、一時記憶手段324jに記憶されてい
る注目小領域近傍の処理済み領域の判定結果によって、
その一方の値を選択する。すなわち、近傍の領域が非網
点領域と判定された場合には、線画領域である可能性が
高いので、誤検出を減らすために条件が厳しくなるTH
1のほうを閾値Pthとして選択する。これに対し、近
傍領域が網点領域であると判定された場合には、網点領
域である可能性が高いので、条件が緩くなるTH2のほ
うを閾値Pthとして用いる。なお、閾値Pthの初期
値としてはTH1を選択する。
If the halftone dot area detection unit 324e is a halftone dot area, the halftone dot / processed area near the small area of interest /
The threshold Pt is determined according to the non-halftone dot determination result (surrounding feature information).
Change h. In the present embodiment, the threshold Pth
As a result, two values TH1 and TH2 (TH1> TH2) are prepared, and according to the determination result of the processed area near the small area of interest stored in the temporary storage means 324j,
Select one of these values. That is, when the neighboring area is determined to be the non-halftone dot area, it is highly likely that it is a line drawing area, and therefore the condition becomes severe in order to reduce erroneous detection.
1 is selected as the threshold Pth. On the other hand, when it is determined that the neighboring region is the halftone dot region, it is highly likely that the neighboring region is the halftone dot region, and therefore TH2 where the condition is loose is used as the threshold Pth. Note that TH1 is selected as the initial value of the threshold Pth.

【0080】図17のAMPに上記で説明した小領域の
分布を示す。小領域分布パターンAMPのS1〜S4の
それぞれは、例えば4×4画素の大きさの小領域(ブロ
ック)であり、S4が注目している小領域、S1、S2
およびS3は処理済みの小領域であるとする。S1、S
2およびS3のすべてが網点領域であると判定されてい
る時には、TH2がS4の判定のための閾値Pthとし
て用いられる。S1、S2およびS3の一つでも非網点
領域と判定されているときは、閾値PthとしてTH1
が選択される。網点領域と判定したときに“1”で、非
網点と判定した時に“0”の網点領域検出信号htが網
点抽出324から出力される。なお、これは一例であっ
て、S1、S2およびS3のいずれか一つの小領域でも
網点領域と判定されたときにTH2を選択し、すべてが
非網点領域と判定されたときにのみTH1を選択するよ
うにしてもよい。さらに、参照する近傍領域をS1の
み、あるいはS2のみとすることもできる。この出力結
果は、低線網点抽出結果である。網点抽出結果との処理
の違いは、網点ピーク検出では、低線数の入力のみで網
点抽出をしているので、低線数網点のみの抽出が可能と
なっている。
The distribution of the small areas described above is shown in the AMP of FIG. Each of S1 to S4 of the small area distribution pattern AMP is, for example, a small area (block) having a size of 4 × 4 pixels, and the small areas of interest in S4 are S1 and S2.
And S3 are processed small areas. S1, S
When it is determined that 2 and S3 are all halftone dot areas, TH2 is used as the threshold Pth for the determination of S4. If even one of S1, S2, and S3 is determined to be a non-halftone dot area, TH1 is set as the threshold Pth.
Is selected. A halftone dot area detection signal ht of "1" when it is determined to be a halftone dot area and "0" when it is determined to be a non-halftone dot is output from the halftone dot extraction 324. Note that this is an example, and TH2 is selected when any one of the small areas S1, S2, and S3 is determined to be a halftone dot area, and TH1 is selected only when all are determined to be non-halftone dot areas. May be selected. Further, the neighboring area to be referred to may be only S1 or only S2. This output result is a low-line halftone dot extraction result. The difference from the halftone dot extraction result is that in the halftone dot peak detection, the halftone dots are extracted only by inputting a low number of lines, so only the low number of halftone dots can be extracted.

【0081】次に、色判定325について説明する。原
稿中の色(有彩)画素や黒(無彩)画素を検出する際に
は、R、G、Bの相対的な読み取りずれが、各色画像デ
ータのサンプリングや機械的精度のために存在する。図
21を参照しながら、画像濃度信号について説明する。
図21(a)は、画像濃度信号で、黒濃度信号は理想的
には、R、B、G濃度信号ともレベルの高低が一致した
とき理想の黒である。ところが、実際の画像データは、
レンズでCCD上に画像を結像し、CCDの画像信号を
デジタル化したもので、図21(b)が理想の高低波形
となる。一般的なスキャナでは、3ラインCCDセンサ
を用いているため、画像データのR、G、Bの各画像を
時間的に同時に読み取るのではなく、R、G、Bの各ラ
インセンサは等間隔で配置され、時間的に同時に読むこ
とができないので、どうしても読み取り位置ずれが生じ
てしまう。例えば、図21(b)に示すレベル変化の黒
を表すR、G、B各色濃度信号は、図21(c)に示す
ように、相対的にずれる。このずれが大きいと、黒領域
の周縁に色ずれが現われる。
Next, the color judgment 325 will be described. When detecting a color (chromatic) pixel or a black (achromatic) pixel in the document, a relative read deviation of R, G, and B exists due to sampling of each color image data and mechanical accuracy. . The image density signal will be described with reference to FIG.
FIG. 21A shows an image density signal. Ideally, the black density signal is ideal black when the levels of the R, B, and G density signals match. However, the actual image data is
An image is formed on the CCD with a lens, and the image signal of the CCD is digitized. FIG. 21B shows an ideal high and low waveform. Since a general scanner uses a 3-line CCD sensor, R, G, and B images of image data are not read simultaneously at the same time, but the R, G, and B line sensors are equally spaced. Since they are arranged and they cannot be read at the same time in terms of time, a reading position shift will inevitably occur. For example, the R, G, and B color density signals representing the black of the level change shown in FIG. 21B are relatively displaced as shown in FIG. 21C. If this deviation is large, color deviation appears at the periphery of the black area.

【0082】次に、色相分割325aについて説明す
る。色判定325は、有彩色領域を見つけるものであ
る。入力データR、G、Bは、色相分割325aにて、
c、m、yおよび色判定用w(白)の信号に変換され
る。色相分割の例としては、それぞれの色の境界を求
め、1画素内のR、G、Bそれぞれの画像データの最大
値と最小値の差をRGB差と定義して、以下のようにす
る。ここでは、R、G、B画像データは、数字が大きく
なると黒くなる(濃くなる)。 1).R−Y色相領域境界(ry) R−2*G+B>0 2).Y−G色相領域境界(yg) 11*R−8*G−3*B>0 3).G−C色相領域境界(gc) 1*R−5*G+4*B<0 4).C−B色相領域境界(cb) 8*R−14*G+6*B<0 5).B−M色相領域境界(bm) 9*R−2*G−7*B<0 6).M−R色相領域境界(mr) R+5*G−6*B<0
Next, the hue division 325a will be described. The color determination 325 is to find a chromatic color area. The input data R, G, and B are processed by the hue division 325a.
c, m, y and color determination w (white) signals are converted. As an example of the hue division, the boundary of each color is obtained, and the difference between the maximum value and the minimum value of the image data of each of R, G, and B in one pixel is defined as an RGB difference, and is as follows. Here, the R, G, B image data becomes black (darker) as the number increases. 1). RY hue region boundary (ry) R-2 * G + B> 02). Y-G hue region boundary (yg) 11 * R-8 * G-3 * B> 03). G-C hue region boundary (gc) 1 * R-5 * G + 4 * B <04). CB hue region boundary (cb) 8 * R-14 * G + 6 * B <05). BM hue region boundary (bm) 9 * R-2 * G-7 * B <06). MR hue region boundary (mr) R + 5 * G-6 * B <0

【0083】7).色判定用w(白)画素判定:(R<
thwa)&(G<thwa)&(B<thwa)なら
ば、y=m=c=0とする。なお、thwaは閾値であ
る。 8).Y画素判定:(ry==1)&(yg==0)&
(RGB差>thy)ならば、y=1、m=c=0とす
る。なお、thyは閾値である。 9).G画素判定:(yg==1)&(gc==0)&
(RGB差>thg)ならば、c=y=1、m=0とす
る。なお、thgは閾値である。 10).C画素判定:(gc==1)&(cb==0)
&(RGB差>thc)ならば、c=1、m=y=0と
する。なお、thcは閾値である。
7). Color determination w (white) pixel determination: (R <
If thwa) & (G <thwa) & (B <thwa), then y = m = c = 0. Note that thwa is a threshold value. 8). Y pixel determination: (ry == 1) & (yg == 0) &
If (RGB difference> thy), then y = 1 and m = c = 0. In addition, thy is a threshold value. 9). G pixel determination: (yg == 1) & (gc == 0) &
If (RGB difference> thg), c = y = 1 and m = 0. Note that thg is a threshold value. 10). C pixel determination: (gc == 1) & (cb == 0)
& (RGB difference> thc), c = 1 and m = y = 0. Note that thc is a threshold value.

【0084】11).B画素判定:(cb==1)&
(bm==0)&(RGB差>thb)ならば、m=c
=1、y=0とする。なお、thbは閾値である。 12).M画素判定:(bm==1)&(mr==0)
&(RGB差>thm)ならば、m=1、y=c=0と
する。なお、thmは閾値である。 13).R画素判定:(mr==1)&(ry==0)
&(RGB差>thr)ならば、y=m=1、c=0と
する。なお、thrは閾値である。 14).BK画素判定:上記7).〜13).に該当し
ない時、y=m=c=1とする。
11). B pixel determination: (cb == 1) &
If (bm == 0) & (RGB difference> thb), then m = c
= 1 and y = 0. Note that thb is a threshold value. 12). M pixel determination: (bm == 1) & (mr == 0)
& (RGB difference> thm), m = 1 and y = c = 0. Note that thm is a threshold value. 13). R pixel determination: (mr == 1) & (ry == 0)
& (RGB difference> thr), y = m = 1 and c = 0. Note that thr is a threshold. 14). BK pixel determination: 7) above. ~ 13). When the above does not apply, y = m = c = 1.

【0085】さらに、色判定用w画素の判定を行う。条
件は以下のようになる。(R<thw)&(G<th
w)&(B<thw)ならば、色画素用w画素とし、w
として出力する。ここで、thwは閾値である。7).
〜14).の優先順位は、数の小さい方を優先する。上
述の閾値thwa、thy、thm、thc、thr、
thg、thbは、複写(処理)前に決まる閾値であ
る。thwとthwaの関係は、thw>thaとなっ
ている。出力信号は、c、m、yに各1ビットの3ビッ
トデータと、さらに、色判定用のw画素検出の1ビット
である。ここで色相毎に閾値を変えているのは、色相領
域毎に、有彩範囲が異なる時に色相領域に応じた閾値を
決定するからである。この色相分割325aは、一例で
あって、どんな式を使用してもよい。色相分割325a
の出力c、m、y、wは、ラインメモリ325b〜32
5eに5ライン蓄えられ、色画素判定325fに入力さ
れる。
Further, the w pixel for color judgment is judged. The conditions are as follows. (R <thw) & (G <th
w) & (B <thw), it is set as w pixel for color pixel, and w
Output as. Here, thw is a threshold value. 7).
~ 14). As for the priority order of, the smaller number has priority. The above thresholds thwa, thy, thm, thc, thr,
thg and thb are threshold values determined before copying (processing). The relationship between thw and thwa is thw> tha. The output signal is 1-bit 3-bit data for each of c, m, and y, and 1-bit for w pixel detection for color determination. The reason why the threshold value is changed for each hue here is that the threshold value is determined according to the hue area when the chromatic range is different for each hue area. This hue division 325a is an example, and any formula may be used. Hue division 325a
Output c, m, y, w of the line memories 325b to 325b.
Five lines are stored in 5e and input to the color pixel determination 325f.

【0086】次に、色画素判定325fについて説明す
る。図22は、色画素判定325fの構成を示した図で
ある。4ライン分の、c、m、y、wのデータは、パタ
ーンマッチング325f5〜325f7と、カウント3
25f1〜325f3に入力する。ここでまず、B/C
信号を求める流れの中のパターンマッチング325f6
について説明する。色画素用w画素が存在する場合、そ
の画素のc=m=y=0に補正する。この補正により、
注目画素を中心とする5×5画素マトリクスの白レベル
が大きくなる。次に注目画素が、色相分割325aで判
定した画素のc、m、yの全てが1(c=m=y=1)
または全てが0(c=m=y=0)以外の画素(色画
素)であるかを、該5×5画素マトリクスが以下のパタ
ーンにマッチングするかをチェックすることによつて、
判定する。 1).色画素パターン群 1―1).パターン1―1(pm1) D23&D33&D43 1―2).パターン1―2(pm2) D32&D33&D34 1―3).パターン1―3(pm3) D22&D33&D44 1―4).パターン1―4(pm4) D24&D33&D42 中心画素(注目画素)は、D33である。
Next, the color pixel determination 325f will be described. FIG. 22 is a diagram showing the configuration of the color pixel determination 325f. The data of c, m, y, and w for four lines are pattern matching 325f5 to 325f7 and count 3
25f1 to 325f3. First, B / C
Pattern matching 325f6 in the flow of obtaining a signal
Will be described. When the w pixel for the color pixel exists, the pixel is corrected to c = m = y = 0. With this correction,
The white level of the 5 × 5 pixel matrix centering on the pixel of interest becomes large. Next, for the pixel of interest, all of c, m, and y of the pixels determined by the hue division 325a are 1 (c = m = y = 1).
Alternatively, by checking whether all are pixels (color pixels) other than 0 (c = m = y = 0) and whether the 5 × 5 pixel matrix matches the following pattern,
judge. 1). Color pixel pattern group 1-1). Pattern 1-1 (pm1) D23 & D33 & D43 1-2). Pattern 1-2 (pm2) D32 & D33 & D34 1-3). Pattern 1-3 (pm3) D22 & D33 & D44 1-4). Pattern 1-4 (pm4) D24 & D33 & D42 The central pixel (pixel of interest) is D33.

【0087】図23は、上記のパターンpm1〜pm4
を示した図である。これらのパターン上の白丸は、c、
m、yの少なくとも1つが1であることを示す。パター
ンマッチングを採用するのは、孤立点などを拾わないよ
うにするためである。逆に、網点などの、小面積色検出
する際には、中心画素が1(c=m=y=1)または全
てが0(c=m=y=0)以外の画素(色画素)である
かで、判定すればよい。
FIG. 23 shows the above patterns pm1 to pm4.
It is the figure which showed. The white circles on these patterns are c,
At least one of m and y is 1. The reason why pattern matching is adopted is to prevent isolated points from being picked up. Conversely, when detecting a small area color such as a halftone dot, pixels (color pixels) whose central pixel is other than 1 (c = m = y = 1) or all 0 (c = m = y = 0) It may be determined depending on

【0088】2).色細線用パターン群 白に囲まれた色線を検出する。これに用いるパターンを
図24に示す。図24において、白丸を付した画素は、
c、m、yが全て0の画素である。注目画素(中心画
素)を中心とする5×5画素マトリクスのデータ(c、
m、y)の分布が、図24のパターンpw11a〜pw
14dのいずれかにマッチングすると、そのときの注目
画素(中心画素)を色線画素と見なす。 2―1).パターン2―1(pw11a〜pw11d) ((D12&D13&D14)&(D42&D43&D44))# ((D12&D13&D14)&(D52&D53&D54))# ((D22&D23&D42)&(D42&D43&D44))# ((D22&D23&D42)&(D52&D53&D54)) 2―2).パターン2―2(pw12a〜pw12d) ((D21&D31&D41)&(D24&D34&D44))# ((D21&D31&D41)&(D25&D35&D45))# ((D22&D23&D24)&(D24&D34&D44))# ((D22&D23&D24)&(D25&D35&D45)) 2―3).パターン2―3(pw13a〜pw13d) ((D11&D21&D12)&(D35&D44&D53))# ((D11&D21&D12)&(D45&D44&D55))# ((D13&D22&D31)&(D35&D44&D53))# ((D13&D22&D31)&(D45&D44&D55)) 2―4).パターン2―4(pw14a〜pw14d) ((D13&D24&D35)&(D41&D51&D52))# ((D14&D15&D25)&(D41&D51&D52))# ((D13&D24&D35)&(D31&D42&D53))# ((D14&D15&D25)&(D31&D42&D53))。
2). Color thin line pattern group A color line surrounded by white is detected. The pattern used for this is shown in FIG. In FIG. 24, the pixels with white circles are
Pixels in which c, m, and y are all 0. Data (c, 5x5 pixel matrix centered on the pixel of interest (center pixel))
m, y) distribution is the pattern pw11a to pw of FIG.
If any of 14d is matched, the pixel of interest (center pixel) at that time is regarded as a color line pixel. 2-1). Pattern 2-1 (pw11a~pw11d) ((D12 & D13 & D14) & (D42 & D43 & D44)) # ((D12 & D13 & D14) & (D52 & D53 & D54)) # ((D22 & D23 & D42) & (D42 & D43 & D44)) # ((D22 & D23 & D42) & (D52 & D53 & D54)) 2- 2). Pattern 2-2 (pw12a~pw12d) ((D21 & D31 & D41) & (D24 & D34 & D44)) # ((D21 & D31 & D41) & (D25 & D35 & D45)) # ((D22 & D23 & D24) & (D24 & D34 & D44)) # ((D22 & D23 & D24) & (D25 & D35 & D45)) 2- 3). Pattern 2-3 (pw13a to pw13d) ((D11 & D21 & D12) & (D35 & D44 & D53)) # ((D11 & D21 & D12) & (D45 & D44 & D55)) # ((D13 & D22 & D31) & (D35 & D44 & D53)) # ((D13 & D && D & 3 & D22 & D22 & D & 3). 4). Pattern 2-4 (pw14a to pw14d) ((D13 & D24 & D35) & (D41 & D51 & D52)) # ((D14 & D15 & D25) & (D41 & D51 & D52)) # ((D13 & D24 & D35) & (D31 & D42 & D53)) # ((D14 & D && 15 & D15)).

【0089】3).白領域パターン群 c、m、yが全て0のところのパターンマッチングを行
う。これに用いるパターンを図25に示す。図25にお
いて、白丸を付した画素は、c、m、yが全て0の画素
である。注目画素(中心画素)を中心とする5×5画素
マトリクスのデータ(c、m、y)の分布が、図25の
パターンpw21a〜pw24dのいずれかにマッチン
グすると、そのときの注目画素(中心画素)を白領域画
素と見なす。 3―1).パターン3―1(pw21a〜pw21d) (D21&D31&D41)# (D22&D32&D42)# (D24&D34&D44)# (D25&D35&D45) 3―2).パターン3―2(pw22a〜pw22d) (D12&D13&D14)# (D22&D23&D24)# (D42&D43&D44)# (D52&D53&D54) 3―3).パターン3―3(pw23a〜pw23d) (D52&D51&D41)# (D53&D42&D31)# (D35&D24&D13)# (D25&D15&D14) 3―4).パターン3―4(pw24a〜pw24d) (D54&D55&D45)# (D53&D44&D35)# (D31&D22&D13)# (D21&D11&D12)。
3). Pattern matching is performed when the white area pattern groups c, m, and y are all 0. The pattern used for this is shown in FIG. In FIG. 25, pixels with white circles are pixels in which c, m, and y are all 0. When the distribution of the data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches any of the patterns pw21a to pw24d in FIG. 25, the target pixel (center pixel at that time) ) Is regarded as a white area pixel. 3-1). Pattern 3-1 (pw21a to pw21d) (D21 & D31 & D41) # (D22 & D32 & D42) # (D24 & D34 & D44) # (D25 & D35 & D45) 3-2). Pattern 3-2 (pw22a to pw22d) (D12 & D13 & D14) # (D22 & D23 & D24) # (D42 & D43 & D44) # (D52 & D53 & D54) 3-3). Pattern 3-3 (pw23a to pw23d) (D52 & D51 & D41) # (D53 & D42 & D31) # (D35 & D24 & D13) # (D25 & D15 & D14) 3-4). Patterns 3-4 (pw24a to pw24d) (D54 & D55 & D45) # (D53 & D44 & D35) # (D31 & D22 & D13) # (D21 & D11 & D12).

【0090】4).色画素候補2の判定 上記で抽出したパターンマッチング結果が以下のパター
ンに一致すれば、注目画素を、色判定用色画素候補2と
する。 ((pm1==1)&((pw11==1)#(pw21!=1)))# ((pm2==1)&((pw12==1)#(pw22!=1)))# ((pm3==1)&((pw13==1)#(pw23!=1)))# ((pm4==1)&((pw14==1)#(pw24!=1)))# ここで、(pm1==1)は、注目画素を中心とするデ
ータ分布が、パターンpm1にマッチングすることを意
味し、(pw11==1)は、パターンpw11a〜p
w11dのいずれかにマッチングすることを意味し、
(pw21!=1)は、パターンpw21a〜pw21
dのいずれかにマッチングすることを意味する。&は論
理積を、#は論理和を意味する。このパターンマッチン
グにより、白領域に囲まれた色画素を色画素候補とし
て、それ以外で白領域が存在する時は、色画素としな
い。白領域がない色画素パターンマッチングで一致した
ものは、色画素候補となる。
4). Determination of Color Pixel Candidate 2 If the pattern matching result extracted above matches the following pattern, the pixel of interest is set to color determination candidate color pixel 2. ((Pm1 == 1) & ((pw11 == 1) # (pw21! = 1))) # ((pm2 == 1) & ((pw12 == 1) # (pw22! = 1))) # ((Pm3 == 1) & ((pw13 == 1) # (pw23! = 1))) # ((pm4 == 1) & ((pw14 == 1) # (pw24! = 1))) # Here, (pm1 == 1) means that the data distribution centered on the pixel of interest matches the pattern pm1, and (pw11 == 1) means the patterns pw11a to pw.
means to match any of w11d,
(Pw21! = 1) is the pattern pw21a to pw21.
It means to match any one of d. & Means logical product, and # means logical sum. By this pattern matching, the color pixel surrounded by the white area is set as the color pixel candidate, and when the white area exists in other areas, it is not set as the color pixel. A color pixel pattern matching without a white region is a color pixel candidate.

【0091】次に、カウント325f1について説明す
る。注目画素を中心とする5×5画素マトリクス内に、
色判定用w画素が存在する時は、その画素の色相分割3
25aで判定したc、m、yデータをc=m=y=0に
補正する。この補正により、該画素マトリクスの白レベ
ルが大きくなる。そして、該画素マトリクス内の各画素
のc、m、yの1(c=1、m=1、y=1)の数をカ
ウントする。c、m、yそれぞれについてのカウント値
の最大値と最小値との差が、thcnt以上でかつ最小
値がthmin未満ならば、色画素候補1とする。th
cnt、thminは、複写(処理)前に設定する閾値
である。y、m、cにプレーン展開して、N×Nのマト
リクスにおいてのそれぞれのプレーン毎に数を数えて、
最少値をブラックと仮定している。このことにより、黒
画素の読み取りが漏れても補正が可能となる。そして最
大値と最小値の差で有彩画素を判定している。このこと
により、黒画素が読み取りから外れた画素を補正して、
有彩画素を抽出する。注目画素を中心とする5×5画素
マトリクス内に一定画素の有彩画素があると注目画素を
有彩画素としている。
Next, the count 325f1 will be described. Within the 5 x 5 pixel matrix centered on the pixel of interest,
If there is a w pixel for color determination, the hue division 3 of that pixel
The c, m, y data determined in 25a is corrected to c = m = y = 0. This correction increases the white level of the pixel matrix. Then, the number of 1s (c = 1, m = 1, y = 1) of c, m, and y of each pixel in the pixel matrix is counted. If the difference between the maximum value and the minimum value of the count values for each of c, m, and y is greater than or equal to thcnt and the minimum value is less than thmin, color pixel candidate 1 is set. th
cnt and thmin are threshold values set before copying (processing). Planes are expanded to y, m, and c, and the number is counted for each plane in the N × N matrix.
The minimum value is assumed to be black. As a result, even if the reading of the black pixel is omitted, the correction can be performed. Then, the chromatic pixel is determined based on the difference between the maximum value and the minimum value. This corrects pixels where black pixels are out of reading,
Extract chromatic pixels. If there is a fixed chromatic pixel in the 5 × 5 pixel matrix centered on the target pixel, the target pixel is regarded as a chromatic pixel.

【0092】色画素判定325f8は、パターンマッチ
ング325f6とカウント325f1の出力に基づい
て、色画素判定325f8で、色画素か否かを判定す
る。色画素候補1でかつ色画素候補2であれば、色画素
1とする。ブロック化325f9は、色画素判定325
f8の出力をブロック化をする。ブロック化とは、4×
4画素のマトリックスにおいて、1画素以上の色画素1
があれば、該4×4画素マトリックス全体を色画素1ブ
ロックとして、出力する。ブロック化325f9以降の
処理は、4×4画素を1ブロックとしてブロック単位出
力する。孤立点除去325f10は、ブロック化したデ
ータを孤立点除去325f10にて、注目ブロックの隣
り合うブロックに色画素1ブロックがなければ孤立点と
して、除去する。
The color pixel determination 325f8 determines whether or not the pixel is a color pixel in the color pixel determination 325f8 based on the output of the pattern matching 325f6 and the count 325f1. If it is the color pixel candidate 1 and the color pixel candidate 2, the color pixel 1 is set. Blocking 325f9 is performed by the color pixel determination 325.
Block the output of f8. Blocking is 4x
In a 4-pixel matrix, 1 or more color pixels 1
If so, the entire 4 × 4 pixel matrix is output as one block of color pixels. In the processing after the block formation 325f9, 4 × 4 pixels are set as one block and output in block units. The isolated point removal 325f10 removes the blocked data as an isolated point in the isolated point removal 325f10 if there is no one color pixel block in the block adjacent to the target block.

【0093】膨張325f11は、孤立点除去325f
10の出力を、膨張325f11にて、色画素1ブロッ
クが存在する場合は、5×5ブロックに膨張する。膨張
するのは、色画素の周辺を、黒文字処理をしないように
するためである。ここで、出力するB/C信号は、色画
素1ブロックの時にL(有彩)を出力し、それ以外の時
は、H(無彩)を出力する。
The expansion 325f11 is the isolated point removal 325f.
In the expansion 325f11, the output of 10 is expanded to 5 × 5 blocks when one color pixel block exists. The reason for expansion is to prevent black character processing around the color pixels. Here, the B / C signal to be output outputs L (chromatic) in the case of one color pixel block, and outputs H (achromatic) in other cases.

【0094】次に、カウント325f2について説明す
る。注目画素を中心とする5×5画素マトリクス内に色
判定用w画素が存在する時は、その画素の色相分割32
5aで判定したc、m、yデータをc=m=y=0に補
正する。この補正により、該画素マトリクスの白レベル
が大きくなる。そして、該画素マトリクス内の各画素
の、c、m、yの1(c=1、m=1、y=1)の数を
カウントする。c、m、yそれぞれについてのカウント
値の最大値と最小値との差が、thacnt以上でかつ
最小値がthamin未満ならば、注目画素を色画素候
補1とする。thacnt、thaminは、複写(処
理)前に設定する閾値である。
Next, the count 325f2 will be described. When the w pixel for color determination exists in the 5 × 5 pixel matrix centered on the pixel of interest, the hue division of that pixel 32
The c, m, and y data determined in 5a are corrected to c = m = y = 0. This correction increases the white level of the pixel matrix. Then, the number of 1s (c = 1, m = 1, y = 1) of c, m, and y of each pixel in the pixel matrix is counted. If the difference between the maximum value and the minimum value of the count values for each of c, m, and y is greater than or equal to thacnt and the minimum value is less than thamine, the pixel of interest is set to color pixel candidate 1. Thacnt and thamine are threshold values set before copying (processing).

【0095】色画素判定325f12は、パターンマッ
チング325f6とカウント325f2の出力に基づい
て、色画素判定325f12で、色画素か否かを判定す
る。色画素候補1でかつ色画素候補2であれば、色画素
2とする。ブロック化325f13は、色画素判定32
5f12の出力をブロック化をする。すなわち、4×4
画素のマトリックスにおいて、1画素以上の色画素2が
あれば、該4×4画素マトリックの全体を色画素2ブロ
ックとして、出力する。ブロック化325f13以降の
処理は、4×4画素を1ブロックとしてブロック単位出
力する。密度325f14は、孤立ブロックの除去のた
めに、3×3ブロックの中のアクティブ条件(色画素2
ブロック)が3個以上あり、注目ブロックがアクティブ
(色画素)ならば、注目ブロックをアクティブブロック
(色画素2ブロック)とする。
The color pixel determination 325f12 determines whether or not it is a color pixel in the color pixel determination 325f12 based on the output of the pattern matching 325f6 and the count 325f2. If it is the color pixel candidate 1 and the color pixel candidate 2, the color pixel 2 is set. Blocking 325f13 is performed by the color pixel determination 32
The output of 5f12 is blocked. That is, 4 × 4
If there is one or more color pixels 2 in the pixel matrix, the entire 4 × 4 pixel matrix is output as a color pixel 2 block. In the processing after the block formation 325f13, 4 × 4 pixels are set as one block and output in block units. The density of 325f14 indicates that an active condition (color pixel 2
If there are three or more blocks and the target block is active (color pixel), the target block is set as the active block (color pixel 2 block).

【0096】次に、カウント325f3について説明す
る。注目画素を中心とする5×5画素マトリクス内の各
画素の、c、m、yの1(c=1、m=1、y=1)の
数をカウントする。c、m、yそれぞれについてのカウ
ント値の最大値と最小値との差が、tha1cnt以上
で、かつカウントしたc、m、yの最小値が、tha1
min未満ならば、色画素候補3とする。tha1cn
t,tha1minは、複写(処理)前に設定する閾値
である。
Next, the count 325f3 will be described. The number of 1s (c = 1, m = 1, y = 1) of c, m, and y in each pixel in the 5 × 5 pixel matrix centering on the pixel of interest is counted. The difference between the maximum value and the minimum value of the count value for each of c, m, and y is greater than or equal to thal1cnt, and the minimum value of the counted c, m, and y is thal.
If it is less than min, the color pixel candidate 3 is selected. thal1cn
t and tha1min are threshold values set before copying (processing).

【0097】パターンマッチング325f5は、色画素
検出で判定した画素(c、m、y)が色画素かを、5×
5画素マトリクスを用いるパターンマッチングで判定す
る。パターンはパターンマッチング325f6のものと
同じである。パターンマッチングで一致した画素は、色
画素候補4とする。色画素判定325f15は、色画素
候補3でかつ色画素候補4であれば、色画素3とする。
ブロック化325f16は、色画素判定325f15の
出力をブロック化をする。すなわち、4×4画素のマト
リックスにおいて、1画素以上の色画素3があれば、該
4×4画素マトリックスの全体を色画素3ブロックとし
て、出力する。ブロック化325f16以降の処理は、
4×4を1ブロックとしてブロック単位出力する。密度
325f17は、孤立ブロックの除去のために、3×3
ブロックの中のアクティブ条件(色画素3ブロック)が
3個以上あり、注目ブロックがアクティブ(色画素3)
ならば、注目ブロックをアクティブブロック(色画素3
ブロック)とする。
The pattern matching 325f5 determines whether the pixel (c, m, y) determined by the color pixel detection is a color pixel by 5 ×.
It is determined by pattern matching using a 5-pixel matrix. The pattern is the same as that of the pattern matching 325f6. Pixels that match in pattern matching are color pixel candidates 4. Color pixel determination 325f15 determines color pixel 3 if it is color pixel candidate 3 and color pixel candidate 4.
The blocking 325f16 blocks the output of the color pixel determination 325f15. That is, if there is one or more color pixels 3 in the 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a color pixel 3 block. The process after blocking 325f16 is
4 × 4 is set as one block and output in block units. The density of 325f17 is 3 × 3 because of the isolation block removal.
There are three or more active conditions (3 blocks of color pixels) in the block, and the block of interest is active (3 color pixels)
If so, the block of interest is the active block (color pixel 3
Block).

【0098】次に、カウント325f4について説明す
る。注目画素を中心とする5×5画素マトリクス内の各
画素の、色相分割325aで判定したc、m、yの1
(c=1、m=1、y=1)の数をカウントする。c、
m、yの各カウント値の最小値が、thabk以上なら
ば、注目画素を黒画素候補1とする。thabkは、複
写(処理)前に設定する閾値である。
Next, the count 325f4 will be described. 1 of c, m, and y determined by the hue division 325a of each pixel in the 5 × 5 pixel matrix centered on the pixel of interest
Count the number of (c = 1, m = 1, y = 1). c,
If the minimum value of the count values of m and y is not less than thabk, the pixel of interest is set to black pixel candidate 1. thabk is a threshold value set before copying (processing).

【0099】パターンマッチング325f7は、注目画
素を中心とする5×5画素マトリクスにおいて、c=m
=y=1の画素のパターンマッチングを行う。 1―1).パターン1―1(pm1) D23&D33&D43 1―2).パターン1―2(pm2) D32&D33&d34 1―3).パターン1―3(pm3) D22&D33&D44 1―4).パターン1―4(pm4) D42&D33& D24 これらのパターンは図23に示すものであり、図中に丸
印を付した画素が、c=m=y=1の画素である。これ
らのパターンのどれかに一致した時に、注目画素を黒画
素候補2とする。
The pattern matching 325f7 is c = m in the 5 × 5 pixel matrix centered on the target pixel.
= Y = 1 pixel pattern matching is performed. 1-1). Pattern 1-1 (pm1) D23 & D33 & D43 1-2). Pattern 1-2 (pm2) D32 & D33 & d34 1-3). Pattern 1-3 (pm3) D22 & D33 & D44 1-4). Pattern 1-4 (pm4) D42 & D33 & D24 These patterns are shown in FIG. 23, and the pixels circled in the figure are pixels with c = m = y = 1. When any one of these patterns matches, the target pixel is set as the black pixel candidate 2.

【0100】無彩判定325f18は、注目画素が、黒
画素候補1でかつ黒画素候補2であれば、黒画素とす
る。ブロック化325f19は、黒画素の出力をブロッ
ク化をする。ここでのブロック化とは、4×4画素のマ
トリックスにおいて、1画素以上の黒画素があれば、該
4×4画素マトリックスの全体を黒画素ブロックとし
て、出力する。ブロック化325f19以降の処理は、
4×4画素を1ブロックとしてブロック単位出力する。
膨張325f20は、3×3ブロックのマトリックス内
において、注目ブロックがアクティブ(黒画素ブロッ
ク)で、その周辺画素がノンアクティブ(非黒画素)な
らば、注目ブロックをノンアクティブ(非黒画素ブロッ
ク)にする。
In the achromatic determination 325f18, if the pixel of interest is the black pixel candidate 1 and the black pixel candidate 2, it is determined to be a black pixel. The blocking 325f19 blocks the output of the black pixel. Blocking here means that if there is one or more black pixels in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a black pixel block. The processing after blocking 325f19 is
4 × 4 pixels are set as one block and output in block units.
The expansion 325f20 makes the target block non-active (non-black pixel block) if the target block is active (black pixel block) and its peripheral pixels are non-active (non-black pixel block) in the matrix of 3 × 3 blocks. To do.

【0101】総合色画素判定325f21は、注目ブロ
ックが、色画素判定325f12でアクティブ(色画素
2)と判定されかつ無彩判定325f18でアクティブ
(黒画素)と判定されていなければ、注目ブロックは色
(色ブロック)と判定する。また、色画素判定325f
15がアクティブ(色画素)の時も色と判定する。膨張
325f22は、総合色画素判定325f21で、色と
判定したブロックに対して小さな文字を連続と見なすた
めに、注目ブロックを中心とする9×9ブロックのマト
リックス内に1ブロックでもアクティブブロックがあれ
ば、注目ブロックをアクティブブロックとする。ここ
で、大きく膨張させるのは、文字同士のすき間を埋める
ためである。連続カウント325f23では、色画素ブ
ロックの連続性を見て、カラー原稿か白黒原稿かを判定
する。膨張325f22の出力データ(色画素ブロッ
ク)の中の色画素の連続数をカウントすることにより、
カラー原稿かどうか判定する。
In the total color pixel determination 325f21, if the target block is not determined to be active (color pixel 2) in the color pixel determination 325f12 and is not active (black pixel) in the achromatic determination 325f18, the target block is colored. It is determined to be (color block). Also, color pixel determination 325f
When 15 is active (color pixel), it is determined to be a color. The expansion 325f22 is performed in the total color pixel determination 325f21 in order to regard small characters as continuous with respect to the block determined to be a color. Therefore, if even one block is active in the matrix of 9 × 9 blocks centering on the block of interest. , The block of interest is the active block. Here, the reason for greatly expanding is to fill the gap between the characters. In the continuous count 325f23, the continuity of the color pixel blocks is checked to determine whether it is a color original document or a monochrome original document. By counting the number of consecutive color pixels in the output data (color pixel block) of the expansion 325f22,
Determine if it is a color original.

【0102】図26は、色画素判定の処理手順を示した
フローチャートである。図26を参照しながら、判定処
理の内容を説明する。注目画素が色画素ブロックにある
場合に、注目画素の左上、上、右上および左の画素の色
画素連続数を参照して、注目画素の色画素連続数を算出
する(ステップ21〜26)。ここで、注目画素を、例
えば図10の5×5画素分布パターンMPpのc3画素
とすると、左上、上、右上および左の画素はそれぞれ、
b2、b3、b4およびc2の画素となる。注目画素が
色画素ブロックにないときには、それには0なる色画素
連続数を与える(ステップ21〜27)。
FIG. 26 is a flow chart showing a processing procedure for color pixel determination. The contents of the determination process will be described with reference to FIG. If the pixel of interest is in the color pixel block, the number of consecutive color pixels of the pixel of interest is calculated by referring to the number of consecutive color pixels of the upper left, upper, upper right and left pixels of the pixel of interest (steps 21 to 26). Here, if the pixel of interest is, for example, c3 pixel of the 5 × 5 pixel distribution pattern MPp of FIG. 10, the upper left, upper, upper right, and left pixels are respectively
The pixels are b2, b3, b4 and c2. If the pixel of interest is not in the color pixel block, it is given a continuous number of color pixels of 0 (steps 21 to 27).

【0103】注目画素が色画素ブロックにある場合は、
まず注目画素(c3)の上画素(b3)の色画素連続数
をチェックして(ステップ22)、それが0であった場
合、参照値Aに右上画素(b4)の色画素連続数に1を
加えた値を与え(ステップ24)、上画素(b3)の色
画素連続数が0であった場合、参照値Aに右上画素(b
4)の色画素連続数を与える(ステップ23)。次に、
参照値Bに左上画素(b2)の色画素連続数に1を加え
た値を与え、参照値Cには上画素(b3)の色画素連続
数に1を加えた値を与え、また参照値Dには左画素(c
2)の色画素連続数に1を加えた値を与える(ステップ
25)。そして、参照値A、B、CおよびDのうちの最
高値を、注目画素(c3)の色画素連続数とする(ステ
ップ26)。注目画素(c3)に色画素連続数を上述の
ように与えると、この色画素連続数が設定値THACS
以上であるかをチエックして(ステップ28)、THA
CS以上であった場合(ステップ28;Y)、カラー原
稿であると決定して(ステップ29)、そこで連続カウ
ント325f23の処理を終える。色画素連続数が設定
値THACS未満であった場合(ステップ28;N)、
注目画素を走査方向x、yの次の画素に更新して、上述
の処理を繰返す。原稿全面について上述の処理をした結
果、最後まで色画素連続数が設定値THACS未満であ
ったときには(ステップ30〜34)、原稿は白黒画像
であると決定する。
When the pixel of interest is in the color pixel block,
First, the number of consecutive color pixels of the upper pixel (b3) of the target pixel (c3) is checked (step 22), and if it is 0, the reference value A is set to 1 for the number of consecutive color pixels of the upper right pixel (b4). Is added (step 24), and if the number of consecutive color pixels of the upper pixel (b3) is 0, the reference value A is added to the upper right pixel (b
The continuous number of color pixels of 4) is given (step 23). next,
The reference value B is given a value obtained by adding 1 to the number of consecutive color pixels of the upper left pixel (b2), the reference value C is given a value obtained by adding 1 to the number of consecutive color pixels of the upper pixel (b3), and the reference value The left pixel (c
A value obtained by adding 1 to the number of consecutive color pixels in 2) is given (step 25). Then, the highest value of the reference values A, B, C and D is set as the number of continuous color pixels of the target pixel (c3) (step 26). When the number of consecutive color pixels is given to the pixel of interest (c3) as described above, the number of consecutive color pixels is set to the set value THACS.
Check if this is the case (step 28), and THA
If it is greater than or equal to CS (step 28; Y), it is determined that the original is a color original (step 29), and the processing of the continuous count 325f23 ends there. When the number of continuous color pixels is less than the set value THACS (step 28; N),
The pixel of interest is updated to the next pixel in the scanning directions x and y, and the above processing is repeated. As a result of the above-described processing for the entire surface of the original, when the number of continuous color pixels is less than the set value THACS until the end (steps 30 to 34), the original is determined to be a monochrome image.

【0104】上述の色画素連続数は、縦の色付き線分と
横の色付き線分の和となる。右上の色画素連続数が、他
と異なるのは二重カウントを防ぐためである。図27
は、色画素連続数の具体的なデータを示した図である。
図27に示す数字を入れた小四角が色画素であり、数字
が該画素に与えた色画素連続数である。数字を入れた小
四角が連なったブロックが色画素群であり、同一原稿上
のどれかの色画素群のなかの色画素連続数が1つでも設
定値THACS以上になり、カラー原稿である場合、カ
ラーか白黒かの判定を確定する(ステップ28、ステッ
プ29)。
The continuous number of color pixels is the sum of the vertical colored line segment and the horizontal colored line segment. The number of consecutive color pixels on the upper right is different from the others because double counting is prevented. FIG. 27
FIG. 6 is a diagram showing specific data on the number of continuous color pixels.
The small squares with the numbers shown in FIG. 27 are color pixels, and the numbers are the number of continuous color pixels given to the pixels. A block in which a number of small squares are connected is a color pixel group, and even if the number of continuous color pixels in any one of the color pixel groups on the same document is greater than or equal to the set value THACS, and it is a color document. , Color or monochrome is determined (step 28, step 29).

【0105】色画素判定325f8〜325f15と分
けたのは、カラー原稿か白黒原稿かの判定精度を高くす
るためである。黒文字処理のための色画素判定は、誤判
定をしても局所的でさほど目立たない。一方、カラー原
稿か白黒原稿かの判定は、誤判定をすると原稿全体に影
響する。そこで、カウント325f1〜f4を独立とし
た。本来ならば、色相分割325aから独立にした方が
よいが、色相分割325aを独立にすると、パターンマ
ッチング325f5〜f7のメモリが増えるので、好ま
しくない。カウント325f1〜f4のパラメータ(色
画素候補1、3、黒画素候補1)で、色画素のパラメー
タ(色画素1〜3)を変更していることにより、メモリ
量の増加を少なくしている。色画素判定325f12、
325f15を設けているのは蛍光ペンの黄色のような
濃度の低い色を検出するためで、さらに、無彩判定(黒
画素判定)325f18を備えたのは、濃度を低くする
と誤検出した際に補正をするためである。蛍光ペンなど
濃度の薄い色は、ある程度の幅で黒データで補正しても
問題はない。複数の色画素を抽出する際に、w(白)の
レベルを変えているだけなので、色画素検出のために2
つ分のメモリを持つ必要がなく、1つ分+1ラインの容
量で可能である。
The reason for separating the color pixel determination from 325f8 to 325f15 is to increase the accuracy of determination of a color original or a black and white original. The color pixel determination for black character processing is local and not so noticeable even if an erroneous determination is made. On the other hand, the determination as to whether the original is a color original or a black-and-white original affects the entire original if an erroneous determination is made. Therefore, the counts 325f1 to f4 are made independent. Originally, it is better to be independent from the hue division 325a, but if the hue division 325a is made independent, the memory of the pattern matching 325f5 to f7 increases, which is not preferable. By increasing the parameters (color pixel candidates 1 and 3, black pixel candidate 1) of the counts 325f1 to f4 and changing the color pixel parameters (color pixels 1 to 3), the increase in the memory amount is reduced. Color pixel determination 325f12,
325f15 is provided to detect a low density color such as yellow of a fluorescent pen. Furthermore, achromatic determination (black pixel determination) 325f18 is provided when erroneous detection is made when the density is low. This is to make a correction. Colors with low density such as a highlighter can be corrected with black data within a certain width without any problem. When extracting a plurality of color pixels, the w (white) level is simply changed.
It is not necessary to have a memory for one, and it is possible with a capacity of one plus one line.

【0106】連続カウント325f23で、1ライン前
のカウントデータと現在のラインのカウントデータを参
照してカウント値を数えているので、確実に周辺画素の
連続を正確に数えることができるので色画素の連続を数
えることが可能となる。本実施の形態では、R、G、B
画像データに対して色相判定を行ったが、R、G、B画
像データに限定するものではなく、輝度色差(例えば、
Lab)などに対して、色相判定することは、容易であ
る。
In the continuous count 325f23, since the count value is counted by referring to the count data of the previous line and the count data of the current line, it is possible to accurately count the continuity of the peripheral pixels, so that the number of color pixels can be accurately counted. It becomes possible to count the series. In the present embodiment, R, G, B
Although the hue determination is performed on the image data, it is not limited to the R, G, B image data, and the luminance color difference (for example,
It is easy to determine the hue for Lab).

【0107】次に、総合判定326について説明する。
図28は、総合判定326の構成を示したブロック図で
ある。総合判定326は、文字判定326a、膨張処理
326bおよびデコード326cからなる。まず、文字
判定326aについて説明する。文字判定326aで
は、エッジ抽出322の結果がエッジありで、網点抽出
324の結果が網点なしで白領域抽出323の結果が白
領域ありのときは、文字エッジと判定する。そうでない
ときには非文字エッジ(絵柄または文字のなか)と判定
する。
Next, the comprehensive judgment 326 will be described.
FIG. 28 is a block diagram showing the structure of the comprehensive judgment 326. The comprehensive judgment 326 includes a character judgment 326a, an expansion processing 326b, and a decoding 326c. First, the character determination 326a will be described. In the character determination 326a, when the result of the edge extraction 322 is an edge, the result of the halftone dot extraction 324 is no halftone, and the result of the white area extraction 323 is a white area, it is determined to be a character edge. If not, it is determined as a non-character edge (in the pattern or character).

【0108】次に、膨張処理326bについて説明す
る。膨張処理326bは、文字判定326aの結果を8
×8ブロックのOR(論理和)処理し、その後に3×3
ブロックのAND(論理積)処理をして4ブロックの膨
張処理を行う。すなわち、注目ブロックを中心とする8
×8ブロックのいずれかのブロックが文字エッジであっ
た場合、注目ブロックも文字エッジブロックであると仮
定し、該注目ブロックを中心とする3×3ブロックのす
べてが文字エッジであった場合、注目ブロックを文字エ
ッジと確定し、そして、注目ブロックとそれに隣接する
3ブロック、計4ブロックを文字エッジと見なす。OR
処理してからAND処理するのは、特に黒文字の場合、
黒文字の領域の周辺に小領域の非黒文字領域が存在する
と、処理の差により違和感が感じられることがある。例
えば黒が薄く見える。これを防ぐために、OR処理で非
黒文字領域を大きくしている。AND処理は、望むべき
膨張量にするために行っている。
Next, the expansion process 326b will be described. The expansion process 326b outputs the result of the character determination 326a to 8
OR (logical sum) processing of × 8 blocks, then 3 × 3
An AND (logical product) process of blocks is performed to perform a dilation process of 4 blocks. That is, 8 centered on the block of interest
If any of the × 8 blocks is a character edge, it is assumed that the block of interest is also a character edge block, and if all 3 × 3 blocks centering on the block of interest are character edges, The block is defined as a character edge, and the block of interest and three blocks adjacent to it are regarded as the character edge. OR
AND processing is performed after processing, especially in the case of black characters,
When a small non-black character area exists around the black character area, a sense of discomfort may be felt due to the difference in processing. For example, black looks light. To prevent this, the non-black character area is enlarged by OR processing. The AND process is performed to obtain the desired expansion amount.

【0109】ところで、カラー複写機は、1枚の複写を
するのに、4回のスキャンをするので、スキャン毎に、
微妙に文字判定結果が異なる。特に、ブラック作像時に
非黒文字判定をし、ブラック作像以外のときに黒文字判
定をすると、この黒文字領域は薄くなってしまうので、
bk時には8×8ブロックのOR処理をして、その後に
3×3ブロックのAND処理をする。また、bk以外の
作像時は、5×5ブロックのOR処理をして、その後は
1×1ブロックのAND処理をする。なお、1×1のA
ND処理をすると言うことは、その結果が処理前と同一
になるので、何の処理もしないと言うことと同義であ
る。膨張処理326bの結果は、文字エッジ信号として
デコード326cに出力する。このように膨張処理32
6bをすることにより、分離結果が異なって文字の領域
が薄くなることがなくなる。また、膨張処理326bに
よって、文字の中部分が濃くなることがあるが、文字の
エッジに対して文字のなかが薄いと、濃度が飽和するこ
とのなるので違和感はない。
By the way, the color copying machine scans four times to make one copy.
The character determination result is slightly different. In particular, if non-black character determination is performed during black image formation and black character determination is performed during non-black image formation, this black character area becomes thin, so
At the time of bk, OR processing of 8 × 8 blocks is performed, and then AND processing of 3 × 3 blocks is performed. Further, at the time of image formation other than bk, OR processing of 5 × 5 blocks is performed, and thereafter, AND processing of 1 × 1 blocks is performed. 1 x 1 A
The ND processing is synonymous with the fact that no processing is performed because the result is the same as that before the processing. The result of the expansion process 326b is output to the decode 326c as a character edge signal. In this way, the expansion process 32
By performing 6b, the separation result is not different and the character area is not thinned. Further, the expansion process 326b may darken the middle part of the character, but if the character is thin with respect to the edge of the character, the density will be saturated, so that there is no discomfort.

【0110】図29は、カラー複写によるカラー色剤の
重なりを模式的に拡大して示した図である。図29
(d)は、4色とも黒文字処理をした理想の場合を示し
ている。図29(e)は、4色とも黒文字処理をして、
補正がかからず、bk以外で補正がかかって薄くなった
場合を示している。図29(f)は、本実施の形態によ
ってbkのみ黒文字処理をした、好適な場合を示し、図
29(g)は、本実施の形態によってbkのみ黒文字処
理して、bkのみ補正がかからず、bk以外で補正がか
かった好適な場合を示している。図29(a)は、膨張
量は同一で黒文字処理をした理想の場合を示している。
図29(b)は、膨張量は同一で黒文字処理をして印字
位置がずれた場合(白く抜ける)を示している。図29
(c)は、bkの膨張量が大きい場合で、本実施例によ
って黒文字処理をして印字位置がずれた場合を示してい
る。
FIG. 29 is a schematic enlarged view showing the overlap of color coloring agents in color copying. FIG. 29
(D) shows an ideal case where black characters are processed for all four colors. In FIG. 29E, black characters are processed for all four colors,
It shows the case where the correction is not applied and the correction is applied to the areas other than bk to make the area thinner. FIG. 29 (f) shows a suitable case in which only bk is subjected to black character processing according to the present embodiment, and FIG. 29 (g) shows that only bk is subjected to black character processing according to the present embodiment and only bk is corrected. No, it shows a suitable case where the correction is applied for other than bk. FIG. 29A shows an ideal case where the expansion amount is the same and black character processing is performed.
FIG. 29B shows a case where the expansion amount is the same and black character processing is performed to shift the printing position (whitening out). FIG. 29
(C) shows the case where the expansion amount of bk is large, and the printing position is shifted by the black character processing according to the present embodiment.

【0111】次に、デコード326cについて説明す
る。デコード326cが最終的に出力するC/P信号
は、図30として示した表のようになる。なお、表中、
×は、どんな値を取ってもよい。ここで、再度図3を参
照する。原稿認識320が発生するC/P信号およびB
/C信号は、RGBフィルタ330、色補正340、変
倍350、インターフェース352、UCR360、C
MYBkフィルタ370、CMYBkγ補正380およ
び階調処理390に、画像データに同期してカスケード
に与えられる。
Next, the decoding 326c will be described. The C / P signal finally output from the decode 326c is as shown in the table shown in FIG. In the table,
X may take any value. Here, FIG. 3 is referred to again. C / P signal and B generated by document recognition 320
The / C signal is an RGB filter 330, color correction 340, scaling 350, interface 352, UCR 360, C
The MYBk filter 370, the CMYBkγ correction 380, and the gradation processing 390 are applied to the cascade in synchronization with the image data.

【0112】RGBフィルタ330は、RGBデータを
MTF補正するフィルタであり、N×Nの画素マトリッ
クスに対応する係数マトリクスと、各係数に各画像デー
タを乗じて重み付け平均値を得るロジックで構成されて
いる。C/P信号が1を表すもの(文字エッジ領域)で
ある場合には、鮮鋭化処理用の係数マトリクスを用い、
0又は2、3を表すもの(絵柄領域、低線数網点領域、
網点領域)である場合には平滑化処理用の係数マトリク
スを用いて、重み付け平均値を導出し色補正340に出
力する。ここでの平滑化フィルタは、平滑化量の強い順
に並べると、低線数網点領域、網点領域、絵柄領域とな
る。これは、網点は平滑を強くしないと網点構造が残
り、モアレの原因となるためのである。さらに低線数の
網点は、高線数の網点より強く平滑化する必要がある。
色補正340は、R、G、Bデータを一次のマスキング
処理等でC、M、Yデータに変換する。変倍350は、
画像データに、主走査方向xの拡大・縮小または等倍処
理を施す。
The RGB filter 330 is a filter for MTF-correcting RGB data, and is composed of a coefficient matrix corresponding to an N × N pixel matrix and a logic for multiplying each coefficient by each image data to obtain a weighted average value. There is. When the C / P signal represents one (character edge area), a coefficient matrix for sharpening processing is used,
0 or 2 or 3 (pattern area, low-frequency halftone dot area,
In the case of a halftone dot area), a weighted average value is derived using a coefficient matrix for smoothing processing and is output to the color correction 340. When the smoothing filters here are arranged in descending order of the smoothing amount, they become a low frequency halftone dot area, a halftone dot area, and a pattern area. This is because the halftone dot structure will remain unless the smoothness is strengthened, which causes moire. Further, the low frequency halftone dots need to be smoothed more strongly than the high frequency halftone dots.
The color correction 340 converts the R, G, B data into C, M, Y data by a primary masking process or the like. Magnification change 350
The image data is enlarged / reduced in the main scanning direction x or is subjected to equal-magnification processing.

【0113】UCR360は、画像データの色再現を向
上させるためのものであり、色補正340から入力した
C、M、Yデータの共通部分をUCR(加色除去)処理
してBkデータを生成し、C、M、Y、Bkデータを出
力する。ここで、C/P信号が1(文字エッジ領域)以
外の時(文字なか領域又は絵柄領域のとき)は、スケル
トンブラック処理を行う。C/P信号が3(文字エッジ
領域)の時は、フルブラック処理を行う。さらにC/P
信号が1(文字エッジ領域)かつB/C信号がH(無彩
領域)の時は、C、M、Yのデータを消去する。これ
は、黒文字の場合に黒成分のみで表現するためである。
The UCR 360 is for improving the color reproduction of the image data, and UCR (additive removal) processing is performed on the common portion of the C, M and Y data input from the color correction 340 to generate Bk data. , C, M, Y, Bk data are output. Here, when the C / P signal is other than 1 (character edge area) (in a character area or a picture area), skeleton black processing is performed. When the C / P signal is 3 (character edge area), full black processing is performed. Further C / P
When the signal is 1 (character edge area) and the B / C signal is H (achromatic area), the data of C, M and Y are erased. This is because in the case of a black character, it is expressed only by the black component.

【0114】また、UCR360の出力画像信号IMG
は、一時点はC、M、Y、Bkのうち、一色であり、面
順次の一色出力である。すなわち、4回原稿読み取りを
行うことにより、フルカラー(4色)データを生成す
る。また、白黒複写のときは、Bk作像1回でよいの
で、1回の原稿読み取りでよい。カラー原稿か、白黒原
稿かの判定機構があれば、原稿に応じた読み取り回数で
すむので、操作者が、原稿に応じてカラー原稿か白黒原
稿かを判断して複写する必要がなくなる。本実施の形態
では、B/C信号がカラー原稿か、白黒原稿かの判定に
参照する信号である。原稿全面でB/C信号がH(無彩
領域)であったときにメインコントローラ10が、白黒
原稿と判定する。
Also, the output image signal IMG of the UCR 360
Indicates that the temporary point is one color of C, M, Y, and Bk, and is a frame sequential one-color output. That is, full-color (four-color) data is generated by reading the document four times. Further, in the case of black-and-white copying, one Bk image formation is sufficient, so that one-time document reading is sufficient. If there is a color original or black-and-white original determination mechanism, the number of times of reading depending on the original is sufficient, so that the operator does not need to determine whether the original is a color original or a black-and-white original and make a copy. In the present embodiment, the B / C signal is a signal that is referred to when determining whether a color original or a monochrome original. When the B / C signal is H (achromatic area) on the entire surface of the original, the main controller 10 determines that the original is black and white.

【0115】CMYBkフィルタ370は、カラープリ
ンタ400の周波数特性やC/P信号に応じて、N×N
の空間フィルタを用い、平滑化や鮮鋭化処理を行う。C
MYBkγ補正380は、カラープリンタ400の周波
数特性やC/P信号に応じて、γカーブを変更し処理す
る。C/P信号が1(文字エッジ領域以外)以外の場合
には、画像を忠実に再現するγカーブを用い、C/P信
号が1(文字エッジ領域)の時はγカーブを立たせてコ
ントラストを強調する。階調処理390は、カラープリ
ンタ400の階調特性やC/P信号に応じて、ディザ処
理,誤差拡散処理等の量子化を行う。Bk作像の場合に
は、C/P信号が1以外(文字エッジ領域以外)のとき
は階調重視の処理を行い、それ以外のときは解像力重視
の処理を行う。Bk以外の作像の場合は、C/P信号が
0(絵柄領域)のときは階調重視の処理を行い、それ以
外のときは解像力重視の処理を行う。以上の処理をした
画像データは、バッフアメモリを有するビデオコントロ
ール359からカラープリンタ400に、その画像デー
タ書込み動作に同期して、与えられる。
The CMYBk filter 370 is N × N according to the frequency characteristic of the color printer 400 and the C / P signal.
Smoothing and sharpening processing is performed using the spatial filter of. C
The MYBkγ correction 380 changes and processes the γ curve according to the frequency characteristic of the color printer 400 and the C / P signal. When the C / P signal is other than 1 (other than the character edge area), the γ curve that faithfully reproduces the image is used, and when the C / P signal is 1 (the character edge area), the γ curve is raised to increase the contrast. Emphasize. The gradation processing 390 performs quantization such as dither processing and error diffusion processing according to the gradation characteristics of the color printer 400 and the C / P signal. In the case of Bk image formation, when the C / P signal is other than 1 (other than the character edge area), gradation-oriented processing is performed, and otherwise resolution-oriented processing is performed. In the case of an image other than Bk, when the C / P signal is 0 (pattern area), gradation-oriented processing is performed, and in other cases, resolution-oriented processing is performed. The image data that has been subjected to the above processing is supplied from the video control 359 having a buffer memory to the color printer 400 in synchronization with the image data writing operation.

【0116】IPU300は、文字領域以外(C/P信
号=1以外)の場合は、RGBフィルタ330で平滑化
処理を行い、UCR360でスケルトンブラックの処理
を行い、CMYBkγ補正380ではリニア(階調性)
を重視したカーブを選択し、CMYBkフィルタ370
および階調処理390では階調を重視した処理を行う。
一方、文字処理(C/P信号=1でB/C信号=L)の
場合は、RGBフィルタ330でエッジ強調処理を行
い、UCR360でフルブラック処理を行い、CMYB
kγ補正380ではコントラストを重視したカーブを選
択し、CMYBkフィルタ370および階調処理390
では解像度を重視した処理を行う。
The IPU 300 performs a smoothing process by the RGB filter 330, a skeleton black process by the UCR 360, and a linear (gradation by the CMYBkγ correction 380) in a case other than the character area (C / P signal = 1). )
Select a curve that emphasizes CMYBk filter 370
In the gradation processing 390, processing with emphasis on gradation is performed.
On the other hand, in the case of character processing (C / P signal = 1 and B / C signal = L), the RGB filter 330 performs edge enhancement processing, the UCR 360 performs full black processing, and CMYB
In the kγ correction 380, a curve that emphasizes contrast is selected, and the CMYBk filter 370 and gradation processing 390 are selected.
Then, the processing that emphasizes the resolution is performed.

【0117】また、黒文字処理(C/P信号=1でB/
C信号=H)として、Bkを除くC、M、Yの画像形成
時には、C、M、Yデータを印字しない。これは、黒文
字の周りが位置ずれのために色付くのを防ぐためであ
る。また、この時のBkデータのRGBフィルタ330
は色文字のときより、エッジ強調を強めに行ってくっき
りさせてもうよい。このようにIPU300では、絵
柄、文字エッジ、網点、低線数網点の4種の処理を行
う。
Black character processing (B / B when C / P signal = 1)
C signal = H), C, M, Y data is not printed at the time of C, M, Y image formation except Bk. This is to prevent the surroundings of black characters from being colored due to misalignment. In addition, the RGB filter 330 of the Bk data at this time
You can make the edges sharper and sharper than with colored letters. In this way, the IPU 300 carries out four types of processing including a pattern, a character edge, a halftone dot, and a low-frequency halftone dot.

【0118】[0118]

【発明の効果】請求項1記載の発明では、複数のフィル
タのフィルタ演算を行うフィルタ演算手段と、演算結果
に基づいて、補正手段が補正を行う際のフィルタ係数を
決定するフィルタ係数決定手段とを備えるので、400
dpiの万線周期を強調しないフィルタ係数と600d
piの万線周期強調しないフィルタ係数で、フィルタ演
算を行い、その結果により、フィルタ係数を切り替える
ことができ、エッジ抽出手段においては、万線パターン
の黒を強調しないフィルタを選択して、万線パターンを
文字としないようにすることができる。
According to the first aspect of the present invention, there are provided a filter calculation means for performing a filter calculation of a plurality of filters, and a filter coefficient determination means for determining a filter coefficient when the correction means makes a correction based on the calculation result. Since it is equipped with 400
Filter coefficient not emphasizing the parallel line period of dpi and 600d
The filter operation can be performed with a filter coefficient of pi that does not emphasize the line cycle, and the filter coefficient can be switched according to the result. The pattern can be non-letter.

【0119】請求項2記載の発明では、フィルタ係数決
定手段は、フィルタ演算手段による演算結果の画像濃度
の最小値に基づいて、フィルタ係数を決定するので、4
00dpiの万線周期を強調しないフィルタ係数と60
0dpiの万線周期を強調しないフィルタ係数で、フィ
ルタ演算を行い、その結果により、フィルタ係数を切り
替えることができ、エッジ抽出手段においては、万線パ
ターンの黒を強調しないフィルタを選択して、万線パタ
ーンを文字としないようにすることができる。
According to the second aspect of the invention, the filter coefficient determining means determines the filter coefficient based on the minimum value of the image density of the calculation result of the filter calculating means.
The filter coefficient that does not emphasize the line cycle of 00 dpi and 60
The filter coefficient can be switched with a filter coefficient that does not emphasize the parallel line cycle of 0 dpi, and the filter coefficient can be switched according to the result. The line pattern can be made non-character.

【0120】請求項3記載の発明では、複数のフィルタ
のフィルタ演算を行うフィルタ演算手段と、フィルタ演
算手段による演算結果に基づいて、補正手段が補正を行
う際のフィルタ係数を決定するフィルタ係数決定手段
と、補正手段による補正結果に基づいて、画像データの
白地領域抽出処理を行う領域抽出手段と、を備えるの
で、400dpiの万線周期を強調しないフィルタ係数
と600dpiの万線周期強調しないフィルタ係数で、
フィルタ演算を行い、その結果により、フィルタ係数を
切り替え可能であり、白地領域検出においては、白を強
調しないフィルタを線足して、万線パターンを文字とし
ないようにすることができる。
According to the third aspect of the invention, the filter calculation means for performing the filter calculation of the plurality of filters, and the filter coefficient determination for determining the filter coefficient when the correction means performs the correction based on the calculation result by the filter calculation means. And a region extracting unit that performs a white background region extracting process of the image data based on the correction result by the correcting unit. so,
Filter calculation is performed, and the filter coefficient can be switched according to the result. In the white area detection, a filter that does not emphasize white can be added to prevent the line pattern from becoming characters.

【0121】請求項4記載の発明では、フィルタ係数決
定手段は、フィルタ演算手段による演算結果の画像濃度
の最大値に基づいて、フィルタ係数を決定するので、4
00dpiの万線周期を強調しないフィルタ係数と60
0dpiの万線周期を強調しないフィルタ係数で、フィ
ルタ演算を行い、その結果により、フィルタ係数を切り
替えることができ、白地領域検出においては、白を強調
しないフィルタを線足して、万線パターンを文字としな
いようにすることができる。
According to the fourth aspect of the invention, the filter coefficient determining means determines the filter coefficient based on the maximum value of the image density of the calculation result of the filter calculating means.
The filter coefficient that does not emphasize the line cycle of 00 dpi and 60
A filter operation can be performed with a filter coefficient that does not emphasize the line interval of 0 dpi, and the filter coefficient can be switched according to the result. In the white area detection, a filter that does not emphasize white is added to add a line pattern character. You can choose not to.

【0122】請求項5記載の発明では、原稿画像を色分
解して読み取り、画像データを生成して前記画像データ
受領手段に送信するカラー画像データ読取手段をさらに
備えるので、読み取り装置を備えた画像処理装置にも適
用することができる。
According to the fifth aspect of the present invention, since the original image is color-separated and read, color image data reading means for generating image data and transmitting the image data to the image data receiving means is further provided. It can also be applied to a processing device.

【0123】請求項6記載の発明では、画像データを用
紙上にカラー画像形成するカラー画像形成手段をさらに
備えるので、カラープリンタに適用することも可能であ
る。
According to the sixth aspect of the invention, since it further comprises a color image forming means for forming a color image of the image data on the sheet, it can be applied to a color printer.

【0124】請求項7記載の発明では、原稿画像を色分
解して読み取り、画像データを生成して前記画像データ
受領手段に送信するカラー画像データ読取手段と、画像
データを用紙上にカラー画像形成するカラー画像形成手
段と、をさらに備えるので、カラー複写機に適用するこ
とも可能である。
According to the seventh aspect of the present invention, a color image data reading means for color-separating an original image to read the image, generating image data and transmitting the image data to the image data receiving means, and forming a color image on the paper with the image data. It is also possible to apply the present invention to a color copying machine by further including a color image forming means.

【0125】請求項8記載の発明では、外部装置からの
プリント指示を受信するプリント指示受信手段をさらに
備え、前記画像データ受領手段は、前記外部装置から前
記画像データを受領し、前記カラー画像形成手段は、前
記プリント指示受信手段によって受信したプリント指示
に基づいて、前記カラー画像形成手段によるカラー画像
形成を実行するので、カラー複写機に適用することも可
能である。
According to an eighth aspect of the invention, there is further provided a print instruction receiving means for receiving a print instruction from an external device, wherein the image data receiving means receives the image data from the external device and forms the color image. Since the means executes the color image formation by the color image forming means based on the print instruction received by the print instruction receiving means, it can be applied to a color copying machine.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施の形態に係る画像処理装置の概略構成を
示した図である。
FIG. 1 is a diagram showing a schematic configuration of an image processing apparatus according to an embodiment.

【図2】図1のカラー複写機の電気システムの概略構成
を示したブロック図である。
2 is a block diagram showing a schematic configuration of an electric system of the color copying machine of FIG.

【図3】画像処理ユニット(IPU)の構成を示したブ
ロック図である。
FIG. 3 is a block diagram showing a configuration of an image processing unit (IPU).

【図4】図3の原稿認識の機能構成を示したブロック図
である。
FIG. 4 is a block diagram showing a functional configuration of document recognition in FIG.

【図5】600dpiの万線パターンAと400dpi
の万線パターンBを示した図である。
FIG. 5 is a line pattern A of 600 dpi and 400 dpi.
It is the figure which showed the parallel line pattern B of.

【図6】係数グループの一例を示した図である。FIG. 6 is a diagram showing an example of coefficient groups.

【図7】3×3画素マトリクスのパターンBPa〜BP
dおよびWPa〜WPdを示した図である。
FIG. 7 is a pattern of 3 × 3 pixel matrix BPa to BP.
It is the figure which showed d and WPa-WPd.

【図8】白領域抽出の構成を示したブロック図である。FIG. 8 is a block diagram showing a configuration of white area extraction.

【図9】パターンWBP、RDPa、RDPb、BBP
を示した図である。
FIG. 9 is a pattern WBP, RDPa, RDPb, BBP.
It is the figure which showed.

【図10】パターンMPp、MCa、MCb、MCc、
MCdを示した図である。
FIG. 10 shows patterns MPp, MCa, MCb, MCc,
It is the figure which showed MCd.

【図11】白判定に用いる状態変数MS、SS[I]の
更新の処理手順を示したフローチャートである。
FIG. 11 is a flowchart showing a processing procedure for updating state variables MS and SS [I] used for white determination.

【図12】ラインメモリLMP、パターンPMPa、P
MPb、PMPc、PMPdおよびブロックパターンB
CPを示した図である。
FIG. 12: Line memory LMP, patterns PMPa, P
MPb, PMPc, PMPd and block pattern B
It is the figure which showed CP.

【図13】200線、300線の万線パターンを示した
図である。
FIG. 13 is a diagram showing a line pattern of 200 lines and 300 lines.

【図14】黒の突出部Bp1〜Bp4を示した図であ
る。
FIG. 14 is a diagram showing black protrusions Bp1 to Bp4.

【図15】閾値thwss、thwsb、thwcの調
整値を示した図である。
FIG. 15 is a diagram showing adjustment values of thresholds thwss, thwsb, and thwc.

【図16】網点抽出の構成を示した図である。FIG. 16 is a diagram showing a configuration of halftone dot extraction.

【図17】局所領域として5×5画素マトリクスのマス
クを採用した場合を示した図である。
FIG. 17 is a diagram showing a case where a mask of a 5 × 5 pixel matrix is adopted as a local area.

【図18】局所領域として7×7画素マトリクスのマス
クを採用した場合を示した図である。
FIG. 18 is a diagram showing a case where a mask of a 7 × 7 pixel matrix is adopted as a local area.

【図19】7×7画素マトリクスのパターンを示した図
である。
FIG. 19 is a diagram showing a pattern of a 7 × 7 pixel matrix.

【図20】周期チェックで補正される網点ピークを示し
た図である。
FIG. 20 is a diagram showing halftone dot peaks corrected by a cycle check.

【図21】画像濃度信号を示した図である。FIG. 21 is a diagram showing an image density signal.

【図22】色画素判定の構成を示した図である。FIG. 22 is a diagram showing a configuration of color pixel determination.

【図23】パターンpm1〜pm4を示した図である。FIG. 23 is a diagram showing patterns pm1 to pm4.

【図24】パターンpw11a〜pw14dを示した図
である。
FIG. 24 is a diagram showing patterns pw11a to pw14d.

【図25】パターンpw21a〜pw24dを示した図
である。
FIG. 25 is a diagram showing patterns pw21a to pw24d.

【図26】色画素判定の処理手順を示したフローチャー
トである。
FIG. 26 is a flowchart showing a processing procedure for color pixel determination.

【図27】色画素連続数の具体的なデータを示した図で
ある。
FIG. 27 is a diagram showing specific data on the number of continuous color pixels.

【図28】総合判定の構成を示した図である。FIG. 28 is a diagram showing a configuration of comprehensive determination.

【図29】カラー複写によるカラー色剤の重なりを模式
的に拡大して示した図である。
FIG. 29 is a schematic enlarged view showing the overlap of color coloring materials by color copying.

【図30】デコードが出力するC/P信号を示した図で
ある。
FIG. 30 is a diagram showing a C / P signal output by a decode.

【符号の説明】[Explanation of symbols]

320 原稿認識 321 フィルタ 322 エッジ抽出 323 白領域抽出 324 網点抽出 325 色判定 326 総合判定 320 Document recognition 321 Filter 322 Edge extraction 323 White area extraction 324 Halftone dot extraction 325 color judgment 326 Overall judgment

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 CE06 CE16 CH09 CH11 DC16 5C077 MP05 MP07 MP08 PP01 PP32 PP33 PP43 PP47 PQ22 TT06 5C079 HB01 HB03 HB12 LB02 MA01 NA02 PA02    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 5B057 CE06 CE16 CH09 CH11 DC16                 5C077 MP05 MP07 MP08 PP01 PP32                       PP33 PP43 PP47 PQ22 TT06                 5C079 HB01 HB03 HB12 LB02 MA01                       NA02 PA02

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 画像データを受領する画像データ受領手
段と、 前記画像データ受領手段で受領した画像データの補正を
複数のフィルタにより行う補正手段と、 前記複数のフィルタのフィルタ演算を行うフィルタ演算
手段と、 前記複数のフィルタのフィルタ係数を格納するフィルタ
係数格納手段と、 前記フィルタ演算手段による演算結果に基づいて、前記
補正手段が補正を行う際のフィルタ係数を決定するフィ
ルタ係数決定手段と、 前記補正手段による補正結果に基づいて、前記画像デー
タのエッジ抽出処理を行うエッジ抽出手段と、を備えた
ことを特徴とする画像処理装置。
1. An image data receiving means for receiving image data, a correcting means for correcting the image data received by the image data receiving means with a plurality of filters, and a filter calculating means for performing a filter operation of the plurality of filters. A filter coefficient storage unit that stores filter coefficients of the plurality of filters; a filter coefficient determination unit that determines a filter coefficient when the correction unit performs correction based on a calculation result by the filter calculation unit; An image processing apparatus comprising: an edge extraction unit that performs an edge extraction process of the image data based on a correction result by the correction unit.
【請求項2】 前記フィルタ係数決定手段は、前記フィ
ルタ演算手段による演算結果の画像濃度の最小値に基づ
いて、前記フィルタ係数を決定することを特徴とする請
求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the filter coefficient determination means determines the filter coefficient based on a minimum value of the image density obtained as a result of the calculation by the filter calculation means.
【請求項3】 画像データを受領する画像データ受領手
段と、 前記画像データ受領手段で受領した画像データの補正を
複数のフィルタにより行う補正手段と、 前記複数のフィルタのフィルタ演算を行うフィルタ演算
手段と、 前記複数のフィルタのフィルタ係数を格納するフィルタ
係数格納手段と、 前記フィルタ演算手段による演算結果に基づいて、前記
補正手段が補正を行う際のフィルタ係数を決定するフィ
ルタ係数決定手段と、 前記補正手段による補正結果に基づいて、前記画像デー
タの白地領域抽出処理を行う領域抽出手段と、を備えた
ことを特徴とする画像処理装置。
3. An image data receiving means for receiving image data, a correcting means for correcting the image data received by the image data receiving means with a plurality of filters, and a filter calculating means for performing a filter operation of the plurality of filters. A filter coefficient storage unit that stores filter coefficients of the plurality of filters; a filter coefficient determination unit that determines a filter coefficient when the correction unit performs correction based on a calculation result by the filter calculation unit; An image processing apparatus comprising: an area extracting unit that performs a white background area extracting process of the image data based on a correction result by the correcting unit.
【請求項4】 前記フィルタ係数決定手段は、前記フィ
ルタ演算手段による演算結果の画像濃度の最大値に基づ
いて、前記フィルタ係数を決定することを特徴とする請
求項3記載の画像処理装置。
4. The image processing apparatus according to claim 3, wherein the filter coefficient determination means determines the filter coefficient based on the maximum value of the image density obtained as a result of the calculation by the filter calculation means.
【請求項5】 請求項1、請求項2、請求項3、請求項
4のうちいずれか1に記載の画像処理装置に原稿画像を
色分解して読み取り、画像データを生成して前記画像デ
ータ受領手段に送信するカラー画像読み取り手段をさら
に備えたことを特徴とする画像読取装置。
5. A document image is color-separated and read by the image processing apparatus according to any one of claims 1, 2, 3, and 4, and image data is generated to generate the image data. An image reading apparatus further comprising color image reading means for transmitting to a receiving means.
【請求項6】 請求項1、請求項2、請求項3、請求項
4のうちいずれか1に記載の画像処理装置に、前記画像
データを用紙上にカラー画像形成するカラー画像形成手
段をさらに備えたことを特徴とする画像形成装置。
6. The image processing apparatus according to claim 1, further comprising color image forming means for forming a color image of the image data on a sheet. An image forming apparatus characterized by being provided.
【請求項7】 請求項1、請求項2、請求項3、請求項
4のうちいずれか1に記載の画像処理装置に原稿画像を
色分解して読み取り、画像データを生成して前記画像デ
ータ受領手段に送信するカラー画像データ読取手段と、
前記画像データを用紙上にカラー画像形成するカラー画
像形成手段と、をさらに備えたことを特徴とするカラー
複写装置。
7. An image processing apparatus according to claim 1, wherein the original image is color-separated and read, and image data is generated to generate the image data. Color image data reading means for transmitting to the receiving means,
A color copying apparatus, further comprising: a color image forming unit that forms a color image of the image data on a sheet.
【請求項8】 請求項6記載の画像形成装置または請求
項7記載のカラー複写装置に、外部装置からのプリント
指示を受信するプリント指示受信手段をさらに備え、前
記画像データ受領手段は、前記外部装置から前記画像デ
ータを受領し、前記カラー画像形成手段は、前記プリン
ト指示受信手段によって受信したプリント指示に基づい
て、前記カラー画像形成手段によるカラー画像形成を実
行することを特徴とするカラー複写装置。
8. The image forming apparatus according to claim 6 or the color copying apparatus according to claim 7, further comprising print instruction receiving means for receiving a print instruction from an external device, wherein the image data receiving means is the external device. A color copying apparatus, wherein the color image forming unit receives the image data from the apparatus, and the color image forming unit executes the color image formation by the color image forming unit based on the print instruction received by the print instruction receiving unit. .
JP2002059083A 2002-03-05 2002-03-05 Image processor, image reader, image forming device, and color copying machine Pending JP2003259115A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002059083A JP2003259115A (en) 2002-03-05 2002-03-05 Image processor, image reader, image forming device, and color copying machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002059083A JP2003259115A (en) 2002-03-05 2002-03-05 Image processor, image reader, image forming device, and color copying machine

Publications (1)

Publication Number Publication Date
JP2003259115A true JP2003259115A (en) 2003-09-12

Family

ID=28668882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002059083A Pending JP2003259115A (en) 2002-03-05 2002-03-05 Image processor, image reader, image forming device, and color copying machine

Country Status (1)

Country Link
JP (1) JP2003259115A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2141905A1 (en) 2008-06-30 2010-01-06 Ricoh Company, Ltd. Image processing apparatus, image forming apparatus, image processing method, and computer program product
JP2011047862A (en) * 2009-08-28 2011-03-10 Ricoh Co Ltd Image inspection apparatus, image inspection method, program, and recording medium
US8055084B2 (en) 2005-07-27 2011-11-08 Ricoh Company, Ltd. Image processing device, image compression method, image compression program, and recording medium
JP2012064994A (en) * 2010-09-14 2012-03-29 Ricoh Co Ltd Image processing device, image forming device, image processing method, image processing program, and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8055084B2 (en) 2005-07-27 2011-11-08 Ricoh Company, Ltd. Image processing device, image compression method, image compression program, and recording medium
EP2141905A1 (en) 2008-06-30 2010-01-06 Ricoh Company, Ltd. Image processing apparatus, image forming apparatus, image processing method, and computer program product
JP2011047862A (en) * 2009-08-28 2011-03-10 Ricoh Co Ltd Image inspection apparatus, image inspection method, program, and recording medium
US8538086B2 (en) 2009-08-28 2013-09-17 Ricoh Company, Limited Image inspection apparatus, image inspection method, and computer program product
JP2012064994A (en) * 2010-09-14 2012-03-29 Ricoh Co Ltd Image processing device, image forming device, image processing method, image processing program, and recording medium

Similar Documents

Publication Publication Date Title
JP3983101B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus
US7139100B2 (en) Image-processing device processing image data by judging a detected and expanded medium-density field as a non-character edge field
US6965695B2 (en) Method and system for processing character edge area data
JP4010434B2 (en) Image processing, forming and color copying equipment
JP2002010090A (en) Image processing method, image processor and recording medium
JP4380696B2 (en) Image processing device
JP2008305099A (en) Image processing method, image processor, image forming device, computer program and recording medium
JP4063480B2 (en) Image processing device
JP2003259115A (en) Image processor, image reader, image forming device, and color copying machine
JP2004153563A (en) Image processing device, image readout device, image forming device and color copying device
JP2007215204A (en) Image processing apparatus
JP4833893B2 (en) Image processing apparatus, image processing method, image reading apparatus, image forming apparatus, copying apparatus, program, and computer-readable recording medium
JP2004104625A (en) Image processing, reading and forming device and color copying machine
JP2005051353A (en) Image processor, image reader, image forming apparatus, computer program, and recording medium
JP2007006526A (en) Image processor, low-linear-density dot region detecting unit, image scanner, image forming apparatus and color copier
JP2006014094A (en) Image processor, image reader, image forming device, color copier, image processing program, and recording medium
JP2006005680A (en) Image processor, image scanner, image forming apparatus, and color copying machine
JP4133674B2 (en) Image processing apparatus, image reading apparatus, and color copying apparatus
US10657428B2 (en) Image processing unit, image forming apparatus, image processing method, and storage medium
JP4695472B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and storage medium
JP4379873B2 (en) Image processing apparatus, storage medium, image reading apparatus, and image forming apparatus
JP3982669B2 (en) Image processing device
JP2002262077A (en) Image processing unit and image forming device
JP2009111645A (en) Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program
JP2004112725A (en) Image processing apparatus, image reading apparatus, image forming apparatus, and copying machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041213

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080502

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080901