JP3203689B2 - Image input device - Google Patents

Image input device

Info

Publication number
JP3203689B2
JP3203689B2 JP15926091A JP15926091A JP3203689B2 JP 3203689 B2 JP3203689 B2 JP 3203689B2 JP 15926091 A JP15926091 A JP 15926091A JP 15926091 A JP15926091 A JP 15926091A JP 3203689 B2 JP3203689 B2 JP 3203689B2
Authority
JP
Japan
Prior art keywords
data
correction
image
color
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP15926091A
Other languages
Japanese (ja)
Other versions
JPH0514711A (en
Inventor
好彦 廣田
Original Assignee
ミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=15689878&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP3203689(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ミノルタ株式会社 filed Critical ミノルタ株式会社
Priority to JP15926091A priority Critical patent/JP3203689B2/en
Priority to US07/905,109 priority patent/US5412489A/en
Publication of JPH0514711A publication Critical patent/JPH0514711A/en
Application granted granted Critical
Publication of JP3203689B2 publication Critical patent/JP3203689B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、原稿を読取り、デジタ
ルデータに変換する画像入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image input apparatus for reading an original and converting the original into digital data.

【0002】[0002]

【従来の技術】フルカラーで画像再現を行うプリンタな
どにおいては、CCDセンサなどにより原稿から読み取
った赤、緑、青(原色系)のデジタル画像データR,G,B
を色再現の3色シアン、マゼンタ、イエローC,M,Y
(補色系)のデータに変換して画像を再現する。このた
め、原稿を走査して得られた赤、緑、青の3色のデジタ
ルデータを画像再現のための3再現色のデータに変換す
るデータ処理を行う。
2. Description of the Related Art In a printer or the like which reproduces an image in full color, digital image data R, G, B of red, green, and blue (primary colors) read from a document by a CCD sensor or the like.
For the three colors cyan, magenta, and yellow C, M, and Y
Convert to (complementary color) data and reproduce the image. Therefore, data processing for converting digital data of three colors of red, green, and blue obtained by scanning a document into data of three reproduced colors for image reproduction is performed.

【0003】ここで、CCDセンサなどより読み取った
光電変換データは、まずアナログ・デジタル変換により
デジタル値に変換され、次にシェーディング補正とよば
れる規格化処理が行われる。
Here, photoelectric conversion data read by a CCD sensor or the like is first converted into a digital value by analog-to-digital conversion, and then a normalization process called shading correction is performed.

【0004】この規格化においては、たとえば基準白色
板から白レベルが読み取られ、画像信号の入力がない状
態において黒レベルが読み取られ、原稿の読み取りデー
タは、この両レベルの間で規格化される。この補正は、
オフセット除去の兼ねている。
In this normalization, for example, a white level is read from a reference white plate, a black level is read in a state where no image signal is input, and read data of a document is normalized between these two levels. . This correction is
Also serves as offset removal.

【0005】[0005]

【発明が解決しようとする課題】このシェーディング補
正において、1ライン分のサンプリングデータから補正
用基準データを決定する場合、補正用基準データに画像
ノイズが含まれていると、原稿画像の読み取りにおい
て、同一画素位置に常に画像ノイズがあらわれるため、
規則性の高い画像ノイズ(副走査方向のすじ)が発生す
る。画像ノイズの発生原因は、システム内の電源ノイズ
やクロック系のクロストークノイズなど様々であるが、
A/D変換前の画像信号に対してS/N比を悪化させ
る。
In this shading correction, when the correction reference data is determined from the sampling data for one line, if the correction reference data contains image noise, the reading of the original image will be difficult. Since image noise always appears at the same pixel position,
Highly regular image noise (streaks in the sub-scanning direction) occurs. There are various causes of image noise, such as power supply noise in the system and crosstalk noise in the clock system.
The S / N ratio is deteriorated for the image signal before the A / D conversion.

【0006】画像規格化補正用基準データの画像ノイズ
を除去するには、複数ライン分の基準データを平滑化さ
せる方法がよいが、これを行なうには、多くのラインメ
モリを必要とする。
In order to remove the image noise of the image standardization correction reference data, a method of smoothing the reference data for a plurality of lines is good. However, this requires a large number of line memories.

【0007】また、本発明者は、補正用基準データに対
し、主走査側の平滑化処理を行なう方法を提案したが、
この方法は、十分なノイズ低下の効果が得られない。ま
た、通常のシェーディング歪みが逆に補正しきれなくな
るという欠点が生じる。
The present inventor has proposed a method of performing smoothing processing on the main scanning side with respect to correction reference data.
This method does not provide a sufficient noise reduction effect. In addition, there is a drawback that normal shading distortion cannot be completely corrected.

【0008】本発明の目的は、1ライン分のラインメモ
リを用いて、規格化補正用基準データのノイズ除去が行
える画像入力装置を提供することである。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an image input device capable of removing noise from standardized correction reference data using a line memory for one line.

【0009】[0009]

【課題を解決するための手段】本発明に係る画像入力装
置は、基準板と、基準板または原稿画像を1ラインごと
に読み取り、画像データを出力するラインセンサと、ラ
インセンサで読み取った基準板の1ライン分の画像デー
タを記憶するラインメモリと、各画素ごとに1ライン分
の基準作成データを初期値としてラインメモリに書き込
む初期値書込手段と、ラインセンサで読み取った基準板
の1ライン分のデータが入力されるごとに、ラインメモ
リから読み出した基準板の1ライン分のデータと各画素
ごとに重みを付けて平均し、その結果をふたたびライン
メモリに入力し、これを複数ラインについて繰り返す演
算手段と、演算手段で得られた重み付け平均データを用
いて、ラインセンサで読み取った原稿の1ライン分の画
像データを補正する補正手段とを備えることを特徴とす
る。
An image input apparatus according to the present invention comprises a reference plate, a line sensor for reading a reference plate or a document image line by line and outputting image data, and a reference plate read by the line sensor. A line memory for storing one line of image data, an initial value writing means for writing, as an initial value, one line of reference creation data for each pixel in the line memory, and one line of a reference plate read by a line sensor. Each time data is input, the data for one line of the reference plate read from the line memory and each pixel are weighted and averaged, and the result is again input to the line memory, and this is applied to a plurality of lines. Using the repeating calculating means and the weighted average data obtained by the calculating means, the image data for one line of the original read by the line sensor is corrected. Characterized in that it comprises a correction means.

【0010】[0010]

【作用】複数ライン分の規格化補正用基準データより、
1個のラインメモリを用いて重み付け平均により画像補
正用基準データを生成する。順次入力される複数ライン
のデータの重み付け平均により、1ライン分のデータが
入力されるごとに重みづけ平均値はしだいに収束してい
く。この収束した平均値を補正に用いることにより、画
像補正用基準データの画像ノイズの低下を図り、画像デ
ータの正確な規格化をおこなう。
[Function] From the standardized correction reference data for a plurality of lines,
Image correction reference data is generated by weighted averaging using one line memory. With the weighted average of the data of a plurality of lines that are sequentially input, the weighted average value gradually converges each time data of one line is input. By using the converged average value for correction, the image noise of the image correction reference data is reduced, and the image data is accurately normalized.

【0011】好ましくは、初期値書き込み手段により書
き込まれる初期値は、最初に読み込まれる1ライン分の
基準作成データである。また、この初期値は、以前に求
められた平均値であってもよい。
Preferably, the initial value written by the initial value writing means is one line of reference creation data which is read first. The initial value may be an average value obtained before.

【0012】[0012]

【0013】[0013]

【実施例】以下、添付の図面を参照して本発明による実
施例であるデジタルカラー複写機について、以下の順序
で説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A digital color copying machine according to an embodiment of the present invention will be described below in the following order with reference to the accompanying drawings.

【0014】 (a)デジタルカラー複写機の構成 (b)画像信号処理部 (c)シェーディング補正 (d)HVC変換 (d-1)R,G,B読み取り位置補正 (d-2)彩度と色相の分離 (d-3)HVC変換部の回路 (e)濃度変換部 (f)領域判別部 (f-1)領域判別部の回路 (f-2)下色除去/墨加刷自動制御 (f-3)エッジ強調自動制御 (f-4)無彩色エッジ部の判定 (g)色補正 (g-1)UCR/BP自動処理 (g-2)マスキング処理 (g-3)UCR/BP自動処理の例 (g-4)モノカラーモードとカラーチェンジ (g-5)縁取りモード (g-6)色補正部の回路構成 (h)MTF補正 (h-1)MTF補正部の回路構成 (h-2)平滑化処理 (h-3)エッジ強調 (h-4)エッジ強調処理とシャープネスモード (h-5)色にじみ補正 (h-6)輪郭抽出モード (h-7)自動MTF補正の例 (a)デジタルカラー複写機の構成 図1は、本発明の実施例に係るデジタルカラー複写機の
全体構成を示す。デジタルカラー複写機は、原稿画像を
読み取るイメージリーダ部100と、イメージリーダ部
で読み取った画像を再現する本体部200とに大きく分
けられる。
(A) Configuration of digital color copier (b) Image signal processing unit (c) Shading correction (d) HVC conversion (d-1) R, G, B reading position correction (d-2) Saturation and Hue separation (d-3) Circuit of HVC converter (e) Density converter (f) Area discriminator (f-1) Circuit of area discriminator (f-2) Under color removal / black printing automatic control ( f-3) Automatic edge emphasis control (f-4) Judgment of achromatic color edge part (g) Color correction (g-1) UCR / BP automatic processing (g-2) Masking processing (g-3) UCR / BP automatic Processing example (g-4) Mono color mode and color change (g-5) Border mode (g-6) Circuit configuration of color correction unit (h) MTF correction (h-1) Circuit configuration of MTF correction unit (h -2) Smoothing processing (h-3) Edge enhancement (h-4) Edge enhancement processing and sharpness mode (h-5) Color blur correction (h-6) Outline extraction mode (h-7) Example of automatic MTF correction (a) Configuration of Digital Color Copier FIG. 1 shows a digital color copying machine according to an embodiment of the present invention. 1 shows an overall configuration of a copying machine. The digital color copying machine is roughly divided into an image reader section 100 for reading a document image and a main body section 200 for reproducing an image read by the image reader section.

【0015】図1において、スキャナ10は、原稿を照
射する露光ランプ12と、原稿からの反射光を集光する
ロッドレンズアレー13、及び集光された光を電気信号
に変換する密着型のCCDカラーイメージセンサ14を
備えている。スキャナ10は、原稿読取時にはモータ1
1により駆動されて、矢印の方向(副走査方向)に移動
し、プラテン15上に載置された原稿を走査する。露光
ランプ12で照射された原稿面の画像は、イメージセン
サ14で光電変換される。イメージセンサ14により得
られたR,G,Bの3色の多値電気信号は、読取信号処理
部20により、イエロー(Y)、マゼンタ(M)、シアン
(C)、ブラック(K)のいずれかの階調データに変換され
る。次いで、プリントヘッド部31は、入力される階調
データに対してこの感光体の階調特性に応じた補正(γ
補正)および必要に応じてディザ処理を行った後、補正
後の画像データをD/A変換してレーザダイオード駆動
信号を生成して、この駆動信号によりプリントヘッド部
31内のレーザダイオード221(図示せず)を駆動させ
る。
In FIG. 1, a scanner 10 includes an exposure lamp 12 for irradiating a document, a rod lens array 13 for condensing light reflected from the document, and a contact type CCD for converting the condensed light into an electric signal. The color image sensor 14 is provided. The scanner 10 uses the motor 1 when reading a document.
1, moves in the direction of the arrow (sub-scanning direction), and scans the original placed on the platen 15. The image of the document surface irradiated by the exposure lamp 12 is photoelectrically converted by the image sensor 14. The multi-valued electrical signals of the three colors R, G, and B obtained by the image sensor 14 are read by the read signal processing unit 20 into yellow (Y), magenta (M), and cyan.
(C) or black (K). Next, the print head unit 31 corrects the input gradation data according to the gradation characteristics of this photoconductor (γ
After performing correction and dither processing as necessary, the corrected image data is D / A-converted to generate a laser diode drive signal, and the drive signal generates a laser diode 221 (see FIG. (Not shown).

【0016】階調データに対応してレーザダイオード2
21から発生するレーザビームは、図1の一点鎖線に示
すように、反射鏡37を介して、回転駆動される感光体
ドラム41を露光する。これにより感光体ドラム41の
感光体上に原稿の画像が形成される。感光体ドラム41
は、1複写ごとに露光を受ける前にイレーサランプ42
で照射され、帯電チャージャ43により帯電されてい
る。この一様に帯電した状態で露光を受けると、感光体
ドラム41上に静電潜像が形成される。イエロー、マゼ
ンタ、シアン、ブラックのトナー現像器45a〜45dの
うちいずれか一つだけが選択され、感光体ドラム41上
の静電潜像を現像する。現像された像は、転写チャージ
ャ46により転写ドラム51上に巻きつけられた複写紙
に転写される。
Laser diode 2 corresponding to gradation data
The laser beam generated from 21 exposes the photosensitive drum 41, which is driven to rotate, via a reflecting mirror 37, as shown by the dashed line in FIG. As a result, an image of the document is formed on the photoconductor of the photoconductor drum 41. Photoconductor drum 41
Before the exposure for each copy
And is charged by the charging charger 43. When exposure is performed in this uniformly charged state, an electrostatic latent image is formed on the photosensitive drum 41. Only one of the yellow, magenta, cyan, and black toner developing units 45a to 45d is selected to develop the electrostatic latent image on the photosensitive drum 41. The developed image is transferred by the transfer charger 46 onto a copy paper wound around the transfer drum 51.

【0017】上記印字過程は、イエロー、マゼンタ、シ
アン及びブラックについて繰り返して行われる。このと
き、感光体ドラム41と転写ドラム51の動作に同期し
てスキャナ10はスキャン動作を繰り返す。その後、分
離爪47を作動させることによって複写紙は転写ドラム
51から分離され、定着装置48を通って定着され、排
紙トレー49に排紙される。なお、複写紙は用紙カセッ
ト50より給紙され、転写ドラム51上のチャッキング
機構52によりその先端がチャッキングされ、転写時に
位置ずれが生じないようにしている。
The above printing process is repeated for yellow, magenta, cyan and black. At this time, the scanner 10 repeats the scanning operation in synchronization with the operations of the photosensitive drum 41 and the transfer drum 51. Thereafter, the copy paper is separated from the transfer drum 51 by operating the separation claw 47, is fixed through the fixing device 48, and is discharged to the discharge tray 49. The copy paper is fed from a paper cassette 50, and the leading end thereof is chucked by a chucking mechanism 52 on the transfer drum 51, so that no positional deviation occurs during transfer.

【0018】図2と図3とにデジタルカラー複写機の制
御系の全体ブロック図を示す。
FIGS. 2 and 3 are block diagrams showing the entire control system of the digital color copying machine.

【0019】イメージリーダ部100はイメージリーダ
制御部101により制御される。イメージリーダ制御部
101は、プラテン15上の原稿の位置を示す位置検出
スイッチ102からの位置信号によって、ドライブI/
0103を介して露光ランプ12を制御し、また、ドラ
ムI/O103およびパラレルI/O104を介してス
キャンモータドライバ105を制御する。スキャンモー
タ11はスキャンモータドライバ105により駆動され
る。
The image reader unit 100 is controlled by an image reader control unit 101. The image reader control unit 101 receives a drive I / O based on a position signal from a position detection switch 102 indicating the position of the document on the platen 15.
An exposure lamp 12 is controlled via a reference numeral 0103, and a scan motor driver 105 is controlled via a drum I / O 103 and a parallel I / O 104. The scan motor 11 is driven by a scan motor driver 105.

【0020】一方、イメージリーダ制御部101は、画
像制御部106とバスにより接続される。画像制御部1
06は、CCDカラーイメージセンサ14および画像信
号処理部20のそれぞれとバスで互いに接続されてい
る。CCDカラーイメージセンサ14からの画像信号
は、後に説明する画像信号処理部20に入力されて処理
される。
On the other hand, the image reader control unit 101 is connected to the image control unit 106 by a bus. Image control unit 1
Reference numeral 06 is connected to each of the CCD color image sensor 14 and the image signal processing unit 20 via a bus. An image signal from the CCD color image sensor 14 is input to an image signal processing unit 20 described later and processed.

【0021】本体部200には、複写動作一般に制御を
行うプリンタ制御部201とプリントヘッド部31の制
御を行うプリントヘッド制御部202とが備えられる。
プリンタ制御部201には、自動濃度制御用の各種セン
サ44、60、203〜205からのアナログ信号が入
力される。また、操作パネル206へのキー入力によっ
て、パラレルI/O207を介して、プリンタ制御部2
01に各種データが入力される。プリンタ制御部201
は、制御用のプログラムが格納された制御ROM208
と各種データが格納されたデータROM209とが接続
される。プリンタ制御部201は、各種センサ44、6
0、203〜205、操作パネル206およびデータR
OM209からのデータによって、制御ROM208の
内容に従って、複写制御部210と表示パネル211と
を制御し、さらに、自動濃度補償制御を行うため、パラ
レルI/O212およびドライブI/O213を介し帯
電チャージャのグリッド電圧発生用高圧ユニット214
および現像器バイアス電圧発生用高圧ユニット215を
制御する。
The main unit 200 includes a printer control unit 201 for controlling the copying operation in general and a print head control unit 202 for controlling the print head unit 31.
Analog signals from the various sensors 44, 60, and 203 to 205 for automatic density control are input to the printer control unit 201. In addition, the printer control unit 2 is input via the parallel I / O 207 by key input to the operation panel 206.
01 is input with various data. Printer control unit 201
Is a control ROM 208 in which a control program is stored.
And a data ROM 209 storing various data. The printer control unit 201 includes various sensors 44 and 6
0, 203 to 205, operation panel 206 and data R
The data from the OM 209 controls the copy control unit 210 and the display panel 211 in accordance with the contents of the control ROM 208. Further, in order to perform automatic density compensation control, the grid of the charger is connected via the parallel I / O 212 and the drive I / O 213. High voltage unit 214 for voltage generation
And the high-voltage unit 215 for generating a developing device bias voltage.

【0022】プリントヘッド制御部202は、制御RO
M216内に格納されている制御用プログラムに従って
動作し、また、イメージリーダ部100の画像信号処理
部20と画像データバスで接続されており、画像データ
バスを介して入力される画像信号を元にして、γ補正用
変換テーブルの格納されているデータROM217の内
容を参照してγ補正を行い、さらに、階調表現法として
多値化ディザ法を用いる場合はディザ処理を施して、ド
ライブI/O218およびパラレルI/O219を介し
てレーザダイオードドライバ220を制御している。レ
ーザダイオード221はレーザダイオードドライバ22
0によって、その発光が制御される。
The print head control unit 202 controls the control RO.
It operates according to the control program stored in the M216, is connected to the image signal processing unit 20 of the image reader unit 100 by an image data bus, and operates based on an image signal input through the image data bus. The gamma correction is performed with reference to the contents of the data ROM 217 storing the gamma correction conversion table. Further, when the multi-valued dither method is used as the gradation expression method, dither processing is performed, and the drive I / The laser diode driver 220 is controlled via O218 and parallel I / O219. The laser diode 221 is a laser diode driver 22
The light emission is controlled by 0.

【0023】また、プリントヘッド制御部202は、プ
リンタ制御部201、画像信号処理部20およびイメー
ジリーダ制御部101とバスで接続されて、互いに同期
がとられる。
The print head control unit 202 is connected to the printer control unit 201, the image signal processing unit 20, and the image reader control unit 101 via a bus, and is synchronized with each other.

【0024】図4は、読取部の斜視図を示す。読取部で
は、3波長(R,G,B)の分光分布を備えた光源(ハロゲ
ンランプ)12によって原稿91の面上を照射し、その
反射光をロッドレンズアレー13によって密着型のCC
Dカラーイメージセンサ14の受光面に対しライン状に
等倍結像させる。ロッドレンズアレー13、光源12お
よびCCDカラーイメージセンサ14を含む光学系は、
図1の矢印方向にライン走査され、原稿91の光情報を
CCDカラーイメージセンサ14によって電気信号に変
換する。
FIG. 4 is a perspective view of the reading unit. In the reading unit, a light source (halogen lamp) 12 having a spectral distribution of three wavelengths (R, G, B) irradiates the surface of the original 91 with a light source (halogen lamp) 12, and the reflected light is transmitted by a rod lens array 13 to a contact type CC.
An image is formed on the light receiving surface of the D color image sensor 14 in a line shape at the same magnification. An optical system including the rod lens array 13, the light source 12, and the CCD color image sensor 14 includes:
The line information is scanned in the direction of the arrow in FIG.

【0025】(b)画像信号処理部の構成 図5は、画像信号処理部20のブロック図であり、この
図を参照して、CCDカラーイメージセンサ14から画
像信号処理部20を介してプリントヘッド制御部202
に至る画像信号の処理の流れを説明する。
(B) Configuration of Image Signal Processing Unit FIG. 5 is a block diagram of the image signal processing unit 20. Referring to FIG. 5, a print head is connected from the CCD color image sensor 14 via the image signal processing unit 20. Control unit 202
Will be described.

【0026】画像信号処理部20においては、CCDカ
ラーイメージセンサ14によって光電変換された画像信
号は、A/D変換器61で、赤、緑、青の3原色R,G,
Bの多値デジタル画像データr7〜0,g7〜0,b7〜0
変換される。変換された画像データは、シェーディング
補正部62でシェーディング補正により規格化がされ
る。次に、シェーディング補正がなされた画像データ
は、HVC変換部64において、明度V,彩度W,色調
HのデータV7〜0,W7〜0,H7〜0に変換される。変換
されたデータは、HVCラインメモリインターフェース
66に出力される。
In the image signal processing section 20, the image signal photoelectrically converted by the CCD color image sensor 14 is converted by an A / D converter 61 into three primary colors R, G, and R of red, green and blue.
Multivalued digital image data r 7 to 0 of B, it is transformed g 7 to 0, the b 7 to 0. The converted image data is normalized by shading correction in a shading correction unit 62. Next, the image data subjected to the shading correction is converted into data V7-0 , W7-0 , and H7-0 of lightness V, saturation W, and color tone H in the HVC conversion unit 64. The converted data is output to the HVC line memory interface 66.

【0027】一方、画像データRS7〜0,GS7〜0,B
7〜0は、原稿91の反射データであるため、濃度変換
部68においてlog変換を行って実際の画像の濃度デー
タDR7〜0,DG7〜0,DB7〜0に変換されて、色補正
部72とRGBラインメモリインターフェース70に出
力される。
On the other hand, the image data RS 7-0 , GS 7-0 , B
S 7 to 0 are the reflection data of the document 91, the density data DR 7 to 0 of the real image by performing a log conversion in the density conversion unit 68, DG 7 to 0, is converted to DB 7 to 0, The data is output to the color correction unit 72 and the RGB line memory interface 70.

【0028】一方、HVC変換部64から出力されたデ
ータV7〜0,W7〜0,H7〜0は、領域判別部74におい
て、それぞれ、領域とカラーが判別され、UCR/BP
比が色補正部72に出力され、MTFデータと制御パラ
メータNEDG(以下で、Nではじまる信号名で表され
る信号は、負論理の信号を意味する。)がMTF補正部
78に出力される。また、これらのデータV,W,H
は、カラー判別部76においてカラーが判別され、信号
NCCSが色補正部72に出力される。
On the other hand, the data V 7-0 , W 7-0 , and H 7-0 outputted from the HVC conversion unit 64 are respectively discriminated from the area and color by the area discrimination unit 74, and the UCR / BP is determined.
The ratio is output to the color correction unit 72, and the MTF data and the control parameter NEDG (hereinafter, a signal represented by a signal name beginning with N means a negative logic signal) are output to the MTF correction unit 78. . Further, these data V, W, H
The color is determined by the color determining unit 76, and the signal NCCS is output to the color correcting unit 72.

【0029】そして色補正部72において、黒色データ
発生処理とマスキング処理を同時に行う。すなわち、黒
色データを発生し、読取データDR,DG,DBから差
し引くとともに、読取データをシアンC,マゼンタM,イ
エローYの3再現色のデータに変換する。
Then, in the color correction section 72, black data generation processing and masking processing are performed simultaneously. That is, black data is generated, subtracted from the read data DR, DG, and DB, and the read data is converted into data of three reproduction colors of cyan C, magenta M, and yellow Y.

【0030】さらに、MTF補正部78において、領域
判別部74からの信号に対応してデジタルフィルタを選
択して、最適なスムージング(平滑化)処理またはエッジ
強調処理を行なう。また、色にじみ補正や輪郭抽出がな
される。
Further, in the MTF correction section 78, a digital filter is selected in accordance with the signal from the area determination section 74, and optimal smoothing (smoothing) processing or edge enhancement processing is performed. In addition, color blur correction and contour extraction are performed.

【0031】次に、変倍・移動部80において、倍率を
変更する。さらに、カラーバランス部(γ補正部)82
において、カラーバランスを調整し、プリントヘッド制
御部202にデータを出力する。
Next, the magnification / movement unit 80 changes the magnification. Further, a color balance unit (γ correction unit) 82
, The color balance is adjusted, and data is output to the print head control unit 202.

【0032】なお、図6は、画像信号処理部20のタイ
ミング信号を発生するタイミング制御部84を示す。タ
イミング制御部84は、CCDセンサ14のCCD水平
方向駆動信号、CCD垂直方向駆動信号、A/D変換器
61のデジタル化タイミング信号、および、画像処理基
準信号を発生する。
FIG. 6 shows a timing control section 84 for generating a timing signal for the image signal processing section 20. The timing controller 84 generates a CCD horizontal drive signal of the CCD sensor 14, a CCD vertical drive signal, a digitized timing signal of the A / D converter 61, and an image processing reference signal.

【0033】図7は、HVCラインメモリインターフェ
ース66の回路図を示す。HVC変換部64から出力さ
れた画像データV7〜0,W7〜0,H7〜0および明度平均
量VEは、セレクタ100、双方向バッファ102を介
してH,V,Cラインメモリ104に記憶され、また、
双方向バッファ102、バスゲート106を介して、画
像信号処理部20を制御するCPU140(図9参照)
により読み出される。なお、アドレスカウンタ108と
セレクタ110を介して、表1に示すようにH,V,C
ラインメモリ104への書き込みデータの種類とアドレ
スが制御される。
FIG. 7 is a circuit diagram of the HVC line memory interface 66. Image data V 7 to 0 is output from the HVC converting unit 64, W 7 to 0, H 7 to 0 and brightness average amount V E, the selector 100, H via the bidirectional buffer 102, V, C line memory 104 Is stored in
CPU 140 that controls image signal processing unit 20 via bidirectional buffer 102 and bus gate 106 (see FIG. 9)
Is read. Note that, as shown in Table 1, H, V, and C are output through the address counter 108 and the selector 110.
The type and address of write data to the line memory 104 are controlled.

【0034】[0034]

【表1】 [Table 1]

【0035】図8は、RGBラインメモリインターフェ
ース70の回路図を示す。濃度変換部68から出力され
た画像データDR7〜0,DG7〜0,DB7〜0は、セレク
タ120、双方向バッファ122を介してRGBライン
メモリ124に記憶され、また、双方向バッファ12
2、バスゲート126を介して、CPU140(図9参
照)に読み出される。なお、アドレスカウンタ128と
セレクタ130を介して、表2に示すようにR,G,B
ラインメモリ124への書き込みデータの種類とアドレ
スが制御される。
FIG. 8 is a circuit diagram of the RGB line memory interface 70. The image data DR 7-0 , DG 7-0 , and DB 7-0 output from the density converter 68 are stored in the RGB line memory 124 via the selector 120 and the bidirectional buffer 122, and are stored in the bidirectional buffer 12
2. The data is read by the CPU 140 (see FIG. 9) via the bus gate 126. Note that, as shown in Table 2, R, G, B
The type and address of write data to the line memory 124 are controlled.

【0036】[0036]

【表2】 [Table 2]

【0037】図9は、CPU周辺回路の回路図を示す。
CPU140は、両ラインメモリインターフェース6
6、70を介して画像データをモニタして、原稿サイズ
の検出、システム異常の検出、CCDセンサ14の信号
の自動調整を行なう。
FIG. 9 is a circuit diagram of a CPU peripheral circuit.
The CPU 140 has a two-line memory interface 6
The image data is monitored via 6 and 70 to detect the document size, detect a system abnormality, and automatically adjust the signal of the CCD sensor 14.

【0038】さらに、画像処理の読取モードや編集モー
ドに応じて、パラメータ信号を設定する。すなわち、デ
コーダ142を介して、3個のパラレルIO回路144
により各種パラメータ信号を画像信号部20の各構成部
分に出力する。
Further, a parameter signal is set according to the reading mode and the editing mode of the image processing. That is, through the decoder 142, the three parallel IO circuits 144
Outputs various parameter signals to each component of the image signal unit 20.

【0039】(c)シェーディング補正 シェーディング補正部62は、CCDセンサ14により
読み取られた画像データについて、黒レベルと白レベル
の補正を行なって、次の式により規格化する。
(C) Shading Correction The shading correction section 62 corrects the black level and the white level of the image data read by the CCD sensor 14 and normalizes the image data by the following equation.

【0040】 DOUT=(DIN−BK)・255/WH ここに、DINは、原稿読取データr,g,bであり、
WHは、シェーディング基準白色板の読取データであ
り、BKは、CCDセンサ14の黒レベルデータであ
る。この補正は、各色データr,g,b毎に独立して行
われる。
DOUT = (DIN−BK) · 255 / WH Here, DIN is original read data r, g, b,
WH is read data of the shading reference white plate, and BK is black level data of the CCD sensor 14. This correction is performed independently for each color data r, g, b.

【0041】BKレベル補正は、CCDセンサ14の各
ドットの下地感度レベルの違いを補正するために行われ
る。このため、入射光が無い状態でCCDセンサ14の
3原色の読取データr,g,bの各データを1ライン分
のラインメモリであるFIFOメモリ162に格納して
おき、原稿読取データDINと差分する。また、この処
理は、デジタル信号上でのオフセット除去も兼ねてい
る。
The BK level correction is performed to correct the difference in the background sensitivity level of each dot of the CCD sensor 14. For this reason, in the absence of incident light, the read data r, g, and b of the three primary colors of the CCD sensor 14 are stored in the FIFO memory 162, which is a line memory for one line, and are compared with the original read data DIN. I do. This processing also serves to remove offset on the digital signal.

【0042】また、WHレベル補正は、CCDセンサ1
4の感度不均一性やランプなどの光学系の分光分布によ
る主走査のむらを除去するために行われる。このため、
シェーディング基準白色板の読取データWHをFIFO
メモリ182に格納しておき、その逆数を原稿読取デー
タと乗算して補正する。この処理は、CCDセンサ14
の出力の3原色データを規格化する働きをもつため、各
R,G,Bデータが白原稿に対して一定比率になるホワ
イトバランス補正を兼ねている。
The WH level is corrected by the CCD sensor 1
This is performed in order to remove unevenness in the main scanning due to the non-uniformity of sensitivity 4 and the spectral distribution of an optical system such as a lamp. For this reason,
The read data WH of the shading reference white plate is FIFO
The data is stored in the memory 182, and the reciprocal thereof is multiplied by the document read data for correction. This processing is performed by the CCD sensor 14.
Has the function of normalizing the three primary color data of the output, and also serves as white balance correction in which each R, G, B data has a fixed ratio with respect to a white document.

【0043】シェーディング補正における1つの問題点
は、1ラインのサンプリングデータによって、シェーデ
ィング補正用基準データを決定したとき、このサンプリ
ングデータに画像ノイズが含まれていると、補正後の画
像データ上の同一画素位置に常に画像ノイズが現れるこ
とである。
One problem in the shading correction is that, when the shading correction reference data is determined based on the sampling data of one line, if the sampling data contains image noise, the same on the corrected image data will be obtained. That is, image noise always appears at a pixel position.

【0044】画像ノイズの発生する要因は、システム内
の電源ノイズやクロック系のクロストークノイズなど様
々であり、A/D変換前の画像信号に対してS/N比を
悪化させる。これは、A/D変換のダイナミックレンジ
(リファランス電位)が約2.39Vであり、これを8
ビットに量子化すれば、1LSB≒9.3mVという点
にある。
There are various factors causing image noise, such as power supply noise in a system and crosstalk noise in a clock system, and the S / N ratio is deteriorated with respect to an image signal before A / D conversion. This means that the dynamic range (reference potential) of the A / D conversion is about 2.39 V,
If quantized to bits, there is a point of 1 LSB ≒ 9.3 mV.

【0045】そこで複数ライン分のサンプリングデータ
によって補正基準データBK,WHを決定して、画像ノ
イズを軽減することができる。
Therefore, the correction reference data BK and WH are determined based on the sampling data for a plurality of lines, so that image noise can be reduced.

【0046】このため複数ライン分のラインメモリを用
意して補正基準データを決定することが考えられるが、
本発明では、この補正を1ライン分のラインメモリを用
いて、複数ラインのデータの累積平均を求めることによ
り行う。
For this reason, it is conceivable to determine the correction reference data by preparing a line memory for a plurality of lines.
In the present invention, this correction is performed by using a line memory for one line to obtain a cumulative average of data of a plurality of lines.

【0047】本実施例では、表3と表4に示すように、
BKレベル補正とWHレベル補正に関して4つのモー
ド、すなわち、初期値モード、データ生成モード、保持
モード、補正モードを備える。これらのモードは、BK
レベル補正とWHレベル補正について各々独立して、C
PU140から出力されるモード選択信号SH0〜3によ
り選択される。
In this embodiment, as shown in Tables 3 and 4,
There are four modes for BK level correction and WH level correction, namely, an initial value mode, a data generation mode, a holding mode, and a correction mode. These modes are BK
For the level correction and the WH level correction,
The selection is made by the mode selection signals SH 0 to 3 output from the PU 140.

【0048】[0048]

【表3】 [Table 3]

【0049】[0049]

【表4】 [Table 4]

【0050】ここで、初期値モードは、1ライン分のラ
インメモリであるFIFOメモリ162,182に初期
値を入力するモードである。
Here, the initial value mode is a mode in which initial values are input to FIFO memories 162 and 182 which are line memories for one line.

【0051】データ生成モードは、FIFOメモリ内の
データと順次入力される基準データを重み付け平均し、
累積平均により高精度に補正用基準データを生成するモ
ードである。
In the data generation mode, the data in the FIFO memory and the reference data sequentially input are weighted and averaged.
This is a mode in which correction reference data is generated with high accuracy by cumulative averaging.

【0052】補正モードは、データ生成モードで得られ
た補正用基準データを保持しつつ、補正用基準データを
出力して、原稿画像信号に対してBKレベルとWHレベ
ルの補正を行なうモードである。
The correction mode is a mode in which the correction reference data is output while the correction reference data obtained in the data generation mode is held, and the BK level and the WH level are corrected for the original image signal. .

【0053】さらに、保持モードは、補正は行わない
が、生成された補正用基準データを保持するモードであ
る。DRAM構造のラインメモリを用いるためにメモリ
を常にアクセスしておくために用いる。
In the holding mode, no correction is performed, but the generated correction reference data is held. It is used to always access the memory to use the line memory having the DRAM structure.

【0054】次にシェーディング補正部62の回路につ
いて説明する。シェーディング補正は、1ライン分のメ
モリを用いて複数のラインについて行なう。図10は、
シェーディング補正部62の回路図である。
Next, the circuit of the shading correction section 62 will be described. Shading correction is performed for a plurality of lines using a memory for one line. FIG.
FIG. 4 is a circuit diagram of a shading correction unit 62.

【0055】画像信号DIN7〜0は、第1セレクタ16
0のC端子(初期値モード用)を介して、DRAM構造
のBKレベル用FIFOメモリ162に入力される。さ
らに、FIFOメモリ162の出力は、第1セレクタ1
60のA端子(保持モード、補正モード用)に入力され
る。また、画像信号DIN7〜0は、乗算器164におい
て1/4倍されて加算器166に出力され、FIFOメ
モリ162の出力は、乗算器168において3/4倍さ
れて加算器166に出力され、加算器166はこの両者
の和(重み付け平均)を第1セレクタ160のB端子
(データ生成モード用)に出力する。画像信号DIN
7〜0は、減算器172に入力され、一方、第3セレクタ
170は、FIFOメモリ162の出力または”00”
(補正モード以外の場合のみ)を選択して、減算器17
0に出力する。減算器172は、補正モードにおいての
み、黒レベルBKで補正された画像信号(DIN−B
K)を第2セレクタ180と乗算器192に出力する。
The image signals DIN 7-0 are supplied to the first selector 16
The signal is input to a BK level FIFO memory 162 having a DRAM structure via a 0 terminal C (for an initial value mode). Further, the output of the FIFO memory 162 is the first selector 1
It is input to the A terminal 60 (for holding mode and correction mode). Further, the image signals DIN7-0 are multiplied by 1/4 in the multiplier 164 and output to the adder 166, and the output of the FIFO memory 162 is multiplied by 3/4 in the multiplier 168 and output to the adder 166. , Adder 166 outputs the sum (weighted average) of the two to terminal B (for data generation mode) of first selector 160. Image signal DIN
7 to 0 are input to the subtractor 172, while the third selector 170 outputs the output of the FIFO memory 162 or “00”.
(Only in the case other than the correction mode) is selected, and the subtractor 17 is selected.
Output to 0. The subtractor 172 outputs the image signal (DIN-B) corrected at the black level BK only in the correction mode.
K) is output to the second selector 180 and the multiplier 192.

【0056】この黒レベルで補正された画像信号(DI
N−BK)は、第3セレクタ180のC端子(初期値モ
ード用)を介して、DRAM構造のWHレベル用FIF
Oメモリ182に入力される。さらに、FIFOメモリ
182の出力は、第3セレクタ180のA端子(保持モ
ード、補正モード用)に入力される。また、この画像信
号は、乗算器184において1/4倍されて加算器18
6に出力され、FIFOメモリ182の出力は、乗算器
188において3/4倍されて加算器186に出力され
る。そして、加算器186はこの両者の和(重み付け平
均)を第3セレクタ180のB端子(データ生成モード
用)に出力する。黒レベルBKで補正された画像信号
は、乗算器192に入力され、一方、第4セレクタ19
0は、FIFOメモリ182の出力または”FF”(補
正モード以外の場合)を選択して、WHレベルの値とし
て逆数テーブル194に出力し、逆数テーブル194
は、その逆数(1/WH)を乗算器192に出力する。
乗算器192は、この逆数と黒レベルBKで補正された
画像信号(DIN−BK)とを乗算して、黒レベルBK
と白レベルWHで補正された階調信号DOUTを出力す
る。
The image signal (DI
N-BK) is connected to the WH level FIFO of the DRAM structure via the C terminal (for the initial value mode) of the third selector 180.
Input to the O memory 182. Further, the output of the FIFO memory 182 is input to the A terminal (for holding mode and correction mode) of the third selector 180. This image signal is multiplied by に お い て in a multiplier 184 and added to an adder 18.
6, the output of the FIFO memory 182 is multiplied by に お い て in the multiplier 188 and output to the adder 186. Then, the adder 186 outputs the sum (weighted average) of the two to the terminal B (for data generation mode) of the third selector 180. The image signal corrected at the black level BK is input to the multiplier 192, while the fourth selector 19
A value of 0 selects the output of the FIFO memory 182 or “FF” (in a case other than the correction mode) and outputs the value of the WH level to the reciprocal table 194.
Outputs the reciprocal (1 / WH) to the multiplier 192.
The multiplier 192 multiplies the reciprocal by the image signal (DIN-BK) corrected at the black level BK to obtain a black level BK.
And a gradation signal DOUT corrected by the white level WH.

【0057】各セレクタ160、170、180、19
0の選択は、モード選択信号SH0,1,SH3,2により行
われる(表3、表4参照)。黒レベル補正において、初
期値モード(SH0,1=0)では、第1セレクタ160
は、C端子での入力を選択し、第3セレクタ170は、
B端子での入力(”00”)を選択する。したがって、
画像信号DIN7〜0は、そのままFIFOメモリ162
に初期値として記憶される。
Each selector 160, 170, 180, 19
The selection of 0 is made by the mode selection signals SH 0 , 1 , SH 3 , 2 (see Tables 3 and 4). In black level correction, in the initial value mode (SH 0 , 1 = 0), the first selector 160
Selects the input at the C terminal, and the third selector 170
Input ("00") at terminal B is selected. Therefore,
The image signals DIN7-0 are stored in the FIFO memory 162 as they are.
Is stored as an initial value.

【0058】データ生成モード(SH0,1=1)では、
第1セレクタ160は、B端子での入力を選択し、第3
セレクタ170は、B端子での入力(”00”)を選択
する。したがって、重み付け平均された複数ラインの画
像データの平均値画像データがFIFOメモリ162に
補正用基準データとして記憶される。本実施例では、初
期値として入力されるFIFOメモリ162のデータと
順次入力される基準データ(DIN7〜0=BK17〜10
とを3:1の比で重み付け平均する。従って、黒レベル
は、理論的には16ラインで収束していく。
In the data generation mode (SH 0 , 1 = 1),
The first selector 160 selects the input at the B terminal, and
The selector 170 selects the input (“00”) at the B terminal. Accordingly, the averaged image data of the image data of the plurality of lines that have been weighted and averaged is stored in the FIFO memory 162 as the reference data for correction. In this embodiment, the reference data sequentially input the data in the FIFO memory 162 is input as an initial value (DIN 7~0 = BK 17~10)
Are weighted and averaged at a ratio of 3: 1. Therefore, the black level theoretically converges in 16 lines.

【0059】補正モード(SH0,1=3)では、第1セ
レクタ160は、A端子での入力を選択し、第3セレク
タ180は、A端子での入力(黒レベルの値)を選択す
る。すなわち、FIFOメモリ162は、補正用基準デ
ータを保持しつつ、減算器172は、原稿画像信号に対
して黒レベルの補正を行なう。
In the correction mode (SH 0 , 1 = 3), the first selector 160 selects the input at the A terminal, and the third selector 180 selects the input (black level value) at the A terminal. . That is, while the FIFO memory 162 holds the correction reference data, the subtracter 172 performs black level correction on the document image signal.

【0060】保持モード(SH0,1=2)では、第1セ
レクタ160は、A端子での入力を選択し、第3セレク
タ170は、B端子での入力(”00”)を選択する。
したがって、補正用基準データは、FIFOメモリ16
2に保持されるが、減算器172は、補正は行わない。
In the holding mode (SH 0 , 1 = 2), the first selector 160 selects the input at the A terminal, and the third selector 170 selects the input (“00”) at the B terminal.
Therefore, the correction reference data is stored in the FIFO memory 16.
2, but the subtractor 172 does not perform the correction.

【0061】白レベル補正における各モードにおける動
作も同様に行われる。
The operation in each mode in the white level correction is performed in the same manner.

【0062】この回路では、ラインメモリとしてFIF
Oメモリ162,182を用いるので、書き込みと読み
出しを独立して行える。
In this circuit, an FIF is used as a line memory.
Since the O memories 162 and 182 are used, writing and reading can be performed independently.

【0063】また、複数ラインのデータの重み付け平均
は、順次入力される補正用基準データに対して1/2n
(n=1,2,…)とすれば、乗算器164,168,
184,188の回路が簡単になる。
The weighted average of the data of a plurality of lines is nn
(N = 1, 2,...), The multipliers 164, 168,
The circuits of 184 and 188 are simplified.

【0064】なお、図11は、このシェーディング補正
部62の黒補正ブロックを詳細に示した図である。図1
1では、さらに詳細に、タイミングを合わせるためのフ
リップフロップ174とFIFOメモリ162の回路も
具体的に示される。ここでフリップフロップ174を用
いてクロックによる同期をとり、ラインメモリ162に
対して入出力データが重み付け平均および規格化補正を
するさいに、(たとえば4個のフリップフロップにより
信号WEを4ドット分遅らして)画素位置がずれないよ
うに調整する。
FIG. 11 is a diagram showing the black correction block of the shading correction section 62 in detail. FIG.
In FIG. 1, the circuit of the flip-flop 174 and the FIFO memory 162 for adjusting the timing is also shown in more detail. Here, the clock is synchronized using the flip-flop 174, and when the input / output data is weighted averaged and normalized for the line memory 162 (for example, the signal WE is delayed by four dots by four flip-flops). Adjustment) so that the pixel position does not shift.

【0065】また、図12と図13は、図11の(a)
〜(i)点での動作を示すタイミングチャートである。
ここで、a1、a2、a3、…は、順次入力される基準デ
ータであり、f1、f2、f3、…は、第1セレクタ16
0の出力値である。また、(c)は、重み付け平均値で
あり、(i)は、減算器170の出力する補正値であ
る。変形例として、あらかじめ1ライン分の補正用基準
データの平均値をラインメモリに記憶しておき、CPU
がこれを読み出して初期値として設定するようにしても
よい。後で説明するフローでは2回目以降のシェーディ
ング補正では、前回の補正値(すなわち平均値)を初期
値として用いている。この初期値を用いても、収束にや
や時間がかかるが、同様の効果が得られる。
FIGS. 12 and 13 show (a) of FIG.
6 is a timing chart showing an operation at points (i) to (i).
Here, a 1 , a 2 , a 3 ,... Are sequentially inputted reference data, and f 1 , f 2 , f 3 ,.
This is an output value of 0. (C) is a weighted average value, and (i) is a correction value output from the subtractor 170. As a modified example, the average value of the correction reference data for one line is stored in a line memory in advance, and the CPU
May read this and set it as an initial value. In the flow described later, in the second and subsequent shading corrections, the previous correction value (that is, the average value) is used as an initial value. Even if this initial value is used, it takes a little time to converge, but the same effect can be obtained.

【0066】なお、入力される原稿情報の色分解データ
ごとに上記のシェーディング補正回路を設けてもよい。
これにより、赤、緑、青が独立して補正できる。
The above-described shading correction circuit may be provided for each color separation data of the input document information.
Thereby, red, green, and blue can be corrected independently.

【0067】また、白側または黒側だけこの方法で基準
データを補正してもよい。たとえば白黒画像の場合、白
側だけを補正すればよい。
The reference data may be corrected only for the white side or the black side by this method. For example, in the case of a monochrome image, only the white side needs to be corrected.

【0068】ところで、以上に説明したシェーディング
補正では、BKレベルとWHレベルの両方を独立して補
正していて、各補正データは、複数ラインのデータを累
積平均することによって作成されている。これにより、
高精度の補正が可能である。しかし、この場合、補正デ
ータを作成する時間が、BKレベルの補正データの追
加、累積平均化処理の追加にともない、従来に比べて長
くなってしまう。特に、マルチスチャン時(フルカラー
のC,M,Y,Kの4回のスキャン、複数コピーの場
合)には、補正に要する時間が多いため、露光ランプの
立ち上がり特性なども影響して、コピー作業の障害とな
ってしまう。
In the above-described shading correction, both the BK level and the WH level are independently corrected, and each correction data is created by cumulatively averaging data of a plurality of lines. This allows
High-precision correction is possible. However, in this case, the time required to generate the correction data becomes longer than before due to the addition of the BK level correction data and the addition of the cumulative averaging process. In particular, during multi-scanning (four full-color C, M, Y, and K scans, and multiple copies), the time required for correction is long, and the copy operation is affected by the rising characteristics of the exposure lamp. Would be an obstacle.

【0069】そこで次に説明する変形実施例では、マル
チスチャン時には、WHレベル側の補正データの累積平
均処理のみを行なうことで、時間短縮を図った。BKレ
ペルについて、電源投入時の初期化で得られた保持値を
用い、BKレベルの更新を行わないのは、BKレベル側
は、環境条件には左右されず、CCDセンサ14の部品
ばらつきが主な原因であることによる。これに対し、W
Hレベル側は、マルチスチャン時の露光ランプのオン/
オフに伴う周囲温度上昇によってCCDセンサ14の感
度がゆっくり変化していくから、かぶりなどが生じるた
め、補正が必要である。このように補正をすることによ
り、スキャンごとにWHレベル側の補正データが更新さ
れ、感度変化が抑えられる一方で、常に累積平均された
補正データが使用されるので、シェーディング補正が高
精度に行える。
Therefore, in a modified embodiment described below, the time is shortened by performing only the cumulative averaging process of the correction data on the WH level side in the multi-scan mode. The reason why the BK level is not updated by using the held value obtained by the initialization at the time of turning on the power for the BK level is that the BK level side is not influenced by the environmental conditions and the component variation of the CCD sensor 14 is mainly affected. It is due to the cause. In contrast, W
On the H level side, turn on / off the exposure lamp during multi-scan.
Since the sensitivity of the CCD sensor 14 slowly changes due to an increase in the ambient temperature accompanying the turning off, fogging or the like occurs, and thus correction is necessary. By performing the correction in this manner, the correction data on the WH level side is updated for each scan, and a change in sensitivity is suppressed. On the other hand, correction data that is cumulatively averaged is always used, so that shading correction can be performed with high accuracy. .

【0070】図14と図15は、シェーディング補正の
フローを示す。また、これに対応したシェーディング補
正のシーケンスは、図16に示される。
FIGS. 14 and 15 show the flow of shading correction. A corresponding shading correction sequence is shown in FIG.

【0071】このフローにおいて、電源が投入される
と、BKレベル補正とWHレベル補正とについて、保持
モードにする(ステップS2)。次に、CCDセンサ1
4を駆動して(ステップS4)、BKレベル補正につい
て初期値モードにし、初期値をFIFOメモリに入力す
る(ステップS6)。次に、BKレベル補正について、
データ生成モードにし(ステップS8)、順次入力され
る基準データを重み付け平均してFIFOメモリ162
に再入力する。平均値が生成されると、次に、BKレベ
ル補正について補正モードにし(ステップS10)、補
正用基準データをWHレベル補正用に出力する。次に、
露光ランプを点灯して、シェーディング補正用の基準白
色板を照射する(ステップS12)。次に、WHレベル
補正について初期値モードにし、基準白色板を読み取
り、初期値としてFIFOメモリ182に入力する(ス
テップS14)。さらに、WHレベル補正について、デ
ータ生成モードにし(ステップS16)、順次入力され
る基準データを重み付け平均してFIFOメモリ182
に再入力する。平均値が生成されると、BKレベル補正
とWHレベル補正について保持モードにし(ステップS
18)、補正値を保持する。そして、露光ランプを消し
て、読取を終了し、CCDセンサ14の駆動を停止して
(ステップS20)、待機する。
In this flow, when the power is turned on, the BK level correction and the WH level correction are set to the holding mode (step S2). Next, the CCD sensor 1
4 is driven (step S4), the BK level correction is set to the initial value mode, and the initial value is input to the FIFO memory (step S6). Next, regarding the BK level correction,
The mode is set to the data generation mode (step S8), and the sequentially input reference data is weighted and averaged to obtain the FIFO memory 162.
Enter again. When the average value is generated, next, the correction mode is set for the BK level correction (step S10), and the correction reference data is output for the WH level correction. next,
The exposure lamp is turned on to irradiate the reference white plate for shading correction (step S12). Next, the mode is set to the initial value mode for the WH level correction, the reference white plate is read, and input to the FIFO memory 182 as the initial value (step S14). Further, for the WH level correction, the mode is set to the data generation mode (step S16), and the sequentially input reference data is weighted and averaged to obtain the FIFO memory 182.
Enter again. When the average value is generated, the BK level correction and the WH level correction are set to the holding mode (step S
18) The correction value is held. Then, the exposure lamp is turned off, the reading is completed, the driving of the CCD sensor 14 is stopped (step S20), and the process stands by.

【0072】次に、コピーが行われるとき、BKレベル
について、先に求めておいた初期値が用いられる。コピ
ー要求があると(ステップS22でYES)、CCDセ
ンサ14を駆動して(ステップS24)、BKレベル補
正について補正モードにし(ステップS26)、BKレ
ベルの補正用基準データとしてFIFOメモリ162よ
りデータを出力する。そして、露光ランプを点灯してシ
ェーディング基準白色板を読み取り、FIFOメモリ1
62に入力する(ステップS28)。次に、WHレベル
補正について、データ生成モードにし(ステップS3
0)、順次入力される基準データを重み付け平均してF
IFOメモリに再入力する。WHレベル補正について補
正モードにし(ステップS32)、補正用基準データと
してFIFOメモリ182からのデータを出力する。そ
して、原稿を走査し(ステップS34)、読み取りを行
なう。このとき、補正レベルBK,WHを用いてシェー
ディング補正が行われる。そして、露光ランプを消し
て、読み取りを終了する(ステップS36)。
Next, when copying is performed, the previously determined initial value is used for the BK level. If there is a copy request (YES in step S22), the CCD sensor 14 is driven (step S24) to set the correction mode for the BK level correction (step S26), and the data from the FIFO memory 162 is used as the BK level correction reference data. Output. Then, the exposure lamp is turned on to read the shading reference white plate, and the FIFO memory 1 is read.
It inputs to 62 (step S28). Next, the data generation mode is set for the WH level correction (step S3).
0), weighted average of sequentially input reference data
Re-input to the IFO memory. The correction mode is set for the WH level correction (step S32), and data from the FIFO memory 182 is output as correction reference data. Then, the document is scanned (step S34) and read. At this time, shading correction is performed using the correction levels BK and WH. Then, the exposure lamp is turned off, and the reading is completed (step S36).

【0073】次に、マルチスキャンであるか否かを判定
する(ステップS38)。
Next, it is determined whether or not a multi-scan is performed (step S38).

【0074】マルチスキャンであれば、ステップS28
に戻り、再度WHレベルについて補正を行ない、その後
に原稿の読み取りを行なう。
If it is a multi-scan, step S28
Then, the WH level is corrected again, and thereafter, the original is read.

【0075】マルチスキャンでなければ、CCDセンサ
14の駆動を停止して(ステップS40)、BKレベル
補正とWHレベル補正とについて、保持モードにし、補
正値BK,WHを保持する。(ステップS42)。そし
て、ステップS22に戻り、次のコピー要求を待つ。
If it is not a multi-scan, the driving of the CCD sensor 14 is stopped (step S40), the BK level correction and the WH level correction are set to the holding mode, and the correction values BK and WH are held. (Step S42). Then, the process returns to step S22 and waits for the next copy request.

【0076】このように、マルチスキャン時には、電源
投入時とは異なったシーケンスで補正用基準データを作
成しているが、補正基準データ作成時間を短縮するため
の他のシーケンスとして、例えば、マルチスキャンにお
ける2回目以降のスキャンにおいてのみ保持している黒
レベル補正基準データを用いてもよい。
As described above, during the multi-scan, the correction reference data is created in a sequence different from that at the time of power-on. However, as another sequence for shortening the correction reference data creation time, for example, the multi-scan May be used as the black level correction reference data held only in the second and subsequent scans.

【0077】(d)HVC変換部 赤、緑、青の読取データr,g,bは、画像データ処理
に用いるため、色相Hと彩度Wに変換される。
(D) HVC converter The read data r, g, b of red, green, and blue are converted into hue H and saturation W for use in image data processing.

【0078】(d−1)R,G,B読み取り位置補正 図17は、CCDセンサ14を図式的に示す。図に示す
ように、CCDセンサ14は、赤(R)、緑(G)、青
(B)の画素を一列に順次配列してなるが、モアレ対策
のために画素を45°傾けている。このため画像のエッ
ジ部では読取位置がR、G、Bの各色データによって異
なるため、色差信号(WR、WB)が正確に分離できな
い。この現象を軽減するために、以下のような式でG画
素を基準に、R、G、B画素の読取位置の補正を行う。
(D-1) R, G, B Reading Position Correction FIG. 17 schematically shows the CCD sensor 14. As shown in the figure, the CCD sensor 14 has red (R), green (G), and blue (B) pixels sequentially arranged in a line, and the pixels are inclined by 45 ° to prevent moiré. For this reason, at the edge portion of the image, the reading position differs depending on each of the R, G, and B color data, so that the color difference signals (WR, WB) cannot be accurately separated. To reduce this phenomenon, the reading positions of the R, G, and B pixels are corrected based on the G pixels using the following equation.

【0079】 Rn=(5/8)rn+(3/8)rn-1n=(3/4)gn+(1/8)(gn-1+gn+1) Bn=(5/8)bn+(3/8)bn+1 ここに、nは画素番号を示す。R n = (5/8) r n + (3/8) r n-1 G n = (3/4) g n + (1/8) (g n-1 + g n + 1 ) B n = (5/8) b n + (3/8) b n + 1 where n indicates a pixel number.

【0080】こうして読み取った色分解信号R、G、B
に対して、H(色相)、V(明度)、C(彩度)のデー
タに変換する。この変換は後段の画像識別処理(カラー
チェンジ、UCR/BP比自動制御、HTF自動制御、
無彩色エッジ判定)を正確に行うために用いる。比視感
度分布は、緑に比重が高く、C光源、2°視野にて一般
にR:G:B=0.229:0.587:0.114の
比で近似される。明度信号(V)はこの分布から求めら
れる。また、色差信号(H)は、明度信号(V)よりW
B=B−V、WR=R−Vとして求める。従って、V、
WB、WRは以下の行列演算にて算出される。
The color separation signals R, G, B thus read
Are converted into H (hue), V (brightness), and C (saturation) data. This conversion is performed in the subsequent image identification processing (color change, UCR / BP ratio automatic control, HTF automatic control,
This is used to accurately perform achromatic edge determination. The relative luminous efficiency distribution has a high specific gravity for green, and is generally approximated by a ratio of R: G: B = 0.229: 0.587: 0.114 in a C light source and a 2 ° visual field. The brightness signal (V) is obtained from this distribution. Further, the color difference signal (H) is more W
B = B−V and WR = R−V. Therefore, V,
WB and WR are calculated by the following matrix operation.

【0081】[0081]

【数1】 (Equation 1)

【0082】図18は、上側に示した白と黒の画像の読
み取りデータを示す。中段の読み取ったままのR,G,
Bのデータを、下側の補正後のデータと比較すると、3
色とも変化位置が一致するようになったことが分かる。
これにより、後で説明する色にじみも改善される。
FIG. 18 shows read data of the white and black images shown on the upper side. R, G,
When the data of B is compared with the corrected data on the lower side, 3
It can be seen that the change positions of the colors match.
Thereby, the color blur described later is also improved.

【0083】(d−2)彩度と色相の分離 2つの色差信号WR、WBは、色空間上の色相面の直交
座標軸を示している。これを極座標に変換したとき、図
19のマンセル色票図に示すように色相はうまく分離さ
れ、ベクトルの長さが彩度を示し(中心方向にいくほど
彩度がない)、角度が色相を示すことになる。従って、
彩度信号〔W〕と色相信号〔H〕は、以下の式より算出
される。
(D-2) Separation of Saturation and Hue The two color difference signals WR and WB indicate the orthogonal coordinate axes of the hue plane in the color space. When this is converted to polar coordinates, the hues are well separated as shown in the Munsell color chart of FIG. 19, the length of the vector indicates the saturation (the saturation decreases toward the center), and the angle indicates the hue. Will show. Therefore,
The saturation signal [W] and the hue signal [H] are calculated by the following equations.

【0084】 W=(WR 2+WB 21/2 (ただし、W≧256のとき、W=255) H=(256/360)tan-1(WR/WB) (d−3)HVC変換部の回路 図20は、HVC変換部64のブロック図である。位置
補正部(上述の読み取り位置補正をおこなうテーブル)
300は、読取データr、g、bを基に、上に説明した
位置補正演算を行って、3色のデータRS、GS、BS
に変換する。(なお、CCDセンサ14の種類によって
は、読取位置補正は不必要である。)変換されたデータ
はそのまま明度信号Vとして出力される一方、明度・色
差分離部(すなわち数式1の演算を行なうテーブル)3
02において上に説明したように、R、G、Bから明度
Vと、WR、WBに変換される。信号WR、WBは、さらに
彩度抽出回路304で彩度信号Wに変換され、色相抽出
回路306において、色相信号Hに変換される。
[0084] W = (W R 2 + W B 2) 1/2 ( provided that when W ≧ 256, W = 255) H = (256/360) tan -1 (W R / W B) (d-3 20) Circuit of HVC conversion unit FIG. 20 is a block diagram of the HVC conversion unit 64. Position correction unit (table for performing the above-described reading position correction)
300 performs the above-described position correction operation on the basis of the read data r, g, and b, and performs three-color data RS, GS, and BS.
Convert to (Note that the reading position correction is not necessary depending on the type of the CCD sensor 14.) The converted data is output as it is as the lightness signal V, while the lightness / color difference separating unit (that is, the table for performing the operation of the formula 1) ) 3
02, as described above, R, G, and B are converted into lightness V and W R , WB. Signal W R, W B is further converted into the luminance signal W by the chroma extraction circuit 304, in the hue extraction circuit 306, it is converted into a hue signal H.

【0085】図21は、彩度抽出回路304の回路図で
ある。信号WR、WBはそれぞれ絶対値回路320、3
22で絶対値に変換された後、2乗回路324、326
において2乗された後、加算回路328で加算される。
そして、加算値は、平方根テーブル330により平方根
すなわち彩度Wに変換されて出力される。
FIG. 21 is a circuit diagram of the saturation extracting circuit 304. Signals WR and WB are provided by absolute value circuits 320 and 3 respectively.
After being converted to an absolute value at 22, the squaring circuits 324 and 326
, And then added by an adding circuit 328.
Then, the added value is converted into a square root, that is, a saturation W by the square root table 330 and output.

【0086】される。また、図22は、色相抽出回路3
06の回路図である。信号WR、WBは、tan-1テー
ブル340において色相信号Hに変換される。
Is performed. FIG. 22 shows the hue extraction circuit 3
It is a circuit diagram of 06. The signals WR and WB are converted to the hue signal H in the tan -1 table 340.

【0087】(e)濃度変換部 濃度変換部68においては、CCDカラーイメージセン
サ14の出力データを人間の目から見た原稿濃度(OD)
に対してリニアな特性を有するように変換する。CCD
カラーイメージセンサ14の出力は、入射強度(=原稿
反射率OR)に対してリニアな光電変換特性を有してい
る。一方、原稿反射率(OR)と原稿濃度(OD)とは、−
logOR=ODなる関係がある。そこで、反射率/濃度
変換テーブルを用いて、CCDカラーイメージセンサ1
4の非線形な読取特性をリニアな特性に変換する。
(E) Density Conversion Unit The density conversion unit 68 converts the output data of the CCD color image sensor 14 into an original density (OD) as viewed from the human eyes.
Is converted to have a linear characteristic with respect to. CCD
The output of the color image sensor 14 has a photoelectric conversion characteristic that is linear with respect to the incident intensity (= original reflectance OR). On the other hand, the document reflectance (OR) and the document density (OD) are-
There is a relationship of logOR = OD. Therefore, using the reflectance / density conversion table, the CCD color image sensor 1
4 is converted into linear characteristics.

【0088】図23は、濃度変換部68の回路図であ
る。赤、緑、青の画像データRS、GS、BSおよび明
度信号Vは、濃度変換テーブル360により、それぞれ
濃度データRL、GL、BL、VLに変換される。
FIG. 23 is a circuit diagram of the density converter 68. The red, green, and blue image data RS, GS, BS, and the brightness signal V are converted into density data RL, GL, BL, and VL, respectively, by the density conversion table 360.

【0089】この濃度変換後に、さらに、ネガポジ反転
選択用のネガポジ反転回路362において、データD
R、DG、DBに対してネガ出力するかポジ出力するか
を選択する。このネガポジ反転回路362は、濃度信号
をそのまま出力するか(B出力)インバータによる反転
出力(A出力)を出力するかを指定する制御信号NNE
GA(LでA出力)により選択する。A出力が選択され
ると入力データは反転される。さらに、このネガポジ反
転回路362の出力と”00”とは、セレクタ364
で、有効原稿画素エリア信号NHD1により選択され
る。すなわち、原稿の読み取りを行なうエリアの外で
は、ネガ/ポジ出力に無関係に、出力を白
After the density conversion, a negative / positive inversion circuit 362 for negative / positive inversion selection further outputs data D
Select whether to output negatively or positively for R, DG, and DB. The negative / positive inverting circuit 362 is a control signal NNE for designating whether to output a density signal as it is (B output) or to output an inverted output (A output) by an inverter.
Select by GA (A output at L). When the A output is selected, the input data is inverted. Further, the output of the negative / positive inversion circuit 362 and “00” are connected to the selector 364.
Is selected by the effective original pixel area signal NHD1. That is, outside the area where the original is read, the output is white regardless of the negative / positive output.

〔00〕にす
る。
[00].

【0090】なお、明度データVは、モノカラー濃度デ
ータDVに変換される。
The brightness data V is converted to monocolor density data DV.

【0091】(f)領域判別部 後で説明するように、色補正部72ではUCR/BP比
により黒再現性と色の彩やかさの制御を行い、また、縁
取り処理を行なう。また、MTF補正部78では、エッ
ジ強調処理を行なう。これらの処理は画像の性質に応じ
て制御されねばならない。そこで、領域判別部74で
は、HVC変換により得られたデータを基に、彩度デー
タによるUCR/BP比自動制御、明度変化量によるエ
ッジ量自動制御、および、無彩色エッジ部の特殊処理
(色にじみ補正)について制御値の設定や領域判別を行
い、その結果を色補正部72とMTF補正部78に送
る。
(F) Area discriminating section As will be described later, the color correcting section 72 controls the black reproducibility and the color saturation based on the UCR / BP ratio, and performs the border processing. Further, the MTF correction unit 78 performs edge enhancement processing. These processes must be controlled according to the nature of the image. Therefore, based on the data obtained by the HVC conversion, the region determination unit 74 automatically controls the UCR / BP ratio based on the saturation data, automatically controls the edge amount based on the brightness change amount, and performs special processing (color The control value is set and the area is determined for (bleeding correction), and the result is sent to the color correction unit 72 and the MTF correction unit 78.

【0092】図24は、画像信号処理部20の領域判別
に関連する部分を簡略に示したブロック図である。画像
データは、濃度変換部で赤、緑、青の濃度データDR,
DG,DBに変換されるとともに、HVC変換部64で
明度Vと彩度Wに変換される。明度信号Vは、エッジ検
出部でエッジ検出に用いられ、そのエッジ量はエッジ判
定部で判定に用いられ、その結果は、色にじみ補正用テ
ーブル620に送られる。また、エッジ量は、MTF制
御テーブル412においてMTFdataAに変換され
乗算器622に入力される。
FIG. 24 is a block diagram schematically showing a portion of the image signal processing section 20 related to area determination. The image data is converted into red, green, and blue density data DR,
In addition to the conversion into DG and DB, the HVC conversion unit 64 converts the brightness into brightness V and saturation W. The brightness signal V is used for edge detection by the edge detection unit, and the edge amount is used for determination by the edge determination unit. The result is sent to the color blur correction table 620. The edge amount is converted into MTFdataA in the MTF control table 412 and input to the multiplier 622.

【0093】MIN検出部において検出された濃度デー
タのMIN値は、UCR/BP処理部72に送られる。
一方、信号Wは、平滑化フィルタ430により平滑され
た後、その結果に対応して、UCR/BP制御テーブル
432からUCR/BP比がUCR/BP処理部72に
送られる。こうして決定されたUCR/BP比を用い
て、赤、緑、青の濃度データDR,DG,DBがマスキ
ング処理部においてシアンM,マゼンタC,イエロー
Y,ブラックKの信号に変換される。
The MIN value of the density data detected by the MIN detector is sent to the UCR / BP processor 72.
On the other hand, after the signal W is smoothed by the smoothing filter 430, the UCR / BP ratio is sent from the UCR / BP control table 432 to the UCR / BP processing unit 72 in accordance with the result. Using the UCR / BP ratio determined in this manner, the red, green, and blue density data DR, DG, and DB are converted into cyan M, magenta C, yellow Y, and black K signals in a masking processing unit.

【0094】一方、MIN値は、無彩色判定部442に
送られて、平滑された彩度信号Wについて無彩色か否か
の判定に用いられ、その結果が色にじみ補正テーブル6
20に送られる。
On the other hand, the MIN value is sent to the achromatic color judging section 442, and is used for judging whether or not the smoothed saturation signal W is an achromatic color.
20.

【0095】色にじみ補正用テーブル620では、信号
C,M,Y,Kのラプラシアンフィルタ610による2
次微分値が、無彩色判定の結果とエッジ判定の結果とに
対応して補正され、その補正値が、MTF制御テーブル
412の出力値と乗算され、さらに平滑された信号C,
M,Y,Kと加算器608で加算されて、出力される。
In the color fringing correction table 620, the signals C, M, Y, and K by the Laplacian filter 610
The next differential value is corrected in accordance with the result of the achromatic color determination and the result of the edge determination, and the corrected value is multiplied by the output value of the MTF control table 412 and further smoothed signals C and
M, Y, and K are added by the adder 608 and output.

【0096】なお、図25は、モノクロモードの場合の
MTF自動制御のための領域判別に関連する部分を簡略
に示したブロック図である。赤、緑、青の読み取りデー
タは、1次微分フィルタ400,402と絶対値検出回
路404,406によりエッジ成分が検出され、その値
がMTF制御テーブル412によりMTFdataAに
変換される。
FIG. 25 is a block diagram schematically showing a portion related to area determination for automatic MTF control in the monochrome mode. The read components of red, green, and blue have edge components detected by the primary differential filters 400 and 402 and the absolute value detection circuits 404 and 406, and the values are converted to MTFdataA by the MTF control table 412.

【0097】(f−1)領域判別部の回路 図26と図27は領域判別部74の回路図である。濃度
変換部68からの明度データVは、主走査方向の1次微
分フィルタ400と副走査方向の1次微分フィルタ40
2によりそれぞれエッジ成分が検出され、さらに絶対値
検出回路404、406により絶対値が検出された後
に、それぞれの絶対値が平均化回路410に入力され
て、平均値VEが出力される。この平均値VEは、シャー
プネス設定値SHARP5〜3とともにMTF制御テーブ
ル412によりMTFdataAに変換される。
(F-1) Circuit of Area Discriminating Unit FIGS. 26 and 27 are circuit diagrams of the area discriminating unit 74. The brightness data V from the density conversion unit 68 is divided into a primary differential filter 400 in the main scanning direction and a primary differential filter 40 in the sub-scanning direction.
After the edge component is detected by 2 and the absolute value is detected by the absolute value detection circuits 404 and 406, the respective absolute values are input to the averaging circuit 410, and the average value VE is output. The average value V E is converted into MTFdataA by MTF control table 412 together with the sharpness setting value SHARP 5 to 3.

【0098】2つの絶対値は、また、コンパレータ42
0、422に入力されて、しきい値REFと比較され
る。そして、いずれかがしきい値REFより大きけれ
ば、ORゲート424を介してエッジ信号NEDが出力
される。エッジ信号NEDは、EGEN1信号が出力さ
れているとき、ANDゲート426を介してNWAKU
信号を出力する。また、彩度信号Wは、平滑化フィルタ
430を通って平滑化されて信号WSとして出力され、
さらに、UCR/BP制御テーブル432によりUCR
/BPdataに変換される。
The two absolute values are also calculated by the comparator 42
0, 422 and compared with the threshold value REF. If any of them is larger than the threshold value REF, the edge signal NED is output via the OR gate 424. When the EGEN1 signal is output, the edge signal NED is output through the AND gate 426 to NWAKU.
Output a signal. The saturation signal W is smoothed through a smoothing filter 430 and output as a signal WS.
Further, the UCR / BP control table 432
/ BPdata.

【0099】さらに、色補正部72からの最小値データ
MINは、BKレベルリファレンステーブル440を介
してBKレベル(D)に変換され、このBKレベルは、
平滑化フィルタ430で平滑化された信号WSとコンパ
レータ432で比較される。BKレベルの方が大きいと
きは、黒エッジであるので信号NBKが出力される。こ
の信号NBKは、エッジ信号NEDがORゲート424
から出力されているとき、ANDゲート434からもう
1つのANDゲート436に出力される。そして、NW
AKU信号(縁取り編集エリア)、NCH信号(カラー
チェンジ編集エリア)、NMONO信号(モノカラー編
集エリア)が出力されていないときに、NED信号が出
力され、かつカラーモード信号NCMY/K信号が出力
されていれば、ANDゲート444、NANDゲート4
46、ANDゲート448を介して、無彩色エッジ判定
信号NEDGを出力する。
Further, the minimum value data MIN from the color correction section 72 is converted to a BK level (D) via a BK level reference table 440.
The signal WS smoothed by the smoothing filter 430 is compared with the comparator 432. When the BK level is higher, the signal NBK is output because it is a black edge. This signal NBK is obtained by adding the edge signal NED to the OR gate 424.
Is output from the AND gate 434 to another AND gate 436. And NW
When the AKU signal (border editing area), NCH signal (color change editing area), and NMONO signal (mono color editing area) are not output, the NED signal is output and the color mode signal NCMY / K signal is output. If so, AND gate 444, NAND gate 4
46, and outputs an achromatic edge determination signal NEDG via an AND gate 448.

【0100】BKレベルレフェレンステーブル440
は、各補正部で検出されるDR,DG,DBん最小値を
入力したときに、図28に示すようにWSの2値化レベ
ルを決定する。セルフォックレンズの色収差によって、
入射されるR,G,Bの焦点深度が異なることから、空
間周波数の高い無彩色原稿では、色差信号WR,WBが
通常より大きくなる。したがって、黒レベル出力である
最小値MINに応じて2値化レベルを制御するのであ
る。
BK level reference table 440
Determines the binarization level of WS as shown in FIG. 28 when the minimum value of DR, DG, DB detected by each correction unit is input. Due to the chromatic aberration of the Selfoc lens,
Since the focal depths of the incident R, G, and B are different, the color difference signals WR and WB are larger than usual in an achromatic original having a high spatial frequency. Therefore, the binarization level is controlled according to the minimum value MIN that is the black level output.

【0101】上記の1次微分フィルタ400、402
は、図29に示すような構成を有する。すなわち、連続
する4本のラインのデータがラインメモリ414a,4
14b,414c,414dに順次格納される。さら
に、5本目のラインのデータが入力されるとき、図にし
めすように5×5=25の画素のデータについて1次微
分フィルタ400、402について演算が行われる。こ
こで、主走査方向のフィルタ400では、主走査方向の
両端でのみ図に示した数値が乗算され、その結果が加算
される。これにより5×5の画素の中心の注目画素につ
いて、主走査方向の1次微分の値(エッジ量)VHが得
られる。もう1つのフィルタ402についても、副走査
方向のエッジ量VVについて同様な演算がなされる。
The above first-order differential filters 400 and 402
Has a configuration as shown in FIG. That is, data of four consecutive lines are stored in the line memories 414a and 414a.
14b, 414c, and 414d. Further, when the data of the fifth line is input, as shown in the figure, calculations are performed on the data of 5 × 5 = 25 pixels with respect to the primary differential filters 400 and 402. Here, in the filter 400 in the main scanning direction, the numerical values shown in the figure are multiplied only at both ends in the main scanning direction, and the results are added. As a result, a first derivative value (edge amount) V H in the main scanning direction is obtained for the target pixel at the center of the 5 × 5 pixels. The same calculation is performed for the other filter 402 with respect to the edge amount V V in the sub-scanning direction.

【0102】また、色補正部72からのW信号を平滑化
する平滑化フィルタ430は、図30に示すような構成
を有する。すなわち、連続する3本のラインのデータが
ラインメモリ434a,434b,434cに順次格納
される。そして、これらのデータについて、図にしめす
ように3×3のデータについて平滑化フィルタ430に
ついて演算が行われる。ここで、図に示した数値が乗算
され、その結果が加算される。これにより3×3=9の
画素の中心の注目画素について、平滑化された値WSが
得られる。
Further, the smoothing filter 430 for smoothing the W signal from the color correction section 72 has a configuration as shown in FIG. That is, data of three consecutive lines are sequentially stored in the line memories 434a, 434b, and 434c. Then, as shown in the drawing, an operation is performed on the 3 × 3 data on the smoothing filter 430 for these data. Here, the numerical values shown in the figure are multiplied, and the results are added. As a result, a smoothed value WS is obtained for the pixel of interest at the center of 3 × 3 = 9 pixels.

【0103】(f−2)下色除去/墨加刷自動制御 後で説明するように、色補正部72では、黒データK'
としてK’=MIN(DR,DG,DB)を検出する。そし
て、3色の読取濃度データDR,DG,DBよりα・
K’を減算し、黒データKを作成するときは、β・K’
をK量として出力する。ここに、αは、UCR比であ
り、黒量を決定する。βは、BP比であり、色データを
低くする。UCR比/BP比は有彩色の彩度と無彩色の
鮮明度に対して影響を持つ。
(F-2) Automatic Undercolor Removal / Black Ink Printing Control As described later, the color correction section 72 outputs the black data K ′
K ′ = MIN (DR, DG, DB) is detected. From the read density data DR, DG, DB of three colors, α ·
To create black data K by subtracting K ′, β · K ′
Is output as the K amount. Here, α is the UCR ratio and determines the black amount. β is the BP ratio and lowers the color data. The UCR ratio / BP ratio has an effect on the saturation of chromatic colors and the sharpness of achromatic colors.

【0104】色補正部72におけるUCR比/BP比
は、色再現性について以下のようなトレードオフの関係
がある。すなわち、黒の再現性は、UCR比/BP比
(−α/β)をそれぞれ大きくすれば純粋な黒K'で再現
されるので向上する反面、有彩色の彩やかさはK'の出
力比が高くなるために低下してしまう。UCR比/BP
比が100%に近づくほど下色を除去した後の画像デー
タDR,DG,DBの振幅が極端に小さくなり、信号誤
差が無視できなくなり、有彩色の画像ノイズが無視でき
なくなる。したがって、有彩色原稿時には0%に近いほ
うに、無彩色原稿時には100%に近いほうになるよう
に、原稿彩度に応じてUCR比/BP比を制御すること
によって、無彩色の鮮明度の向上と有彩色の彩度の向上
とを両立でき、理想的な色再現処理がおこなえる。
The UCR ratio / BP ratio in the color correction section 72 has the following trade-off relationship with respect to color reproducibility. That is, the reproducibility of black is determined by the UCR ratio / BP ratio
If (-α / β) is increased, the image is reproduced with pure black K ′, so that it is improved. On the other hand, the chromaticness of the chromatic color is reduced due to an increase in the output ratio of K ′. UCR ratio / BP
As the ratio approaches 100%, the amplitudes of the image data DR, DG, and DB after the undercolor is removed become extremely small, so that signal errors cannot be ignored and chromatic image noise cannot be ignored. Therefore, by controlling the UCR ratio / BP ratio in accordance with the original saturation so that it is closer to 0% for a chromatic original and closer to 100% for an achromatic original, the sharpness of the achromatic color can be improved. It is possible to achieve both improvement and saturation of chromatic colors, and to perform ideal color reproduction processing.

【0105】しかし、カラー画像の場合、単に読み取り
データから得られた黒量K’についてUCR比/BP比
を設定したのでは、色相、彩度の変化に対しても画像濃
度は変化するため、このような処理は、必ずしもうまく
作用しない。たとえば、白から赤に変化する場合、エッ
ジを強調してもよいが、赤からシアンへ変化する場合、
エッジで色相が変に変化してしまうので、エッジを強調
しない方がよい。肌色などは特に影響が大きい。従っ
て、画像明度の変化のみをうまく抽出して制御しなけれ
ばならない。そこで本実施例では、彩度データを用いて
UCR/BP処理を行なう。
However, in the case of a color image, if the UCR ratio / BP ratio is simply set for the black amount K ′ obtained from the read data, the image density changes with respect to changes in hue and saturation. Such a process does not always work well. For example, when changing from white to red, the edges may be enhanced, but when changing from red to cyan,
It is better not to emphasize the edges because the hue changes strangely at the edges. Skin color has a particularly large effect. Therefore, it is necessary to extract and control only the change in image brightness. Therefore, in this embodiment, UCR / BP processing is performed using the saturation data.

【0106】彩度信号Wは、画像エッジ部での極端なデ
ータ変化を抑えるために3×3のスムージングフィルタ
に入力され、平滑化される。次に、平滑された彩度信号
WSは、図31に示すようにUCR/BP制御テーブル
432により、UCR/BPデータDB7〜0に変換さ
れ、色補正部72に出力される。すなわち、UCR/B
Pdataは、彩度信号WSの大きさに対して、信号が
0に近いところを除いて、0%から100%の間で直線
的に変化させる。
The saturation signal W is input to a 3 × 3 smoothing filter and smoothed in order to suppress an extreme data change at the edge of the image. Next, the smoothed saturation signal WS is converted into UCR / BP data DB 7 to 0 by the UCR / BP control table 432 as shown in FIG. That is, UCR / B
Pdata linearly changes from 0% to 100% with respect to the magnitude of the saturation signal WS except where the signal is close to 0.

【0107】色補正部72では、後で説明するように、
マスキング処理を併せてUCR/BP自動処理が行われ
る。
In the color correction section 72, as described later,
UCR / BP automatic processing is performed together with masking processing.

【0108】(f−3)エッジ強調自動制御 画像の濃淡感覚は、入射される光強度に対して−log
特性を有する。しかし、画像のエッジ部では、(濃度で
はなく)明度の変化量に対して反応しているため、濃度
変換後のデータに対してエッジ強調処理を行なうと、以
下のような問題点が生じる。すなわち、文字/細線のエ
ッジ部のデータが濃度変換前より滑らかな変化になるた
め、十分なエッジ強調が行われない。また、高濃度側で
のデータ変化が大きく、エッジとして検出されやすいた
め、画像ノイズまで強調される。これは、−log特性
の傾きが低濃度側で小さく、高濃度側で大きいことに起
因する。
(F-3) Automatic Edge Emphasis Control The sense of density of an image is expressed by -log with respect to the incident light intensity.
Has characteristics. However, since the edge portion of the image responds to the change in brightness (not the density), performing the edge enhancement process on the data after the density conversion has the following problems. That is, since the data at the edge portion of the character / thin line changes more smoothly than before the density conversion, sufficient edge enhancement is not performed. Further, since the data change on the high density side is large and is easily detected as an edge, even image noise is emphasized. This is because the slope of the -log characteristic is small on the low density side and large on the high density side.

【0109】また、フルカラー画像では、色補正後のデ
ータに対して処理したとき、エッジ強調処理によって色
相変化を起こす。
In a full-color image, when the data after the color correction is processed, a hue change occurs due to edge enhancement processing.

【0110】したがって、画像の明度成分の変化量を検
出し、その検出量に応じて後段での各C,M,Y,Kデ
ータのエッジ強調量を制御すれば、上述した問題点は軽
減される。
Therefore, if the amount of change in the brightness component of the image is detected and the amount of edge enhancement of each of the C, M, Y, and K data at the subsequent stage is controlled in accordance with the detected amount, the above-described problem is reduced. You.

【0111】そこで、まず、R,G,Bの読み取りデー
タを明度Vに変換し、明度データ(V7〜0)を主、副の
両走査方向に対する1次微分フィルタ400、402に
入力し、各方向の変化量を抽出し、絶対値に変換した後
で平均値(VE7〜O)を求める。その結果を、図32に
示すようなMTF制御テーブル412においてMTFデ
ータA(D7〜0)に変換し、後段のMTF補正部78へ
入力する。ここで、信号SHARP5〜3は、テーブルの
BANK信号であり、シャープネス信号によって強調量
を可変にする。図32には、SHARP=”7”の場合
に1.75倍とし、SHARP=”0”の場合に0.2
5倍とした例を示している。すなわち、エッジ量の絶対
値の平均値VEは、信号が0の近くを除いて直線的にM
TFdataAに変換される。
Therefore, first, the read data of R, G, and B are converted into lightness V, and the lightness data (V 7-0 ) is input to first-order differential filters 400 and 402 in both the main and sub scanning directions. The amount of change in each direction is extracted and converted into an absolute value, and then the average value ( VE7-O ) is obtained. The result is converted to MTF data A (D 7 to D 0 ) in an MTF control table 412 as shown in FIG. Here, the signals SHARP5 to SHARP5 are BANK signals of a table, and the amount of enhancement is made variable by a sharpness signal. In FIG. 32, when SHARP = “7”, it is 1.75 times, and when SHARP = “0”, 0.2 times.
An example is shown in which the magnification is five times. That is, the average value V E of the absolute value of the edge amount, except for the close signal is zero linearly M
Converted to TFdataA.

【0112】図33は、上側に示した原画像を中心のラ
インで読み取ったときの明度分布と、これに対応した1
次微分フィルタ502の出力および絶対値検出回路40
4の出力するその絶対値を示す。この絶対値は平均処理
の後、適当なSHARP設定値に対応したMTFdat
aAに変換されてMTF補正部78に送られ、そこで
C,M,Yの濃度PDの分布のラプラシアンフィルタ6
00の出力との乗算によりエッジ強調が行われる。
FIG. 33 shows the brightness distribution when the original image shown on the upper side is read by the center line and the corresponding brightness distribution.
Output of next differential filter 502 and absolute value detection circuit 40
4 shows its absolute value. After the averaging process, the absolute value is calculated as MTFdat corresponding to an appropriate SHARP set value.
aA, and sent to the MTF correction unit 78, where the Laplacian filter 6 of the distribution of the density PD of C, M, and Y
Edge emphasis is performed by multiplication with the output of 00.

【0113】(f−4)無彩色エッジ部の判定 フルカラー画像の黒文字あるいは黒細線の再現性を向上
させるには、無彩色エッジ部での色にじみを防止すると
よい。つまり、無彩色エッジ部では、C,M,Yデータ
を消去し、Kデータのみエッジ強調すれば、エッジ部で
の色にじみは解消される。第1に、|VH7〜0|,|V
V7〜0|をしきい値データREFによって2値化し、コ
ンパレータ420、422により主、副のいずれかの走
査方向でエッジ部の有/無を判定する(NED=”L”
で有)。
(F-4) Determination of Achromatic Edge In order to improve the reproducibility of black characters or fine black lines in a full-color image, it is preferable to prevent color fringing at the achromatic edge. That is, in the achromatic edge portion, if the C, M, and Y data are erased and only the K data is edge-emphasized, the color blur at the edge portion is eliminated. First, | V H7-0 |, | V
V7-0 | is binarized by the threshold data REF, and the presence / absence of an edge portion is determined by the comparators 420 and 422 in either the main or sub scanning direction (NED = "L").
Yes).

【0114】第2に、信号WSをBKレベルリファレン
ステーブル440の出力とコンパレータ442により比
較して2値化し、無彩色か否かを判定する(NBK=”
L”で無彩色)。
Second, the signal WS is binarized by comparing the output of the BK level reference table 440 with the comparator 442 to determine whether the signal WS is an achromatic color (NBK = "").
L ”for achromatic color).

【0115】第3に、NED=”L”かつNBK=”
L”(無彩色エッジ部)のときにのみ、MTF補正部7
8で特殊な処理(色にじみ補正)をおこなうため、AN
Dゲート444を介して無彩色エッジ判定信号NEDG
=”L”を出力する。
Third, NED = "L" and NBK = ""
Only when L ”(achromatic color edge portion), the MTF correction unit 7
8 to perform special processing (color blur correction)
An achromatic edge determination signal NEDG via a D gate 444
= “L” is output.

【0116】なお、、モノカラー編集エリア(NMON
O=”L”)、カラーチェンジ編集エリア(NCH=”
L”)、縁取り編集エリア(NWAKU=”L”)のい
ずれかに該当したとき、NANDゲート446、AND
ゲート448により無彩色エッジ判定信号NEDGを取
り消す。(これは、編集エリア内での色にじみ補正によ
る影響を出さないためである。)後で説明するように、
色補正部72で再現用色分解データがKであるとき、M
TF補正部78での色にじみ補正は、通常のエリア強調
処理を行なうから、色信号NCMY/K信号が”L”の
ときのみ、この無彩色エッジ判定信号NEDGは許可さ
れる。(NED=”L”は、画像のエッジ部を示してい
るから、縁取り編集エリア信号としてNWAKUを出力
する。ここで、ANDゲート426への信号NEGEN
1は、縁取り編集用許可信号である。) (g)色補正 フルカラー再現に必要なシアン、マゼンタ、イエロー、
黒の各色データC',M',Y',K'は、面順次方式によっ
て1スキャン毎に作成され、計4回のスキャンによりフ
ルカラーを再現する。ここで、黒の印字も行うのは、シ
アン,マゼンタ,イエローを重ね合わせて黒を再現して
も、各トナーの分光特性の影響により鮮明な黒の再現が
難しいためである。そこで、本フルカラー複写機では、
データY',M',C'による減法混色法と黒データK'によ
る墨加刷によって、黒の再現性を向上し、フルカラーを
実現する。
The mono color editing area (NMON
O = “L”), color change editing area (NCH = “
L ") and the border editing area (NWAKU =" L "), the NAND gate 446, AND
The achromatic edge determination signal NEDG is canceled by the gate 448. (This is because the influence of the color blur correction in the editing area is not exerted.) As described later,
When the color separation data for reproduction is K by the color correction unit 72, M
The color fringing correction in the TF correction unit 78 performs a normal area emphasizing process, so that the achromatic edge determination signal NEDG is permitted only when the color signal NCMY / K signal is "L". (NED = “L” indicates an edge portion of an image, so NWAKU is output as a border edit area signal. Here, a signal NEGEN to the AND gate 426 is output.)
Reference numeral 1 denotes a border editing permission signal. (G) Color correction Cyan, magenta, yellow,
Each of the black color data C ', M', Y ', K' is created for each scan by a frame sequential method, and full color is reproduced by a total of four scans. Here, the reason why black printing is also performed is that even if cyan, magenta, and yellow are superimposed to reproduce black, it is difficult to reproduce clear black due to the influence of the spectral characteristics of each toner. Therefore, in this full-color copying machine,
By the subtractive color mixture method using the data Y ′, M ′, and C ′ and the black printing using the black data K ′, the reproducibility of black is improved and full color is realized.

【0117】(g−1)UCR/BP自動処理 色補正部72は、原稿上の明るさを表す赤、緑、青の成
分DR,DG,DBから黒量Kを以下のように求める。濃
度変換部68から得られるDR,DG,DBは、R,G,B
成分の各濃度データであるから、CCDセンサ14によ
る読取におけるR,G,Bの各補色であるシアン、マゼン
タ、イエローの成分C',M',Y'に一致している。従っ
て、図34に示すように、DR,DG,DBの最小値は、
原稿上のC',M',Y'が色重ねされた成分であるから、
黒データK'としてよい。そこで、色補正部72では、
黒データK'=MIN(DR,DG,DB)を検出する。
(G-1) UCR / BP Automatic Processing The color correction section 72 calculates the black amount K from the red, green, and blue components DR, DG, and DB representing the brightness on the document as follows. DR, DG, DB obtained from the density converter 68 are R, G, B
Since the respective density data of the components are present, they correspond to the C, M, and Y components of cyan, magenta, and yellow, which are the complementary colors of R, G, and B, when read by the CCD sensor 14. Therefore, as shown in FIG. 34, the minimum value of DR, DG, DB is
Since C ', M', Y 'on the manuscript are color superimposed components,
Black data K 'may be used. Therefore, in the color correction unit 72,
Black data K '= MIN (DR, DG, DB) is detected.

【0118】そして、再現色データC,M,Yを作成する
時には、データK'を用い、C',M',Y'のデータよりα
・K'を減算し、黒データKを作成するときは、β・K'
をK量として出力する。ここに、αは、後で説明するU
CR(下色除去)比であり、βは、BP(黒加刷)比であ
り、これらは、すでに(f−2)で説明したように、
赤、緑、青の濃度データDR,DG,DBから直接にで
はなく、これらの値のHVC変換により得られた彩度デ
ータWSを基に領域判別部74で設定される(図31参
照)。
When the reproduction color data C, M, and Y are created, the data K 'is used and the data of C', M ', and Y' are used as α.
When subtracting K ′ to create black data K, β · K ′
Is output as the K amount. Here, α is a U
Is the CR (under color removal) ratio, β is the BP (black printing) ratio, and these are, as already described in (f-2),
The values are set not directly from the red, green, and blue density data DR, DG, and DB but by the area determination unit 74 based on the saturation data WS obtained by the HVC conversion of these values (see FIG. 31).

【0119】さらに、低濃度側での彩度を向上されるた
めに、α、βを乗算する前に、あるレベルd1、d2(K
カットdata)をMIN(DR,DG,DB)より差
分し、UCR/BP処理を行っている。
Further, in order to improve the saturation on the low density side, before multiplying by α and β, certain levels d 1 , d 2 (K
The cut data) is subtracted from the MIN (DR, DG, DB), and the UCR / BP processing is performed.

【0120】(g−2)マスキング処理 さらに、色補正部72は、CCDカラーイメージセンサ
14内の各フィルタR,G,Bの透過特性とプリンタ部の
各トナーC,M,Yの反射特性を補正し、色再現性が理想
に近い特性にマッチングさせる。GフィルタとMトナー
を例にとって説明すると、図35の透過特性と図36の
反射特性にそれぞれ示すように、GフィルタとMトナー
の各特性は、理想的な特性に比べ、斜線部に示すような
非理想的な波長領域が存在する。そこで、この補正をす
るために、先に説明したUCR/BP処理と合わせて、
次のマスキング方程式による線形補正を行なう。
(G-2) Masking Process Further, the color correction unit 72 determines the transmission characteristics of each of the filters R, G, B in the CCD color image sensor 14 and the reflection characteristics of each of the toners C, M, Y in the printer unit. Correction is performed so that the color reproducibility is matched to the ideal characteristic. Taking the G filter and the M toner as an example, as shown in the transmission characteristics of FIG. 35 and the reflection characteristics of FIG. 36, the characteristics of the G filter and the M toner are indicated by hatching compared to the ideal characteristics. There is a non-ideal wavelength region. Therefore, in order to perform this correction, together with the UCR / BP processing described above,
Linear correction is performed by the following masking equation.

【0121】すなわち、フルカラーの入力データを画像
に再現するために、マスキング演算がMTF補正部にお
いて行われる。マスキング係数(Ac,m,y、Bc,m,y,C
c,m,y)は、色再現域のほぼ全体に対して平均色差が最小
になるように設定される。(なお、印字は面順次で行わ
れるので、このマスキング方程式は、1行ずつ実行され
る。
That is, in order to reproduce full-color input data on an image, a masking operation is performed in the MTF correction unit. Masking coefficients (Ac, m, y, Bc, m, y, C
c, m, y) are set so that the average color difference is minimized over almost the entire color gamut. (Since printing is performed in a frame-sequential manner, this masking equation is executed line by line.

【0122】[0122]

【数2】 (Equation 2)

【0123】 K=β・{MIN(DR,DG,DB)−d2} (g−3)UCR/BP自動処理の例 図37は、グレースケールについて読み取った1ライン
分のR,B,Gのデータを示し、また図38は、図37
のデータについてUCR/BP処理を行った結果の1部
の拡大図である。図37では、R,G,Bの3色がいず
れもおなじ程度に出力される。グレースケールは、左か
ら右へ次第に黒から白へ変化していく。しかし、グレー
スケールの彩度WSは0であるため、UCR/BP比は
100%である。マスキング演算の結果、C,M,Yの
出力は、図38に示されるように0になり、グレースケ
ールの濃度変化がほとんどKのみで表せる。したがっ
て、グレースケールの色再現性が良くなった。
K = β · {MIN (DR, DG, DB) −d 2 } (g-3) Example of UCR / BP Automatic Processing FIG. 37 shows one line of R, B, G read for gray scale. FIG. 38 shows the data of FIG.
FIG. 11 is an enlarged view of a part of the result of performing the UCR / BP process on the data of FIG. In FIG. 37, all three colors of R, G, and B are output to the same extent. The gray scale gradually changes from black to white from left to right. However, since the saturation WS of the gray scale is 0, the UCR / BP ratio is 100%. As a result of the masking operation, the outputs of C, M, and Y become 0 as shown in FIG. 38, and the gray scale density change can be almost represented only by K. Therefore, the color reproducibility of the gray scale was improved.

【0124】また、図39は、上側に示す白と黒とから
なる画像について読み取った1ライン分のR,G,Bの
データを示す。これらの読み取りデータを濃度変換した
結果を図40に示し、HVC変換した結果を図41と図
42に示す。図40に示されるように、白部分でのC,
M,Yの値は大きいが、図42に示すように、この画像
の彩度は小さい。したがって、UCR/BP比は、10
0%にちかくなり、図43に示すUCR/BP処理の結
果は、C,M,Yの出力小さく、画像はほとんどKのみ
で表される。したがって、無彩色画像の黒色再現性が向
上する。
FIG. 39 shows R, G, and B data for one line read for the image composed of white and black shown on the upper side. FIG. 40 shows the results of density conversion of these read data, and FIGS. 41 and 42 show the results of HVC conversion. As shown in FIG. 40, C,
Although the values of M and Y are large, the saturation of this image is small as shown in FIG. Therefore, the UCR / BP ratio is 10
The result of the UCR / BP process shown in FIG. 43 is small, and the output of C, M, and Y is small, and the image is almost represented only by K. Therefore, the black color reproducibility of the achromatic image is improved.

【0125】また、図44は、上側に示す白と赤からな
る画像について読み取った1ライン分のR,G,Bのデ
ータを示す。これらの読み取りデータを濃度変換した結
果を図45に示し、HVC変換した結果を図46と図4
7に示す。図45に示されるように、白部分でC,M,
Yの値は大きく、さらに、赤部分でC値、K’値が大き
いのみならず、M値、Y値も小さくない。図47に示す
ように、赤部分での彩度は大きい。この例におけるUC
R/BP処理においては、彩度WS≧85のとき、UC
R/BP比=0(%)、WS<85のときUCR/BP
比=100(1−W/85)(%)と設定した。したが
って、図48に示すUCR/BP処理の結果は、K出力
はなくなり、画像は主にCからなる有彩色で表される。
したがって、有彩色画像の彩やかさが向上する。
FIG. 44 shows R, G, and B data for one line read for the image composed of white and red shown on the upper side. FIG. 45 shows the results of density conversion of these read data, and FIGS. 46 and 4 show the results of HVC conversion.
It is shown in FIG. As shown in FIG. 45, C, M,
The value of Y is large, and not only the C value and K 'value are large in the red portion, but also the M value and Y value are not small. As shown in FIG. 47, the saturation in the red portion is large. UC in this example
In the R / BP processing, when saturation WS ≧ 85, UC
UCR / BP when R / BP ratio = 0 (%) and WS <85
The ratio was set to 100 (1-W / 85) (%). Therefore, in the result of the UCR / BP processing shown in FIG. 48, the K output is lost, and the image is represented by a chromatic color mainly composed of C.
Therefore, the vividness of the chromatic image is improved.

【0126】 (g−4)モノカラーモードとカラーチェンジモード モノカラーデータ(DV7〜0)を再現する色は、R,
G,B,C,M,Y,Kより選択できる。表5に示すよ
うに、再現色は、プリンタ側へ移送する色分解データの
状態(C,M,Y,K)とNWH信号の論理によって決
定され、最終的なモノカラー用データ(MONO7〜0
となる。すなわち、NWH=”L”で00を選択し、N
WH=”H”でDV7〜0を選択する。
(G-4) Mono Color Mode and Color Change Mode The colors for reproducing the mono color data ( DV7-0 ) are R,
G, B, C, M, Y, K can be selected. As shown in Table 5, the reproduction color is determined by the state (C, M, Y, K) of the color separation data to be transferred to the printer and the logic of the NWH signal, and the final monocolor data (MONO 7 to 0 )
Becomes That is, 00 is selected by NWH = “L”,
When WH = "H", DV7-0 is selected.

【0127】[0127]

【表5】 [Table 5]

【0128】このとき、同時にカラーチェンジ用データ
も選択でき、フルカラーデータ(PD7〜0)も選択でき
る。
At this time, color change data can be selected at the same time, and full color data (PD 7-0 ) can also be selected.

【0129】これらのフルカラーデータ(PD7〜0)、
モノカラーデータ(MONO7〜0)、カラーチェンジデ
ータは、表6に示すように、信号NCHAN、NCC
S,NMONOにより制御される。
These full-color data ( PD7-0 ),
Mono-color data (MONO 7-0 ) and color change data are represented by signals NCHAN and NCC as shown in Table 6.
It is controlled by S, NMONO.

【0130】[0130]

【表6】 [Table 6]

【0131】これらの表5,表6の選択は、カラー判別
部76において、テーブル(図示しない)により行われ
る。
The selection of Tables 5 and 6 is performed by the color discriminating section 76 using a table (not shown).

【0132】(g−5)縁取りモード 縁取りモードでは、図49に示すように、画像の縁取り
が行われる。図の原稿画像(ローマ字の大文字A)の読
取データについて、1次微分の結果(エッジ量)を求
め、さらにその絶対値を検出する。この絶対値が所定の
しきい値REFを超える部分のみにエッジ信号NEDが
出力され、これに対応した縁取り画像が出力される。す
なわち、画像のエッジ部分の近傍の有限の幅の画像が出
力され、縁取り画像の中の原画像の大きさはやや小さく
なる。
(G-5) Bordering Mode In the bordering mode, an image is bordered as shown in FIG. With respect to the read data of the original image shown in the figure (capital letter A in Roman letters), the result of the first differentiation (edge amount) is obtained, and the absolute value is detected. An edge signal NED is output only at a portion where the absolute value exceeds a predetermined threshold value REF, and a corresponding border image is output. That is, an image having a finite width near the edge portion of the image is output, and the size of the original image in the border image is slightly reduced.

【0133】NEDGN1=”L”のときエッジ信号N
EDは許可され、縁取りモード指定信号(NWAKU)
が生成される。
When NEDGN1 = "L", the edge signal N
ED is enabled and the border mode designation signal (NWAKU)
Is generated.

【0134】縁取り色は、C,M,Y,K、R,G,B
の7色から指定でき、色分解データの状態(C,M,
Y,K)によって表7に示すように決定され、セレクタ
532は、WCLR信号の論理と縁取り編集許可信号N
EGN1,エッジ信号NED,縁取りモード指定信号N
WAKUに対応して表8に示すようにデータを出力す
る。
The outline colors are C, M, Y, K, R, G, B
Of the color separation data (C, M,
Y, K) as shown in Table 7, and the selector 532 determines the logic of the WCLR signal and the border edit permission signal N
EGN1, edge signal NED, edge mode designation signal N
Data is output as shown in Table 8 corresponding to WAKU.

【0135】[0135]

【表7】 [Table 7]

【0136】[0136]

【表8】 [Table 8]

【0137】(g−6)色補正部の回路構成 図50と図51は、色補正部72の回路図である。濃度
変換部68からの濃度信号DR,DG,DBは、まず下
色除去/墨加刷部500において、最小値検出回路50
2により最小値MIN(DR,DG,DB)が検出され
る。この最小値は、減算器504において、所定の黒カ
ットデータdを減算した後、乗算器506においてUC
R/BPデータ(α/β)と乗算されて、黒データKと
なる。さらに、減算器508において、下色除去のた
め、濃度データDR、DG、DBから黒データKが減算
されて、出力される。
(G-6) Circuit Configuration of Color Correction Unit FIGS. 50 and 51 are circuit diagrams of the color correction unit 72. The density signals DR, DG, and DB from the density conversion section 68 are first supplied to the minimum value detection circuit 50 in the undercolor removal / black printing section 500.
2, the minimum value MIN (DR, DG, DB) is detected. The minimum value is calculated by subtracting predetermined black cut data d in a subtractor 504,
The data is multiplied by the R / BP data (α / β) to become black data K. Further, in the subtracter 508, the black data K is subtracted from the density data DR, DG, and DB for output of the undercolor, and is output.

【0138】マスキング演算部510において、まず、
減算器508からの3色の色データDR,DG,DBが
それぞれ乗算器512でマスキングデータ(Ac,m,y、B
c,m,y,Cc,m,y)と乗算され、この結果が加算器514
で加算され、シアン、マゼンタ、イエローのデータC,
M,Yが生成される。さらに、このデータは、セレクタ
516において、色信号NCMY/Kにより乗算器50
6からの黒データKと選択されて、データPDとして出
力される。
In the masking operation section 510, first,
The three color data DR, DG, and DB from the subtractor 508 are output to the masking data (Ac, m, y, B
c, m, y, Cc, m, y), and the result is added to the adder 514.
And cyan, magenta, and yellow data C,
M and Y are generated. Further, this data is supplied to the selector 516 by the color signal NCMY / K by the multiplier 50.
6 is selected as black data K and output as data PD.

【0139】さらに、カラーチェンジ・モノカラー選択
部520において、このデータPDは、セレクタ522
のA端子に入力される。一方、HVC変換部64からの
明度信号DVと”00”とはセレクタ424において、
信号NWHに対応して、単色データMONOとしてセレ
クタ422のB端子に入力される。また、カラーチェン
ジデータはセレクタ522のC端子に入力される。セレ
クタ522において、これらの信号は、信号NMON
O、NCHにより選択される。信号NCHは、信号NC
HN,NCCSがともに”L”であるときに出力され
る。 縁取り編集部530では、セレクタ532におい
て、セレクタ522からの入力信号、”00”および”
FF”が、信号NWAKU、WCLRにより選択され
て、信号PD17〜10として出力される。
Further, in the color change / mono color selection section 520, this data PD is supplied to the selector 522.
Is input to the A terminal. On the other hand, the brightness signal DV from the HVC conversion unit 64 and “00” are
In response to the signal NWH, the data is input to the B terminal of the selector 422 as monochrome data MONO. The color change data is input to the C terminal of the selector 522. In the selector 522, these signals are output from the signal NMON.
O, selected by NCH. The signal NCH is the signal NC
Output when both HN and NCCS are "L". In the border editing unit 530, the selector 532 outputs the input signals “00” and “
FF "is selected by the signals NWAKU and WCLR and output as signals PD17 to PD10 .

【0140】図52は、レジスタ部540の回路図を示
す。本実施例では、上に説明したUCR/BPデータ
(α7〜0/β7〜0)、マスキングデータ(Ac,m,
y9〜0、Bc,m,y9〜0,Cc,m,y9〜0)、黒カットデータ
(d7〜0)は、2種設定できる。そこで、信号NGCS
0が出力されているときにパラメータMA3〜0に対応し
てデコータ542によりデコードして、信号NWRが出
力されているときに、CPUの出力するデータMD7〜0
をレジスタ544に記憶しておく。そして、これらのデ
ータは、セレクタ546に出力されて、選択信号MPX
1により一方がマスキングデータ(Ac,m,y9〜0、Bc,
m,y9〜0,Cc,m,y9〜0)、UCR/BPデータ(α7〜0
/β7〜0)、黒カットdata(d7〜0)(第1デー
タ)として出力される。
FIG. 52 is a circuit diagram of the register section 540. In this embodiment, the UCR / BP data (α 7-0 / β 7-0 ) and the masking data (Ac, m,
y 9~0, Bc, m, y 9~0, Cc, m, y 9~0), black cutting data (d 7 to 0) can be set two. Therefore, the signal NGCS
When 0 is output, the data is decoded by the decoder 542 corresponding to the parameters MA3 to MA0, and when the signal NWR is output, the data MD7 to 0 output from the CPU.
Is stored in the register 544. Then, these data are output to the selector 546 and the selection signal MPX
One masking data (Ac, m, y 9-0 , Bc,
m, y 9~0, Cc, m , y 9~0), UCR / BP data 7~0
/ Β 7-0 ) and black cut data (d 7-0 ) (first data).

【0141】これらのマスキングデータ(Ac,m,
y9〜0、Bc,m,y9〜0,Cc,m,y9〜0)、UCR/BPデ
ータ(α7〜0/β7〜0)、黒カットdata(d7〜0
は、表9に示すように、CPUのアドレスマップ上でそ
れぞれ2種ずつレジスタ44にセットできる。NGCS
0=”L”のとき、MWRが”L”レベルから立ち上が
るときにデータがセットされる。このとき、MPX1
=”L”で第1データが選択され、”H”で第2データ
が選択される。
The masking data (Ac, m,
y 9~0, Bc, m, y 9~0, Cc, m, y 9~0), UCR / BP data (α 7~0 / β 7~0), black cut data (d 7~0)
Can be set in the register 44 by two types on the address map of the CPU as shown in Table 9. NGCS
When 0 = "L", data is set when the MWR rises from the "L" level. At this time, MPX1
When "L", the first data is selected, and when "H", the second data is selected.

【0142】[0142]

【表9】 [Table 9]

【0143】なお、UCR/BPデータについては、さ
らに、セレクタ538において、α7〜0/β7〜0とUC
7〜0とが選択信号MPX0により選択して、出力され
る。ここで、後者のデータUCR7〜0は、領域判別部7
4から入力される彩度データである。
The UCR / BP data is further processed by selector 538 at α 7-0 / β 7-0 and UC
And R 7 to 0 is selected by the selection signal MPX0, is output. Here, the latter data UCR 7-0 is stored in the area discriminating unit 7
4 is the saturation data input from FIG.

【0144】また、マスキングデータとUCR/BPデ
ータのビット定義は、表10と表11に示すように行わ
れる。
The bits of the masking data and the UCR / BP data are defined as shown in Tables 10 and 11.

【0145】[0145]

【表10】 [Table 10]

【0146】[0146]

【表11】 [Table 11]

【0147】(h)MTF補正部 MTF補正部78では、平滑化処理、エッジ強調処理お
よび色にじみ補正を行なう。全体の画像データ処理の構
成は、図24の回路で理解される。
(H) MTF Correction Unit The MTF correction unit 78 performs smoothing processing, edge enhancement processing, and color blur correction. The configuration of the entire image data processing can be understood by the circuit in FIG.

【0148】(h−1)MTF補正部の回路構成 図53は、MTF補正部78の回路図を示す。画像デー
タ処理の概略は、図24のブロック図で理解される。
(H-1) Circuit Configuration of MTF Correction Unit FIG. 53 is a circuit diagram of the MTF correction unit 78. The outline of the image data processing can be understood from the block diagram of FIG.

【0149】色補正部72からの信号PDは、中心画素
とその周辺の画素について2種の2次元のFIR型デジ
タルフィルタ600、602によって注目画素とその周
辺画素との重み付け平均によって平滑化される。両者の
出力信号は、平滑化しない信号とともに、セレクタ60
4に入力される。そして、シャープ信号SHARP1,0
に応じて、いずれかが選択されて出力される。これによ
り、画像ノイズの軽減および平滑化が実現される。
The signal PD from the color correction section 72 is smoothed by the two-dimensional two-dimensional FIR digital filters 600 and 602 for the central pixel and the peripheral pixels by the weighted average of the target pixel and the peripheral pixels. . The output signals of both the selector 60 and the unsmoothed signal are output.
4 is input. Then, the sharp signals SHARP1,0
Are selected and output. Thereby, reduction and smoothing of image noise are realized.

【0150】色補正部72からの信号PDは、また、ラ
プラシアンフィルタ610に入力される。ラプラシアン
フィルタ610は、2次微分フィルタとも呼ばれ、入力
画像のエッジ成分を抽出する働きをもつ。
The signal PD from the color corrector 72 is input to the Laplacian filter 610. The Laplacian filter 610 is also called a second-order differential filter, and has a function of extracting an edge component of an input image.

【0151】セレクタ612の出力は、色にじみ補正
((h−5)参照)を行うための信号NEDG,読取モ
ード(写真/標準モード)を示す選択信号MODEとと
もに、ラプラシアンテーブル(色にじみ補正用テーブ
ル)620に入力され、図57に示すように、入力値に
応じてフィルタ出力Dを変換する。NEDG=”L”か
つMODE=”H”のときは、色にじみ補正が行われ
る。
The output of the selector 612 is a Laplacian table (color blur correction table) together with a signal NEDG for performing color blur correction (see (h-5)) and a selection signal MODE indicating a reading mode (photo / standard mode). ) 620, and converts the filter output D in accordance with the input value as shown in FIG. When NEDG = “L” and MODE = “H”, color fringing correction is performed.

【0152】このラプラシアンテーブル620の出力D
は、さらに乗算器622において、領域判別部74で明
度データVより作成されたエッジ制御用のMTFdat
aとの積が求められ、セレクタ604からの原画像の平
滑化データとともに、加算器608に入力される。この
MTFdataAは、図32に示されるように、1次微
分フィルタにより検出されたエッジ量により変化される
量である。
The output D of the Laplacian table 620
Further, in the multiplier 622, the MTFdat for edge control created from the brightness data V by the area determination unit 74
The product of a and a is obtained and input to the adder 608 together with the smoothed data of the original image from the selector 604. This MTFdataA is an amount changed by the edge amount detected by the primary differential filter, as shown in FIG.

【0153】これにより、ラプラシアンフィルタにより
エッジ画像部で検出されたエッジ量を基に、平滑されか
つエッジ強調された画像データが出力できる。すなわ
ち、画像の平坦部では、平滑化により画像のあれがなく
なり、エッジ画像部では、ラプラシアンフィルタによる
エッジ検出値によりエッジでの濃度のだれが防止され
る。また、このエッジでの補正量は、HVC変換部で1
次微分フィルタにより検出された明度のエッジの大きさ
により調整される。この自動MTF補正の具体例は、
(h−7)で説明される。
As a result, smoothed and edge-enhanced image data can be output based on the edge amount detected in the edge image portion by the Laplacian filter. That is, in the flat part of the image, the image is eliminated by smoothing, and in the edge image part, the density of the edge is prevented from dropping by the edge detection value by the Laplacian filter. The correction amount at this edge is 1 in the HVC converter.
The brightness is adjusted according to the magnitude of the edge of the brightness detected by the second derivative filter. A specific example of this automatic MTF correction is
This is described in (h-7).

【0154】ラプラシアンフィルタ610の出力するエ
ッジ検出信号RAPは、エッジレベル判定回路630に
おいて、しきい値REFと比較され、画像の輪郭抽出信
号NRAPが生成される。
The edge detection signal RAP output from the Laplacian filter 610 is compared with a threshold value REF in an edge level determination circuit 630 to generate an image outline extraction signal NRAP.

【0155】セレクタ632では、画像データとEDG
データとが入力され、NRAP=”L”かつNEGEN
2(輪郭抽出信号)=”L”ならば、EDGデータ(輪
郭データ)を選択する。
At the selector 632, the image data and the EDG
And NRAP = “L” and NEGEN
If 2 (outline extraction signal) = "L", EDG data (outline data) is selected.

【0156】なお、図54は、各種制御データを格納す
るレジスタ640とその周辺回路を示す。レジスタ64
0には、CPUからデータMDと書き込み信号NWRが
レジスタに入力され、デコーダ642において、信号N
GCS1とMA1、0によりデコードされた信号に対応し
て、MTFdataB、REF、EDGが記憶される。
なお、レジスタ640のMTFdataBとMTFda
taAとは、セレクタ644において、MPX2信号に
より選択され、MTFdataとして出力される。
FIG. 54 shows a register 640 for storing various control data and its peripheral circuits. Register 64
0, the data MD and the write signal NWR are input to the register from the CPU.
MTFdataB, REF, and EDG are stored corresponding to the signals decoded by GCS1 and MA1,0.
Note that MTFdataB and MTFda of the register 640 are used.
taA is selected by the selector 644 based on the MPX2 signal, and is output as MTFdata.

【0157】(h−2)平滑化処理 上に説明したように、色補正部72からの信号PDは、
2種の2次元のFIR型デジタルフィルタ600、60
2によって注目画素とその周辺画素との重み付け平均に
よって平滑化される。両者の出力信号は、平滑化しない
信号とともに、セレクタ604に入力される。そして、
シャープ信号SHARP10に応じて、いずれかが選択
されて、加算器608に出力される。これにより、画像
ノイズの軽減および平滑化が実現される。
(H-2) Smoothing Processing As described above, the signal PD from the color correction section 72 is
Two types of two-dimensional FIR digital filters 600 and 60
2, smoothing is performed by the weighted average of the pixel of interest and its surrounding pixels. Both output signals are input to the selector 604 together with the signal that is not smoothed. And
Either is selected according to the sharp signals SHARP 1 , 0 and output to the adder 608. Thereby, reduction and smoothing of image noise are realized.

【0158】図55は、この平滑化処理をさらに具体的
に示す。すなわち、連続する4本のラインのデータがラ
インメモリ606a,606b,606c,606dに
順次格納される。さらに、5本目のラインのデータが入
力されるとき、図にしめすように5×5=25の画素の
データについて第1平滑化フィルタ600において演算
が行われ、3×3=9の画素について第2平滑化フィル
タ602において演算が行われる。演算においては、図
に示した数値がデータに乗算され、その結果が加算され
る。これにより注目画素について、平滑化された値が得
られる。なお、表12は、選択信号SHARP10によ
るセレクタ604の出力の選択を示す。
FIG. 55 shows this smoothing processing more specifically. That is, data of four consecutive lines are sequentially stored in the line memories 606a, 606b, 606c, and 606d. Further, when the data of the fifth line is input, the first smoothing filter 600 performs an operation on the data of 5 × 5 = 25 pixels as shown in FIG. The calculation is performed in the 2 smoothing filter 602. In the calculation, the data is multiplied by the numerical value shown in the figure, and the result is added. As a result, a smoothed value is obtained for the pixel of interest. Incidentally, Table 12 shows the selection of the output of the selector 604 by the selection signals SHARP 1, 0.

【0159】[0159]

【表12】 [Table 12]

【0160】(h−3)エッジ強調 色補正部72からの信号PDは、また、ラプラシアンフ
ィルタ610に入力される。ラプラシアンフィルタ61
0は、2次微分フィルタとも呼ばれ、入力画像のエッジ
成分を抽出する働きをもつ。後で説明するように、この
フィルタの処理結果と入力画像を加算すると、画像の先
鋭化(エッジ強調)がおこなえる。
(H-3) Edge Emphasis The signal PD from the color correction section 72 is also input to the Laplacian filter 610. Laplacian filter 61
0 is also called a second derivative filter, and has a function of extracting an edge component of the input image. As will be described later, when the processing result of this filter and the input image are added, sharpening (edge enhancement) of the image can be performed.

【0161】図56は、ラプラシアンフィルタ610を
具体的に示す。このフィルタは5×5のフィルタであ
り、演算においては、図に示した数値が対応するデータ
に乗算され、その結果が加算される。
FIG. 56 shows the Laplacian filter 610 specifically. This filter is a 5 × 5 filter. In the calculation, the numerical value shown in the figure is multiplied by the corresponding data, and the result is added.

【0162】このラプラシアンフィルタ610の出力結
果は、エッジ強調を必要としないとき、セレクタ612
においてNSHARP3信号により”00”を選択する
ことにより、強制的にクリアされる。
The output result of the Laplacian filter 610 indicates that when edge enhancement is not required,
Is forcibly cleared by selecting "00" with the NSHARP3 signal at

【0163】 (h−4)エッジ強調処理とシャープネスモード セレクタ612の出力は、色にじみ補正を行うための信
号NEDG,読取モード(写真/標準モード)を示す選
択信号MODEとともに、ラプラシアンテーブル620
に入力され、図57に示すように、入力値に応じてフィ
ルタ出力Dを変換する。
(H-4) Edge Enhancement Processing and Sharpness Mode The output of the selector 612 is a Laplacian table 620 together with a signal NEDG for performing color blur correction and a selection signal MODE indicating a reading mode (photo / standard mode).
And converts the filter output D according to the input value, as shown in FIG.

【0164】図57に示すように、写真モード(MOD
E=”L”)では、出力Dは、入力Aに比例する。一
方、標準モード(MODE=”H”)では、NEDG
=”L”(黒エッジ強調)のとき出力Dは、常に−64
である。また、NEDG=”H”のときは、普通のエッ
ジ強調がなされ、入力Aが大きいときを小さいとき出力
Dは一定にされる。
As shown in FIG. 57, the photograph mode (MOD
At E = “L”), the output D is proportional to the input A. On the other hand, in the standard mode (MODE = "H"), NEDG
When "L" (black edge enhancement), the output D is always -64.
It is. When NEDG = “H”, ordinary edge enhancement is performed, and when the input A is large, the output D is constant when the input A is small.

【0165】このラプラシアンテーブル620の出力D
は、さらに乗算器622において、領域判別部74で明
度データVより作成されたエッジ制御用のMTFdat
aとの積が求められ、セレクタ604からの原画像の平
滑化データとともに、加算器608に入力される。これ
により、平滑化データとエッジ量の加算がなされ、エッ
ジ強調された画像データが出力できる。
The output D of the Laplacian table 620
Further, in the multiplier 622, the MTFdat for edge control created from the brightness data V by the area determination unit 74
The product of a and a is obtained and input to the adder 608 together with the smoothed data of the original image from the selector 604. As a result, the smoothed data and the edge amount are added, and edge-enhanced image data can be output.

【0166】図58は、上側に示した画像について濃度
変換データと、そのラプラシアンフィルタ610による
結果を示す。加算器608において両者を加算すると、
下側に示すように、画像のエッジ部の値が実際より大き
くなり、エッジ強調が行える。
FIG. 58 shows the density conversion data and the result of the Laplacian filter 610 for the image shown on the upper side. When the two are added in the adder 608,
As shown on the lower side, the value of the edge portion of the image becomes larger than the actual value, and edge enhancement can be performed.

【0167】なお、表13に示すように、SHARP
5〜0は、領域判別部74のMTF制御テーブルのバン
ク、MTF補正部の平滑化フィルタ602、604の選
択およびラプラシアンフィルタ610の出力のON/O
FFを制御して、外部から指定されたシャープネスモー
ドSHARPに対応している。
As shown in Table 13, SHARP
Reference numerals 5 to 0 denote a bank of the MTF control table of the area determination unit 74, selection of the smoothing filters 602 and 604 of the MTF correction unit, and ON / O of the output of the Laplacian filter 610.
The FF is controlled to correspond to a sharpness mode SHARP specified from the outside.

【0168】[0168]

【表13】 [Table 13]

【0169】(h−5)色にじみ補正 領域判別部74において生成された無彩色エッジ判定信
号NEDGを用いて、原画像の黒エッジ部における有彩
色再現データC,M,Yを消去させ、色にじみ補正を行
なう。上に説明したように、信号NEDGと、読取モー
ド信号MODE(”L”で写真モード、”H”で標準モ
ード)とは、ラプラシアンテーブル(色にじみ補正用テ
ーブル)620に入力される。
(H-5) Color Bleeding Correction The chromatic color reproduction data C, M, and Y at the black edge portion of the original image are erased by using the achromatic edge determination signal NEDG generated by the region determining unit 74, and the color blur is corrected. Perform bleed correction. As described above, the signal NEDG and the read mode signal MODE (“L” for the photograph mode and “H” for the standard mode) are input to the Laplacian table (color blur correction table) 620.

【0170】ここで、NEDG=”L”(無彩色エッジ
部分)かつMODE=”H”(標準モード)のとき、色
にじみ補正を行なう。このとき、入力値Aがいかなる値
であっても、出力D=−64とするため、次段の乗算器
622におけるMTFデータとの乗算結果は、強制的に
負の値になる。したがって、PD17〜10がC,M,Yデ
ータである(NCMY/K=”L”)ときには、PD
17〜10に対して−64*(MTFデータ)を差分するた
め、黒エッジ部分でのC,M,Yデータが消去され、色
にじみが防止される。
Here, when NEDG = “L” (achromatic color edge portion) and MODE = “H” (standard mode), color fringing correction is performed. At this time, no matter what the input value A is, the result of the multiplication with the MTF data in the multiplier 622 at the next stage is forced to be a negative value so that the output D = −64. Therefore, when PDs 17 to 10 are C, M, and Y data (NCMY / K = “L”), PD
Since -64 * (MTF data) is subtracted from 17 to 10, the C, M, and Y data at the black edge portion is erased, and color blur is prevented.

【0171】また、MODE信号の論理によってラプラ
シアンテーブル620によりラプラシアンフィルタの強
度が選択され、標準モードでは写真モードに比べてエッ
ジ強調を強くする。
Further, the intensity of the Laplacian filter is selected by the Laplacian table 620 according to the logic of the MODE signal, and the edge enhancement is made stronger in the standard mode than in the photograph mode.

【0172】次に、色にじみ補正の例を説明する。図5
9に示すR,G,Bの読み取り濃度データについて、色
補正部72において、先に説明した自動UCR/BP処
理を行なうと、図60に示すような出力結果が得られ
る。(UCR/BP比は80%前後で処理された。)横
軸は画素番号を表す。ここで、エッジ部分に色にじみ現
象が生じる(〇部分参照)。すなわち、Kデータのエッ
ジ部分にC,M,Yもエッジ部分を持つため、黒の他に
有彩色も重なり、色がにじんで、エッジがきれいに再現
されない。次に、MTF補正部78において色にじみ補
正を行わないでMTF補正によりエッジ強調を行なう
と、図61のようになり、さらに色にじみがひどくなる
(〇部分参照)。そこで、NEDG信号とMODE信号
とにより無彩色エッジ部で標準モードで色にじみ補正を
行なうと、図62に示すように、C,M,Yについて黒
エッジ部分での出力がなくなり、色にじみが完全に解消
される(〇部分参照)。
Next, an example of color fringing correction will be described. FIG.
When the above-described automatic UCR / BP processing is performed on the read density data of R, G, and B shown in FIG. 9 in the color correction unit 72, an output result as shown in FIG. 60 is obtained. (The UCR / BP ratio was processed at around 80%.) The horizontal axis represents the pixel number. Here, a color bleeding phenomenon occurs at the edge portion (see the portion 〇). That is, since C, M, and Y also have an edge portion at the edge portion of the K data, chromatic colors also overlap in addition to black, and the color blurs, and the edge is not reproduced clearly. Next, when edge enhancement is performed by MTF correction without performing color fringing correction in the MTF correction unit 78, the result is as shown in FIG. 61, and the color fringing becomes more severe (see the portion 〇). Therefore, when color blur correction is performed in the standard mode at the achromatic color edge portion by the NEDG signal and the MODE signal, as shown in FIG. (See section 〇).

【0173】(h−6)輪郭抽出モード ラプラシアンフィルタ610の出力するエッジ検出信号
RAPは、エッジレベル判定回路630において、しき
い値REFと比較され、画像の輪郭抽出信号NRAPが
生成される。すなわち、まずエッジ検出信号RAPは、
負であれば絶対値に変換され、正であれば”00”とさ
れる。次に、その値が、しきい値REFと比較されて2
値化され、あるレベル以上のときは、NRA=”L””
をセレクタ632に出力する(図63参照)。セレクタ
632では、画像データとEDGデータとが入力され、
NRAP=”L”かつNEGEN2(輪郭抽出信号)
=”L”ならば、EDGデータ(輪郭データ)を選択す
る。
(H-6) Contour Extraction Mode The edge detection signal RAP output from the Laplacian filter 610 is compared with a threshold value REF in an edge level determination circuit 630 to generate an image contour extraction signal NRAP. That is, first, the edge detection signal RAP is
If it is negative, it is converted to an absolute value; if it is positive, it is set to "00". Next, the value is compared with the threshold value REF to obtain 2
If the value is higher than a certain level, NRA = "L""
Is output to the selector 632 (see FIG. 63). In the selector 632, the image data and the EDG data are input,
NRAP = “L” and NEGEN2 (contour extraction signal)
If "L", EDG data (contour data) is selected.

【0174】図63は、輪郭抽出の例を示す。図の原稿
画像(ローマ字の大文字A)の濃度変換データについ
て、2次微分の結果を求め、さらに負のときは絶対値に
変換し、正のときは0とする。この結果が所定のしきい
値REFを超える部分のみにNRAP信号が出力され、
これが輪郭部分を示す。
FIG. 63 shows an example of contour extraction. Regarding the density conversion data of the original image in the figure (Roman capital letter A), the result of the second differentiation is obtained. If the result is negative, the result is converted into an absolute value. An NRAP signal is output only in a portion where the result exceeds a predetermined threshold value REF,
This shows the contour part.

【0175】なお、REF17〜10(輪郭抽出用2値化レ
ベル),EDG data(輪郭データ)およびMTF
dataB(エッジ強調制御データ)は、CPUのアド
レスマップ上で表14のようにセットされる。このデー
タは、NGCS1=”L”のとき、NWRが”L”から
立ち上がるときにセットされる。
REF 17-10 (binary level for contour extraction), EDG data (contour data) and MTF
dataB (edge emphasis control data) is set as shown in Table 14 on the address map of the CPU. This data is set when NWR rises from "L" when NGCS1 = "L".

【0176】[0176]

【表14】 [Table 14]

【0177】また、MTFdataについては、表15
に示すように、領域判別部74のMTFdataAによ
ってエッジ強調を自動制御する場合(写真/標準モー
ド)とレジスタのセット値(MTFdataB)によっ
てマニュアル制御する場合(地図モード)に分けてい
る。
[0177] For MTFdata, see Table 15
As shown in (1), the case where the edge enhancement is automatically controlled by the MTFdataA of the area determination unit 74 (photo / standard mode) and the case where the edge enhancement is manually controlled by the set value of the register (MTFdataB) (map mode) are divided.

【0178】[0178]

【表15】 [Table 15]

【0179】なお、MTFdataBのビット定義は、
表16に示される。
Note that the bit definition of MTFdataB is
It is shown in Table 16.

【0180】[0180]

【表16】 [Table 16]

【0181】地図モードのときには、細線再現性を優先
して処理するため、MTFdataB=”80”
(1),MODE=”H”(標準モード),NBKEN
=”H”(色にじみ補正なし)とセットする。
In the map mode, MTFdataB = “80” in order to process with priority given to fine line reproducibility.
(1), MODE = "H" (standard mode), NBKEN
= "H" (no color blur correction).

【0182】(h−7)自動MTF補正の例 図64〜図68は、1ライン/mmの原稿についての自
動MTF補正の例をしめす。図64は、明度データとそ
の1次微分を示す。横軸は画素番号を表す。各ラインに
対応した明度変化が得られる。図65は、濃度データと
その2次微分結果を示す。
(H-7) Example of Automatic MTF Correction FIGS. 64 to 68 show examples of automatic MTF correction for an original of 1 line / mm. FIG. 64 shows brightness data and its first derivative. The horizontal axis represents a pixel number. The brightness change corresponding to each line is obtained. FIG. 65 shows the density data and the result of the second derivative.

【0183】図66は、この濃度データをもとに自動M
TF補正を行った結果をしめす。エッジ強調と同等な処
理がなされる。ラインペアの画像に対しては境界が鋭い
ほうがよい。したがって、画像の再現性はよい。
FIG. 66 shows an automatic M based on this density data.
The result of the TF correction is shown. Processing equivalent to edge enhancement is performed. A sharper boundary is better for an image of a line pair. Therefore, the reproducibility of the image is good.

【0184】比較のため、図67に平滑化処理を行った
結果を示すが、ラインペアの再現性はよくない。また、
図68に従来のエッジ強調の結果を示す。実施例と同等
なデータが得られている。
For comparison, FIG. 67 shows the result of the smoothing process, but the reproducibility of the line pair is not good. Also,
FIG. 68 shows the result of the conventional edge enhancement. Data equivalent to the example is obtained.

【0185】図69〜図72は、網点原稿(スクリーン
133線)についての自動MTF補正の例をしめす。図
69は濃度データを示す。横軸は画素番号を表す。モア
レがみられる。
FIGS. 69 to 72 show examples of automatic MTF correction for a halftone dot document (screen 133 lines). FIG. 69 shows the density data. The horizontal axis represents a pixel number. Moiré is seen.

【0186】図70は、この濃度データをもとに自動M
TF補正を行った結果を示す。モアレは強調されていな
い。
FIG. 70 shows an automatic M based on this density data.
The result of performing TF correction is shown. Moiré is not emphasized.

【0187】比較のため、図71にエッジ強調を行った
結果を示すが、モアレが強調されている。また、図72
に平滑化処理の結果を示す。濃度変化が小さくなってい
る。
For comparison, FIG. 71 shows the result of edge emphasis, in which moiré is emphasized. FIG.
Shows the result of the smoothing process. The density change is small.

【0188】図73〜図77は、1mm幅の黒ラインの
原稿についての自動MTF補正の例をしめす。図73
は、明度データとその1次微分を示す。黒ラインに対応
した明度変化が得られる。図74は、濃度データとその
2次微分結果を示す。
FIGS. 73 to 77 show examples of automatic MTF correction for a black line original having a width of 1 mm. Figure 73
Indicates lightness data and its first derivative. A brightness change corresponding to the black line is obtained. FIG. 74 shows the density data and the result of its second derivative.

【0189】図75は、この濃度データをもとに自動M
TF補正を行った結果をしめす。画像の平坦部では平滑
化効果が大きく、画像のエッジ部では、エッジの傾きは
鋭くなっている。したがって、黒ラインの画像の再現性
はよい。
FIG. 75 shows an automatic M based on this density data.
The result of the TF correction is shown. In the flat part of the image, the smoothing effect is large, and in the edge part of the image, the inclination of the edge is sharp. Therefore, the reproducibility of the image of the black line is good.

【0190】比較のため、図76に平滑化処理を行った
結果を示すが、エッジの傾きが緩やかになっている。ま
た、図77にエッジ強調の結果を示す。画像の平坦部で
は変化が大きくなっている。
For comparison, FIG. 76 shows the result of the smoothing process, in which the slope of the edge is gentle. FIG. 77 shows the result of edge enhancement. The change is large in the flat part of the image.

【0191】このように、本発明の自動MTF補正で
は、どのような画像に対しても最適なMTF補正が達成
できる。
As described above, the automatic MTF correction of the present invention can achieve the optimum MTF correction for any image.

【0192】なお、以上に説明したMTF補正は、フル
カラーモードにおけるものであるが、モノカラーモード
においても同様のMTF補正が行える。この場合、図2
5に示されるような回路構成が用いられる。モノカラー
モードでは、読み取りデータが明度データとして扱える
ので、構成が簡単化できる。
Although the MTF correction described above is performed in the full color mode, the same MTF correction can be performed in the mono color mode. In this case, FIG.
The circuit configuration shown in FIG. In the monochrome mode, the read data can be handled as brightness data, so that the configuration can be simplified.

【0193】[0193]

【発明の効果】画像読み取り値の規格化の補正を行なう
シェーディング補正において、1ライン分のラインメモ
リを用いて、複数ライン分の基準作成用データより補正
基準データを高精度に作成できる。
In the shading correction for correcting the normalization of the image reading value, the correction reference data can be created with higher precision than the reference creation data for a plurality of lines by using the line memory for one line.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 フルカラー複写機の断面図である。FIG. 1 is a sectional view of a full-color copying machine.

【図2】 制御系の1部のブロック図である。FIG. 2 is a block diagram of a part of a control system.

【図3】 制御系の他の部分のブロック図である。FIG. 3 is a block diagram of another part of the control system.

【図4】 読取部の斜視図である。FIG. 4 is a perspective view of a reading unit.

【図5】 画像信号処理部のブロック図である。FIG. 5 is a block diagram of an image signal processing unit.

【図6】 タイミング制御部の図である。FIG. 6 is a diagram of a timing control unit.

【図7】 HVCラインメモリインターフェースの回路
図である。
FIG. 7 is a circuit diagram of an HVC line memory interface.

【図8】 RGBラインメモリインターフェースの回路
図である。
FIG. 8 is a circuit diagram of an RGB line memory interface.

【図9】 CPU周辺回路の図である。FIG. 9 is a diagram of a CPU peripheral circuit.

【図10】 シェーディング補正部の回路図である。FIG. 10 is a circuit diagram of a shading correction unit.

【図11】 シェーディング補正部の黒補正ブロックの
図である。
FIG. 11 is a diagram of a black correction block of a shading correction unit.

【図12】 図11の(a)〜(i)点でのタイミング
チャートである。
FIG. 12 is a timing chart at points (a) to (i) in FIG. 11;

【図13】 図11の(a)〜(i)点でのタイミング
チャートである。
FIG. 13 is a timing chart at points (a) to (i) in FIG. 11;

【図14】 シェーディング補正のフローチャートの一
部である。
FIG. 14 is a part of a flowchart of shading correction.

【図15】 シェーディング補正のフローチャートの一
部である。
FIG. 15 is a part of a flowchart of shading correction.

【図16】 シェーディング補正のシーケンスの図であ
る。
FIG. 16 is a diagram showing a shading correction sequence.

【図17】 CCDセンサの図である。FIG. 17 is a diagram of a CCD sensor.

【図18】 上側の画像の読み取りデータと位置補正後
のデータの図である。
FIG. 18 is a diagram showing read data of an upper image and data after position correction.

【図19】 マンセル色票図である。FIG. 19 is a Munsell color chart.

【図20】 HVC変換部のブロック図である。FIG. 20 is a block diagram of an HVC conversion unit.

【図21】 彩度抽出回路のブロック図である。FIG. 21 is a block diagram of a saturation extraction circuit.

【図22】 色相抽出回路の回路図である。FIG. 22 is a circuit diagram of a hue extraction circuit.

【図23】 濃度変換部の回路図である。FIG. 23 is a circuit diagram of a density conversion unit.

【図24】 画像信号処理部の領域判別に係る部分の簡
略ブロック図である。
FIG. 24 is a simplified block diagram of a part related to area determination of an image signal processing unit.

【図25】 モノクロモードの場合のMTF自動制御の
ための領域判別の簡略ブロック図である。
FIG. 25 is a simplified block diagram of area determination for MTF automatic control in a monochrome mode.

【図26】 領域判別部の1部の回路図である。FIG. 26 is a circuit diagram of a part of an area determining unit.

【図27】 領域判別部の1部の回路図である。FIG. 27 is a circuit diagram of a part of an area determining unit.

【図28】 BKレベル(D)と最小値(MIN)の関
係を示すグラフである。
FIG. 28 is a graph showing a relationship between a BK level (D) and a minimum value (MIN).

【図29】 1次微分フィルタの図である。FIG. 29 is a diagram of a primary differential filter.

【図30】 平滑化フィルタの図である。FIG. 30 is a diagram of a smoothing filter.

【図31】 UCR/BP制御テーブルによる変換の図
である。
FIG. 31 is a diagram of conversion by a UCR / BP control table.

【図32】 MTF制御テーブルによる強調量の変化の
図である。
FIG. 32 is a diagram illustrating a change in an emphasis amount according to an MTF control table.

【図33】 上側に示した画像の読み取りと処理を示す
図である。
FIG. 33 is a diagram showing reading and processing of the image shown on the upper side.

【図34】 黒データの図である。FIG. 34 is a diagram of black data.

【図35】 Gフィルタの特性のグラフである。FIG. 35 is a graph showing characteristics of a G filter.

【図36】 Mトナーの特性のグラフである。FIG. 36 is a graph showing characteristics of M toner.

【図37】 グレースケールの読み取りデータの図であ
る。
FIG. 37 is a diagram of grayscale read data.

【図38】 図37に示したデータを自動UCR/BP
処理した結果の1部の図である。
FIG. 38 is a table for automatically converting the data shown in FIG. 37 to an automatic UCR / BP.
It is a figure of one copy of the result of having processed.

【図39】 CCDセンサの各素子(横軸にアドレスを
示す)による白と黒からなる画像の読み取りデータの図
である。
FIG. 39 is a diagram of read data of an image composed of white and black by each element of the CCD sensor (the address is indicated on the horizontal axis).

【図40】 図39のデータを濃度に変換した図であ
る。
FIG. 40 is a diagram obtained by converting the data of FIG. 39 into a density.

【図41】 図39のデータをHVC変換した図であ
る。
FIG. 41 is a diagram obtained by subjecting the data in FIG. 39 to HVC conversion.

【図42】 図41のデータの明度のエッジと彩度の図
である。
42 is a diagram of the lightness edge and the saturation of the data in FIG. 41.

【図43】 図39のデータの自動UCR/BP処理の
結果の図である。
FIG. 43 is a diagram showing a result of the automatic UCR / BP processing of the data in FIG. 39;

【図44】 CCDセンサの各素子(横軸にアドレスを
示す)による白と赤とからなる画像の読み取りデータの
図である。
FIG. 44 is a diagram of read data of an image composed of white and red by each element of the CCD sensor (address is indicated on the horizontal axis).

【図45】 図44のデータを濃度に変換した図であ
る。
FIG. 45 is a diagram in which the data of FIG. 44 is converted into a density.

【図46】 図44のデータをHVC変換した図であ
る。
FIG. 46 is a diagram obtained by subjecting the data of FIG. 44 to HVC conversion.

【図47】 図46のデータの明度のエッジと彩度の図
である。
47 is a diagram of lightness edges and chroma of the data in FIG. 46.

【図48】 図44のデータの自動UCR/BP処理の
結果の図である。
FIG. 48 is a diagram showing a result of the automatic UCR / BP processing of the data shown in FIG. 44;

【図49】 縁取りモードにおける画像の縁取りのため
のデータ処理を示す図である。
FIG. 49 is a diagram illustrating data processing for bordering an image in the bordering mode.

【図50】 色補正部の1部の回路図である。FIG. 50 is a circuit diagram of a part of a color correction unit.

【図51】 色補正部の1部の回路図である。FIG. 51 is a circuit diagram of a part of a color correction unit.

【図52】 レジスタ部の回路図である。FIG. 52 is a circuit diagram of a register unit.

【図53】 MTF補正部の回路図である。FIG. 53 is a circuit diagram of an MTF correction unit.

【図54】 レジスタとその周辺回路の図である。FIG. 54 is a diagram of a register and its peripheral circuits.

【図55】 平滑化フィルタの図である。FIG. 55 is a diagram of a smoothing filter.

【図56】 ラプラシアンフィルタの図である。FIG. 56 is a diagram of a Laplacian filter.

【図57】 ラプラシアンテーブルによる処理の図であ
る。
FIG. 57 is a diagram of processing by a Laplacian table.

【図58】 ラプラシアンフィルタによるエッジ強調処
理を示す図である。
FIG. 58 is a diagram showing edge enhancement processing by a Laplacian filter.

【図59】 R,G,Bの読み取りデータの図である。FIG. 59 is a diagram of read data of R, G, and B.

【図60】 図59のデータの自動UCR/BP処理の
結果の図である。
60 is a diagram showing a result of the automatic UCR / BP processing of the data in FIG. 59.

【図61】 図59のデータの自動MTF処理の結果の
図である。
FIG. 61 is a diagram showing a result of the automatic MTF processing of the data in FIG. 59;

【図62】 図59のデータの色にじみ補正の結果の図
である。
62 is a diagram showing a result of color fringing correction of the data in FIG. 59.

【図63】 輪郭抽出モードにおける輪郭抽出処理を示
す図である。
FIG. 63 is a diagram showing a contour extraction process in a contour extraction mode.

【図64】 1ラインペア/mmの原稿の明度データと
その1次微分の図である。
FIG. 64 is a diagram showing brightness data of a document of 1 line pair / mm and its first derivative.

【図65】 図64のデータの濃度データとその1次微
分の図である。
65 is a diagram of the density data of the data of FIG. 64 and its first derivative.

【図66】 図64のデータの自動MTF補正の結果の
図である。
FIG. 66 is a diagram showing a result of automatic MTF correction of the data in FIG. 64;

【図67】 図64のデータの平滑化処理(比較例)の
図である。
FIG. 67 is a diagram of a data smoothing process (comparative example) of FIG. 64;

【図68】 図64のデータの従来のエッジ強調(比較
例)の結果の図である。
68 is a diagram showing a result of conventional edge enhancement (comparative example) of the data of FIG. 64.

【図69】 網点原稿の濃度データの図である。FIG. 69 is a diagram of density data of a halftone dot document.

【図70】 図69のデータの自動MTF補正の結果の
図である。
70 is a diagram showing a result of automatic MTF correction of the data in FIG. 69.

【図71】 図69のデータのエッジ強調処理(比較
例)の結果の図である。
71 is a diagram showing a result of edge enhancement processing (comparative example) of the data in FIG. 69.

【図72】 図69のデータの平滑化処理(比較例)の
結果の図である。
FIG. 72 is a diagram showing a result of the data smoothing process (comparative example) of FIG. 69;

【図73】 1mm幅の黒ラインの原稿の明度とその1
次微分のデータの図である。
73 is a diagram showing the brightness of a 1 mm-wide black line original and its 1
It is a figure of the data of the next differentiation.

【図74】 図73のデータの濃度のその2次微分のデ
ータの図である。
FIG. 74 is a diagram of the data of its second derivative of the density of the data of FIG. 73.

【図75】 図74のデータの自動MTF補正の結果の
図である。
75 is a diagram showing the result of automatic MTF correction of the data in FIG. 74.

【図76】 図74のデータの平滑化処理の結果(比較
例)の図である。
76 is a diagram of a result (comparative example) of the data smoothing process in FIG. 74.

【図77】 図74の従来のエッジ強調(比較例)の図
である。
77 is a diagram of the conventional edge enhancement (comparative example) of FIG. 74.

【符号の説明】[Explanation of symbols]

65…領域判別部、 66…色補正処理部、67…M
TF補正部、 81…スムージング処理部、82…下色
除去/墨加刷制御部、 83…色補正マスキング制御
部、84…エッジ検出部、 85…MTF補正制御部、
65: region determination unit, 66: color correction processing unit, 67: M
TF correction section, 81: smoothing processing section, 82: under color removal / ink printing control section, 83: color correction masking control section, 84: edge detection section, 85: MTF correction control section,

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 1/40 - 1/409 H04N 1/46 H04N 1/60 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int. Cl. 7 , DB name) H04N 1/40-1/409 H04N 1/46 H04N 1/60

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 基準板と、 基準板または原稿画像を1ラインごとに読み取り、画像
データを出力するラインセンサと、 ラインセンサで読み取った基準板の1ライン分の画像デ
ータを記憶するラインメモリと、 各画素ごとに1ライン分の基準作成データを初期値とし
てラインメモリに書き込む初期値書込手段と、 ラインセンサで読み取った基準板の1ライン分のデータ
が入力されるごとに、ラインメモリから読み出した基準
板の1ライン分のデータと各画素ごとに重みを付けて平
均し、その結果をふたたびラインメモリに入力し、これ
を複数ラインについて繰り返す演算手段と、 演算手段で得られた重み付け平均データを用いて、ライ
ンセンサで読み取った原稿の1ライン分の画像データを
補正する補正手段とを備えることを特徴とする画像入力
装置。
1. A reference plate, a line sensor that reads a reference plate or a document image line by line and outputs image data, and a line memory that stores image data of one line of the reference plate read by the line sensor. An initial value writing means for writing, as an initial value, one line of reference creation data to a line memory for each pixel; and, each time data of one line of a reference plate read by a line sensor is input, An arithmetic unit that weights and averages the read data of one line of the reference plate and each pixel, and inputs the result again to the line memory, and repeats this for a plurality of lines; a weighted average obtained by the arithmetic unit Correcting means for correcting one line of image data of the original read by the line sensor using the data. Power equipment.
JP15926091A 1991-06-29 1991-06-29 Image input device Expired - Lifetime JP3203689B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP15926091A JP3203689B2 (en) 1991-06-29 1991-06-29 Image input device
US07/905,109 US5412489A (en) 1991-06-29 1992-06-26 Shading correction having a line memory read which generates an average reference level from a plurality of lines of a reference plate

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15926091A JP3203689B2 (en) 1991-06-29 1991-06-29 Image input device

Publications (2)

Publication Number Publication Date
JPH0514711A JPH0514711A (en) 1993-01-22
JP3203689B2 true JP3203689B2 (en) 2001-08-27

Family

ID=15689878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15926091A Expired - Lifetime JP3203689B2 (en) 1991-06-29 1991-06-29 Image input device

Country Status (1)

Country Link
JP (1) JP3203689B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3761725B2 (en) 1998-10-02 2006-03-29 株式会社リコー Image reading device
CN109710398B (en) * 2018-12-12 2023-01-13 中国航空工业集团公司西安航空计算技术研究所 GPU (graphics processing Unit) -oriented vertex coloring task scheduling method based on UML (unified modeling language)

Also Published As

Publication number Publication date
JPH0514711A (en) 1993-01-22

Similar Documents

Publication Publication Date Title
US5357353A (en) Image forming apparatus
US5398124A (en) Image processor
US7148997B2 (en) Image processing apparatus and method
US5345320A (en) Color image data processing apparatus comprising monochrome pixel detector
US8259357B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer readable recording medium
US6028957A (en) Image forming apparatus having a noise removing unit
JPH06121161A (en) Character processing system for color image processor
US5999279A (en) Image forming apparatus having an MTF correction unit
JP4329271B2 (en) Image processing apparatus, image forming apparatus, and image processing method
US5867285A (en) Image processor
US5412489A (en) Shading correction having a line memory read which generates an average reference level from a plurality of lines of a reference plate
JP3176101B2 (en) Image reading device
US5633953A (en) Image processing apparatus having improved color-reproducibility of color image
JP3203689B2 (en) Image input device
JP3319766B2 (en) Image processing device
JP3158498B2 (en) Image processing device
JP3178013B2 (en) Image input device
JP3128869B2 (en) Image processing device
US6999197B1 (en) Black edge determination method and device
JPH0514723A (en) Picture processor
JP3306875B2 (en) Image forming device
JP3500639B2 (en) Image forming device
JP3245883B2 (en) Image forming device
US6999632B2 (en) Image processing apparatus, image forming apparatus and image processing method
JPH04342370A (en) Image forming device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090629

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090629

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110629

Year of fee payment: 10

EXPY Cancellation because of completion of term