JPH0622126A - Picture reader - Google Patents
Picture readerInfo
- Publication number
- JPH0622126A JPH0622126A JP4174203A JP17420392A JPH0622126A JP H0622126 A JPH0622126 A JP H0622126A JP 4174203 A JP4174203 A JP 4174203A JP 17420392 A JP17420392 A JP 17420392A JP H0622126 A JPH0622126 A JP H0622126A
- Authority
- JP
- Japan
- Prior art keywords
- data
- color
- density
- circuit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Facsimile Scanning Arrangements (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、イメージセンサを用い
てカラー画像の読み取りを行う画像読取装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image reading device for reading a color image using an image sensor.
【0002】[0002]
【従来の技術】ディジタル複写機等の画像入出力システ
ムでは、その入力手段として例えばカラーのイメージセ
ンサを用いてカラー画像の読み取りを行う画像読取装置
が用いられている。このようにカラー画像を取り扱う画
像読取装置では、イメージセンサによって得られた赤
(以下、Rと記す。)、緑(以下、Gと記す。)、青
(以下、Bと記す。)等の3原色のデータを、HCV、
XYZ、L* a* b* といった表色系のデータに変換し
て、色情報や濃度情報を生成する等のデータ処理が行わ
れている。2. Description of the Related Art In an image input / output system such as a digital copying machine, an image reading device for reading a color image using, for example, a color image sensor is used as its input means. In an image reading apparatus that handles a color image in this way, there are three types of red (hereinafter referred to as R), green (hereinafter referred to as G), blue (hereinafter referred to as B), etc. obtained by the image sensor. The primary color data is HCV,
Data processing such as conversion to color data such as XYZ and L * a * b * to generate color information and density information is performed.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上記の
ような表色系への変換のための演算は、乗算やべき乗計
算が必要となり、その演算を行う回路規模が大きくな
り、また演算時間が長くなってしまうという問題点があ
る。However, the calculation for conversion to the color system as described above requires multiplication or exponentiation, the circuit scale for the calculation is large, and the calculation time is long. There is a problem that it will become.
【0004】また、図20に示すように、B、G、Rの
画素が主走査方向に並んで配列されたイメージセンサ5
01を使用した場合、B、G、Rの各色によって実際の
原稿読み取り位置がずれているために、画像502の色
を判断する場合に誤判断を生じてしまう。そこで、R、
G、Bの各読み取り位置が同一仮想点503となるよう
な補正が必要となる。この補正の一例として、Gの位置
を基準としてR、BのデータをGの左右のR、Gの画素
のデータの演算によって求めることが行われている。こ
の補正を図20を用いて説明すると、n番目の画素50
4のR、G、Bの元のデータをそれぞれRn 、Gn 、B
n とし、補正後のデータをそれぞれRn′、Gn ′、B
n ′とした場合に、Gn ′はGn をそのまま用い、
Rn ′はRn- 1 とRn との演算により決定し、Bn ′は
Bn とBn+1 との演算により決定するということであ
る。Further, as shown in FIG. 20, an image sensor 5 in which B, G and R pixels are arranged side by side in the main scanning direction.
When 01 is used, the actual document reading position is deviated depending on each color of B, G, and R, so that an erroneous determination occurs when determining the color of the image 502. So R,
It is necessary to perform correction so that the reading positions of G and B become the same virtual point 503. As an example of this correction, R and B data are calculated by calculating data of R and G pixels on the left and right of G with reference to the G position. This correction will be described with reference to FIG. 20.
4 of R, G, the original data each R n of B, G n, B
n , and the corrected data are R n ′, G n ′, and B, respectively.
In the case of n ', Gn ' uses Gn as it is,
It means that R n ′ is determined by the calculation of R n − 1 and R n, and B n ′ is determined by the calculation of B n and B n + 1 .
【0005】しかしながら、上記の演算で求めた補正後
のデータを使用して各画素の濃度を求めると、複数の画
素のデータに基づいて1つの画素の濃度が決定されるこ
とになるため、解像度の劣化を生じるという問題点があ
った。However, if the density of each pixel is calculated using the corrected data calculated in the above calculation, the density of one pixel is determined based on the data of a plurality of pixels, and therefore the resolution However, there is a problem in that
【0006】そこで本発明の目的は、読取データから濃
度情報を生成する場合における回路規模の縮小および処
理時間の短縮を可能にした画像読取装置を提供すること
にある。Therefore, an object of the present invention is to provide an image reading apparatus capable of reducing the circuit scale and processing time when generating density information from read data.
【0007】また本発明の他の目的は、3原色の各受光
部が主走査方向に並んで配置されたイメージセンサを使
用して読取データを得ると共に、この読取データに対し
て各色の受光部のずれを補正する処理を行う場合におい
て、解像度を向上することができるようにした画像読取
装置を提供することにある。Another object of the present invention is to obtain read data by using an image sensor in which light receiving portions of three primary colors are arranged side by side in the main scanning direction, and to receive the read data, light receiving portions of respective colors are obtained. An object of the present invention is to provide an image reading apparatus capable of improving the resolution when performing the process of correcting the shift of the.
【0008】[0008]
【課題を解決するための手段】請求項1記載の発明の画
像読取装置は、原稿を読み取って画素ごとに3原色デー
タを得る読取手段と、この読取手段によって得られた3
原色データのうちの1色のデータを用いて画素ごとの濃
度情報を生成する濃度情報生成手段と、読取手段によっ
て得られた3原色データを用いて画素ごとの色情報を生
成する色情報生成手段と、濃度情報生成手段によって生
成された濃度情報を、色情報生成手段によって生成され
た色情報に基づいて色別に補正する濃度補正手段とを備
えたものである。According to another aspect of the present invention, there is provided an image reading apparatus which reads a document and obtains three primary color data for each pixel, and a reading unit which obtains three primary color data.
Density information generating means for generating density information for each pixel using data of one color of the primary color data, and color information generating means for generating color information for each pixel using the three primary color data obtained by the reading means. And density correction means for correcting the density information generated by the density information generation means for each color based on the color information generated by the color information generation means.
【0009】この画像読取装置では、読取手段によって
画素ごとに3原色データが得られ、濃度情報生成手段に
よって3原色データのうちの1色のデータを用いて画素
ごとの濃度情報が生成され、色情報生成手段によって3
原色データを用いて画素ごとの色情報が生成される。ま
た、濃度情報は、濃度補正手段によって色情報に基づい
て色別に補正される。In this image reading apparatus, the reading means obtains the three primary color data for each pixel, and the density information generating means generates the density information for each pixel using the data of one color among the three primary color data, and the color information is generated. 3 by information generation means
Color information for each pixel is generated using the primary color data. Further, the density information is corrected for each color by the density correction means based on the color information.
【0010】請求項2記載の発明の画像読取装置は、請
求項1記載の発明において、読取手段が、3原色の各色
ごとの受光部が主走査方向に並んで配置されたイメージ
センサを用いて原稿を読み取るものである。An image reading apparatus according to a second aspect of the present invention is the image reading apparatus according to the first aspect, wherein the reading means uses an image sensor in which light receiving portions for each of the three primary colors are arranged side by side in the main scanning direction. The original is read.
【0011】請求項3記載の発明の画像読取装置は、請
求項1または2記載の発明において、読取手段が3原色
データとして赤、緑、青の3原色のデータを得るもので
あり、濃度補正手段が緑のデータを用いて濃度情報を生
成するものである。An image reading apparatus according to a third aspect of the invention is the image reading apparatus according to the first or second aspect of the invention, in which the reading means obtains data of three primary colors of red, green and blue as the three primary color data. The means uses the green data to generate density information.
【0012】請求項4記載の発明の画像読取装置は、3
原色の各色ごとの受光部が主走査方向に並んで配置され
たイメージセンサを用いて原稿を読み取って画素ごとの
3原色データを得る読取手段と、3原色のうちの1色の
読取位置を基準とし、この基準の読取位置に他の2色の
読取位置を仮想的に一致させるために、他の2色の画素
ごとのデータを、その色についての複数の画素のデータ
を用いた演算によって補正する位置ずれ補正手段と、こ
の位置ずれ補正手段における読取位置の基準となる1色
のデータを用いて画素ごとの濃度情報を生成する濃度情
報生成手段と、位置ずれ補正手段によって補正された後
の3原色データを用いて画素ごとの色情報を生成する色
情報生成手段と、濃度情報生成手段によって生成された
濃度情報を、色情報生成手段によって生成された色情報
に基づいて色別に補正する濃度補正手段とを備えたもの
である。The image reading apparatus according to the fourth aspect of the invention is 3
A reading unit that obtains three-primary-color data for each pixel by reading an original using an image sensor in which light-receiving units for each of the primary colors are arranged side by side in the main scanning direction, and a reading position of one of the three primary colors is used as a reference. In order to virtually match the reading positions of the other two colors with the reference reading position, the data for each pixel of the other two colors is corrected by calculation using the data of a plurality of pixels for that color. Position deviation correcting means, density information generating means for generating density information for each pixel using the data of one color serving as the reference of the reading position in the position deviation correcting means, and the position deviation correcting means after correcting the position deviation correcting means. Color information generating means for generating color information for each pixel using the three primary color data, and density information generated by the density information generating means for each color based on the color information generated by the color information generating means. Those having a positive to density correction means.
【0013】この画像読取装置では、読取手段によって
3原色の各色ごとの受光部が主走査方向に並んで配置さ
れたイメージセンサを用いて画素ごとに3原色データが
得られ、位置ずれ補正手段によって、3原色のうちの1
色の読取位置を基準とし、この基準の読取位置に他の2
色の読取位置を仮想的に一致させるために、他の2色の
データが補正される。そして、濃度情報生成手段によっ
て、読取位置の基準となる1色のデータを用いて画素ご
との濃度情報が生成され、色情報生成手段によって補正
後の3原色データを用いて画素ごとの色情報が生成され
る。また、濃度情報は、濃度補正手段によって色情報に
基づいて色別に補正される。In this image reading apparatus, the reading means obtains the three primary color data for each pixel by using the image sensor in which the light receiving portions for each of the three primary colors are arranged side by side in the main scanning direction, and the positional deviation correction means 1 of 3 primary colors
The color reading position is used as a reference, and other 2
The data of the other two colors are corrected in order to virtually match the color reading positions. Then, the density information generation unit generates the density information for each pixel by using the data of one color which is the reference of the reading position, and the color information generation unit generates the color information for each pixel by using the corrected three primary color data. Is generated. Further, the density information is corrected for each color by the density correction means based on the color information.
【0014】請求項5記載の発明の画像読取装置は、請
求項4記載の発明において、読取手段が3原色データと
して赤、緑、青の3原色のデータを得るものであり、位
置ずれ補正手段が緑の読取位置を基準として他の2色の
データを補正するものであり、濃度補正手段は緑のデー
タを用いて濃度情報を生成するものである。An image reading apparatus according to a fifth aspect of the present invention is the image reading apparatus according to the fourth aspect, wherein the reading means obtains data of the three primary colors of red, green and blue as the three primary color data, and the positional deviation correction means. Is for correcting data of the other two colors with reference to the green reading position, and the density correcting means is for generating density information using the green data.
【0015】[0015]
【実施例】以下、図面を参照して本発明の実施例につい
て説明する。図1ないし図19は本発明の一実施例に係
るものであり、本実施例は本発明をディジタル複写機に
適用した例である。Embodiments of the present invention will be described below with reference to the drawings. 1 to 19 relate to an embodiment of the present invention, and this embodiment is an example in which the present invention is applied to a digital copying machine.
【0016】本実施例のディジタル複写機は、フルカラ
ーイメージセンサで原稿を読み取り、種々の画像処理、
画像編集を行った画像データを蓄えるページメモリを搭
載したイメージスキャナ部と、このイメージスキャナ部
で蓄えられた画像データを2色でプリントするプリント
部とで構成されている。イメージスキャナ部には、コピ
ー枚数や種々の画像処理・編集機能等をユーザが指定す
るためのコントロールパネルが設けられており、このコ
ントロールパネルによる指定によって所望のコピーを得
ることができるようになっている。The digital copying machine of the present embodiment reads an original with a full-color image sensor and performs various image processings.
The image scanner unit is equipped with a page memory for storing image data that has undergone image editing, and a printing unit for printing the image data stored by the image scanner unit in two colors. The image scanner unit is provided with a control panel for the user to specify the number of copies and various image processing / editing functions, etc. The desired copy can be obtained by this control panel specification. There is.
【0017】図1はイメージスキャナ部の構成を示すブ
ロック図である。イメージスキャナ部220は、電荷結
合素子(以下、CCDと記す。)を用いたイメージセン
サ308を有し、このイメージセンサ308はCCDド
ライブ回路200上に取り付けられている。CCDドラ
イブ回路200の後段には順に、アナログ回路201、
ビデオ(1)回路202、ビデオ(2)回路203、カ
ラー回路204、ディジタルフィルタ回路(以下、DF
回路と記す。)206および中間調処理回路(以下、H
TP回路と記す。)207が設けられている。また、カ
ラー回路204には領域認識回路(以下、AR回路と記
す。)205が接続され、HTP回路207には編集回
路(以下、EDIT回路と記す。)208が接続されて
いる。また、ビデオ(1)回路202〜HTP回路20
7、AR回路205およびEDIT回路208とこれら
を制御する中央処理装置(以下、CPUと記す。)
(1)回路209とは、システムバスの規格の一つであ
るVMEバス16によって互いに接続されている。ま
た、回路202〜209を画像処理部214とする。FIG. 1 is a block diagram showing the arrangement of the image scanner section. The image scanner unit 220 has an image sensor 308 using a charge coupled device (hereinafter, referred to as CCD), and the image sensor 308 is mounted on the CCD drive circuit 200. The analog circuit 201,
Video (1) circuit 202, video (2) circuit 203, color circuit 204, digital filter circuit (hereinafter referred to as DF
Described as a circuit. ) 206 and halftone processing circuit (hereinafter H
It is described as a TP circuit. ) 207 is provided. An area recognition circuit (hereinafter, referred to as an AR circuit) 205 is connected to the color circuit 204, and an editing circuit (hereinafter, referred to as an EDIT circuit) 208 is connected to the HTP circuit 207. Also, the video (1) circuit 202 to the HTP circuit 20
7, an AR circuit 205, an EDIT circuit 208, and a central processing unit (hereinafter, referred to as a CPU) that controls them.
(1) The circuit 209 is connected to each other by the VME bus 16 which is one of the system bus standards. The circuits 202 to 209 are the image processing unit 214.
【0018】HTP回路207の後段にはデータ処理回
路210が接続されている。このデータ処理回路210
にはCPU(2)回路211およびページメモリ回路2
12が接続されている。また、CPU(2)回路211
にはコントロールパネル213が接続されている。デー
タ処理回路210は画像データ215をプリント部に出
力すると共に、プリント部からの制御信号238を入力
するようになっている。また、CPU(2)回路211
は制御データ線120を介してCPU(1)回路209
と接続されていると共に、制御データ線237を介して
プリント部の制御部に接続されている。A data processing circuit 210 is connected to the latter stage of the HTP circuit 207. This data processing circuit 210
Includes a CPU (2) circuit 211 and a page memory circuit 2
12 are connected. In addition, the CPU (2) circuit 211
A control panel 213 is connected to the. The data processing circuit 210 outputs the image data 215 to the printing section and inputs the control signal 238 from the printing section. In addition, the CPU (2) circuit 211
Is the CPU (1) circuit 209 via the control data line 120.
And the control unit of the printing unit via the control data line 237.
【0019】図2はプリント部の構成を示すブロック図
である。プリント部221は、イメージスキャナ部22
0からの画像データ215を入力するデータ分離部23
1と、このデータ分離部231の後段に設けられた第1
色画像データメモリ232および第2色画像データメモ
リ234と、第1色画像データメモリ232の後段に設
けられた第1色レーザ駆動部233と、第2色画像デー
タメモリ234の後段に設けられた第2色レーザ駆動部
235と、以上の各部を制御する制御部236とを備え
ている。制御部236は、制御データ線237を介して
イメージスキャナ部220のCPU(2)回路211に
接続されていると共に、制御信号238をイメージスキ
ャナ部220のデータ処理回路210へ送るようになっ
ている。FIG. 2 is a block diagram showing the structure of the printing unit. The print unit 221 is the image scanner unit 22.
Data separation unit 23 for inputting image data 215 from 0
1 and the first provided in the latter stage of the data separation unit 231.
The color image data memory 232 and the second color image data memory 234, the first color laser driving section 233 provided in the latter stage of the first color image data memory 232, and the latter stage of the second color image data memory 234 are provided. A second color laser drive unit 235 and a control unit 236 that controls each of the above units are provided. The control unit 236 is connected to the CPU (2) circuit 211 of the image scanner unit 220 via the control data line 237 and sends a control signal 238 to the data processing circuit 210 of the image scanner unit 220. .
【0020】図3はイメージスキャナ部の断面の一部を
示す説明図である。イメージスキャナ部は、原稿搬送路
の上側に設けられた複数の原稿フィードローラ302、
303と、原稿搬送路の下側に設けられ原稿フィードロ
ーラ302、303と共に原稿310をニップする複数
のローラ304、305とを備えている。また、原稿搬
送路の途中の下側には図示しないプラテンガラスが設け
られ、このプラテンガラス上にプラテンローラ311が
設けられている。また、プラテンガラスの下側には光源
306と、CCDドライブ回路200上に取り付けられ
たイメージセンサ308と、光源306によって照明さ
れた原稿310の像をイメージセンサ308上に結像す
る収束性ロッドレンズアレー309とが設けられてい
る。また、原稿挿入部には原稿310を検出するセンサ
301が設けられている。また、プラテンローラ311
の周囲には、複数の平面を有し、プラテンローラ311
の中心軸を中心として回転可能な基準板312が設けら
れている。この基準板312は、図4に示すように、黒
レベルの基準となる黒色面313と、白レベルの基準と
なる白色面314とを有し、これら黒色面313、白色
面314を、プラテンガラスとプラテンローラ311の
間に選択的に介装できるようになっている。FIG. 3 is an explanatory view showing a part of the cross section of the image scanner section. The image scanner unit includes a plurality of document feed rollers 302 provided on the upper side of the document feeding path,
303, and a plurality of rollers 304 and 305 provided below the document feeding path and nipping the document 310 together with the document feed rollers 302 and 303. A platen glass (not shown) is provided on the lower side of the document transport path, and a platen roller 311 is provided on the platen glass. Further, a light source 306 below the platen glass, an image sensor 308 mounted on the CCD drive circuit 200, and a converging rod lens for forming an image of an original 310 illuminated by the light source 306 on the image sensor 308. An array 309 is provided. In addition, a sensor 301 that detects the document 310 is provided in the document insertion portion. In addition, the platen roller 311
Has a plurality of flat surfaces around the platen roller 311
A reference plate 312 is provided which is rotatable around the central axis of. As shown in FIG. 4, the reference plate 312 has a black surface 313 serving as a black level reference and a white surface 314 serving as a white level reference. The black surface 313 and the white surface 314 are connected to the platen glass. And the platen roller 311 can be selectively interposed.
【0021】図5はイメージセンサ308の平面図であ
る。本実施例で使用されるイメージセンサ308はフル
カラーの密着型センサであり、図5に示すように、千鳥
状に配列された5つのライン型のセンサチップ(1)〜
(5)321〜325を有している。センサチップ
(1)、(3)、(5)とセンサチップ(2)、(4)
とは空間的に位置がΔxだけずれている。このため、イ
メージセンサ308で読み取った画像データは、2つの
チップ群(センサチップ(1)、(3)、(5)とセン
サチップ(2)、(4))で原稿上の異なった部分のデ
ータを同時に読み取ることになる。このデータを原稿の
同一ラインを読み取ったデータに直す処理を、後述する
ビデオ(1)回路202内で行っている。なお、本実施
例では、広巾の原稿を読み取るために図5に示すイメー
ジセンサ308が3つ千鳥状に配列され、これら3つの
イメージセンサ308は原稿の同一ラインを読み取るよ
うに取り付けられている。FIG. 5 is a plan view of the image sensor 308. The image sensor 308 used in the present embodiment is a full-color contact type sensor, and as shown in FIG. 5, five line type sensor chips (1) to (1) arranged in a zigzag pattern.
(5) 321 to 325 are included. Sensor chips (1), (3), (5) and sensor chips (2), (4)
And are spatially displaced by Δx. Therefore, the image data read by the image sensor 308 is stored in two chip groups (sensor chips (1), (3), (5) and sensor chips (2), (4)) at different portions on the document. The data will be read at the same time. A process of converting this data into data obtained by reading the same line of the original is performed in the video (1) circuit 202 described later. In this embodiment, three image sensors 308 shown in FIG. 5 are arranged in a zigzag pattern in order to read a wide original, and these three image sensors 308 are attached so as to read the same line of the original.
【0022】図6はイメージセンサ308の一つのチッ
プの画素配列を示す説明図である。イメージセンサ30
8は、3原色としてのB、G、Rの色フィルタを有する
各色ごとの画素が、B、G、Rの順に配列されて構成さ
れている。FIG. 6 is an explanatory view showing the pixel arrangement of one chip of the image sensor 308. Image sensor 30
A pixel 8 for each color having B, G, and R color filters as three primary colors is arranged in the order of B, G, and R.
【0023】次に、イメージスキャナ部220の各回路
のうち、特に本実施例に関わる部分の構成と動作を説明
する。Next, of the circuits of the image scanner section 220, the configuration and operation of the part particularly related to this embodiment will be described.
【0024】図7はCPU(1)回路209のブロック
図である。CPU(1)回路209は、CPU111、
タイマ112、リード・オンリ・メモリ(以下、ROM
と記す。)113、ランダム・アクセス・メモリ(以
下、RAMと記す。)114、VMEバスインタフェー
ス(以下、VMEバスI/Fと記す。)115、出力制
御部116、入力制御部117およびシリアル通信部1
18を備え、これらはバスによって互いに接続されてい
る。VMEバスI/F115はVMEバス16に接続さ
れ、シリアル通信部118は制御データ線120に接続
されている。このCPU(1)回路209は、RAM1
14をワークエリアとして、ROM113に格納された
プログラムを実行することによって、画像処理部214
内の各回路の制御およびCPU(2)回路211との通
信を行うようになっている。FIG. 7 is a block diagram of the CPU (1) circuit 209. The CPU (1) circuit 209 includes the CPU 111,
Timer 112, read only memory (hereinafter ROM
Is written. ) 113, random access memory (hereinafter referred to as RAM) 114, VME bus interface (hereinafter referred to as VME bus I / F) 115, output control section 116, input control section 117 and serial communication section 1
18, which are connected to each other by a bus. The VMEbus I / F 115 is connected to the VMEbus 16 and the serial communication unit 118 is connected to the control data line 120. The CPU (1) circuit 209 is a RAM 1
By executing the program stored in the ROM 113 by using 14 as a work area, the image processing unit 214
It controls each circuit therein and communicates with the CPU (2) circuit 211.
【0025】図1において、ユーザが所望のコピー枚数
や各種の画像処理・編集をコントロールパネル213か
ら指定すると、CPU(2)回路211上のCPUが制
御データ線120を通してCPU(1)回路209上の
CPU111に対して、コントロールパネル213で選
択されている各種の画像処理・編集情報を送る。また、
CPU(2)回路211上のCPUは、コントロールパ
ネル213によって選択されている用紙サイズ等の情報
を制御データ線237を通してプリント部221の制御
部236へ送る。In FIG. 1, when the user designates the desired number of copies and various image processing / editing operations from the control panel 213, the CPU on the CPU (2) circuit 211 passes through the control data line 120 on the CPU (1) circuit 209. The CPU 111 sends various image processing / editing information selected on the control panel 213. Also,
The CPU on the CPU (2) circuit 211 sends information such as the paper size selected by the control panel 213 to the control unit 236 of the printing unit 221 through the control data line 237.
【0026】図7において、制御データ線120を通し
て送られてきた各種の画像処理・編集情報は、シリアル
通信部118を介してCPU(1)回路209に取り込
まれ、CPU111によって解読される。CPU111
は画像処理・編集情報に対応した各種のパラメータ(制
御データ)をVMEバスI/F115、VMEバス16
を通して画像処理部214内の各回路202〜208の
所定のレジスタやRAMに設定する。In FIG. 7, various image processing / editing information sent through the control data line 120 is taken into the CPU (1) circuit 209 via the serial communication unit 118 and decoded by the CPU 111. CPU111
Displays various parameters (control data) corresponding to image processing / editing information on the VMEbus I / F 115 and VMEbus 16
It is set in a predetermined register or RAM of each circuit 202 to 208 in the image processing unit 214 through.
【0027】次に、図3において、イメージスキャナ部
220に原稿310を挿入すると、センサ301がオン
し、これを図7のCPU(1)回路209の入力制御部
117を通してCPU111が検知し、図示しない原稿
フィード用のモータを駆動し、原稿310が原稿フィー
ドローラ302、303で搬送される。搬送された原稿
310がプラテンローラ311に達すると、光源306
によって照射され原稿310で反射した光307がイメ
ージセンサ308に入射し、図1に示すようにCCDド
ライブ回路200によって駆動されるイメージセンサ3
08によって原稿像が読み取られ、CCDビデオ信号9
がアナログ回路201によって順次処理されていく。Next, in FIG. 3, when the document 310 is inserted into the image scanner section 220, the sensor 301 is turned on, which is detected by the CPU 111 through the input control section 117 of the CPU (1) circuit 209 in FIG. A motor for document feeding is driven, and the document 310 is conveyed by the document feed rollers 302 and 303. When the conveyed document 310 reaches the platen roller 311, the light source 306
The image sensor 3 driven by the CCD drive circuit 200 as shown in FIG.
The original image is read by 08, and the CCD video signal 9
Are sequentially processed by the analog circuit 201.
【0028】図8はアナログ回路201のブロック図で
ある。アナログ回路201は、CCDドライブ回路20
0からのCCDビデオ信号9から有効な画像信号を抽出
するサンプルホールド部1と、このサンプルホールド部
1の後段に順に設けられたゲインコントロール部2、ダ
ーク補正部3、オフセットコントロール部4およびアナ
ログ−ディジタル変換(以下、A/D変換と記す。)部
5と、ビデオ(1)回路202からのディジタル−アナ
ログ変換(以下、D/A変換と記す。)データをD/A
変換してゲインコントロール部2およびオフセットコン
トロール部4に対して設定するD/A変換部6とを備え
ている。FIG. 8 is a block diagram of the analog circuit 201. The analog circuit 201 is the CCD drive circuit 20.
A sample and hold unit 1 for extracting an effective image signal from a CCD video signal 9 from 0, a gain control unit 2, a dark correction unit 3, an offset control unit 4, and an analog-unit, which are provided in sequence after the sample and hold unit 1. Digital / analog conversion (hereinafter referred to as D / A conversion) data from the digital conversion (hereinafter referred to as A / D conversion) unit 5 and the video (1) circuit 202 is D / A.
It has a D / A converter 6 which converts and sets the gain controller 2 and the offset controller 4.
【0029】原稿読み込みに先立ち、イメージスキャナ
部220の電源オン時に、プラテンガラス上に図4に示
す基準板312の黒色面313を出してこれを読み取
り、このときの読み取り値が所定の値になるように、オ
フセットコントロール部4のオフセット値をCPU11
1からD/A変換部6に対して自動的に設定しておく
(以下、これを自動オフセット制御:AOCと呼
ぶ。)。次に、プラテンガラス上に図4に示す基準板3
12の白色面314を出してこれを読み取り、このとき
の読み取り値が所定の値になるように、ゲインコントロ
ール部2のゲイン値をCPU111からD/A変換部6
に対して自動的に設定しておく(以下、これを自動利得
制御:AGCと呼ぶ。)。このような調整が予め行われ
ているので、実際の原稿読み取りデータは、飽和するこ
とのない十分なダイナミックレンジを持ったビデオデー
タとなり、A/D変換部5でディジタル化され、画像デ
ータ8として順次ビデオ(1)回路202へ送られてい
く。また、ダーク補正部3は、イメージセンサ308の
シールドビット(遮光画素)の出力信号を用いてイメー
ジセンサ308の暗電流による出力変化を除去する部分
である。Prior to reading the original, when the power of the image scanner unit 220 is turned on, the black surface 313 of the reference plate 312 shown in FIG. 4 is exposed on the platen glass and read, and the read value at this time becomes a predetermined value. As described above, the offset value of the offset control unit 4 is set to the CPU 11
1 to the D / A converter 6 is automatically set (hereinafter, this is referred to as automatic offset control: AOC). Next, on the platen glass, the reference plate 3 shown in FIG.
The white surface 314 of 12 is read and read, and the gain value of the gain control unit 2 is changed from the CPU 111 to the D / A conversion unit 6 so that the read value at this time becomes a predetermined value.
Is automatically set (hereinafter, this is referred to as automatic gain control: AGC). Since such adjustment is performed in advance, the actual document reading data becomes video data having a sufficient dynamic range without being saturated, and is digitized by the A / D conversion unit 5 to obtain the image data 8. The video data is sequentially sent to the video (1) circuit 202. The dark correction unit 3 is a unit that removes an output change due to a dark current of the image sensor 308 by using an output signal of a shield bit (light-shielded pixel) of the image sensor 308.
【0030】図9はビデオ(1)回路202のブロック
図である。ビデオ(1)回路202は、アナログ回路2
01からの画像データ8を入力するCCDギャップ補正
部11と、このCCDギャップ補正部11の後段に順に
設けられたRGBセパレーション部12および暗シェー
ディング補正部13と、上記各部11〜13を制御する
制御部14と、上記各部11〜13にクロックを供給す
るクロック発生部15とを備えている。制御部14はV
MEバス16に接続され、このVMEバス16を介して
アナログ回路201に対してD/A変換データ7を送る
と共に、後段のビデオ(2)回路203に対して制御信
号19を出力するようになっている。また、クロック発
生部15はアナログ回路201に対してドライブクロッ
ク20を送り、このドライブクロック20はアナログ回
路201を経てCCDドライブ回路200に送られるよ
うになっている。FIG. 9 is a block diagram of the video (1) circuit 202. The video (1) circuit 202 is an analog circuit 2
A CCD gap correction unit 11 for inputting image data 8 from 01, an RGB separation unit 12 and a dark shading correction unit 13 which are sequentially provided at a subsequent stage of the CCD gap correction unit 11, and control for controlling the respective units 11 to 13 It includes a unit 14 and a clock generation unit 15 that supplies a clock to each of the units 11 to 13. The control unit 14 is V
It is connected to the ME bus 16 and sends the D / A conversion data 7 to the analog circuit 201 via the VME bus 16 and outputs the control signal 19 to the video (2) circuit 203 in the subsequent stage. ing. The clock generator 15 sends a drive clock 20 to the analog circuit 201, and the drive clock 20 is sent to the CCD drive circuit 200 via the analog circuit 201.
【0031】前述のように、本実施例で使用されている
イメージセンサ308は図5に示すように千鳥状に配列
された5つのチップ321〜325から構成され、2つ
のチップ群がΔxだけずれているため、2つのチップ群
で読み取ったデータを原稿の同一ラインを読み取ったデ
ータに直す処理を行うのがCCDギャップ補正部11で
ある。CCDギャップ補正部11では、具体的にはチッ
プ(2)、(4)322、324で読み取ったデータを
メモリを使って遅延させ、同一ラインの読み取りデータ
に直している。このCCDギャップ補正部11の出力画
素データ列は、図10に示すようにB、G、Rのデータ
がシリアルに並んだものであるが、これを図11(a)
〜(c)に示すようにR、G、Bごとの画素データ列に
直す処理を行うのがRGBセパレーション部12であ
る。このようにR、G、Bに分離された画素データは暗
シェーディング補正部13へ順次送られ、暗シェーディ
ング補正が行われる。暗シェーディング補正は、原稿の
読み取りに先立って、イメージスキャナ部220の電源
オン時にAOC、AGC動作を行った後、黒色面313
を読み取った画像データを各画素ごとにメモリに記憶し
ておき、実際に原稿を読み取ったときの各画素の画像デ
ータから各画素ごとに記憶していた黒色面読み取りデー
タを減算する処理である。このようにして順次ビデオ
(1)回路202で処理された画像データ18はビデオ
(2)回路203に送られる。As described above, the image sensor 308 used in this embodiment is composed of five chips 321 to 325 arranged in a staggered pattern as shown in FIG. 5, and the two chip groups are displaced by Δx. Therefore, the CCD gap correction unit 11 performs a process of converting the data read by the two chips into the data read on the same line of the original. In the CCD gap correction unit 11, specifically, the data read by the chips (2) and (4) 322 and 324 is delayed by using a memory and is converted into read data of the same line. The output pixel data string of the CCD gap correction unit 11 is a series of B, G, and R data, as shown in FIG. 10, which is shown in FIG.
As shown in (c) to (c), the RGB separation unit 12 performs the process of converting the pixel data sequence into R, G, and B. The pixel data separated into R, G, and B in this way is sequentially sent to the dark shading correction unit 13, and dark shading correction is performed. The dark shading correction is performed after the AOC and AGC operations are performed when the power of the image scanner unit 220 is turned on before the reading of the original, and then the black surface 313.
Is a process of storing the read image data in the memory for each pixel, and subtracting the black surface read data stored for each pixel from the image data of each pixel when the document is actually read. The image data 18 thus sequentially processed by the video (1) circuit 202 is sent to the video (2) circuit 203.
【0032】図12はビデオ(2)回路203のブロッ
ク図である。ビデオ(2)回路203は、ビデオ(1)
回路202からの画像データ18を入力する明シェーデ
ィング補正部21と、この明シェーディング補正部21
の後段に順に設けられたRGB位置ずれ補正部22、セ
ンサ位置ずれ補正部24およびデータブロック分割部2
5と、上記各部21〜25を制御する制御部26と、上
記各部21〜25にクロックを供給するクロック発生部
27とを備えている。制御部26はVMEバス16に接
続されていると共に、ビデオ(1)回路202からの制
御信号19を入力し、またカラー回路204に対して制
御信号30を送るようになっている。また、クロック発
生部27は後段の各回路に対して制御用クロック28を
送るようになっている。FIG. 12 is a block diagram of the video (2) circuit 203. The video (2) circuit 203 uses the video (1)
The bright shading correction unit 21 that inputs the image data 18 from the circuit 202, and the bright shading correction unit 21.
RGB misalignment correction unit 22, sensor misalignment correction unit 24, and data block division unit 2 which are sequentially provided in the subsequent stage.
5, a control unit 26 for controlling each of the units 21 to 25, and a clock generation unit 27 for supplying a clock to each of the units 21 to 25. The control unit 26 is connected to the VME bus 16, inputs the control signal 19 from the video (1) circuit 202, and sends the control signal 30 to the color circuit 204. Further, the clock generator 27 sends the control clock 28 to each circuit in the subsequent stage.
【0033】ビデオ(2)回路203に送られてきた画
像データ18は、まず明シェーディング補正部21で明
シェーディング補正が行われる。明シェーディング補正
は、暗シェーディング補正と同様にAOC、AGC動作
後に、白色面314を読み取った画像データを各画素ご
とにメモリに記憶しておき、実際に原稿を読み取ったと
きの各画素の画像データを記憶していた各画素ごとの白
色面読み取りデータで正規化(除算)する処理である。
明シェーディング補正および暗シェーディング補正が行
われた画像データは、光源306の光量分布の影響や各
画素ごとの感度ばらつきの影響のない画像データとな
る。また、CPU111によってAOC、AGCのオフ
セット値、ゲイン値を設定できると共に、明シェーディ
ング補正部21および暗シェーディング補正部13のメ
モリはVMEバス16を介してCPU111から読み書
きできるようになっているため、AOC、AGCおよび
明、暗シェーディング補正のコントロールをCPU11
1が行い得るのである。The image data 18 sent to the video (2) circuit 203 is first subjected to bright shading correction by the bright shading correction section 21. Similar to the dark shading correction, the bright shading correction stores the image data obtained by reading the white surface 314 in the memory for each pixel after the AOC and AGC operations, and the image data of each pixel when the original is actually read. Is a process for normalizing (dividing) with the white surface read data for each pixel stored.
The image data that has been subjected to the light shading correction and the dark shading correction becomes image data that is not affected by the light amount distribution of the light source 306 or the sensitivity variation of each pixel. Further, the offset value and gain value of AOC and AGC can be set by the CPU 111, and the memories of the light shading correction unit 21 and the dark shading correction unit 13 can be read and written by the CPU 111 via the VME bus 16. , AGC and control of bright and dark shading correction by CPU11
One can do it.
【0034】また、本実施例で使用されているイメージ
センサ308は図6に示すようにB、G、Rの画素(受
光部)が主走査方向に並んで配列され、B、G、Rの各
1画素の組み合わせによって読取データにおける1画素
を構成している。このため、このイメージセンサ308
によって原稿を読み取った場合は、B、G、Rの各色ご
とに実際の読み取り位置がずれている。その結果、画像
のエッジ部分では、次段のカラー回路204で色を判断
する場合に誤判断してしまい、いわゆる色ゴーストとな
って再現されてしまう。そこで、B、G、Rの読み取り
位置が同一仮想点となるような補正が必要である。この
補正を行うのがRGB位置ずれ補正部22である。本実
施例におけるRGB位置ずれ補正は、感度の高いGの画
素の位置を基準の位置としての仮想点として、RとBの
仮想点における値を算出するものである。例えば図6に
示すB1〜B3、G1〜G3、R1〜R3の各画素のデ
ータをそれぞれB1 〜B3 、G1 〜G3 、R1 〜R3 と
し、RGB位置ずれ補正後のB1〜B3、G1〜G3、
R1〜R3の各画素のデータをそれぞれB1 ′〜
B 3 ′、G1 ′〜G3 ′、R1 ′〜R3 ′とすると、G
2 ′、B2 ′、R2 ′はそれぞれ以下の式で示す演算に
よって求められる。The image used in this embodiment
The sensor 308, as shown in FIG.
(Light sections) are arranged side by side in the main scanning direction, and each of B, G, and R
1 pixel in read data by combining 1 pixel
Are configured. Therefore, the image sensor 308
If the original is scanned by, each of B, G, and R colors
The actual reading position is deviated. As a result, the image
At the edge part of, the color is judged by the color circuit 204 in the next stage.
If you do, you will make a wrong decision and it will be a so-called color ghost.
Will be reproduced. So, read B, G, R
It is necessary to correct the positions so that they become the same virtual point. this
The RGB misregistration correction unit 22 performs the correction. Real
RGB misregistration correction in the embodiment is performed with a G image with high sensitivity.
Assuming that the prime position is a virtual point as a reference position, R and B
The value at the virtual point is calculated. For example in Figure 6
Denotation of each pixel of B1 to B3, G1 to G3, R1 to R3 shown
B for each1~ B3, G1~ G3, R1~ R3When
Then, B1 to B3, G1 to G3 after the RGB positional deviation correction,
The data of each pixel of R1 to R3 is set to B1′ 〜
B 3′, G1'~ G3′, R1'~ R3’G
2′, B2′, R2′ Is calculated according to the following formula
Therefore, it is required.
【0035】[0035]
【数1】 G2 ′=G2 B2 ′=(2B2 +B3 )/3 R2 ′=(R1 +2R2 )/3## EQU1 ## G 2 ′ = G 2 B 2 ′ = (2B 2 + B 3 ) / 3 R 2 ′ = (R 1 + 2R 2 ) / 3
【0036】この補正を全画素に対して行い、補正の後
のデータを後段の色相判断に用いる。This correction is performed for all pixels, and the corrected data is used for the hue judgment in the subsequent stage.
【0037】ここまでの動作説明は、イメージセンサ3
08が一つであるかのように行ってきたが、前述のよう
に実際は、広巾の原稿を読み取るために3つのイメージ
センサ308を使用している。これら3つのイメージセ
ンサ308は原稿の同一ラインを読み取れるように調整
して取り付けてはいるが、実際には、ずれを生じる。こ
のずれを補正するのがセンサ位置ずれ補正部24であ
る。センサ位置ずれ補正は、CCDギャップ補正と略同
様の考え方で、各センサの画像データをそれぞれメモリ
を使って任意の時間だけ遅らせることで、3つのセンサ
の画像データがそのつなぎ目で原稿上の主走査方向の隣
接画像となるようにするものである。The explanation of the operation up to this point is given in the image sensor 3.
However, as described above, three image sensors 308 are actually used to read a wide original. These three image sensors 308 are adjusted and attached so that the same line of the original can be read, but in reality, a deviation occurs. The sensor position shift correction unit 24 corrects this shift. The sensor position deviation correction is almost the same as the CCD gap correction, and the image data of each sensor is delayed by an arbitrary time by using a memory, so that the image data of the three sensors is main-scanned on the original at the joint. The images are adjacent to each other in the same direction.
【0038】また、高速広巾のディジタル複写機の場
合、画像データを高速で処理する必要があるが、RAM
やディジタル集積回路等は高速動作にも限界がある。そ
こで、センサ位置ずれ補正部24の出力画像データを、
データブロック分割部25で主走査方向に複数のブロッ
クに分割する。ここでは、例えば1つのイメージセンサ
308の出力画像データを2つのブロックに分割し、図
13に示すように原稿310の読み取りデータを計6個
のブロックに分割して、次段ではブロックごとのパラレ
ル処理を行うことになる。このようにしてブロックに分
割された画像データ29は順次カラー回路204に送ら
れる。In the case of a high-speed wide-width digital copying machine, it is necessary to process image data at a high speed.
There is a limit to high-speed operation of digital integrated circuits and the like. Therefore, the output image data of the sensor displacement correction unit 24 is
The data block dividing unit 25 divides the block into a plurality of blocks in the main scanning direction. Here, for example, the output image data of one image sensor 308 is divided into two blocks, and the read data of the original 310 is divided into a total of six blocks as shown in FIG. Will be processed. The image data 29 thus divided into blocks is sequentially sent to the color circuit 204.
【0039】図14はカラー回路204のブロック図で
ある。カラー回路204は、ビデオ(2)回路203か
らの画像データ29を入力する色相判断部41と、この
色相判断部41の後段に順に設けられたゴーストキャン
セル部42、バッファメモリ43、色編集部44および
濃度補正部45と、上記各部41〜45を制御する制御
部46とを備えている。制御部46はVMEバス16に
接続されていると共に、ビデオ(2)回路203からの
制御信号30と、AR回路205からの制御信号49と
を入力し、DF回路206とAR回路205に対してそ
れぞれ制御信号50、51を送るようになっている。FIG. 14 is a block diagram of the color circuit 204. The color circuit 204 includes a hue determination unit 41 that inputs the image data 29 from the video (2) circuit 203, and a ghost cancellation unit 42, a buffer memory 43, and a color editing unit 44 that are sequentially provided at the subsequent stage of the hue determination unit 41. And a density correction unit 45, and a control unit 46 for controlling the above units 41 to 45. The control unit 46 is connected to the VME bus 16 and inputs the control signal 30 from the video (2) circuit 203 and the control signal 49 from the AR circuit 205 to the DF circuit 206 and the AR circuit 205. Control signals 50 and 51 are sent respectively.
【0040】カラー回路204に入力される画像データ
29は、R、G、Bのカラー画像信号であり、色相判断
部41にて原稿上の画像の色を判断しコード化したカラ
ーコード信号と入力濃度データとが生成される。The image data 29 input to the color circuit 204 are R, G, and B color image signals, and the hue determining unit 41 determines the color of the image on the original and inputs the coded color code signal. Density data and are generated.
【0041】ここで、色相判断部41について詳しく説
明する。従来、R、G、Bデータからカラーコードと濃
度を決定する場合には、例えば、R、G、Bデータの演
算によって色相(H)、彩度(C)、明度(V)を求
め、色相と彩度の組み合わせによってカラーコードを決
定し、明度によって濃度を決定していた。色相と彩度を
求める演算には、図15に示すような、R−B軸とR−
G軸によって表わされた極座標を用いる。彩度(C)は
この極座標系における座標(R−B、R−G)の中心R
−B=0、R−G=0からの距離によって決定され、C
が小さい程彩度が低く、Cが大きい程彩度が高くなる。
また、色相(H)は座標(R−B、R−G)と中心
(0、0)を結ぶ線のR−B軸に対する角度によって決
定され、Hの大きさによって画像の色が決まる。具体的
には、彩度(C)と色相(H)は以下の式によって求め
られる。なお、以下の式におけるR、G、Bはそれぞれ
各色ごとの濃度データとする。Here, the hue judging section 41 will be described in detail. Conventionally, when determining the color code and the density from the R, G, B data, for example, the hue (H), the saturation (C), and the lightness (V) are obtained by calculating the R, G, B data. The color code was determined by the combination of the and saturation, and the density was determined by the lightness. To calculate the hue and saturation, the R-B axis and the R-B as shown in FIG.
The polar coordinates represented by the G axis are used. The saturation (C) is the center R of the coordinates (RB, RG) in this polar coordinate system.
-B = 0, determined by the distance from RG = 0, C
Is smaller, the saturation is lower, and as C is larger, the saturation is higher.
The hue (H) is determined by the angle of the line connecting the coordinates (RB, RG) and the center (0, 0) with respect to the RB axis, and the size of H determines the color of the image. Specifically, the saturation (C) and the hue (H) are calculated by the following formulas. Note that R, G, and B in the following equations are density data for each color.
【0042】[0042]
【数2】 C=√{(R−B)2 +(R−G)2 } … H=tan-1{(R−G)/(R−B)}…[Equation 2] C = √ {(R−B) 2 + (R−G) 2 } ... H = tan −1 {(R−G) / (R−B)}
【0043】彩度の低い色は、白または黒、つまり無彩
色とされる。色によっては無彩色である範囲が異なる。
つまり、HとCの組み合わせによって無彩色であるの
か、有彩色であるのかが決まる。その上で、各画素に対
してカラーコードへの変換を行う。無彩色は白と黒の両
方を含み、その画素が白であるのか黒であるのかは濃度
によって決まる。その濃度は明度(V)によって決ま
る。画素の明度はR、G、Bの濃度のバランスによって
決めるのだが、R、G、Bの分光感度の特性に合わせ
て、以下の式に示すように重み付けをして算出する。Colors with low saturation are white or black, that is, achromatic. The range of achromatic colors differs depending on the color.
In other words, the combination of H and C determines whether the color is achromatic or chromatic. Then, each pixel is converted into a color code. The achromatic color includes both white and black, and whether the pixel is white or black depends on the density. The density depends on the brightness (V). Although the brightness of a pixel is determined by the balance of the densities of R, G, and B, it is calculated by weighting as shown in the following formula in accordance with the characteristics of the spectral sensitivity of R, G, and B.
【0044】[0044]
【数3】V=aG+bR+cB[Formula 3] V = aG + bR + cB
【0045】この式によって明度Vを算出するために
は、R、G、Bの各濃度に係数を乗算した後に加算を行
わなければならないので演算のための回路規模が大きく
なってしまう。In order to calculate the lightness V by this equation, it is necessary to multiply the respective densities of R, G and B by a coefficient and then add them, so that the circuit scale for calculation becomes large.
【0046】そこで、本実施例では、イメージセンサの
Gの分光感度が人間の比視感度に近く、またGの分光感
度が広いことから、Gデータによって明度を決定するよ
うにしている。つまり、上記の式において、a=1.
0、b=0、c=0とする。実際の原稿上の色は大部分
がかなりG成分を含んでいるため、このようにGデータ
のみによって明度を決定しても、人間の感覚では実際の
明度との間でさほど差は感じられない。それでも、色に
よってはGデータのみによって決定した明度と実際の明
度とに差があるので、本実施例では後段の濃度補正部4
5において色ごとの濃度のバランスを調整するようにし
ている。Therefore, in the present embodiment, since the G spectral sensitivity of the image sensor is close to the human visual acuity and the G spectral sensitivity is wide, the lightness is determined by the G data. That is, in the above equation, a = 1.
0, b = 0, and c = 0. Most of the colors on the actual manuscript contain a large amount of G component, so even if the brightness is determined only by the G data in this way, the human sense does not feel much difference from the actual brightness. . Nevertheless, depending on the color, there is a difference between the lightness determined only by the G data and the actual lightness, so in the present embodiment, the density correction unit 4 in the subsequent stage is
5, the density balance for each color is adjusted.
【0047】図16は本実施例における色相判断部41
の構成を示すブロック図である。この図に示す色相判断
部41は、RデータからBデータを減算する減算器40
1と、RデータからGデータを減算する減算器402
と、減算器401、402によって得られたR−B、R
−Gの両データをアドレス入力してカラーコードを出力
するRAM403とを備えている。この色相判断部41
には、図12のRGB位置ずれ補正部22によってRG
B位置ずれ補正を行った後のR、G、Bの各データが入
力される。そして、減算器401、402によって、そ
れぞれR−B、R−Gが求められ、この両データからR
AM403によってカラーコード404が生成される。
また、この色相判断部41に入力されるGデータはその
まま入力濃度データ405として出力される。FIG. 16 shows the hue judging section 41 in this embodiment.
3 is a block diagram showing the configuration of FIG. The hue determination unit 41 shown in this figure is a subtractor 40 that subtracts B data from R data.
1 and a subtractor 402 for subtracting G data from R data
And RB and R obtained by the subtractors 401 and 402
A RAM 403 for inputting both data of -G and outputting a color code is provided. This hue determination unit 41
RG by the RGB misregistration correction unit 22 of FIG.
The R, G, and B data after the B position shift correction is performed are input. Then, subtracters 401 and 402 respectively obtain RB and RG, and R is calculated from these data.
The color code 404 is generated by the AM 403.
Further, the G data input to the hue determination unit 41 is output as it is as the input density data 405.
【0048】図17は図16のRAM403の機能を示
す機能ブロック図である。この図に示すようにRAM4
03は、減算器401、402によって得られたR−
B、R−Gの両データから式により色相Hを求める色
相演算手段411と、同じくR−B、R−Gの両データ
から式により彩度Cを求める彩度演算手段412と、
この色相演算手段411および彩度演算手段412によ
って得られたH、Cよりカラーコード404を生成する
カラーコード生成手段413の3つの機能を有してい
る。FIG. 17 is a functional block diagram showing functions of the RAM 403 of FIG. RAM4 as shown in this figure
03 is the R- obtained by the subtracters 401 and 402.
A hue calculation unit 411 that obtains a hue H from both B and R-G data by an equation; and a saturation calculation unit 412 that similarly obtains a saturation C from both R-B and R-G data by an equation.
It has three functions of a color code generation means 413 for generating a color code 404 from H and C obtained by the hue calculation means 411 and the saturation calculation means 412.
【0049】図14に示すように、色相判断部41の次
段のゴーストキャンセル部42は、色相判断部41で生
成されたカラーコードの補正を行うものである。これ
は、ビデオ(2)回路203のRGB位置ずれ補正の結
果、例えば原稿上の黒画像のエッジ部等で誤った色相判
断がなされ、無彩色以外のカラーコードを発生する場合
があるので、このカラーコードを無彩色のカラーコード
に直す処理である。この誤ったカラーコードのことをゴ
ーストと称し、ゴーストが発生したときのカラーコード
の変化パターンが予め分かっているので、このパターン
が一致したときにカラーコードを無彩色に直すようにし
ている。以下、このゴーストキャンセル部42で補正さ
れた後のカラーコードを入力色カラーコードという。As shown in FIG. 14, the ghost canceling section 42 at the next stage of the hue judging section 41 corrects the color code generated by the hue judging section 41. This is because, as a result of the RGB misregistration correction of the video (2) circuit 203, for example, an erroneous hue determination may be made at the edge portion of the black image on the document, and a color code other than the achromatic color may be generated. This is a process for converting a color code into an achromatic color code. This erroneous color code is called a ghost, and the change pattern of the color code when the ghost occurs is known in advance. Therefore, when the pattern matches, the color code is corrected to an achromatic color. Hereinafter, the color code corrected by the ghost cancel unit 42 will be referred to as an input color code.
【0050】このようにして生成された入力濃度データ
および入力色カラーコードは、順次バッファメモリ43
に格納されていく。一方、入力色カラーコード47はA
R回路205に送られる。本実施例では、マーカーペン
を用いて原稿上に書かれたマーカーで囲まれた領域に対
して種々の編集をリアルタイムで行うことができるよう
になっており、このマーカーで囲まれた領域を検出する
のがAR回路205である。The input density data and the input color code thus generated are sequentially stored in the buffer memory 43.
Will be stored in. On the other hand, the input color code 47 is A
It is sent to the R circuit 205. In this embodiment, various edits can be performed in real time on a region surrounded by a marker written on a document using a marker pen, and the region surrounded by the marker is detected. The AR circuit 205 does this.
【0051】ここで、AR回路205の説明を行った後
に、カラー回路204の残りの部分について説明する。After the AR circuit 205 has been described, the rest of the color circuit 204 will be described.
【0052】図19はAR回路205のブロック図であ
る。AR回路205は、カラー回路204からの入力色
カラーコード47を入力するマーカーフラグ生成部61
と、このマーカーフラグ生成部61の後段に順に設けら
れたパラレル−シリアル変換(以下、PS変換と記
す。)部62、領域認識部63およびシリアル−パラレ
ル変換(以下、SP変換と記す。)部64と、上記各部
61〜64を制御する制御部65とを備えている。制御
部65はVMEバス16に接続されていると共に、カラ
ー回路204からの制御信号51を入力し、カラー回路
204に対して制御信号49を送るようになっている。FIG. 19 is a block diagram of the AR circuit 205. The AR circuit 205 includes a marker flag generation unit 61 that inputs the input color code 47 from the color circuit 204.
And a parallel-serial conversion (hereinafter, referred to as PS conversion) unit 62, a region recognition unit 63, and a serial-parallel conversion (hereinafter, referred to as SP conversion) unit which are sequentially provided in the subsequent stage of the marker flag generation unit 61. 64 and a control unit 65 that controls the above-mentioned units 61 to 64. The control unit 65 is connected to the VME bus 16, inputs the control signal 51 from the color circuit 204, and sends the control signal 49 to the color circuit 204.
【0053】カラー回路204から順次送られてきた入
力色カラーコード47は、各ブロックごとの信号になっ
ている。まず、マーカーフラグ生成部61では、入力色
カラーコードからマーカーの画像であるか否かを判断
し、マーカーの画像である場合にマーカーフラグを生成
する。次に、ブロック処理されたマーカーフラグを1ラ
インの信号に直すのがPS変換部62である。このよう
にして得られた1ラインのマーカーフラグからマーカー
で囲まれた領域を認識するのが領域認識部63であり、
ここで領域内を示す領域信号が生成される。この生成さ
れた領域信号はSP変換部64で再び各ブロックごとに
分割され、領域信号48として順次カラー回路204の
色編集部44に出力される。カラー回路204において
バッファメモリ43が設けられている理由は、AR回路
204で領域を認識するのに時間がかかるため、この間
入力色カラーコードと入力濃度データを記憶しておきA
R回路204からの領域信号48とタイミングを合わせ
るためである。The input color code 47 sequentially sent from the color circuit 204 is a signal for each block. First, the marker flag generation unit 61 determines from the input color code whether or not it is a marker image, and when it is a marker image, generates a marker flag. Next, the PS converter 62 converts the marker flag subjected to block processing into a signal of one line. The area recognition unit 63 recognizes the area surrounded by the markers from the thus obtained one-line marker flag.
Here, a region signal indicating the inside of the region is generated. The generated area signal is again divided into each block by the SP conversion unit 64, and is sequentially output as the area signal 48 to the color editing unit 44 of the color circuit 204. The reason why the buffer memory 43 is provided in the color circuit 204 is that it takes time for the AR circuit 204 to recognize the area. Therefore, the input color code and the input density data are stored during this period.
This is to match the timing with the area signal 48 from the R circuit 204.
【0054】ここで、図14のカラー回路204の説明
に戻る。AR回路205から出力されたブロック分割さ
れた領域信号48は色編集部44に入力され、制御信号
49は制御部46に入力される。制御部46は、領域信
号48と同期して対応する画素の入力濃度データと入力
色カラーコードをバッファメモリ43から読み出し、色
編集部44に送る。この色編集部44では、領域信号4
8によって指定される領域内または領域外に対して、あ
るいは全領域に対して以下のような処理を行う。すなわ
ち、本実施例の複写機は2色複写機であり、サブカラー
フラグによって原稿上のどの色を2色のうちのどちらの
色でプリントするかの指定ができるようになっている。
例えば入力色の青を赤色で出力させたり、マーカによっ
て閉ループを描き、このループの内側にある画像はどん
な色であっても黒で出力するといった処理が可能であ
る。また、ドロップカラーフラグによって原稿上のどの
色の画像を消すか等の指定もできるようになっている。
この機能により、例えばマーカーは不必要なので暗黙的
に消される。また、BKGイネーブルフラグによって次
段で行う地肌除去を領域内、外について行うか否かの指
定もできる。これらのフラグの生成を行うのが色編集部
44である。この色編集部44からは、上記のサブカラ
ーフラグ、ドロップカラーフラグ、BKGイネーブルフ
ラグの他、入力色カラーコードと入力濃度データとが出
力される。Here, the description returns to the color circuit 204 in FIG. The block-divided area signal 48 output from the AR circuit 205 is input to the color editing unit 44, and the control signal 49 is input to the control unit 46. The control section 46 reads the input density data and the input color code of the corresponding pixel in synchronization with the area signal 48 from the buffer memory 43 and sends them to the color editing section 44. In the color editing unit 44, the area signal 4
The following processing is performed on the inside or outside of the area designated by 8, or on the entire area. That is, the copying machine of the present embodiment is a two-color copying machine, and it is possible to specify which color on the original is printed by which color of the two colors by the sub color flag.
For example, the input color blue can be output in red, or a closed loop can be drawn by a marker and the image inside this loop can be output in black regardless of the color. Further, the drop color flag can be used to specify which color image on the document should be erased.
With this function, for example, a marker is not necessary and is implicitly deleted. In addition, it is possible to specify whether or not the background removal to be performed in the next stage is performed on the inside and outside of the area by the BKG enable flag. The color editing unit 44 generates these flags. The color editing unit 44 outputs the input color code and the input density data in addition to the sub color flag, the drop color flag, and the BKG enable flag.
【0055】このようにして生成されたフラグと入力濃
度データおよび入力色カラーコードは、順次濃度補正部
45に送られる。濃度補正部45はドロップカラーフラ
グの立っている画素の濃度データを白にしたり(消した
り)、原稿上の色ごとに(入力色カラーコードごとに)
独立した濃度調整ができるようにするためのものであ
る。この濃度補正部45は、図18に示すように、色編
集部44からの入力色カラーコード451とサブカラー
フラグ452および入力濃度データ453をアドレス入
力として、サブカラーフラグ452と補正された濃度デ
ータである出力濃度データ455とを出力するルックア
ップテーブルとして機能するRAM450を有してい
る。この濃度補正部45は、入力色カラーコード451
によって決まる入力色とサブカラーフラグ452によっ
て決まる出力色の組み合わせによって、入力濃度データ
453に対する出力濃度データ455を決める。この濃
度補正部45によって、入力色の赤を赤で出力する場合
に濃く出力するといった処理を行う。The flag, the input density data, and the input color code generated in this manner are sequentially sent to the density correcting section 45. The density correction unit 45 whitens (erases) the density data of pixels for which the drop color flag is set, or for each color on the document (for each input color code).
This is to enable independent density adjustment. As shown in FIG. 18, the density correction unit 45 uses the input color code 451 from the color editing unit 44, the sub color flag 452, and the input density data 453 as address inputs, and the sub color flag 452 and the corrected density data. It has a RAM 450 that functions as a lookup table that outputs the output density data 455. The density correction unit 45 uses the input color code 451.
The output density data 455 corresponding to the input density data 453 is determined by the combination of the input color determined by the sub color flag 452 and the output color determined by the sub color flag 452. The density correction unit 45 performs processing such that when the input color red is output in red, it is output darkly.
【0056】本実施例では、この濃度補正部45を利用
して、入力濃度データをGデータのみによって決定する
ことによって生じる色ごとの濃度バランスの変化を補正
することができる。すなわち、RAM450に、入力色
カラーコード451によって決まる入力色ごとに、入力
濃度データに対する出力濃度データを設定することによ
って上記補正を実現することができる。この補正によっ
て、特にN色カラーで出力する装置においては、充分な
補正効果が得られ、違和感のない出力が得られるため
に、濃度データをR、G、Bデータから求める必要がな
くなり、回路規模の縮小が可能となる。なお、RAM4
50の内容は設定が変更されるごとに、図7に示すCP
U(1)回路209内のCPU111によってロードさ
れる。In the present embodiment, the density correction section 45 can be used to correct the change in the density balance for each color caused by determining the input density data only by the G data. That is, the correction can be realized by setting the output density data corresponding to the input density data in the RAM 450 for each input color determined by the input color code 451. With this correction, especially in a device that outputs in N colors, a sufficient correction effect is obtained and an output without discomfort is obtained, so that it is not necessary to obtain density data from R, G, B data, and the circuit scale is reduced. Can be reduced. RAM4
The content of 50 is the CP shown in FIG. 7 every time the setting is changed.
It is loaded by the CPU 111 in the U (1) circuit 209.
【0057】このようにして処理されたサブカラーフラ
グ、BKGイネーブルフラグ、領域信号、出力濃度デー
タ等の出力52は順次図1のDF回路206に送られ
る。The output 52 of the sub color flag, the BKG enable flag, the area signal, the output density data, etc. processed in this way is sequentially sent to the DF circuit 206 of FIG.
【0058】DF回路206では、BKGイネーブルフ
ラグの立っている部分の原稿の地肌部を白くする処理
や、選択されている画像モードに応じてディジタルフィ
ルタによってエッジ強調やスムージング等の処理を行な
い、また、スムージング処理によって画像エッジ部の地
肌濃度が持ち上がった場合に、その持ち上がった地肌画
素のサブカラーフラグを画像部のサブカラーフラグと同
じにする補正を行う。こうして処理されたサブカラーフ
ラグ、濃度データ、領域フラグおよびBKGフラグ等の
出力は順次HTP回路207に送られる。The DF circuit 206 whitens the background portion of the document where the BKG enable flag is set, and performs edge enhancement and smoothing processing by a digital filter according to the selected image mode. When the background density of the image edge portion is raised by the smoothing processing, correction is performed to make the sub color flag of the raised background pixel the same as the sub color flag of the image portion. The outputs of the sub color flag, the density data, the area flag, the BKG flag, etc. processed in this way are sequentially sent to the HTP circuit 207.
【0059】HTP回路207では、画像の縮拡大や、
濃度調整や、多値画像データを面積階調をとった4値化
データに変換する中間調処理等を行う。また、このHT
P回路207に接続されたEDIT回路208では、H
TP回路207からデータを受け、種々の編集を行うた
めの矩形領域を認識したり、鏡像編集処理や、白と黒を
反転させる処理や、あみかけ編集等を行ったデータをH
TP回路207に返す処理を行う。The HTP circuit 207 reduces or enlarges an image,
Density adjustment and halftone processing for converting multi-valued image data into four-valued data having area gradation are performed. Also, this HT
In the EDIT circuit 208 connected to the P circuit 207,
Receiving data from the TP circuit 207, recognizing a rectangular area for various kinds of editing, mirror image editing processing, processing of inverting black and white, and data subjected to dummy editing
Processing for returning to the TP circuit 207 is performed.
【0060】HTP回路207の出力データは図1に示
すように画像処理部214外のデータ処理回路210に
順次送られる。The output data of the HTP circuit 207 is sequentially sent to the data processing circuit 210 outside the image processing unit 214 as shown in FIG.
【0061】図1において、データ処理回路210は、
HTP回路207から送られてきた画像データをページ
メモリ回路212に送り、このページメモリ回路212
内のページメモリに記憶する。このようにして原稿を全
て読み終えたら、CPU(1)回路209のCPU11
1は、制御データ線120を通してCPU(2)回路2
11のCPUに情報を送る。すると、CPU(2)回路
211のCPUは、制御データ線237を通してプリン
ト部221の制御部236に用紙の搬送とページメモリ
内に画像データが記憶されていることを連絡する。In FIG. 1, the data processing circuit 210 is
The image data sent from the HTP circuit 207 is sent to the page memory circuit 212.
It is stored in the page memory inside. When all the originals have been read in this way, the CPU 11 of the CPU (1) circuit 209
1 is the CPU (2) circuit 2 through the control data line 120
11 sends information to the CPU. Then, the CPU of the CPU (2) circuit 211 informs the control unit 236 of the printing unit 221 through the control data line 237 that the paper is conveyed and that the image data is stored in the page memory.
【0062】図2において、プリント部221の制御部
236は所定の用紙を搬送すると共に、制御信号238
によってデータ処理回路210からページメモリ内の画
像データ215を所定のタイミングで読み出す。読み出
された画像データ215はデータ分離部231に送られ
る。データ分離部231はサブカラーフラグによって濃
度データを振り分ける機能を持っており、例えばサブカ
ラーフラグが“0”のときは濃度データを第1色画像デ
ータメモリ232に送り、第2色画像データメモリ23
4には白データを送る。また、サブカラーフラグが
“1”のときは濃度データを第2色画像データメモリ2
34に送り、第1色画像データメモリ232には白デー
タを送る。プリント部221はゼログラフィ技術を用い
てプリントするものであり、チャージコロトロン、現像
器等は第1色用と第2色用の2つを持っており、感光体
(ドラム)上の2色画像を用紙に同時に転写し、定着を
行うものである。そして、露光用の半導体レーザは、第
1色用と第2色用をそれぞれ設け、これを画像データを
基に駆動制御するのが、第1色レーザ駆動部233およ
び第2色レーザ駆動部235である。In FIG. 2, the control unit 236 of the printing unit 221 conveys a predetermined sheet of paper and controls the control signal 238.
Then, the image data 215 in the page memory is read from the data processing circuit 210 at a predetermined timing. The read image data 215 is sent to the data separation unit 231. The data separation unit 231 has a function of distributing the density data by the sub color flag. For example, when the sub color flag is “0”, the density data is sent to the first color image data memory 232 and the second color image data memory 23.
White data is sent to 4. When the sub color flag is "1", the density data is stored in the second color image data memory 2
34, and the white data is sent to the first color image data memory 232. The printing unit 221 prints by using the xerography technique, and the charge corotron, the developing device, and the like have two for the first color and the second color, and the two colors on the photoconductor (drum). The image is transferred onto paper at the same time and fixed. The semiconductor lasers for exposure are provided for each of the first color and the second color, and the driving control of these for each of the first color laser drive section 233 and the second color laser drive section 235. Is.
【0063】以上説明したように本実施例によれば、色
相判断部41においてGデータのみによって濃度データ
を決定し、かつ濃度補正部45において色ごとの濃度バ
ランスの変化を補正するようにしたので、前述のよう
に、濃度データをR、G、Bデータから求める必要がな
くなり、回路規模の縮小および処理時間の短縮が可能と
なる。As described above, according to the present embodiment, the hue judging section 41 determines the density data only by the G data, and the density correcting section 45 corrects the change in the density balance for each color. As described above, it is not necessary to obtain the density data from the R, G, B data, and the circuit scale and the processing time can be reduced.
【0064】また、本実施例では、R、G、Bの各受光
部が主走査方向に並んで配置されたイメージセンサ30
8を使用し、読取色の誤判断を防止するために図12の
RGB位置ずれ補正部22において、RとBのデータに
ついては複数の画素のデータの演算によって求められた
データを後段の処理に使用する。この補正後のデータを
使って濃度を求めると、複数画素のデータによって1画
素分の濃度を求めることになり、イメージセンサの本来
持っている解像度を得ることができなくなる。そこで、
本実施例では、複数画素の演算結果を使用しないGデー
タのみによって濃度を決定するようにしたので、読取色
の誤判断を防止できると共に、解像度の向上を図ること
ができる。従って、回路規模の縮小と解像度の向上を両
立させることができる。Further, in the present embodiment, the image sensor 30 in which the respective R, G and B light receiving portions are arranged side by side in the main scanning direction.
In order to prevent erroneous determination of the read color, the RGB misregistration correction unit 22 of FIG. 12 uses the data obtained by calculating the data of a plurality of pixels for the R and B data in the subsequent process. use. If the density is calculated using the corrected data, the density of one pixel is calculated from the data of a plurality of pixels, and the original resolution of the image sensor cannot be obtained. Therefore,
In the present embodiment, the density is determined only by the G data that does not use the calculation result of a plurality of pixels, so that it is possible to prevent erroneous determination of the read color and improve the resolution. Therefore, it is possible to reduce the circuit scale and improve the resolution at the same time.
【0065】なお、本発明は上記実施例に限定されず、
例えば図16のRAM403、図18のRAM450の
機能をROMまたは論理回路で実現しても良い。The present invention is not limited to the above embodiment,
For example, the functions of the RAM 403 of FIG. 16 and the RAM 450 of FIG. 18 may be realized by a ROM or a logic circuit.
【0066】また、3原色はR、G、Bに限らず補色系
等であっても良い。The three primary colors are not limited to R, G and B, but may be complementary colors.
【0067】[0067]
【発明の効果】以上説明したように請求項1ないし3記
載の発明によれば、3原色データのうちの1色のデータ
を用いて画素ごとの濃度情報を生成し、3原色データを
用いて画素ごとの色情報を生成すると共に、この濃度情
報を色情報に基づいて色別に補正するようにしたので、
読取データから濃度情報を生成する場合における回路規
模の縮小および処理時間の短縮が可能になるという効果
がある。As described above, according to the inventions of claims 1 to 3, the density information for each pixel is generated by using the data of one color among the data of three primary colors, and the data of the three primary colors is used. Since the color information for each pixel is generated and the density information is corrected for each color based on the color information,
It is possible to reduce the circuit scale and the processing time when the density information is generated from the read data.
【0068】また請求項4または5記載の発明によれ
ば、3原色の各受光部が主走査方向に並んで配置された
イメージセンサを使用して読取データを得ると共に、こ
の読取データに対して各色の受光部のずれを補正する処
理を行う場合において、この補正における読取位置の基
準となる1色のデータを用いて画素ごとの濃度情報を生
成するようにしたので、解像度を向上することができる
という効果がある。According to the invention of claim 4 or 5, read data is obtained by using an image sensor in which the light receiving portions of the three primary colors are arranged side by side in the main scanning direction. When the process of correcting the deviation of the light receiving portion of each color is performed, the density information for each pixel is generated by using the data of one color which is the reference of the reading position in this correction, so that the resolution can be improved. The effect is that you can do it.
【図1】 本発明の一実施例におけるイメージスキャナ
部の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an image scanner unit according to an embodiment of the present invention.
【図2】 一実施例におけるプリント部の構成を示すブ
ロック図である。FIG. 2 is a block diagram illustrating a configuration of a printing unit according to an embodiment.
【図3】 一実施例におけるイメージスキャナ部の断面
の一部を示す説明図である。FIG. 3 is an explanatory diagram showing a part of a cross section of an image scanner unit according to an embodiment.
【図4】 図3の基準板の一部を示す斜視図である。FIG. 4 is a perspective view showing a part of the reference plate of FIG.
【図5】 図3のイメージセンサの平面図である。5 is a plan view of the image sensor of FIG.
【図6】 図5のイメージセンサの一つのチップの画素
配列を示す説明図である。6 is an explanatory view showing a pixel array of one chip of the image sensor of FIG.
【図7】 図1のCPU(1)回路のブロック図であ
る。7 is a block diagram of a CPU (1) circuit of FIG. 1. FIG.
【図8】 図1のアナログ回路のブロック図である。FIG. 8 is a block diagram of the analog circuit of FIG.
【図9】 図1のビデオ(1)回路のブロック図であ
る。9 is a block diagram of the video (1) circuit of FIG. 1. FIG.
【図10】 図9のCCDギャップ補正部の出力画像デ
ータ列を示す説明図である。FIG. 10 is an explanatory diagram showing an output image data string of the CCD gap correction unit in FIG.
【図11】 図9のRGBセパレーション部の出力画像
データ列を示す説明図である。11 is an explanatory diagram showing an output image data string of the RGB separation unit in FIG.
【図12】 図1のビデオ(2)回路のブロック図であ
る。12 is a block diagram of the video (2) circuit of FIG. 1. FIG.
【図13】 図12のデータブロック分割部によって分
割されたブロックを示す説明図である。FIG. 13 is an explanatory diagram showing blocks divided by a data block division unit of FIG. 12.
【図14】 図1のカラー回路のブロック図である。FIG. 14 is a block diagram of the color circuit of FIG.
【図15】 色相および彩度の求め方を説明するための
極座標系を示す説明図である。FIG. 15 is an explanatory diagram showing a polar coordinate system for explaining how to obtain hue and saturation.
【図16】 図14の色相判断部の構成を示すブロック
図である。16 is a block diagram showing a configuration of a hue determination unit of FIG.
【図17】 図16のRAM403の機能を示す機能ブ
ロック図である。17 is a functional block diagram showing functions of the RAM 403 of FIG.
【図18】 図14の濃度補正部を示すブロック図であ
る。FIG. 18 is a block diagram showing the density correction unit of FIG.
【図19】 図1のAR回路のブロック図である。FIG. 19 is a block diagram of the AR circuit of FIG.
【図20】 R、G、Bの各読み取り位置が同一仮想点
となるような補正を説明するための説明図である。FIG. 20 is an explanatory diagram for explaining correction such that each reading position of R, G, and B becomes the same virtual point.
41…色相判断部、45…濃度補正部、220…イメー
ジスキャナ部、308…イメージセンサ41 ... Hue judgment section, 45 ... Density correction section, 220 ... Image scanner section, 308 ... Image sensor
Claims (5)
タを得る読取手段と、 この読取手段によって得られた3原色データのうちの1
色のデータを用いて画素ごとの濃度情報を生成する濃度
情報生成手段と、 前記読取手段によって得られた3原色データを用いて画
素ごとの色情報を生成する色情報生成手段と、 前記濃度情報生成手段によって生成された濃度情報を、
前記色情報生成手段によって生成された色情報に基づい
て色別に補正する濃度補正手段とを具備することを特徴
とする画像読取装置。1. A reading means for reading an original to obtain three primary color data for each pixel, and one of the three primary color data obtained by the reading means.
Density information generating means for generating density information for each pixel using color data; color information generating means for generating color information for each pixel using the three primary color data obtained by the reading means; The concentration information generated by the generation means,
An image reading apparatus comprising: a density correction unit that corrects each color based on the color information generated by the color information generation unit.
部が主走査方向に並んで配置されたイメージセンサを有
することを特徴とする請求項1記載の画像読取装置。2. The image reading apparatus according to claim 1, wherein the reading unit has an image sensor in which light receiving portions for each of the three primary colors are arranged side by side in the main scanning direction.
緑、青の3原色のデータを得るものであり、前記濃度補
正手段は緑のデータを用いて濃度情報を生成するもので
あることを特徴とする請求項1または2記載の画像読取
装置。3. The reading means uses red as three primary color data,
3. The image reading apparatus according to claim 1, wherein data for three primary colors of green and blue are obtained, and the density correction means is for generating density information by using green data.
に並んで配置されたイメージセンサを用いて原稿を読み
取って画素ごとの3原色データを得る読取手段と、 3原色のうちの1色の読取位置を基準とし、この基準の
読取位置に他の2色の読取位置を仮想的に一致させるた
めに、他の2色の画素ごとのデータを、その色について
の複数の画素のデータを用いた演算によって補正する位
置ずれ補正手段と、 この位置ずれ補正手段における読取位置の基準となる1
色のデータを用いて画素ごとの濃度情報を生成する濃度
情報生成手段と、 前記位置ずれ補正手段によって補正された後の3原色デ
ータを用いて画素ごとの色情報を生成する色情報生成手
段と、 前記濃度情報生成手段によって生成された濃度情報を、
前記色情報生成手段によって生成された色情報に基づい
て色別に補正する濃度補正手段とを具備することを特徴
とする画像読取装置。4. A reading means for reading a document by using an image sensor in which light receiving portions for each of the three primary colors are arranged side by side in the main scanning direction to obtain three primary color data for each pixel, and one of the three primary colors. In order to virtually match the reading positions of the other two colors with the reference reading position of the color as the reference, the data for each pixel of the other two colors is converted into the data of a plurality of pixels for that color. A position deviation correcting unit that corrects the position by a calculation using, and a reference of a reading position in the position deviation correcting unit 1
Density information generation means for generating density information for each pixel using color data, and color information generation means for generating color information for each pixel using the three primary color data corrected by the positional deviation correction means , The density information generated by the density information generating means,
An image reading apparatus comprising: a density correction unit that corrects each color based on the color information generated by the color information generation unit.
緑、青の3原色のデータを得るものであり、前記位置ず
れ補正手段は緑の読取位置を基準として他の2色のデー
タを補正するものであり、前記濃度補正手段は緑のデー
タを用いて濃度情報を生成するものであることを特徴と
する請求項4記載の画像読取装置。5. The reading means uses red as three primary color data,
Data for the three primary colors of green and blue are obtained, the positional deviation correction means corrects data for the other two colors with the green reading position as a reference, and the density correction means uses green data. The image reading apparatus according to claim 4, wherein the image reading apparatus is configured to generate density information by using the image reading apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17420392A JP3185376B2 (en) | 1992-07-01 | 1992-07-01 | Image reading device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17420392A JP3185376B2 (en) | 1992-07-01 | 1992-07-01 | Image reading device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0622126A true JPH0622126A (en) | 1994-01-28 |
JP3185376B2 JP3185376B2 (en) | 2001-07-09 |
Family
ID=15974529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP17420392A Expired - Fee Related JP3185376B2 (en) | 1992-07-01 | 1992-07-01 | Image reading device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3185376B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007034471A (en) * | 2005-07-25 | 2007-02-08 | Noritsu Koki Co Ltd | Method, program and module for generating correction characteristic used for contrast correction |
JP2008042309A (en) * | 2006-08-02 | 2008-02-21 | Kyocera Mita Corp | Apparatus and method for classifying color, and image- forming device |
-
1992
- 1992-07-01 JP JP17420392A patent/JP3185376B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007034471A (en) * | 2005-07-25 | 2007-02-08 | Noritsu Koki Co Ltd | Method, program and module for generating correction characteristic used for contrast correction |
JP2008042309A (en) * | 2006-08-02 | 2008-02-21 | Kyocera Mita Corp | Apparatus and method for classifying color, and image- forming device |
Also Published As
Publication number | Publication date |
---|---|
JP3185376B2 (en) | 2001-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4158332B2 (en) | Color image processing device | |
JP3256982B2 (en) | Image processing device | |
EP0562596B1 (en) | Color image processing method and apparatus thereof | |
US5289296A (en) | Color image processing apparatus and method | |
JP3028653B2 (en) | Image processing device frame erasing method | |
JPH07101916B2 (en) | Color image editing device | |
US5576847A (en) | Image processing system | |
US6222949B1 (en) | Image forming apparatus that can make desired continuous enlargement copy | |
JP2998278B2 (en) | Mono-color editing method and apparatus in color image recording apparatus | |
JPH0646255A (en) | Picture processing unit | |
JPH0686061A (en) | Area control system in picture processor | |
JPH05161025A (en) | Pattern generating system for color picture processing unit | |
JPH064661A (en) | Image processor | |
JP3185376B2 (en) | Image reading device | |
JP3618776B2 (en) | Image processing apparatus and method | |
US5805295A (en) | Image processing apparatus and method for applying special image effects to output images | |
JP3988355B2 (en) | Image processing device | |
JP3267575B2 (en) | Image processing method | |
JP3079630B2 (en) | Image processing device | |
JP3158498B2 (en) | Image processing device | |
JP3077241B2 (en) | Image processing device | |
JPH0638021A (en) | Color image processor | |
JPH06178111A (en) | Image processor | |
JP3141202B2 (en) | Color image processing method and apparatus | |
JPH06152933A (en) | Half-tone dot meshing and paint-out editorial processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090511 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100511 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |