JP2007060354A - Image processing method and device, image reading device, image forming device, and program - Google Patents

Image processing method and device, image reading device, image forming device, and program Download PDF

Info

Publication number
JP2007060354A
JP2007060354A JP2005243893A JP2005243893A JP2007060354A JP 2007060354 A JP2007060354 A JP 2007060354A JP 2005243893 A JP2005243893 A JP 2005243893A JP 2005243893 A JP2005243893 A JP 2005243893A JP 2007060354 A JP2007060354 A JP 2007060354A
Authority
JP
Japan
Prior art keywords
color
correction
data
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005243893A
Other languages
Japanese (ja)
Other versions
JP4626853B2 (en
Inventor
Yoshiya Imoto
善弥 伊本
Yasuyuki Tanaka
靖幸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005243893A priority Critical patent/JP4626853B2/en
Publication of JP2007060354A publication Critical patent/JP2007060354A/en
Application granted granted Critical
Publication of JP4626853B2 publication Critical patent/JP4626853B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To correct uneven coloring with high accuracy in a simple constitution if it is caused by a variation in optical component member characteristics, in an image reading device equipped with an uneven coloring correction function. <P>SOLUTION: For each color data of R, G, B of an processing object, gain correction for each reading position is applied to processing objective data of color (R, G, B) and at least one color data (G to R or B, and R or B to G) other than R, G, B so that color data can be obtained with corrected uneven coloring. At this time, subtraction data Δ between two colors is generated by a subtraction unit 412. In a correction arithmetic processing unit 414, the data are multiplied by a correction coefficient α read from a correction coefficient storing unit 415, where a correction coefficient for each subtraction data Δ is stored previously, and added to the original color data DR1, DG1, DB1 so that corrected data DRc, DGc, DBc can be obtained. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理方法および画像処理装置、画像読取装置、画像形成装置、並びにプログラムに関する。より詳細には、画像読取部のセンサや赤外線カットフィルタなどの光学部材の特性ばら付きに起因する色むらを補正する仕組みに関する。   The present invention relates to an image processing method, an image processing apparatus, an image reading apparatus, an image forming apparatus, and a program. More specifically, the present invention relates to a mechanism for correcting color unevenness caused by variation in characteristics of optical members such as a sensor of an image reading unit and an infrared cut filter.

イメージセンサを用いた従来の画像読取装置においては、白黒やカラーの区別なく、イメージセンサの素子感度の差やイメージセンサ上に原稿画像のイメージを結像させる光学系の特性差などに起因して、たとえ均一濃度の原稿画像を読み込んだとしても、イメージセンサの各素子の出力は一律でなく、むらが生じた。一般的に、この不具合を解消するためにシェーディング補正を行なう。   In a conventional image reading apparatus using an image sensor, it is caused by a difference in element sensitivity of the image sensor or a difference in characteristics of an optical system that forms an image of an original image on the image sensor without distinguishing between black and white and color. Even if a document image having a uniform density is read, the output of each element of the image sensor is not uniform and uneven. Generally, shading correction is performed to eliminate this problem.

このシェーディング補正では、一般的には、白色シェーディング補正を行なう。たとえば基準白色板を照明光源で照明して読み取ったデータと、予め設定した基準値とに基づいて画素ごとに補正ゲインを算出してメモリに記憶しておき、原稿読取りの際に、メモリから補正ゲインを読み出して、1画素ごとに補正ゲインを乗算して、画像データの濃度むらを抑制しようとするものである。   In this shading correction, white shading correction is generally performed. For example, a correction gain is calculated for each pixel based on data read by illuminating a reference white plate with an illumination light source and a preset reference value, and stored in the memory. The gain is read out and multiplied by the correction gain for each pixel to suppress uneven density in the image data.

しかしながら、従来の白色シェーディング補正だけでは、低彩度の白色原稿領域を除いて充分な補正が困難であり、結果として、彩度の高い色を読み取った際には、出力画像上に主走査方向に色むらが存在してしまう。   However, with the conventional white shading correction alone, sufficient correction is difficult except for a low-saturation white document area, and as a result, when a highly saturated color is read, the main scanning direction is displayed on the output image. Color unevenness exists in the.

たとえば、フルカラーで読み取りを行なう画像読取部の場合、通常、R,G,Bの原色ごとにセンサデバイスが装備され、これらセンサデバイスは一般に半導体プロセスで製造された光検出器アレイの各光検出器(画素)を、対応する色のカラーフィルタで被覆することで作成される。   For example, in the case of an image reading unit that performs full-color reading, a sensor device is usually provided for each primary color of R, G, and B, and these sensor devices are generally each photodetector of a photodetector array manufactured by a semiconductor process. It is created by covering (pixel) with a color filter of a corresponding color.

たとえばRGBカラーストライプフィルタを画素ごとに印刷したカラーイメージスキヤナは、連続する3画素の読取データによって色分解を行ない、1画素分の画像データとして取り扱うが、フィルタの印刷位置や膜厚の制御は難しく、この結果、隣接する2つのフィルタの一部が重なったり素子の全面がフィルタにより覆われなかったりするので、素子ごとに分光特性が異なり、白色シェーディング補正だけでは、低彩度の原稿領域を除いて充分な補正が困難である。すなわち、従来の仕組みでは、彩色原稿領域の補正が不充分であり、素子分光感度のむらを除去することができずに、主走査方向に色むらが生じ、画像全体としては面内の色むらとして現われてしまう。   For example, a color image scanner in which an RGB color stripe filter is printed on a pixel-by-pixel basis performs color separation based on read data of three consecutive pixels and handles it as image data for one pixel. As a result, part of two adjacent filters overlap each other, or the entire surface of the element is not covered by the filter, so that the spectral characteristics differ from element to element, and a low-saturation document area can be obtained only by white shading correction. Except for this, sufficient correction is difficult. That is, with the conventional mechanism, correction of the chromatic original region is insufficient, and unevenness in element spectral sensitivity cannot be removed, resulting in uneven color in the main scanning direction. Will appear.

また、画像読取部としてラインセンサを用いる場合、A4サイズの横幅をカバーするならば、その幅を持つラインセンサをR,G,Bの色ごとに設けることになる。この場合、個々のラインセンサは、数百dpi(ドット/インチ)の読取解像度を得るためには、数千画素分の光検出器を一列に並べたものとなる。カラーフィルタをそのような長い幅の全域に亘って均一な厚みとなるように形成することは困難であり、実際のところラインセンサの一方端から他方端に向けて徐々に厚くなるなどというように、フィルタの厚みにむら(フィルタ濃度むら)ができることになる。後述するプリント出力の面内むらを画像読取によって検知する用途では、印刷の面内むらは微小なものなので、フィルタ濃度むらによる光検出器間の感度差は面内むら測定に大きな影響をもたらす。   Further, when a line sensor is used as the image reading unit, if the A4 size horizontal width is covered, a line sensor having that width is provided for each of R, G, and B colors. In this case, in order to obtain a reading resolution of several hundreds dpi (dots / inch), each line sensor has a photo detector for several thousand pixels arranged in a line. It is difficult to form a color filter so as to have a uniform thickness over the entire area of such a long width, and in reality, the thickness gradually increases from one end of the line sensor to the other end. Thus, unevenness in filter thickness (irregularity in filter density) can be produced. In an application in which in-plane unevenness of print output, which will be described later, is detected by image reading, the in-plane unevenness of printing is very small. Therefore, the difference in sensitivity between the photodetectors due to uneven filter density has a great effect on in-plane unevenness measurement.

印刷の面内むらでも、中性濃度(グレースケール)のむらについては、フィルタの分光特性が影響しないので、ページ面内で白基準および黒基準を採取して補正を行なうことである程度良好に補正できる。しかしながら、色成分のむらについては、フィルタ濃度むらによる各光検出器のフィルタの分光特性の差が直接的に影響するため、各光検出器の検出信号は、印刷の面内むらにフィルタ濃度むらの影響が重畳したものとなる。このため、面内むらの補正のためには、光検出器の検出信号に含まれるフィルタ濃度むらによる誤差成分を除去する必要が出てくるので、補正は容易ではない。   Even for in-plane unevenness of printing, neutral density (grayscale) unevenness is not affected by the spectral characteristics of the filter, so it can be corrected to some extent by collecting and correcting white and black standards within the page surface. . However, the color component unevenness is directly affected by the difference in the spectral characteristics of the filters of each photodetector due to the filter density unevenness. Therefore, the detection signal of each photodetector has uneven filter density in the printing surface. The effect is superimposed. For this reason, in order to correct the in-plane unevenness, it is necessary to remove the error component due to the filter density unevenness included in the detection signal of the photodetector, so that the correction is not easy.

また、オンチップフィルタの濃度むらの問題以外にも、たとえばダイクロイックプリズムを構成するカラーフィルタや赤外線カットフィルタなどの干渉フィルタも、分光画角特性を有しており、この特性によって光検出器間に感度差ができ、同様の問題が生じる場合がある。   In addition to the problem of uneven density of the on-chip filter, interference filters such as a color filter and an infrared cut filter constituting a dichroic prism also have a spectral angle of view characteristic. There may be a difference in sensitivity and similar problems may occur.

このため、白色シェーディング補正だけでなく色むらの補正を行なう仕組みも種々考えられている(たとえば特許文献1〜4を参照)。   For this reason, various mechanisms for correcting not only white shading correction but also color unevenness have been considered (see, for example, Patent Documents 1 to 4).

特開2003−072206号公報JP 2003-072206 A 特開昭62−293877号公報Japanese Unexamined Patent Publication No. 62-293877 特開平06−152954号公報Japanese Patent Laid-Open No. 06-152954 特開2002−171417号公報JP 2002-171417 A

たとえば、デジタル複写機の画像読取部の機能として、単純に複写機用の読取装置やスキャンイン端末以外に、カラープリンタ間の出力特性の校正やカラープリンタの面内むら検知の用途がある。一例として、特許文献1に記載の仕組みは、画像読取部で印刷部の印刷出力を読み取ることにより、印刷部の状態を監視する方式である。   For example, as a function of an image reading unit of a digital copying machine, there are applications of calibrating output characteristics between color printers and detecting in-plane unevenness of a color printer in addition to a reading device for a copying machine and a scan-in terminal. As an example, the mechanism described in Patent Document 1 is a method of monitoring the state of the printing unit by reading the print output of the printing unit with an image reading unit.

この特許文献1に記載の仕組みでは、インクジェットプリンタやLEDプリンタのプリントヘッドのシェーディング補正のために、検査チャートを印刷し、その印刷結果を、付属の画像読取部で読み取ることで、インクジェットノズルのインク吐出量やLEDの発光強度のばら付きなどに起因する濃度むらを検出し、これを補正する。   In the mechanism described in Patent Document 1, an inspection chart is printed for shading correction of a print head of an ink jet printer or an LED printer, and the print result is read by an attached image reading unit, whereby ink of an ink jet nozzle is printed. Density unevenness caused by variations in the discharge amount and the emission intensity of the LED is detected and corrected.

一方、電子写真方式のレーザーカラープリンタでは、主走査方向すなわち感光体ドラムの軸方向に沿って、現像ギャップや転写性能等が微妙に変化する場合があり、これにより印刷画像に主走査方向に沿った微小な印刷濃度むら(面内むら)が現れることがある。オフセット印刷並の高品質の印刷を実現しようとした場合、このような主走査方向の印刷濃度むらなどを正確に検出し補正する必要が出てくる。   On the other hand, in an electrophotographic laser color printer, the development gap, transfer performance, and the like may slightly change along the main scanning direction, that is, the axial direction of the photosensitive drum. In addition, minute print density unevenness (in-plane unevenness) may appear. When high-quality printing equivalent to offset printing is to be realized, it is necessary to accurately detect and correct such uneven printing density in the main scanning direction.

このためには、たとえば主走査方向に色および濃度が均一な検査チャートを印刷部に印刷させ、この印刷結果を読み取って主走査方向に沿った印刷濃度の分布を測定することになる。この測定のために専用の測定装置を用意することはコスト的に見てできれば避けたいところであり、上述のように複合機の印刷部で印刷した検査チャートを付属の読取部で読み取ってむらの検査ができればコスト面のみならず作業効率の点でも好ましい。   For this purpose, for example, an inspection chart having a uniform color and density in the main scanning direction is printed on the printing unit, and the printing result is read to measure the distribution of the printing density along the main scanning direction. Preparing a dedicated measuring device for this measurement is a place you would like to avoid if you can see it in terms of cost. As described above, the inspection chart printed on the printing unit of the multifunction device is read with the attached reading unit to check for unevenness. If possible, it is preferable not only in terms of cost but also in terms of work efficiency.

しかしながら、このような出力特性の校正や面内むら検知用途では、前述のような面内分光特性ばら付きが問題となる。たとえば、面内読取むらとしてCIELAB表色系での色差“1”程度が求められるのであるが、現状ではその要件を満たすには至っていない。   However, in such calibration of output characteristics and in-plane unevenness detection, the in-plane spectral characteristic variation as described above becomes a problem. For example, a color difference of about “1” in the CIELAB color system is required as in-plane reading unevenness, but the requirement has not been satisfied at present.

また、特許文献2には、複数のラインセンサチップをつなぎ合わせて長い主走査区間をカバーするマルチチップ型のセンサを用いた読取装置において、各チップの出力に補正回路を設け、補正回路の可変抵抗を適宜調整することで、各チップの出力が均一となるようアナログ的に補正する仕組みが開示されている。この仕組みは古い技術であるが、同じ考え方を推し進めれば、ラインセンサの画素ごとにフィルタ濃度に対応した補正データを求めておき、それら各画素の検出信号を補正データで補正することが考えられる。   Further, in Patent Document 2, in a reading apparatus using a multi-chip type sensor that connects a plurality of line sensor chips to cover a long main scanning section, a correction circuit is provided at the output of each chip, and the correction circuit is variable. A mechanism is disclosed that corrects in an analog manner so that the output of each chip becomes uniform by appropriately adjusting the resistance. Although this mechanism is an old technology, if the same idea is promoted, it is conceivable that correction data corresponding to the filter density is obtained for each pixel of the line sensor and the detection signal of each pixel is corrected with the correction data. .

しかしながら、このようにラインセンサの画素ごとにフィルタ濃度補正用のデータを用意したとしても、微小な面内むらの検出という目的に必要な程度まで十分な精度でフィルタ濃度の影響を除去することはできない。なぜなら、上述のようにフィルタの分光レスポンスのすそ野部分についての透過性がフィルタ濃度の差により大きく変動し、この変動の程度は、色材の種類や印刷の濃度によっても変わってくるためである。   However, even if filter density correction data is prepared for each pixel of the line sensor in this way, it is not possible to remove the influence of the filter density with sufficient accuracy to the extent necessary for the purpose of detecting minute in-plane unevenness. Can not. This is because, as described above, the transparency of the base portion of the spectral response of the filter varies greatly due to the difference in filter density, and the degree of this variation also varies depending on the type of color material and the printing density.

また、読取系デバイスに起因する色特性の補正には、前述の色むら補正の他に、標準的な色座標に変換する補正もあり、両者を一度に行なおうとすると、後者の変換が強い非線形な変換特性を持つため、その変換特性差により、画素単位や小ブロック単位に、新たなむらが発生することも想定されるし、膨大な工数やメモリ容量が必要になる。加えて、数十枚の補正出力データを採取する間の変動で精度低下の懸念も生じる。   In addition to the color unevenness correction described above, correction of color characteristics caused by the reading system device includes correction to convert to standard color coordinates. If both are performed at once, the latter conversion is strong. Since it has non-linear conversion characteristics, it is assumed that new unevenness occurs in pixel units and small block units due to the difference in conversion characteristics, and enormous man-hours and memory capacity are required. In addition, there is a concern that accuracy may decrease due to fluctuations during the collection of several tens of pieces of correction output data.

また、特許文献3には、主走査方向における分光特性むらに起因する色むらを補正する仕組みが提案されている。この特許文献3に記載の仕組みでは、白色シェーディングが施された画像がどのような色調であるのかをスペクトル分布を調べて測定し、その測定結果に基づいて色調むらが低減するように、白色シェーディングが施されたR,G,Bの各色データについて、画素アドレスを参照しながら、センサを構成する各素子についてそれぞれ補正を加えている。   Patent Document 3 proposes a mechanism for correcting color unevenness due to spectral characteristic unevenness in the main scanning direction. In the mechanism described in Patent Document 3, the color shading of an image subjected to white shading is measured by examining the spectral distribution, and white shading is performed so that unevenness in color tone is reduced based on the measurement result. For each of the R, G, and B color data subjected to the above, correction is made for each element constituting the sensor while referring to the pixel address.

しかしながら、この仕組みでは、白シェーディング補正されたR,G,Bの何れか1つのデータに対して色調を参照したゲイン補正を行なうことで、色むら補正済のR(G,B)データを取得するものであるから、色相と彩度の双方を考慮した色むら補正を行なうことができない。色調のみの情報では、彩度が鮮やかな色と無彩色に近い色との差を考慮できず、彩度の違いに応じた適正量で補正を加えることができないのである。   However, with this mechanism, R (G, B) data with corrected color unevenness is obtained by performing gain correction with reference to color tone on any one of R, G, and B data subjected to white shading correction. Therefore, it is impossible to perform color unevenness correction in consideration of both hue and saturation. With only the color tone information, it is not possible to take into account the difference between a brightly saturated color and a color close to an achromatic color, and correction cannot be made with an appropriate amount corresponding to the difference in saturation.

また、特許文献4には、カラーパッチを画像読取手段内に設け、画像読取手段のスキャナCCDによるカラーパッチの読取値と、標準的な分光光性を有するスキャナCCDによるカラーパッチの読取値との比を求めて階調パターンの読取値を補正する仕組みが提案されている。   Further, in Patent Document 4, a color patch is provided in an image reading unit, and a color patch read value by a scanner CCD of the image reading unit and a color patch read value by a scanner CCD having a standard spectral light property are used. A mechanism for correcting the read value of the gradation pattern by obtaining the ratio has been proposed.

しかしながら、特許文献4に記載の仕組みは、CCDの分光特性のばら付きを補正するとともに、CCDの分光特性の経時変化やカラーパッチの経時変化による変化を手動によりまたは自動的に補正し、ACC実行後に設定されたYMCKの濃度が機械ごとにばらつかず良好なグレーバランスを得ることができるように補正するもので、要するに、機差を対象としたものに過ぎない。このため、特許文献4に記載の仕組みを単純に利用するだけでは、面内の読取色むらを補正することはできない。   However, the mechanism described in Patent Document 4 corrects variation in CCD spectral characteristics, and manually or automatically corrects changes in CCD spectral characteristics over time and color patch changes over time. The correction is made so that the YMCK density set later does not vary from machine to machine and a good gray balance can be obtained. In short, it is only intended for machine differences. Therefore, in-plane read color unevenness cannot be corrected simply by using the mechanism described in Patent Document 4.

本発明は、上記事情に鑑みてなされたものであり、画像読取部の光学部材の特性ばら付きに起因して生じ得る色むらを、簡易な仕組みでありながらより高精度に補正することのできる仕組みを提供することを目的とする。   The present invention has been made in view of the above circumstances, and can correct color unevenness that may occur due to variations in the characteristics of the optical member of the image reading unit with higher accuracy while being a simple mechanism. The purpose is to provide a mechanism.

本発明に係る仕組みにおいては、読み取った画像に存在する色むらを補正するに当たって、処理対象の色データごと、たとえばR,G,Bの色データごとに、処理対象の色(前例ではR,G,B)とそれ以外の少なくとも他の1色(RやBに対してのG、Gに対してのRやB)のデータに対して、読取位置ごとにゲイン補正を加えることで色むら補正済の色データを取得するようにした。   In the mechanism according to the present invention, in correcting the color unevenness existing in the read image, for each color data to be processed, for example, for each color data of R, G, B, the color to be processed (R, G in the previous example) , B) and at least one other color data (G for R and B, R and B for G) are corrected by applying gain correction for each reading position. Acquired finished color data.

また従属項に記載された発明は、本発明に係る仕組みのさらなる有利な具体例を規定する。さらに、本発明に係るプログラムは、本発明に係る色むら補正の仕組みを、電子計算機(コンピュータ)を用いてソフトウェアで実現するために好適なものである。なお、プログラムは、コンピュータ読取り可能な記憶媒体に格納されて提供されてもよいし、有線あるいは無線による通信手段を介した配信により提供されてもよい。   The inventions described in the dependent claims define further advantageous specific examples of the mechanism according to the present invention. Furthermore, the program according to the present invention is suitable for realizing the color unevenness correction mechanism according to the present invention by software using an electronic computer (computer). Note that the program may be provided by being stored in a computer-readable storage medium, or may be provided by distribution via wired or wireless communication means.

たとえば、2色のデータの差の関数に対してゲイン補正を加えた結果に基づいて色むら補正済の色データを取得するようにすれば、無彩色データに対して殆ど影響を与えずに色むら補正を実現できる。   For example, if color data that has been corrected for color unevenness is acquired based on the result of gain correction performed on the function of the difference between the two color data, the color can be displayed with little effect on the achromatic color data. Unevenness correction can be realized.

さらに、2色のデータの差の関数のべき乗に対してゲイン補正を加えた結果にも基づいて色むら補正済の色データを取得するようにすれば、無彩色データに対して殆ど影響を与えず、かつ精度をさらに高めつつ、色むら補正を実現できる。   Furthermore, if color data that has been corrected for color unevenness is acquired based on the result of gain correction applied to the power of the difference function between the two colors of data, it will have little effect on the achromatic color data. In addition, color unevenness correction can be realized while further improving accuracy.

また、色むら補正を行なう際には、読み取った画像を表わす所定の色空間の色データを標準色座標データに変換して出力(典型的には画像形成部へ出力)する過程の何れかにおいて可能であり、標準色座標データに変換する前は当然のごとく、標準色座標データに変換した後であっても可能である。   Further, when color unevenness correction is performed, color data in a predetermined color space representing a read image is converted into standard color coordinate data and output (typically output to an image forming unit). As a matter of course, before conversion to standard color coordinate data, it is possible even after conversion to standard color coordinate data.

また、標準色座標データへの変換機能部においては素通しの係数を設定しておき、色むら補正を行なう機能部にて、色むら補正済の色データを標準色座標データに変換するようにしてもよい。   In addition, a standard coefficient is set in the conversion function to the standard color coordinate data, and the color data that has been corrected for color unevenness is converted into standard color coordinate data in the function for correcting color unevenness. Also good.

本発明の仕組みによれば、R,G,Bの各色データなど補正対象の色データごとに、対象とする単色とそれ以外の少なくとも他の1色の情報を使った補正を加えることで色むら補正済の色データを取得するようにしたので、色相と彩度の双方を考慮した高精度な色むら補正を実現できるし、主走査方向の面内色むらの補正とそれ以外の色補正に関わる機能(たとえば標準色座標データへの補正変換)の各機能を、比較的簡易な構成で達成できる。   According to the mechanism of the present invention, color unevenness is obtained by applying correction using information of a target single color and at least one other color for each color data to be corrected such as R, G, and B color data. Since corrected color data is acquired, high-accuracy color unevenness correction considering both hue and saturation can be realized, and in-plane color unevenness correction in the main scanning direction and other color corrections can be realized. Relevant functions (for example, correction conversion to standard color coordinate data) can be achieved with a relatively simple configuration.

これにより、たとえば、センサのオンチップフィルタむらや光学系の分光画角特性などに起因する読取面内むらを補正して、プリント出力の面内むら測定にも使用できる精度を持った色読取特性を実現できる。また面内色むら補正機能に必要な補正データのデータ量を、現実的な規模で実現することもできる。   This makes it possible to correct unevenness in the reading surface due to, for example, on-chip filter unevenness of the sensor and spectral field angle characteristics of the optical system, and to provide color reading characteristics with accuracy that can be used for in-plane unevenness measurement of print output. Can be realized. In addition, the amount of correction data necessary for the in-plane color unevenness correction function can be realized on a realistic scale.

以下、図面を参照して本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<装置の外観概略>
図1は、本発明に係る面内位置参照型の色むら補正部の一例を含む画像処理装置を備えた画像読取装置の一実施形態の概略を示す側断面図である。図1(A)に示す画像読取装置3は、たとえば複写機、スキャナ装置、ファクシミリ装置などに用いられるもので、読取対象となる原稿から、その原稿上に描かれた画像を光学的に読み取るものであり、大まかには、画像取得部10、画像処理部40、およびプラテンカバー61を備える。複写装置や複合機などの画像形成装置を構成する場合、この画像読取装置3と画像出力部(プリントエンジン)とを組み合わせることになる(後述する図3や図16を参照)。
<Outline of device appearance>
FIG. 1 is a side sectional view showing an outline of an embodiment of an image reading apparatus including an image processing apparatus including an example of an in-plane position reference type color unevenness correction unit according to the present invention. An image reading apparatus 3 shown in FIG. 1A is used for, for example, a copying machine, a scanner apparatus, and a facsimile apparatus, and optically reads an image drawn on a document to be read. In general, the image acquisition unit 10, the image processing unit 40, and the platen cover 61 are provided. When configuring an image forming apparatus such as a copying apparatus or a multifunction peripheral, the image reading apparatus 3 and an image output unit (print engine) are combined (see FIGS. 3 and 16 described later).

画像取得部10は、筐体111と、この筐体111上に設けられた透明ガラスからなる、読取対象となる原稿が載置されるA3サイズよりも少し大きいプラテンガラス(原稿載置台)112とを有している。画像処理部40は、筐体111内に設けられた画像処理基板102上に設けられている。   The image acquisition unit 10 includes a casing 111 and a platen glass (original placement table) 112 that is made of transparent glass provided on the casing 111 and is slightly larger than the A3 size on which an original to be read is placed. have. The image processing unit 40 is provided on the image processing substrate 102 provided in the housing 111.

複写装置を構成する場合には、画像処理部40により処理された画像信号は、たとえば熱昇華方式、インクジェット方式、あるいは電子写真方式などの公知のプリント方式を用いて所定の記録媒体に可視画像を形成するプリンタエンジン(画像形成ユニット)などを備える画像出力部に送られる。   In the case of constituting a copying apparatus, the image signal processed by the image processing unit 40 generates a visible image on a predetermined recording medium using a known printing method such as a thermal sublimation method, an ink jet method, or an electrophotographic method. The image data is sent to an image output unit including a printer engine (image forming unit) to be formed.

画像取得部10は、筐体111内のプラテンガラス112の下方に、プラテンガラス112の原稿載置面と反対側の面(裏面)に向かって読取光を照射する、つまりプラテンガラス112上の原稿に向けて読取光を照射する露光用光源120と、露光用光源120から発せられた読取光をプラテンガラス112側に反射させる略凹状の反射笠131とを備える。   The image acquisition unit 10 irradiates reading light toward the surface (back surface) opposite to the document placement surface of the platen glass 112 below the platen glass 112 in the casing 111, that is, the document on the platen glass 112. An exposure light source 120 that irradiates reading light toward the platen, and a substantially concave reflecting shade 131 that reflects the reading light emitted from the exposure light source 120 toward the platen glass 112.

また、画像取得部10は、プラテンガラス112側からの反射光を受光して副走査SS(Slow Scan )の方向(図中矢印Xの読取方向)と略直交する主走査FS(Fast Scan )の方向(図の紙面奥行き方向)に画像を読み取り、濃度に応じた画像信号(アナログの電気信号)を順次出力する受光部140と、受光部140からの画像信号を所定のレベルまで増幅し出力する読取信号処理部14とを備える密着光学系のものである。   The image acquisition unit 10 receives reflected light from the platen glass 112 side and performs a main scanning FS (Fast Scan) that is substantially orthogonal to the direction of the sub-scanning SS (Slow Scan) (the reading direction of the arrow X in the figure). A light receiving unit 140 that sequentially reads an image signal (analog electric signal) corresponding to the density, reads the image in the direction (the depth direction in the drawing), and amplifies and outputs the image signal from the light receiving unit 140 to a predetermined level. The contact optical system includes a read signal processing unit 14.

受光部140は、フォトダイオードなどの光電変換素子とCCD(Charge Coupled Device )やCMOS(Complementary Metal-oxide Semiconductor )などで構成され、原稿の主走査方向幅とほぼ等しい幅(全幅ともいう)のラインセンサを用いる。   The light receiving unit 140 includes a photoelectric conversion element such as a photodiode, a CCD (Charge Coupled Device), a CMOS (Complementary Metal-oxide Semiconductor), and the like, and is a line having a width (also referred to as a full width) substantially equal to the width in the main scanning direction of the document. Use a sensor.

カラー撮像用とする場合には、主走査方向の解像度を高めるべく、たとえば7500画素の全幅のラインセンサをR,G,Bの色ごとに用意し、それを副走査方向に所定間隔L1(読取画素列間の間隔ともいう)を隔てて並べる、いわゆる3ラインカラーセンサ方式を採用する。   In the case of color imaging, in order to increase the resolution in the main scanning direction, for example, a 7500 pixel full width line sensor is prepared for each color of R, G, and B, and is provided at a predetermined interval L1 (reading) in the sub scanning direction. A so-called three-line color sensor system is employed in which the pixel columns are also arranged at intervals.

色別の各ラインセンサには、その色用の色フィルタがオンチップで設けられる。いわゆるオンチップフィルタ構成を採用する。なお、色フィルタ以外に、集光効率を高めるマイクロレンズなどの光学部材を設けてもよい。   Each line sensor for each color is provided with a color filter for that color on-chip. A so-called on-chip filter configuration is employed. In addition to the color filter, an optical member such as a microlens that increases the light collection efficiency may be provided.

あるいは、3ラインカラーセンサ方式に代えて、主走査方向にR,G,Bの色フィルタ(さらにはマイクロレンズなども)を繰返し並べたインラインセンサ方式を採用してもよい。   Alternatively, instead of the three-line color sensor method, an in-line sensor method in which R, G, and B color filters (and also microlenses, etc.) are repeatedly arranged in the main scanning direction may be employed.

インラインセンサ方式は、主走査方向の解像度は低下するが、原稿を搬送させながら読み取る際の3色レジストレーションエラーの問題が少ない。一方、3ラインカラーセンサ方式の場合、この3色レジストレーションエラーの改善が求めらる。たとえば、CCDレジスタを画素列間に設けなければならず、画素列間に一定の間隔を確保する必要があり、信号処理側では、読取位置のずれを補償するためにラインメモリが必要となる。このラインメモリを減らすためには、3ラインセンサの読取画素列間の間隔を極力詰めるとよい(特開平8−172178号公報段落0009や特開2000−223689号公報段落0005を参照)。   In the in-line sensor method, the resolution in the main scanning direction is lowered, but there are few problems of three-color registration errors when the original is read while being conveyed. On the other hand, in the case of the three-line color sensor system, improvement of this three-color registration error is required. For example, a CCD register must be provided between the pixel columns, and it is necessary to ensure a certain interval between the pixel columns. On the signal processing side, a line memory is required to compensate for the deviation of the reading position. In order to reduce the line memory, it is preferable to reduce the interval between the read pixel columns of the three line sensors as much as possible (see paragraph 0009 of Japanese Patent Laid-Open No. 8-172178 and paragraph 0005 of Japanese Patent Laid-Open No. 2000-223690).

ただし、このような対処を採ると、オンチップフィルタやマイクロレンズなどを各読取画素列に正確に形成することが難しくなることから、分光特性ばら付き性能を阻害する方向になる。   However, if such a measure is taken, it becomes difficult to accurately form an on-chip filter, a microlens, or the like in each read pixel row, and thus the spectral characteristic variation performance is hindered.

なお、ラインセンサは、主走査方向に複数の画素を持つ構造であり、画素上に設けられるオンチップフィルタ厚のばら付きや光学系などにより読取分光特性に主走査方向むらが存在する。そして、これに起因して、主走査方向に明度むらや色むらが生じ得る。   Note that the line sensor has a structure having a plurality of pixels in the main scanning direction, and there is unevenness in the main scanning direction in reading spectral characteristics due to variations in the thickness of an on-chip filter provided on the pixels and an optical system. As a result, brightness unevenness and color unevenness may occur in the main scanning direction.

明度むらに関しては、よく知られているように、たとえば白基準データの読取標準出力を使って、色ごとにデータを規格化することで補正を行なういわゆるシェーディング補正により改善する。   As is well known, brightness unevenness is improved by so-called shading correction in which correction is performed by standardizing data for each color using, for example, a standard output of white reference data.

一方、色むらに関しては、前述の明度むらに対するシェーディング補正だけでは不十分であり、シェーディング補正だけの対処では、彩度の高い色を読み取った際に、出力画像上に主走査方向に色むらが存在してしまう。この対策としては、詳細は後述するが、第2色補正部による面内位置参照型の色むら補正により対処する。   On the other hand, with regard to color unevenness, it is not sufficient to perform only the shading correction for the above-described lightness unevenness, and when dealing with only shading correction, color unevenness in the main scanning direction is output on the output image when a highly saturated color is read. It will exist. As this countermeasure, the details will be described later, but this is dealt with by correcting the uneven color of the in-plane position reference type by the second color correction unit.

なお、全幅のラインセンサとしては、通常、主走査方向幅に対して1/m幅のものをm個直列に並べて使用する。ただしこの場合、主走査方向において、ラインセンサごとの分光特性差を吸収するための仕組みが必要になり、後述する色補正マトリックス演算を使った標準出力への変換を行なう標準化色補正部では、各ラインセンサに対応して色補正係数を変えるべく、標準化色補正部を各ラインセンサに対応して設けるようにする。   In addition, as a full width line sensor, m sensors having a width of 1 / m with respect to the width in the main scanning direction are usually arranged in series. However, in this case, a mechanism for absorbing the spectral characteristic difference for each line sensor in the main scanning direction is required, and in the standardized color correction unit that performs conversion to a standard output using a color correction matrix calculation described later, In order to change the color correction coefficient corresponding to the line sensor, a standardized color correction unit is provided corresponding to each line sensor.

受光部140は、読取信号処理部14などとともに読取基板103上に配設され、光学走査系(センサユニット)16を構成する。なお密着型光学系による受光の仕組みに代えて、図1(B)に示すように、露光用光源120やフルレートキャリッジ134やハーフレートキャリッジ138あるいはレンズ139などで縮小光学系を採用した読取光学系(走査光学系)の仕組みを採用してもよい。   The light receiving unit 140 is disposed on the reading substrate 103 together with the reading signal processing unit 14 and the like, and constitutes an optical scanning system (sensor unit) 16. As shown in FIG. 1B, a reading optical system employing a reduction optical system such as an exposure light source 120, a full rate carriage 134, a half rate carriage 138, or a lens 139, instead of the light receiving mechanism using the contact optical system. A mechanism of (scanning optical system) may be adopted.

露光用光源120としては、主走査方向を長手方向とするランプが使用されている。この露光用光源120は、図示しない照明制御部によって、点灯動作が制御可能になっている。   As the exposure light source 120, a lamp whose longitudinal direction is the main scanning direction is used. The lighting operation of the exposure light source 120 can be controlled by an illumination control unit (not shown).

図中、プラテンガラス112の左側には、シェーディング補正を行なうため、白シェーディング補正に供される白色基準板116が内包されている。なお、白色基準板116だけでなく、黒シェーディング補正に供される黒色基準板も内包するようにしてもよい。白色基準板116は、たとえば光の反射率が“1”に近い材質で構成されているものを使用する。また、黒色基準板は光の反射率が“0”に近い材質で構成されているものを使用する。   In the drawing, a white reference plate 116 used for white shading correction is included on the left side of the platen glass 112 in order to perform shading correction. Note that not only the white reference plate 116 but also a black reference plate for black shading correction may be included. As the white reference plate 116, for example, a plate made of a material having a light reflectance close to “1” is used. The black reference plate is made of a material having a light reflectance close to “0”.

また図示していないが、画像取得部10は、筐体111内に、読取光学系や受光部140などをプラテンガラス112下で移動させるためのワイヤや駆動プーリなども具備する。駆動プーリは、駆動モータの駆動力によって往復回転させられ、この回転駆動によってワイヤを当該駆動プーリに巻き取ることで、プラテンガラス112の下方において、露光用光源120、あるいはレンズ139などからなる光学走査系16を所定速度で移動させる。   Although not shown, the image acquisition unit 10 also includes a wire, a drive pulley, and the like for moving the reading optical system, the light receiving unit 140, and the like under the platen glass 112 in the housing 111. The driving pulley is reciprocally rotated by the driving force of the driving motor, and the optical scanning of the exposure light source 120 or the lens 139 is performed below the platen glass 112 by winding the wire around the driving pulley by this rotational driving. The system 16 is moved at a predetermined speed.

また、この固定読取方式時には、原稿載置台としてのプラテンガラス112上に原稿を載置し、当該プラテンガラス112上の任意の位置に固定(停止ロック)させた状態で、図中△マークで示す固定読取画先位置Fを読取基準として、光学走査系16を矢印Xの方向(副走査方向)へ等速移動走査して原稿を露光し画像を読み取る。   In this fixed reading method, a document is placed on a platen glass 112 serving as a document placement table, and is fixed (stop-locked) at an arbitrary position on the platen glass 112. Using the fixed reading image destination position F as a reading reference, the optical scanning system 16 is scanned at a constant speed in the direction of the arrow X (sub-scanning direction) to expose a document and read an image.

受光部140は、ラインセンサで原稿画像を撮像して得た各分光成分の撮像画像信号を読取信号処理部14に送る。読取信号処理部14は、この読み取りにより得た撮像画像信号に対して所望のアナログ信号処理を施した後に、赤(R)、緑(G)、青(B)の各色成分のデジタル画像データに変換し、シェーディング補正やその他の所定の処理を施した後に、赤、緑、青のデジタル画像データを画像処理部40に送る。   The light receiving unit 140 sends captured image signals of each spectral component obtained by capturing a document image with a line sensor to the read signal processing unit 14. The read signal processing unit 14 performs desired analog signal processing on the captured image signal obtained by this reading, and then converts the digital image data of each color component of red (R), green (G), and blue (B). After the conversion and shading correction and other predetermined processing, red, green and blue digital image data are sent to the image processing unit 40.

画像処理部40では、たとえば、読取信号処理部14から出力された色成分のデジタル画像データR,G,Bを同時化する処理や、明度信号Lおよび色信号a,b(纏めてLaab;正しくはL***)を生成する色変換処理などを行なう。 In the image processing unit 40, for example, processing for synchronizing digital image data R, G, and B of color components output from the read signal processing unit 14, brightness signal L and color signals a and b (collectively Lab; Performs color conversion processing for generating L * a * B * ).

なお、図1(A)に示した画像読取装置3では、通常のプラテンカバー61を使用していたが、図1(B)に示すように、プラテンカバー61の機能も備えたADF(Automatic Document Feeder ;自動原稿搬送)装置を利用することもできる。また、循環機能を有する原稿自動給送装置(DADF;Duplex Automatic Document Feeder)を使用することもできる。   In the image reading apparatus 3 shown in FIG. 1A, a normal platen cover 61 is used. However, as shown in FIG. 1B, an ADF (Automatic Document) having a function of the platen cover 61 is used. A Feeder (automatic document feeder) device can also be used. Further, an automatic document feeder (DADF) having a circulation function can be used.

また、画像読取装置3単独のものとして示していたが、画像読取装置3をスキャナユニットとして利用することで、複写装置を構成することもできる。この場合、たとえば、画像取得部10の下部に画像出力部を設け、画像処理部40からの赤、緑、青の画像データR,G,Bに基づいて、ブラック(K)、イエロー(Y)、マゼンタ(M)、シアン(C)の2値もしくは多値の出力画像信号を得る出力用画像処理部、この出力用画像処理部により得られた出力画像信号に基づいて印刷用紙などの記録媒体上に可視画像を形成する画像形成部(プリンタエンジン)を設けるとよい。   Although the image reading apparatus 3 is shown as a single unit, the image reading apparatus 3 can be used as a scanner unit to constitute a copying apparatus. In this case, for example, an image output unit is provided below the image acquisition unit 10, and black (K), yellow (Y) based on the red, green, and blue image data R, G, and B from the image processing unit 40. , Magenta (M), cyan (C) binary or multivalued output image signal output image processing unit, and a recording medium such as printing paper based on the output image signal obtained by the output image processing unit An image forming unit (printer engine) for forming a visible image may be provided on the top.

<受光部の構成例>
図2は、受光部140の構成例を示す図である。図2(A)に示す第1例、図2(B)に示す第2例、および図2(C)に示す第3例の何れも、CCDを用いた3ラインカラーセンサ方式のものである。
<Configuration example of light receiving unit>
FIG. 2 is a diagram illustrating a configuration example of the light receiving unit 140. Each of the first example shown in FIG. 2A, the second example shown in FIG. 2B, and the third example shown in FIG. 2C is of a three-line color sensor type using a CCD. .

図示するように、受光部140は、カラー画像撮像用途として、R,G,Bの3色の成分の検出が可能なように、R,G,Bの3色に対応する3つのラインセンサ142R,142G,142B(纏めて142という;参照子は色を示す)を使用している。これらラインセンサ142R,142G,142Bは、副走査方向にR,G,Bの順に読み取られるように配置されている。   As shown in the figure, the light receiving unit 140 has three line sensors 142R corresponding to the three colors R, G, and B so that the components of the three colors R, G, and B can be detected for color image capturing. , 142G, 142B (collectively referred to as 142; the reference indicates the color). These line sensors 142R, 142G, 142B are arranged so as to be read in the order of R, G, B in the sub-scanning direction.

各ラインセンサ142は、主走査方向の1ラインに対応させてアレイ状に所定の画素サイズ、たとえば画素サイズ7μm×7μmの光電変換素子(フォトダイオード)が多数配列されて構成されている。   Each line sensor 142 is configured by arranging a large number of photoelectric conversion elements (photodiodes) having a predetermined pixel size, for example, a pixel size of 7 μm × 7 μm, in an array corresponding to one line in the main scanning direction.

すなわち、受光部140のパッケージには、画素サイズ7μm×7μmの光電変換素子をn個並べたラインセンサ142が所定間隔を隔てて3列に配列されている。これらの各ラインセンサ142は、副走査方向の各読取位置における原稿画像を各々読み取る手段である。各感光部は、入射光を光電変換するフォトダイオードなどの光電変換素子と、この光電変換素子により生成された電荷を蓄積する電荷蓄積部とを具備してなる。図中、ラインセンサ142に付した1,2,3,…は、画素番号を示す。   That is, in the package of the light receiving unit 140, line sensors 142 in which n photoelectric conversion elements having a pixel size of 7 μm × 7 μm are arranged are arranged in three rows at predetermined intervals. Each of these line sensors 142 is means for reading a document image at each reading position in the sub-scanning direction. Each photosensitive unit includes a photoelectric conversion element such as a photodiode that photoelectrically converts incident light, and a charge storage unit that accumulates charges generated by the photoelectric conversion element. In the figure, 1, 2, 3,... Attached to the line sensor 142 indicate pixel numbers.

ここで、図2(A)に示す第1例は、図1(B)のラインセンサ142を使用したもので、ラインセンサ142R,142G,142Bは、L1だけ隔たっている。これに対応して、縮小光学系の場合、原稿の搬送経路上の副走査方向における各色成分の読取位置はL2だけ隔たたつようになる。これらの各読取位置における各原稿画像(各々1ライン分の線画像)は、図1に示す読取光学系を経ることによりL1/L2倍に縮小されて各ラインセンサ142R,142G,142B上に結像する。つまり、3つのラインセンサ142間の距離L1は、レンズ139により集光される前の原稿位置ではL2の距離に相当し、3つのラインセンサ142は原稿GのL2だけ離れた位置を同時に読み取る。このため、このずれ分は、原稿とセンサを相対的に問う速度で移動させることを前提に、位置ずれを時間ずれに置き換えた後述する同時化処理により補正を行なうが、原稿を搬送させながら読み取る際、搬送速度変動による3色レジストレーションエラーが問題となり得る。   Here, the first example shown in FIG. 2A uses the line sensor 142 of FIG. 1B, and the line sensors 142R, 142G, 142B are separated by L1. Correspondingly, in the case of the reduction optical system, the reading positions of the respective color components in the sub-scanning direction on the document transport path are separated by L2. Each original image (line image for one line) at each reading position is reduced to L1 / L2 times through the reading optical system shown in FIG. 1 and is connected to each line sensor 142R, 142G, 142B. Image. That is, the distance L1 between the three line sensors 142 corresponds to the distance L2 at the document position before being condensed by the lens 139, and the three line sensors 142 simultaneously read the positions separated by L2 of the document G. For this reason, this misalignment is corrected by a synchronization process (described later) in which the positional deviation is replaced with a time deviation on the premise that the original and the sensor are moved at a relatively interrogating speed, but is read while the original is being conveyed. At this time, a three-color registration error due to a change in the conveyance speed can be a problem.

3つのラインセンサ142R,142G,142Bの受光面上には、R,G,Bの各色成分に対応したカラーフィルタが、それぞれ別個に設けられている。これにより、これらのラインセンサ142R,142G,142Bは、カラー画像を撮像するためのRGBの各色成分について光学像の読取りを行なう手段として機能する。   On the light receiving surfaces of the three line sensors 142R, 142G, and 142B, color filters corresponding to the R, G, and B color components are separately provided. Thereby, these line sensors 142R, 142G, and 142B function as means for reading an optical image for each of the RGB color components for capturing a color image.

たとえば、副走査方向にR,G,Bの順に読み取られるように配置したときには、R用のラインセンサ142Rでは、1ライン周期(主走査周期)ごとに、ラインセンサ142Rを構成するn個のフォトダイオードに蓄積された電荷を垂直転送パルスにより転送レジスタに転送され、水平転送クロックにより転送レジスタの電荷を順次水平転送し、最終段アンプにて電荷電圧変換されて、1ライン分(n画素分)の各画素の濃度を表すアナログの撮像信号SRとして出力される。   For example, when arranged so as to be read in the order of R, G, and B in the sub-scanning direction, the R line sensor 142R has n photons constituting the line sensor 142R every one line period (main scanning period). The charges accumulated in the diode are transferred to the transfer register by the vertical transfer pulse, the charges in the transfer register are sequentially transferred horizontally by the horizontal transfer clock, and the charge voltage is converted by the final stage amplifier for one line (for n pixels). Are output as an analog imaging signal SR representing the density of each pixel.

同様に、ラインセンサ142Rよりも下流側の読取位置に対応したG用のラインセンサ142Gにおいても、1ライン周期(主走査周期)ごとに、n個のフォトダイオードで検知された信号電荷に対応して、1ライン分(n画素分)の各画素の濃度を表すアナログの撮像信号SGが出力される。そしてさらにラインセンサ142Gよりも下流側の読取位置に対応したB用のラインセンサ142Bにおいても、1ライン周期(主走査周期)ごとに、n個のフォトダイオードで検知された信号電荷に対応して、1ライン分(n画素分)の各画素の濃度を表すアナログの撮像信号SBが出力される。   Similarly, the G line sensor 142G corresponding to the reading position on the downstream side of the line sensor 142R also corresponds to the signal charge detected by the n photodiodes for each line period (main scanning period). Thus, an analog imaging signal SG representing the density of each pixel for one line (for n pixels) is output. Further, in the B line sensor 142B corresponding to the reading position downstream of the line sensor 142G, the signal charges detected by the n photodiodes are corresponding to each line period (main scanning period). An analog imaging signal SB representing the density of each pixel for one line (for n pixels) is output.

ここで、各色成分の各読取位置(間隔L2)に対応した各ラインセンサ142の間隔L1は、L1/7(“7”は画素サイズ)ライン分の走査線に対応した間隔である。たとえば、各色成分の各読取位置の間隔L2を169.2μm、各ラインセンサ142の間隔L1を28μmとすれば、4ラインとなる。したがって、原稿の搬送速度に変動がなければ、R成分の撮像信号SRとG成分の撮像信号SGは、あるいはG成分の撮像信号SGとB成分の撮像信号SBは、L1/7(前例では4ライン)相当の位相差を持った信号となる。なお、カラー画像撮像用のラインセンサ142R,142G,142B間の距離L1は、上述した例に限らず、画像読取装置の全体構成を考慮して適宜決定してもよい。   Here, the interval L1 of each line sensor 142 corresponding to each reading position (interval L2) of each color component is an interval corresponding to scanning lines for L1 / 7 (“7” is the pixel size) lines. For example, if the interval L2 between the reading positions of each color component is 169.2 μm and the interval L1 between the line sensors 142 is 28 μm, the number of lines is four. Therefore, if there is no change in the document conveyance speed, the R component imaging signal SR and the G component imaging signal SG, or the G component imaging signal SG and the B component imaging signal SB are L1 / 7 (4 in the previous example). Line) The signal has a considerable phase difference. Note that the distance L1 between the line sensors 142R, 142G, and 142B for color image capturing is not limited to the above-described example, and may be appropriately determined in consideration of the entire configuration of the image reading apparatus.

図2(B)に示す第2例は、第1例と同様に図1(B)のラインセンサ142を使用したものであるが、3色レジストレーションエラーの改善に使用されるラインメモリの容量を少なくするべく、3ラインセンサの読取画素列間の間隔L1を詰めるようにしたものである。この構成例では、ギャップ補正計算の容易さから、L1を1ライン分、すなわち画素ピッチと等しくしている。   The second example shown in FIG. 2B uses the line sensor 142 of FIG. 1B as in the first example, but the capacity of the line memory used to improve the three-color registration error. In order to reduce this, the interval L1 between the read pixel columns of the 3-line sensor is reduced. In this configuration example, L1 is made equal to one line, that is, the pixel pitch in order to facilitate the gap correction calculation.

また、図2(C)に示す第3例では、全幅のラインセンサとして、主走査方向幅に対して1/m幅のものをm個直列に並べて構成するようにした変形例である。ここでは、ラインセンサ142R,142G,142Bの何れも、142_1,142_2,142_3,142_4と記しているように、主走査方向幅に対して1/4幅のものを4個直列に並べている。なお、図2(A)に示す第1例の全幅のラインセンサに代えて、同様の変更をすることができる。   The third example shown in FIG. 2C is a modification in which m line sensors having a width of 1 / m with respect to the width in the main scanning direction are arranged in series as the full width line sensor. Here, as indicated by 142_1, 142_2, 142_3, 142_4, four line sensors 142R, 142G, 142B are arranged in series with four quarter widths in the main scanning direction. In addition, it can replace with the full width line sensor of the 1st example shown to FIG. 2 (A), and can change similarly.

<画像取得部の信号処理系統;第1実施形態>
図3は、画像取得部10の信号処理機能に着目して、その詳細の第1実施形態を示したブロック図である。
<Signal Processing System of Image Acquisition Unit; First Embodiment>
FIG. 3 is a block diagram illustrating the first embodiment in detail focusing on the signal processing function of the image acquisition unit 10.

画像取得部10は、画像取得部10を制御する中央演算制御部180と、ラインセンサ142およびこのラインセンサ142を駆動する駆動回路143を有した受光部140と、受光部140によって取得された撮像画像に対してAGC(Auto Gain Control;自動ゲイン調整)、AOC(Auto Offset Control;自動オフセット調整)、A/D変換などの信号処理を施す読取信号処理部14と、読取信号処理部14で処理された信号に対してさらに色補正や階調補正などを行なう画像処理部40とを備える。   The image acquisition unit 10 includes a central processing control unit 180 that controls the image acquisition unit 10, a light receiving unit 140 that includes a line sensor 142 and a drive circuit 143 that drives the line sensor 142, and an imaging acquired by the light receiving unit 140. A read signal processing unit 14 that performs signal processing such as AGC (Auto Gain Control), AOC (Auto Offset Control), and A / D conversion on the image, and processing by the read signal processing unit 14 And an image processing unit 40 that further performs color correction, gradation correction, and the like on the received signal.

受光部140および読取信号処理部14に設けられた各回路ブロックには、色成分R,G,Bに応じた参照子R,G,Bを付して示す。受光部140をなす色別のラインセンサ142としては、各色7500画素の全幅のCCDセンサ(3ラインカラーセンサ)を使用している。なお、図中、受光部140のそばに示したように、全幅のラインセンサに代えて、主走査方向幅に対して1/m(たとえば1/4)幅のものをm(たとえば4)個直列に並べて使用してもよい。   Each circuit block provided in the light receiving unit 140 and the read signal processing unit 14 is shown with reference elements R, G, B corresponding to the color components R, G, B. As the line sensor 142 for each color forming the light receiving unit 140, a CCD sensor (3-line color sensor) having a full width of 7500 pixels for each color is used. As shown by the side of the light receiving unit 140 in the figure, instead of the full width line sensor, m (for example, 4) ones having a width of 1 / m (for example, 1/4) with respect to the width in the main scanning direction. They may be used side by side in series.

受光部140の後段に設けられた読取信号処理部14は、それぞれの色成分用のラインセンサ142により撮像された所定読取位置における各画像信号SR,SG,SBに対応した信号処理系であり、それぞれサンプルホールド回路244、出力増幅回路246、A/D変換回路248、およびシェーディング補正回路250を有する。   The read signal processing unit 14 provided at the subsequent stage of the light receiving unit 140 is a signal processing system corresponding to each image signal SR, SG, SB at a predetermined reading position imaged by the line sensor 142 for each color component, Each includes a sample hold circuit 244, an output amplifier circuit 246, an A / D conversion circuit 248, and a shading correction circuit 250.

中央演算制御部180は、駆動回路143をクロック制御することでラインセンサ142の駆動の周期を設定し、あるいは出力増幅回路246R,146G,146Bの利得の制御やシェーディング補正回路250R,250G,250Bの制御などを行なう。駆動回路143と中央演算制御部180によりクロック&パルス制御部181が構成される。   The central processing control unit 180 sets the driving cycle of the line sensor 142 by clocking the driving circuit 143, or controls the gain of the output amplifier circuits 246R, 146G, 146B and the shading correction circuits 250R, 250G, 250B. Control and so on. The drive circuit 143 and the central processing control unit 180 constitute a clock & pulse control unit 181.

ラインセンサ142は、駆動回路143からの駆動信号によって駆動されることにより、原稿の所定の読取位置の各々において、原稿の所定距離だけ離れた位置を同時に読み取り、その読取位置における各色成分R,G,Bに対応する3系統の撮像信号SR,SG,SB(3色のアナログビデオ走査線信号)を出力する。   The line sensor 142 is driven by a drive signal from the drive circuit 143 to simultaneously read the positions separated by a predetermined distance of the original at each of the predetermined reading positions of the original, and each color component R, G at the reading position. , B corresponding to three systems of imaging signals SR, SG, SB (3-color analog video scanning line signals) are output.

撮像信号SR,SG,SBは、対応するサンプルホールド回路244により各々サンプリングされた後、対応する出力増幅回路246によって各々適正なレベルに増幅される。この際、出力増幅回路246は、ゲインオフセット調整すなわちAGC(Auto Gain Control;自動ゲイン調整)やAOC(Auto Offset Control;自動オフセット調整)などの信号処理を施す。出力増幅回路246から出力された信号は、対応するA/D変換回路248により各々デジタル画像データDR,DG,DBに変換される。   The imaging signals SR, SG, and SB are sampled by the corresponding sample and hold circuits 244 and then amplified to appropriate levels by the corresponding output amplifier circuits 246. At this time, the output amplifier circuit 246 performs gain offset adjustment, that is, signal processing such as AGC (Auto Gain Control) and AOC (Auto Offset Control). The signal output from the output amplifier circuit 246 is converted into digital image data DR, DG, and DB by the corresponding A / D conversion circuit 248, respectively.

これらの3系統のデジタル画像データDR,DG,DBに対し、対応するシェーディング補正回路250は、対応するラインセンサ142の画素感度ばら付きの補正や読取光学系の光量分布特性に対応した明度補正を施し、処理済の色データDR1,DG1,DB1を、後段の図示しない同時化処理部に出力する。   For these three systems of digital image data DR, DG, and DB, the corresponding shading correction circuit 250 performs correction with variations in pixel sensitivity of the corresponding line sensor 142 and brightness correction corresponding to the light quantity distribution characteristics of the reading optical system. The processed color data DR1, DG1, and DB1 are output to a synchronization processing unit (not shown) in the subsequent stage.

シェーディング補正回路250は、たとえば、減算回路、データ保持部としてのRAM(Random Access Memory)、乗算回路、除算回路などを有する。RAMとしては、たとえばラインメモリ251を色(R,G,B)ごとに用意した構成としてもよい。   The shading correction circuit 250 includes, for example, a subtraction circuit, a RAM (Random Access Memory) as a data holding unit, a multiplication circuit, a division circuit, and the like. As the RAM, for example, the line memory 251 may be prepared for each color (R, G, B).

シェーディング補正回路250は、中間調を含む原稿の画像データを多階調で精度よく読み取るために、白基準データや黒基準データの読取標準出力を使って規格化を行なうなどして、白シェーディング補正や黒シェーディング補正を行なう(たとえば、特許第2629794号公報、特許第2658237号公報、特開平7−143262号公報を参照)。   The shading correction circuit 250 performs white shading correction by, for example, performing normalization using the reading standard output of white reference data or black reference data in order to accurately read the image data of a document including halftones with multiple gradations. Or black shading correction (for example, see Japanese Patent No. 2629794, Japanese Patent No. 2658237, and Japanese Patent Laid-Open No. 7-143262).

たとえば、白基準の読取データに基づき画素ごとの補正係数(白基準出力の逆数)を生成し、読取画像信号としてのデジタル画像データDR,DG,DBとの乗算処理を行なう。この際、CCDのクロック制御をも行なっている中央演算制御部180から発生されるアドレス信号に基づき、補正処理対象の画素と位置の同期がとられた補正係数をラインメモリから順次読み出して規格化演算を行なう。   For example, a correction coefficient for each pixel (reciprocal of the white reference output) is generated based on the white reference read data, and the digital image data DR, DG, and DB as read image signals are multiplied. At this time, based on the address signal generated from the central processing control unit 180 that also performs the clock control of the CCD, the correction coefficient whose position is synchronized with the pixel to be corrected is sequentially read out from the line memory and normalized. Perform the operation.

これにより、たとえば、光源の光量のばら付きや撮像装置(イメージセンサ)の画素ごとの感度のばら付きや暗電流による画素ごとの暗時出力電圧ばら付きなどを補正する。   Thereby, for example, variations in the light amount of the light source, variations in sensitivity of each pixel of the imaging device (image sensor), variations in the dark output voltage due to dark current, and the like are corrected.

ただし、画像データの階調数(ビット幅)は増加しているので、特にカラー撮像を考えた場合、それに伴い、画像処理回路の規模は増加する。すなわち、カラー画像処理回路ではモノクロ画像処理回路に比べて回路規模がさらに大きくなり、コストが増加するようになり、このことは、白シェーディング補正や黒シェーディング補正を行なう場合にも同様となる。たとえば、画像データの階調数(ビット幅)が増えることで、白基準データや黒基準データを記憶するメモリの容量が増大する。   However, since the number of gradations (bit width) of image data is increasing, especially when color imaging is considered, the scale of the image processing circuit increases accordingly. That is, the color image processing circuit is further increased in circuit scale and cost as compared with the monochrome image processing circuit, and this also applies to white shading correction and black shading correction. For example, as the number of gradations (bit width) of the image data increases, the capacity of the memory that stores the white reference data and the black reference data increases.

読取信号処理部14の後段に配された画像処理部40は、本実施形態の特徴部分である面内位置参照型の色むら補正部410と、原稿の色彩を忠実に再現するための公知のEND変換(Equivalent Neutral Density;等価中性濃度変換)もしくはENL変換(Equivalent Neutral Luminance;等価中性明度変換)を行なう入力階調補正部420と、色補正マトリックス演算を使ったデバイス非依存の画像データである標準出力への変換を行なう標準化色補正部(カラコレマトリックス演算部)430とを備えている。   An image processing unit 40 arranged at the subsequent stage of the read signal processing unit 14 is an in-plane position reference type color unevenness correction unit 410 which is a characteristic part of the present embodiment, and a known for faithfully reproducing the color of the document. An input tone correction unit 420 that performs END conversion (Equivalent Neutral Density) or ENL conversion (Equivalent Neutral Luminance), and device-independent image data using color correction matrix calculation And a standardized color correction unit (color correction matrix calculation unit) 430 that performs conversion to a standard output.

この第1実施形態の構成では、標準化色補正部430の前段、すなわち、読取対象の画像を読み取って標準色座標データに変換するまでの画像処理経路中に、色むら補正部410を設けている点に特徴を有する。なお、色むら補正部410による主走査方向の面内色むら補正と、標準化色補正部430による標準出力への変換のための標準化色補正とを纏めて、単に色補正ともいう。   In the configuration of the first embodiment, the color unevenness correction unit 410 is provided in a stage preceding the standardized color correction unit 430, that is, in an image processing path from reading an image to be read to converting it into standard color coordinate data. Characterized by points. The in-plane color unevenness correction in the main scanning direction by the color unevenness correction unit 410 and the standardized color correction for conversion to the standard output by the standardized color correction unit 430 are collectively referred to simply as color correction.

入力階調補正部420は、ルックアップテーブルLUTを参照して階調変換処理を行ない、変換済の画像データDR2,DG2,DB2を標準化色補正部430に渡す。END変換は、読取信号処理部14から送られてくるR,G,Bの輝度データを濃度関数を用いてENDデータに変換する(たとえば特公平6−101799号公報を参照)。ENDデータに変換すると、原稿が完全なグレー(無彩色)の絵柄である場合、R,G,B値が一致し、原稿の白黒濃度を表わすようになる。一方、ENL変換は、読取信号処理部14から送られてくるR,G,Bの反射率(あるいは透過率)データを明度関数を用いて明度信号に階調変換(γ変換)することでENLデータを取得する(たとえば特開平7−143262号公報段落0017,26、66〜70などや図4を参照)。   The input tone correction unit 420 performs tone conversion processing with reference to the lookup table LUT, and passes the converted image data DR2, DG2, DB2 to the standardized color correction unit 430. In the END conversion, R, G, and B luminance data sent from the read signal processing unit 14 are converted into END data using a density function (see, for example, Japanese Patent Publication No. 6-101799). When converted into END data, when the original has a complete gray (achromatic) pattern, the R, G, and B values match to represent the monochrome density of the original. On the other hand, in the ENL conversion, R, G, and B reflectance (or transmittance) data sent from the read signal processing unit 14 is converted into a brightness signal using a brightness function (gamma conversion). Data is acquired (see, for example, paragraphs 0017, 26, 66-70, etc. of JP-A-7-143262 and FIG. 4).

ENL変換でも、END変換と同様に、原稿が完全なグレー(無彩色)の絵柄である場合、R,G,B値が一致するように処理パラメータを決定する。END変換では、関数形として濃度関数を用いるのに対して、ENL変換では、関数形として明度関数を用いる点が異なるだけと考えてよい。本実施形態の入力階調補正部420は、後者のENL変換を採用する。   In the ENL conversion, as in the case of the END conversion, when the document has a complete gray (achromatic) pattern, the processing parameters are determined so that the R, G, and B values match. In END conversion, a density function is used as a function form, whereas in END conversion, only a lightness function is used as a function form. The input tone correction unit 420 of the present embodiment employs the latter ENL conversion.

標準化色補正部430は、入力階調補正部420による階調変換処理済の画像データDR2,DG2,DB2を処理対象のR,G,Bデータとして、たとえば、3×10の3色データを使った行列演算(マトリクス演算)により、標準フォーマットの画像データDR3,DG3,DB3、たとえば標準色座標である均等色空間で表されたLab値に変換する。   The standardized color correction unit 430 uses, for example, 3 × 10 three-color data as the R, G, B data to be processed using the image data DR2, DG2, DB2 subjected to the gradation conversion processing by the input gradation correction unit 420. By the matrix operation (matrix operation), the image data DR3, DG3, DB3 in the standard format, for example, are converted into Lab values expressed in a uniform color space that is standard color coordinates.

ルックアップテーブルとマトリックスによる色変換の構成は特開平7−143262号公報段落0017に述べられており、3×10の3色データを使った行列演算の例としては、特開平5−300367号公報段落0010に示されているものに、特開平7−322081号公報段落0034に示す定数項を加えたものである(下記式(1)を参照)。これらの例は、CMYへの変換であるが、高次の項を加えることはマトリックス変換の精度向上に一般的に使われるものであり係数の形は共通である。   The structure of color conversion using a look-up table and a matrix is described in paragraph 0017 of JP-A-7-143262. An example of matrix operation using 3 × 10 three-color data is disclosed in JP-A-5-300367. A constant term shown in paragraph 0034 of JP-A-7-322081 is added to what is shown in paragraph 0010 (see the following formula (1)). These examples are conversion to CMY, but adding higher-order terms is commonly used to improve the accuracy of matrix conversion, and the form of coefficients is common.

Figure 2007060354
Figure 2007060354

また、sRGB(Standard RGB)値への変換も、マトリックス変換の一般性から、ルックアップテーブルのγ特性(Labへの変換の場合、概略1/3乗の変換カーブであるのに対して、sRGBの場合は、概略1/2.2乗の変換カーブとなる)と、マトリックスの係数を変更することで、同様に対応できる。   Also, the conversion to sRGB (Standard RGB) value is also a γ characteristic of a lookup table (in the case of conversion to Lab, a conversion curve of approximately 1/3 power, because of the generality of matrix conversion, sRGB In the case of (2), the conversion curve is approximately 1 / 2.2), and the matrix coefficient can be changed in the same manner.

この第1実施形態の画像処理部40では、Lab値に変換するものとする。   In the image processing unit 40 according to the first embodiment, it is converted into a Lab value.

複写機や複合機などの画像形成装置にする場合には、標準化色補正部430の後段に画像出力装置950が接続される。この画像出力装置950は、たとえば画像入力装置930にて得られた画像信号により表される画像を、電子写真式、感熱式、熱転写式、インクジェット式、あるいは同様な従来の画像形成処理を利用して、普通紙や感熱紙上に可視画像を形成する(印刷する)。   When an image forming apparatus such as a copying machine or a multifunction machine is used, an image output device 950 is connected to the subsequent stage of the standardized color correction unit 430. The image output device 950 uses, for example, an electrophotographic method, a thermal method, a thermal transfer method, an ink jet method, or a similar conventional image forming process to display an image represented by an image signal obtained by the image input device 930. Thus, a visible image is formed (printed) on plain paper or thermal paper.

このため、画像出力装置950は、たとえばイエローY,マゼンタM,シアンC,ブラックKの2値化信号などの印刷出力用データを生成する画像処理部952と、画像処理装置をデジタル印刷システムとして稼働させるためのラスタ出力スキャンベースのプリントエンジン954を備える。   Therefore, the image output device 950 operates as an image processing unit 952 that generates print output data such as binary signals of yellow Y, magenta M, cyan C, and black K, for example, and the image processing device operates as a digital printing system. A raster output scan-based print engine 954.

本実施形態の特徴部分である色むら補正部410は、読取色の情報である読取信号処理部14から送られてきた色データDR1,DG1,DB1と読取位置の情報とに基づいて主走査方向の面内色むらの補正を行なう。   The color unevenness correction unit 410, which is a characteristic part of the present embodiment, is based on the color data DR 1, DG 1, DB 1 sent from the read signal processing unit 14, which is read color information, and the read position information. In-plane color unevenness correction is performed.

なお、ここで言う“主走査方向の面内色むら”とは、受光部140に使用するセンサの分光特性の画素ばら付きやオンチップフィルタの赤外透過域の影響を除去する赤外カットフィルタの画角特性(特に干渉膜フィルタの場合)に起因してセンサの受光感度がばらつくことにより生じる色むら、すなわち主走査方向における各画素の受光感度のばら付きに起因した色むらを意味する。   The “in-plane color unevenness in the main scanning direction” referred to here is an infrared cut filter that removes the influence of the dispersion of pixels in the spectral characteristics of the sensor used in the light receiving unit 140 and the infrared transmission region of the on-chip filter. This means color unevenness caused by variations in the light receiving sensitivity of the sensor due to the angle of view characteristics (particularly in the case of an interference film filter), that is, color unevenness due to variations in the light receiving sensitivity of each pixel in the main scanning direction.

なお、全幅のラインセンサに代えて、主走査方向幅に対して1/m幅のものをm個直列に並べて使用する場合、センサごとの受光感度のばら付きに起因した色段差が生じるが、この色段差そのものは、ここで問題とする面内色むらには含まない。   In addition, in place of the full width line sensor, when using 1 m of 1 / m width with respect to the width in the main scanning direction in series, there is a color step due to variation in light receiving sensitivity for each sensor. This color step itself is not included in the in-plane color unevenness which is a problem here.

一方、1/m幅のものをm個直列に並べて全体として全幅のラインセンサとしてみた場合における、受光感度の画素ばら付きに起因して生じる色むらは、“主走査方向の面内色むら”に含む。この場合、色むら補正部410による色むら補正処理では、n個のセンサ(つまり各画素)のそれぞれについて、面内色むらを補正することになる。この際には、色段差の吸収も含めて補正を行なうこともできる。   On the other hand, when the 1 / m-width m sensors are arranged in series and viewed as a full-width line sensor as a whole, the color unevenness caused by pixel variation in the light receiving sensitivity is “in-plane color unevenness in the main scanning direction”. Included. In this case, in the color unevenness correction process by the color unevenness correction unit 410, in-plane color unevenness is corrected for each of the n sensors (that is, each pixel). In this case, correction can be performed including absorption of color steps.

色むら補正部410としては、グレイ(無彩色データ)に対しては、殆ど影響を与えないものであることが肝要である。このためには、たとえば、色むら補正部410としては、2色のデータの差の関数(色差関数)を使用し、この色差関数を決定する係数(補正係数)を位置ごとに保持しておく構成を採用するとよい(詳細は後述する)。   It is important that the color unevenness correction unit 410 has little effect on gray (achromatic data). For this purpose, for example, the color unevenness correction unit 410 uses a function of difference between two color data (color difference function), and holds a coefficient (correction coefficient) for determining the color difference function for each position. A configuration may be employed (details will be described later).

2色のデータ差の関数(色差関数)に対する補正係数を使用することで、無彩色データに影響を与えないようにすることができるし、彩度が鮮やかな色と無彩色に近い色との差を考慮することもできるのである。この点では、同じように、複数の読取色の情報(R,G,Bの各色データ)から得られる色調に関する情報を利用して対象とする単色のみに対してゲイン補正を行なうことで色むら補正を行なう特開平6−152954号公報に記載の仕組みとは異なる。   By using a correction coefficient for the data difference function between two colors (color difference function), it is possible to prevent the achromatic data from being affected, and the saturation between vivid colors and colors close to achromatic colors. Differences can also be taken into account. In this respect, similarly, color unevenness is obtained by performing gain correction only on a target single color using information on the color tone obtained from information on a plurality of read colors (color data of R, G, and B). This is different from the mechanism described in Japanese Patent Laid-Open No. Hei 6-152954 that performs correction.

また、演算データ量を少なくするべく、2色のデータの差のべき乗の係数を位置ごとに保持する構成を採用するとよい(詳細は後述する)。補正係数を、2色のデータ差のべきの係数とすることで、補正に必要なデータ量を最小限にすることができるのである。   In order to reduce the amount of calculation data, it is preferable to employ a configuration in which a coefficient of power of the difference between two color data is held for each position (details will be described later). By making the correction coefficient a coefficient that is the difference between the data of the two colors, the amount of data necessary for correction can be minimized.

標準化色補正部430とは別に色むら補正を行なう機能部として色むら補正部410を設けることで、受光部140のデバイス(本例ではCCD)の分光特性に起因する読取色データを、標準色データ(LabやsRGBなど)に変換する機能と、画素単位の微妙な分光特性のむらを補正する機能を分離することができる。この結果、色むら補正部410での色むら補正量を小さくすることができ、規模の小さい補正演算で実現して、補正データ量を少なくすることができる。また、少数の対象色で色むら補正量を決定することができる。   In addition to the standardized color correction unit 430, the color unevenness correction unit 410 is provided as a functional unit that performs color unevenness correction, so that the read color data resulting from the spectral characteristics of the device (CCD in this example) of the light receiving unit 140 can be converted into the standard color. The function of converting to data (Lab, sRGB, etc.) and the function of correcting subtle unevenness of spectral characteristics in units of pixels can be separated. As a result, the color unevenness correction amount in the color unevenness correction unit 410 can be reduced, and the correction data amount can be reduced by realizing the correction operation with a small scale. In addition, the color unevenness correction amount can be determined with a small number of target colors.

色むら補正部410における演算として、無彩色データに影響を与えないようにすることで、補正によって生じる誤差を最小限にすることができるとともに、色むらの影響が大きい彩色データに補正が強くかかる性質を実現できる。   By correcting the color unevenness correction unit 410 so as not to affect the achromatic color data, errors caused by the correction can be minimized, and the color data that is greatly affected by the color unevenness is strongly corrected. The property can be realized.

以下、本実施形態の特徴部分である色むら補正部410について、その機能を詳細に説明する。   Hereinafter, the function of the color unevenness correction unit 410 which is a characteristic part of the present embodiment will be described in detail.

<色むら補正部の詳細>
図4は、色むら補正部410の一構成例(第1実施形態の色むら補正部410ともいう)を示す機能ブロック図である。色むら補正部410は、位置単位で色補正をマトリックス演算により行なうもので、位置単位のカラコレマトリックス演算部として機能する。
<Details of uneven color correction unit>
FIG. 4 is a functional block diagram illustrating a configuration example of the color unevenness correction unit 410 (also referred to as the color unevenness correction unit 410 of the first embodiment). The color unevenness correction unit 410 performs color correction by a matrix operation in units of positions and functions as a color correction matrix calculation unit in units of positions.

このような色むら補正部410は、グレイ(無彩色データ)に対して殆ど影響を与えないように2色のデータの差の関数を使用するべく、マトリックス演算の一例として、式(2)を適用する。つまり、R,G,Bの3つのデータのうちの、対象とする単色とそれ以外の少なくとも他の1色(あわせて、少なくとも2色)に対してゲイン補正を行ない、さらに元の色データと加算することで、色むら補正された色データを取得する。   Such an uneven color correction unit 410 uses Equation (2) as an example of a matrix operation so as to use a function of the difference between the two color data so as to hardly affect gray (achromatic color data). Apply. That is, gain correction is performed on the target single color and at least one other color (a total of at least two colors) of the three data of R, G, and B, and the original color data By performing the addition, color data corrected for color unevenness is acquired.

Figure 2007060354
Figure 2007060354

このため色むら補正部410は、減算部412および積和演算部413を具備し、色むら補正に関わる補正演算処理を行なう補正演算処理部414と、補正演算処理部414が使用する色むら補正に関わる補正係数αを画素ごとに記憶する補正係数格納部415とを備えている。   For this reason, the color unevenness correction unit 410 includes a subtraction unit 412 and a product-sum operation unit 413, a correction calculation processing unit 414 that performs correction calculation processing related to color unevenness correction, and a color unevenness correction used by the correction calculation processing unit 414. And a correction coefficient storage unit 415 that stores the correction coefficient α related to each pixel.

減算部412は、3色分の入力画像データDR1,DG1,DB1の内の何れか2色の成分を使った差分処理を行なう。積和演算部413は、減算部412から出力された減算データΔおよび入力画像データDR1,DG1,DB1と補正係数格納部415に記憶されている補正係数αを使って積和演算処理を行なう。   The subtraction unit 412 performs a difference process using any two color components of the input image data DR1, DG1, and DB1 for three colors. The product-sum operation unit 413 performs product-sum operation processing using the subtraction data Δ output from the subtraction unit 412, the input image data DR 1, DG 1, DB 1, and the correction coefficient α stored in the correction coefficient storage unit 415.

補正係数格納部415は、たとえば、データ保持部としてのRAMで構成できる。またRAMとしては、たとえばラインメモリ415を色(R,G,B)ごとに用意した構成としてもよい。たとえば式(2)に従った演算の実現には、補正済データDBcに対応した補正係数α11用にラインメモリ415_α11 を、補正済データDGcに対応した補正係数α21用にラインメモリ415_α21 および補正係数α22用にラインメモリ415_α22 を、補正済データDRcに対応した補正係数α31用にラインメモリ415_α31 を、それぞれ用意する。そして、各ラインメモリ415のアドレス位置と画素位置とを対応付けて所定の補正係数α11,α21,α22,α31を記憶しておく。   The correction coefficient storage unit 415 can be constituted by a RAM as a data holding unit, for example. As the RAM, for example, a line memory 415 may be prepared for each color (R, G, B). For example, to realize the calculation according to the equation (2), the line memory 415_α11 is used for the correction coefficient α11 corresponding to the corrected data DBc, the line memory 415_α21 and the correction coefficient α22 are used for the correction coefficient α21 corresponding to the corrected data DGc. A line memory 415_α22 is prepared for the correction coefficient α31 corresponding to the corrected data DRc. Then, predetermined correction coefficients α11, α21, α22, and α31 are stored in association with the address position and pixel position of each line memory 415.

この補正係数格納部415には、後述するように、予め使用するセンサの色むらの特性を調べておき、その色むらの特性に応じた積和演算で使用される分の適正な補正係数αを、色ごとおよび画素位置ごとに記憶しておく。この補正係数αの取得の際には所定の検査チャートを利用する。たとえば、従来より電子写真方式のカラー印刷装置の濃度再現性(あるいは色再現性)の検査に用いられている、C,M,Y,Kの各色材(一次色)の濃度違いの単色パッチ(均一な濃度の小領域)を1次元または2次元に配列したものを想定すればよい。2種類以上の色材を混ぜた高次色の単色パッチを含んでいてもよい。   In the correction coefficient storage unit 415, as described later, the characteristics of the color unevenness of the sensor to be used are checked in advance, and an appropriate correction coefficient α corresponding to the amount used in the product-sum operation according to the characteristics of the color unevenness. Is stored for each color and each pixel position. A predetermined inspection chart is used when obtaining the correction coefficient α. For example, a single color patch (difference in the density of each color material (primary color) of C, M, Y, K, which has been conventionally used for inspection of density reproducibility (or color reproducibility) of an electrophotographic color printing apparatus ( What is necessary is just to assume what arranged the small area | region of the uniform density | concentration in one dimension or two dimensions. A high-order single color patch in which two or more kinds of color materials are mixed may be included.

積和演算部414は、式(2)に示すマトリックス演算を行なう際、中央演算制御部180から発生されるアドレス信号に基づき、補正処理対象の画素と位置の同期がとられた補正係数α11〜α31を補正係数格納部415から順次読み出す。   The product-sum operation unit 414, when performing the matrix operation shown in Expression (2), based on the address signal generated from the central operation control unit 180, corrects the correction coefficients α11 to 11 that are synchronized with the correction target pixel. α31 is sequentially read from the correction coefficient storage unit 415.

そして、積和演算部414は、この読み出した補正係数α11〜α31を、3色データ中2色のデータ間の減算データを得る減算部412の出力Δ11,Δ21,Δ22,Δ31に乗算し、また必要に応じて乗算結果を加算することで、色別に差分データDΔB,DΔG,DΔRすなわち元データに対しての補正項DΔを取得し、さらにこれら差分データDΔB,DΔG,DΔRと元データDR1,DG1,DB1と加算することで、色むら補正が施された色データDRc,DGc,DBcを生成する。   The product-sum operation unit 414 multiplies the read correction coefficients α11 to α31 by the outputs Δ11, Δ21, Δ22, and Δ31 of the subtraction unit 412 that obtains subtraction data between the two colors of the three color data, By adding the multiplication results as necessary, the difference data DΔB, DΔG, DΔR, that is, the correction term DΔ for the original data is acquired for each color, and the difference data DΔB, DΔG, DΔR and the original data DR1, DG1 are obtained. , DB1 is added to generate color data DRc, DGc, DBc on which color unevenness correction has been performed.

図5〜図7は、主走査方向の面内色むらの問題を説明する図である。ここで、先ず図5は、受光部140に使用しているCCDラインセンサの分光感度特性の一例を示している。これは、フィルタの分光特性を含む、光検出器(センサ)の相対感度を、Rフィルタをつけた光検出器の感度1として正規化して、波長方向についての分布として示したものである。   5 to 7 are diagrams for explaining the problem of in-plane color unevenness in the main scanning direction. First, FIG. 5 shows an example of the spectral sensitivity characteristic of the CCD line sensor used in the light receiving unit 140. In this graph, the relative sensitivity of the photodetector (sensor) including the spectral characteristics of the filter is normalized as sensitivity 1 of the photodetector with the R filter and is shown as a distribution in the wavelength direction.

説明のため、B色については、実線Bで示す一般的な特性の他に、感度の落ちるフィルタ、すなわちフィルタ濃度が高くなっているものが設けられた場合の分光レスポンスのグラフを破線B’で示している。   For explanation, for the B color, in addition to the general characteristic indicated by the solid line B, a spectral response graph when a filter with low sensitivity, that is, a filter with a high filter density is provided, is indicated by a broken line B ′. Show.

読取信号の主走査方向における面内むらを発生させる主要な原因としては、図5に示すように、オンチップフィルタの厚さむらなどにより、センサの分光感度の帯域幅が変わることである。このことから、センサ分光特性の裾野の部分で、原稿色材分光特性が変化する色に対して、読取面内むらの影響が大きくなる。   As shown in FIG. 5, the main cause of occurrence of in-plane unevenness of the read signal in the main scanning direction is that the spectral sensitivity bandwidth of the sensor changes due to uneven thickness of the on-chip filter. For this reason, at the base of the sensor spectral characteristics, the influence of unevenness in the reading surface becomes large for the color whose original color material spectral characteristics change.

たとえば破線B’を実線Bと比べたとき、分光レスポンスのすそ野の部分(波長500nmの近傍)でもピーク近傍に近い程度に相対感度の差が存在する。したがって、波長500nm前後の成分の検出強度は、実線Bの特性のフィルタが付いた光検出器と、破線B’の特性のフィルタが付いた光検出器とでは、大きく異なってくる。つまり、B色用のセンサ(以下Bチャネルセンサともいう)の分光特性むらの影響を受けるのが、B色用のセンサの分光帯域で裾野の部分にあたる500nm付近で原稿色材分光特性が変化する、黄色や青色の原稿である。   For example, when the broken line B 'is compared with the solid line B, there is a difference in relative sensitivity to the extent that it is close to the peak even at the base of the spectral response (near the wavelength of 500 nm). Therefore, the detection intensity of the component around the wavelength of 500 nm is greatly different between the photodetector with the filter having the characteristic of the solid line B and the photodetector having the filter with the characteristic of the broken line B ′. In other words, the spectral characteristic of the original color material changes in the vicinity of 500 nm corresponding to the bottom of the spectral band of the B color sensor, which is affected by the spectral characteristic unevenness of the B color sensor (hereinafter also referred to as a B channel sensor). A yellow or blue manuscript.

また、このようなフィルタ濃度むらの影響は、同じ色の色材でも分光特性の差があり、印刷濃度によっても変わってくる。   Further, the influence of such filter density unevenness has a difference in spectral characteristics even with the same color material, and varies depending on the print density.

図6は、あるY色トナーを用いて面積階調方式で濃度を様々に変えた検査チャートを印刷し、その印刷結果をBフィルタつきの光検出器で読み取ったときの読取結果を示すグラフである。グラフの横軸は、B(青)成分の反射率を測定するための理想的な測定器で検査チャートを読み取ったときの反射率の値であり、この値は検査チャートのY濃度と一定の関係を持っている。これに対して、縦軸は、Bフィルタ付きの光検出器の出力する検出信号を反射率に換算した値である。この図には、Bフィルタのフィルタ濃度を0.6〜1.4まで0.2刻みで変えたときのグラフが示される。なお、フィルタ濃度は、真ん中の濃度の値を1として正規化したものである。   FIG. 6 is a graph showing a reading result when an inspection chart with various densities is printed by using a certain Y color toner and the printed result is read by a photodetector with a B filter. . The horizontal axis of the graph is the reflectance value when the inspection chart is read with an ideal measuring instrument for measuring the reflectance of the B (blue) component, and this value is constant with the Y density of the inspection chart. Have a relationship. On the other hand, the vertical axis is a value obtained by converting the detection signal output from the photodetector with the B filter into reflectance. This graph shows a graph when the filter density of the B filter is changed from 0.6 to 1.4 in increments of 0.2. The filter density is normalized by setting the middle density value to 1.

図7は、フィルタばら付きによる読取値のばら付き(誤差分)の一例を示す図である。ここでは、図6のグラフ群を、フィルタ濃度1.0でのグラフに対する誤差を縦軸としてプロットし直したものである。すなわち、黄色の原稿でのBチャネルセンサの反射率出力に対して、Bチャネルセンサのフィルタ濃度に対する読取反射率値の誤差をシミュレーションした例を示している。この図7から分かるように、フィルタ濃度に起因する誤差量が、黄色原稿の彩度、すなわちBチャネルセンサ出力の小ささに比例している。また、分光的に隣接する他色の影響を受ける。   FIG. 7 is a diagram illustrating an example of reading value variation (error) due to filter variation. Here, the graph group in FIG. 6 is re-plotted with the vertical axis representing the error relative to the graph at the filter density of 1.0. That is, an example is shown in which the error of the reading reflectance value with respect to the filter density of the B channel sensor is simulated for the reflectance output of the B channel sensor for a yellow document. As can be seen from FIG. 7, the amount of error due to the filter density is proportional to the saturation of the yellow document, that is, the small B channel sensor output. In addition, it is affected by other colors that are spectrally adjacent.

よって、こうした彩度情報として、積和演算の補正係数α11を画素ごとに持ち、隣接する2色データの差Δ11(=DB1−DG1)をとり、この差Δ11と補正係数α11とを乗算し、この乗算結果を使って元データDB1に対して補正を加えることで、画素単位の分光特性差を補正することができる。   Therefore, as such saturation information, the product-sum operation correction coefficient α11 is provided for each pixel, the difference Δ11 (= DB1-DG1) between adjacent two color data is taken, and the difference Δ11 is multiplied by the correction coefficient α11. By applying correction to the original data DB1 using the multiplication result, it is possible to correct the spectral characteristic difference in units of pixels.

他色のセンサについても、同様にして、積和演算の補正係数αを画素ごとに持ち、隣接する2色データの差Δをとり、この差と補正係数αとを乗算し、この乗算結果を使って元データに対して補正を加えることで、画素単位の分光特性差を補正することができる。たとえば、Gチャネルセンサに関しては、R色およびB色と分光的に隣接するので、補正係数α21,α22を画素ごとに持つとともに、G色とB色との差Δ21(=DG1−DB1)およびG色とR色との差Δ22(=DG1−DR1)をとり、これらの差Δ21,Δ22と対応する補正係数α21,α22とを乗算し、元データDG1に対して補正を加える。また、Rチャネルセンサに関しては、G色と分光的に隣接するので、補正係数α31を画素ごとに持つとともに、R色とG色との差Δ31(=DR1−DG1)をとり、この差Δ31と補正係数α31とを乗算し、元データDR1に対して補正を加える。   Similarly, sensors for other colors have a product-sum operation correction coefficient α for each pixel, take a difference Δ between adjacent two-color data, multiply the difference by the correction coefficient α, and calculate the multiplication result. By using and correcting the original data, it is possible to correct the spectral characteristic difference in pixel units. For example, since the G channel sensor is spectrally adjacent to the R and B colors, it has correction coefficients α21 and α22 for each pixel, and the difference Δ21 (= DG1-DB1) and G between the G and B colors. The difference Δ22 (= DG1−DR1) between the color and the R color is taken, and the difference Δ21, Δ22 is multiplied by the corresponding correction coefficient α21, α22 to correct the original data DG1. Since the R channel sensor is spectrally adjacent to the G color, it has a correction coefficient α31 for each pixel and takes the difference Δ31 (= DR1−DG1) between the R color and the G color. The correction coefficient α31 is multiplied to correct the original data DR1.

なお、面内むらの発生原因としては、オンチップフィルタの赤外透過域の影響を除去する赤外カットフィルタの画角特性(特に干渉膜フィルタの場合)を原因とするものもあるが、この場合も、隣接する2色間の差が大きくなる場合に、色むらが大きくなるので、同様の補正で対処することができる。何れにしても、最終的には画素の受光感度差として現われるものを対象として、主走査方向における各画素の受光感度のばら付きに起因した色むらを補正するのである。   In addition, the cause of in-plane unevenness is caused by the angle-of-view characteristics of the infrared cut filter that removes the influence of the infrared transmission region of the on-chip filter (particularly in the case of an interference film filter). Also in this case, when the difference between two adjacent colors increases, the color unevenness increases, and therefore, it can be dealt with by the same correction. In any case, the color unevenness caused by the variation in the light receiving sensitivity of each pixel in the main scanning direction is corrected for what finally appears as the difference in the light receiving sensitivity of the pixels.

また、式(2)に従ったこのような色むら補正処理では、入力色データの差分そのものに補正係数αを乗算し、この乗算結果を使って元データに対して補正を加えていたが、差分Δのn(nは2以上の正の整数)乗項をも利用することで、さらに補正精度を高めることもできる。   Further, in such color unevenness correction processing according to the equation (2), the difference itself between the input color data is multiplied by the correction coefficient α, and correction is applied to the original data using the multiplication result. The correction accuracy can be further improved by utilizing the n (where n is a positive integer greater than or equal to 2) power term of the difference Δ.

たとえば、Bチャネルセンサに関しては、互いに補色関係にある青色と黄色の色材で、同じ500nm域の分光特性の傾きが異なることから、たとえば差分Δ11(=DB1−DG1)が正となる場合と負となる場合とで補正の効き方を異ならせるために、差分Δ11(=DB1−DG1)の2乗項までとる補正を行なうことで、補正精度を高めることが考えられる。同様に、Gチャネルセンサに関しては差分Δ21(=DG1−DB1)および/または差分Δ22(=DG1−DR1)の2乗項まで、またRチャネルセンサに関しては差分Δ31(=DR1−DG1)の2乗項までをとればよい。分光感度特性のばらつきは、長波長側の裾野の方が大きいことから、Gチャネルセンサに関しては、差分Δ22(=DG1−DR1)の2乗項のみを使うことで十分とも言える。   For example, regarding the B channel sensor, since the slopes of the spectral characteristics in the same 500 nm region are different between the blue and yellow color materials that are complementary to each other, for example, the difference Δ11 (= DB1-DG1) is negative and negative. In order to make the effect of the correction different depending on the case, it is conceivable to improve the correction accuracy by performing the correction taking up to the square term of the difference Δ11 (= DB1−DG1). Similarly, up to the square of the difference Δ21 (= DG1-DB1) and / or the difference Δ22 (= DG1-DR1) for the G channel sensor and the square of the difference Δ31 (= DR1-DG1) for the R channel sensor. Take up to the section. Since the dispersion of spectral sensitivity characteristics is larger at the base on the long wavelength side, it can be said that it is sufficient to use only the square term of the difference Δ22 (= DG1-DR1) for the G channel sensor.

また、Bチャネルセンサに関しては、その分光特性において、フィルタの近赤外域での不要透過に対応するため、分光的に隣接する差分Δ11(=DB1−DR1)の他に、さらに差分Δ13(=DB1−DR1)の項を含めることで、さらに補正精度を向上させることもできる。   For the B channel sensor, in addition to the spectrally adjacent difference Δ11 (= DB1−DR1), in addition to the difference Δ11 (= DB1−DR1) in spectral characteristics, the difference Δ13 (= DB1) By including the term -DR1), the correction accuracy can be further improved.

すなわち、これら補正精度を向上させるマトリックス演算の一例として、式(3)を適用することが考えられる。   That is, it is conceivable to apply Equation (3) as an example of matrix calculation for improving the correction accuracy.

Figure 2007060354
Figure 2007060354

なお、このような補正精度を向上させるマトリックス演算を行なうには、補正係数格納部415は、追加項に対する補正係数(式(3)に従う場合にはα12,α13,α23,α32)を画素位置と対応付けて保持する必要があり、そのためには、たとえばそれぞれ用のランメモリを用意する。   In order to perform matrix calculation for improving the correction accuracy, the correction coefficient storage unit 415 uses the correction coefficients for the additional terms (α12, α13, α23, α32 in the case of following equation (3)) as the pixel position. For this purpose, for example, a run memory for each is prepared.

ただし、このようにして補正精度を上げたとしても、各色当たり、2個〜3個の補正係数を画素ごとに格納しておけばよく、面内分光特性むらの補正を画素単位に行なうことができる。   However, even if the correction accuracy is increased in this way, it is only necessary to store 2 to 3 correction coefficients for each color for each pixel, and correction of in-plane spectral characteristic unevenness can be performed in units of pixels. it can.

この場合の補正係数用のデータ量は、シェーディング補正に使用するラインメモリ量の2〜3倍程度であり、回路規模上に大きな障害を与えることはない。   In this case, the data amount for the correction coefficient is about 2 to 3 times the amount of line memory used for shading correction, and does not give a large obstacle to the circuit scale.

また、減算データΔの符号対策を行なうことで補正精度を向上させる仕組みとして、前例では減算データΔの2乗項をも使用する例を示したが、その対処手法は、これに限るものではない。   In addition, as a mechanism for improving the correction accuracy by taking a countermeasure against the sign of the subtraction data Δ, the previous example shows an example in which the square term of the subtraction data Δ is also used. However, the countermeasure is not limited to this. .

たとえば、減算データΔの符号を判定して、その減算データΔに乗算する補正係数αの値を切り換える手法を採用することもできる。たとえば、Rチャネルセンサについては、式(4)を適用することが考えられる。なお、式(3)中での補正係数α32と、式(4)中での補正係数α32とは異なる。   For example, a method of determining the sign of the subtraction data Δ and switching the value of the correction coefficient α to be multiplied by the subtraction data Δ can be adopted. For example, it is conceivable to apply Equation (4) for the R channel sensor. Note that the correction coefficient α32 in equation (3) is different from the correction coefficient α32 in equation (4).

Figure 2007060354
Figure 2007060354

式(3)および式(4)の何れに従う場合でも、元データに対しての補正項DΔを2色間の差の関数とすることで、無彩色の読取時に補正量をほぼ“0”にすることができる。補正エラーが懸念される無彩色読取時には、2色間の差がほとんど“0”となることから、通常の白基準によるシェーディング補正により殆ど面内むらがなく補正されている無彩色データに対しては、新たな補正が加わることによる補正エラーは生じない。   Regardless of the equation (3) or (4), the correction amount DΔ for the original data is a function of the difference between the two colors, so that the correction amount is substantially “0” when reading achromatic colors. can do. When reading achromatic colors where correction errors are a concern, the difference between the two colors is almost “0”. For achromatic data that has been corrected with almost no in-plane unevenness by shading correction based on the normal white reference. Will not cause a correction error due to the addition of a new correction.

また、このような画素単位の面内むらを補正するための補正項DΔの決定に当たっては、先ず、Y(イエロー),M(マゼンタ),C(シアン),B(青),G(緑),R(赤)などの彩色データ数種類の色材を使って、主走査方向に濃度がほぼ一様(均一)なチャートを読み取り、各色用のセンサと各画素単位について、主走査方向の平均出力からの差分データを作成するとよい。むらの影響が大きくでる色(Bチャンネルの場合、分光感度特性の裾野で、波長変化が大きいY色とB色)のみでなくむらの影響の少ないものも含めデータを作成することで補正精度を向上させるものである。   In determining the correction term DΔ for correcting such in-plane unevenness in pixel units, first, Y (yellow), M (magenta), C (cyan), B (blue), G (green) , R (red) and other color materials of several kinds of color materials are used to read a chart with substantially uniform (uniform) density in the main scanning direction, and the average output in the main scanning direction for each color sensor and each pixel unit It is recommended to create difference data from Correction accuracy is improved by creating data that includes not only colors that are affected by unevenness (in the case of the B channel, Y and B colors that have a large wavelength change at the base of spectral sensitivity characteristics) but also those that are less affected by unevenness. It is to improve.

またこの際には、後述する第2実施形態と同様に、主走査方向に均一な濃度を持つ所定色の帯状のチャートを読み取り、その帯を単位として、主走査方向の同一位置の画素データを副走査方向に平均化処理を行なって各主走査位置での画素情報とし、その主走査方向の平均出力からの差分データを作成することで、主走査方向のプリント出力むらデータを作成するとよい。   At this time, similarly to the second embodiment described later, a band chart of a predetermined color having a uniform density in the main scanning direction is read, and pixel data at the same position in the main scanning direction is read in units of the band. It is preferable to create uneven print data in the main scanning direction by performing averaging processing in the sub-scanning direction to obtain pixel information at each main scanning position and creating difference data from the average output in the main scanning direction.

次に、式(5)に基づいて、各色の実際の差分量と式(5)の各色の差分データDΔの和が最小となるように、たとえば最小2乗法などを利用して、各色用のセンサと画素ごとに補正係数αを求めればよい。   Next, based on Equation (5), for example, the least square method is used so that the sum of the actual difference amount of each color and the difference data DΔ of each color in Equation (5) is minimized. The correction coefficient α may be obtained for each sensor and pixel.

Figure 2007060354
Figure 2007060354

この際、この画素単位の色補正部の役割を、画素ごとの微小なばら付き補正に限定していることから、標準色への変換時の補正量に比べ、補正量を小さくすることができる。つまり、標準色への変換に際しての読取系全体の分光特性を補正する場合に必要な非線形な変換などは、画素単位の補正に受け持たせる必要がなく、数百色を対象に補正係数を決めなくとも、YMCBGRなど少数の色を基にして補正係数を決定すればいい。元々、無彩色や明度の低い色に対しては、この補正の補正量が小さいため、最適化に使う必要は少ないのである。   At this time, since the role of the color correction unit in units of pixels is limited to the correction with small variations for each pixel, the correction amount can be reduced compared to the correction amount at the time of conversion to the standard color. . In other words, non-linear conversion required when correcting the spectral characteristics of the entire reading system during conversion to standard colors does not need to be handled by pixel-by-pixel correction, and correction coefficients are determined for several hundred colors. Even if not, the correction coefficient may be determined based on a small number of colors such as YMCBGR. Originally, for achromatic colors and colors with low brightness, the amount of correction is small, so there is little need to use it for optimization.

厳密には、読取色の彩度ばかりでなく、読取色材の分光特性(たとえば印刷の色材と写真の色材とによる吸収波長のずれ)によって、補正係数は変える必要があるが、たとえばプリンタ出力むらを計測する用途では、プリンタに使用されるトナー色材が限定されているため、色材差を考える必要がない。   Strictly speaking, the correction coefficient needs to be changed depending on not only the saturation of the read color but also the spectral characteristics of the read color material (for example, a shift in the absorption wavelength due to the color material for printing and the color material for photography). In applications where output unevenness is measured, there is no need to consider color material differences because toner color materials used in printers are limited.

以上説明したように、第1実施形態の画像取得部10、特に色補正(主走査方向の面内色むら補正および標準化色補正)に関わる信号処理系統である画像処理部40の構成によれば、受光部140が使用する撮像デバイスの画素列方向(主走査方向)のオンチップフィルタ特性ばら付きや光学系分光特性の画角特性などに起因する主走査方向の面内色むらに対する補正機能を実現するに当たって、標準色データ(前例ではLab)に変換する機能を実現する標準化色補正部430と、画素単位の微妙な分光特性ばら付きなどに起因する色むらを補正する機能を実現する色むら補正部410とに分離するようにした。   As described above, according to the configuration of the image acquisition unit 10 of the first embodiment, particularly the image processing unit 40 which is a signal processing system related to color correction (in-plane color unevenness correction and standardized color correction in the main scanning direction). A correction function for in-plane color unevenness in the main scanning direction due to variations in the on-chip filter characteristics in the pixel column direction (main scanning direction) of the imaging device used by the light receiving unit 140 and the field angle characteristics of the optical system spectral characteristics. To achieve this, the standardized color correction unit 430 that realizes the function of converting to standard color data (Lab in the previous example), and the color unevenness that realizes the function of correcting color unevenness caused by subtle variations in spectral characteristics in units of pixels. Separated from the correction unit 410.

つまり、白基準による規格化を行なったのみの読取生データから基準出力(本例ではLab値)に変換する工程の途中で、すなわちシェーディング補正後から標準色座標データに変換する過程において、補正量の小さい画素単位の色むら補正と、補正量が比較的大きくなる基準出力座標への変換を行なう2つの色補正部を持つ構成とした。   That is, during the process of converting the raw read data that has only been standardized by the white reference into the reference output (Lab value in this example), that is, in the process of converting to the standard color coordinate data after shading correction, the correction amount The color unevenness correction is performed in units of small pixels, and two color correction units that perform conversion to reference output coordinates where the correction amount is relatively large are provided.

特に、色むら補正機能部分については、たとえばR,G,Bの各色データなど補正対象の色データごとに、つまり補正対象色ごとに、対象とする単色とそれ以外の少なくとも他の1色、合わせて少なくとも2色のデータに対して補正を加えることで色むら補正済の色データを取得するようにしている。   In particular, for the color unevenness correction function, for example, for each color data to be corrected such as R, G, B color data, that is, for each color to be corrected, the target single color and at least one other color are combined. Thus, by correcting the data of at least two colors, the color data corrected for color unevenness is obtained.

これにより、主走査方向の面内色むらの補正と標準色座標データへの補正変換の両機能を、比較的簡易な構成で達成できるようになった。たとえば、センサのオンチップフィルタむらや光学系の分光画角特性などに起因する読取面内むらを補正して、プリント出力の面内むら測定にも使用できる精度を持った色読取特性を獲得することができるし、面内色むら補正機能に必要な補正データのデータ量を、現実的な規模で実現することもできる。   As a result, both functions of correcting in-plane color unevenness in the main scanning direction and correcting conversion to standard color coordinate data can be achieved with a relatively simple configuration. For example, by correcting unevenness in the reading surface due to on-chip filter unevenness of the sensor and spectral field angle characteristics of the optical system, color reading characteristics with accuracy that can be used for in-plane unevenness measurement of print output are obtained. In addition, the amount of correction data necessary for the in-plane color unevenness correction function can be realized on a realistic scale.

たとえば、デジタル複写機のプリント出力むら検知などに必要な読取精度を確保することができる。また、色むら補正部410での補正量を小さくすることができる。その結果として、規模の小さい補正演算で色むら補正を実現でき、かつ補正データ量を少なくすることができる。   For example, it is possible to ensure the reading accuracy required for detecting the print output unevenness of a digital copying machine. Further, the correction amount in the color unevenness correction unit 410 can be reduced. As a result, color unevenness correction can be realized with a small-scale correction calculation, and the amount of correction data can be reduced.

また、色むら補正を行なうための補正量を、少数の対象色で決定することができるし、無彩色データに影響を与えないような演算処理を行なうことで、補正によって生じる誤差を最小限にすることができるとともに、色むらの影響が大きい彩色データに補正が強くかかる性質を実現できる。   In addition, the amount of correction for correcting uneven color can be determined with a small number of target colors, and by performing arithmetic processing that does not affect achromatic data, errors caused by correction can be minimized. In addition, it is possible to realize a property in which correction is strongly applied to chromatic data that is greatly affected by color unevenness.

<他の構成例との比較>
たとえば、標準的なスキャナの読取りでは、面内むらの補正や色読取特性の補正としては、画素単位の白基準による補正(方式によっては黒基準の補正を加えるものもあり)や、読取装置全体の特性として色補正マトリックス演算を使った標準出力への変換が行なわれる程度と考えてよい。
<Comparison with other configuration examples>
For example, in standard scanner reading, in-plane unevenness correction and color reading characteristics correction can be done by pixel-based white reference (some methods add black reference correction), or the entire reader It can be considered that the conversion to the standard output using the color correction matrix operation is performed.

この場合、たとえば、図3に示した本実施形態の画像取得部10の信号処理系統において、色むら補正部410を取り外した構成を採ることが考えられる。この場合の信号の流れは次のようになる。ラインセンサ142から出力された3色のアナログビデオ走査線信号SR,SG,SBは、出力増幅回路246にてゲインオフセット調整をアナログ信号上で施された後、A/D変換回路248によりA/D変換されデジタル信号DR,DG,DBに変換される。   In this case, for example, in the signal processing system of the image acquisition unit 10 of the present embodiment illustrated in FIG. 3, it is possible to adopt a configuration in which the color unevenness correction unit 410 is removed. The signal flow in this case is as follows. The analog video scanning line signals SR, SG, and SB output from the line sensor 142 are subjected to gain offset adjustment on the analog signal by the output amplifier circuit 246 and then A / D conversion circuit 248 performs A / D conversion. D-converted and converted into digital signals DR, DG, DB.

この後、シェーディング補正回路250にて、白基準データの読取標準出力を使って規格化が行なわれる。ここでは、白基準の読取データをもとに生成された画素ごとの補正係数(白基準出力の逆数)と読取画像信号との乗算処理が行なわれシェーディング補正済のデータDR1,DG1,DB1が画像処理部40に出力される。この際、CCDのクロック制御をも行なっている中央演算制御部180から発生されるアドレス信号によって、補正処理対象の画素と位置の同期がとられた補正係数がラインメモリ251から順次読み出されて規格化演算が行なわれる。   Thereafter, the shading correction circuit 250 performs normalization using the read standard output of the white reference data. Here, the data DR1, DG1, and DB1 after shading correction are performed by multiplying a correction coefficient (reciprocal of the white reference output) for each pixel generated based on the white reference read data and the read image signal. The data is output to the processing unit 40. At this time, the correction coefficient whose position is synchronized with the pixel to be corrected is sequentially read out from the line memory 251 by the address signal generated from the central processing control unit 180 that also controls the clock of the CCD. Normalization operations are performed.

次に、画像処理部40では、入力階調補正部420にてENL変換と呼ばれるLUTによる階調変換処理が施されることで画像データDR2,DG2,DB2が得られた後、標準化色補正部430にて、3×10の3色データを使った行列演算により標準色座標であるLab色空間あるいはsRGB色空間の画像データDR3,DG3,DB3に変換される。   Next, in the image processing unit 40, after the image data DR 2, DG 2, and DB 2 are obtained by performing gradation conversion processing by LUT called ENL conversion in the input gradation correction unit 420, the standardized color correction unit At 430, the image data DR3, DG3, and DB3 in the Lab color space or sRGB color space, which are standard color coordinates, are converted by matrix calculation using 3 × 10 three-color data.

ここで、主走査方向に複数の画素を持つラインセンサ142を使用して画像を読み取ると、ラインセンサ142の画素上に設けられるオンチップフィルタ厚のばら付きや光学系の画角特性などにより読取分光特性に主走査方向むらが存在し、これに起因して、出力画像上に主走査方向に明度むらが発生する。これを改善するのがいわゆるシェーディング補正である。   Here, when an image is read using the line sensor 142 having a plurality of pixels in the main scanning direction, the image is read due to variations in the thickness of the on-chip filter provided on the pixels of the line sensor 142, the angle of view characteristics of the optical system, and the like. There is unevenness in the main scanning direction in the spectral characteristics, and as a result, unevenness in brightness occurs in the main scanning direction on the output image. What is improved is so-called shading correction.

しかし、一般的なシェーディング補正処理は、前述のように、白基準による規格化演算程度しか行なっておらず、R,G,Bの色単位での明度むらの補正に留まるため、R,G,Bの組合せで生成される色に関しては、3色の明度むらの微妙な差により色むらが残ってしまう。つまり、一般的なシェーディング補正処理のみでは、面内の色むらに対応することができないのである。彩度の高い色を読み取った際に、出力画像上に、主走査方向に色むらが存在してしまう。   However, as described above, the general shading correction processing is performed only for the normalization calculation based on the white reference, and only the lightness unevenness correction in R, G, B color units. Regarding the color generated by the combination of B, color unevenness remains due to a subtle difference in brightness unevenness of the three colors. In other words, it is not possible to deal with in-plane color unevenness only by general shading correction processing. When a highly saturated color is read, color unevenness exists in the main scanning direction on the output image.

ただし、従来のカラーデジタル複写機などの用途では、こうした分光特性ばら付きなどに起因する面内の色むらは、複写機を構成するカラーレーザープリンタ出力の面内ばら付きなどに比べて小さいため大きな問題とはならないと言ってよい。つまり、従来のような複写用途であれば、読取装置側での面内色むらに比べると、画像形成装置側での面内色むらの方が大きく、事実上、読取装置側での面内色むらは問題とならないのである。   However, in applications such as conventional color digital copiers, the in-plane color unevenness caused by such dispersion in spectral characteristics is large compared to the in-plane variation in the output of the color laser printer that constitutes the copier, so it is large. It can be said that it does not matter. In other words, in conventional copying applications, the in-plane color unevenness on the image forming apparatus side is larger than the in-plane color unevenness on the reading apparatus side. Color unevenness is not a problem.

しかしながら一方で、カラーレーザープリンタを印刷市場に応用するため、画像形成装置側での面内むらの改善が進んでいる。こうした画像形成装置側での画質改善がなされると、従来問題とならなかった読取装置側での面内色むらが注目されるようになる。   However, on the other hand, in order to apply a color laser printer to the printing market, improvement of in-plane unevenness on the image forming apparatus side is progressing. When image quality is improved on the image forming apparatus side, in-plane color unevenness on the reading apparatus side, which has not been a problem in the past, will be noticed.

また、デジタル複写機の読取部の機能として、単純に複写機用の読取装置やスキャンイン端末以外に、カラープリンタ間の出力特性の校正やカラープリンタの面内むら検知の用途も考えられている。こうした用途では、面内読取むらとして色差“1”程度が求められる。したがって、こうした用途では、前述のような面内分光特性ばら付きなどに起因する面内色むらの問題が顕在化してくる。   Also, as a function of the reading unit of a digital copying machine, in addition to a reading device for a copying machine and a scan-in terminal, the use of calibration of output characteristics between color printers and in-plane unevenness detection of color printers is also considered. . In such applications, a color difference of about “1” is required as in-plane reading unevenness. Therefore, in such applications, the problem of in-plane color unevenness due to variations in in-plane spectral characteristics as described above becomes obvious.

また、3色レジストレーションエラー改善のため、読取画素列間の間隔を詰めることが考えられるが、こうした技術の流れは、オンチップフィルタを各読取画素列に正確に形成することが難しくなることから、分光特性ばら付き性能を阻害する方向となる。結果として、読取装置側では、3色レジストレーションエラー改善と面内色むらとは、相反する方向となる。   In addition, it is conceivable to reduce the interval between the read pixel columns in order to improve the three-color registration error. However, this technology flow makes it difficult to accurately form an on-chip filter in each read pixel column. The spectral characteristic variation performance is hindered. As a result, on the reading device side, the three-color registration error improvement and the in-plane color unevenness are in opposite directions.

こうした分光特性のばら付きなどに起因する色むらを補正する提案としては種々のものが提案されている。なお、カラー複写機における色補正とは、読取系デバイスに起因する分光特性差を色補正係数を使用して補正してLabやsRGBなどの標準的の色座標に変換(標準特性変換)するものと、標準的な色座標からプリンタ出力のYMCK信号に変換するものがあるが、ここでは、前者を対象にする。   Various proposals have been proposed for correcting color unevenness caused by such variations in spectral characteristics. Note that color correction in a color copying machine is one that corrects spectral characteristic differences caused by the reading device using color correction coefficients and converts them into standard color coordinates such as Lab and sRGB (standard characteristic conversion). In some cases, the standard color coordinate is converted into a YMCK signal output from the printer. Here, the former is targeted.

色補正係数としては、従来は3×4程度の小規模の行列を使用すればよかったが、色変換精度を求めるためには、3×10や3×20など、読取色の2次の項や3次の項を使用する。   Conventionally, a small matrix of about 3 × 4 should be used as the color correction coefficient, but in order to obtain the color conversion accuracy, a quadratic term of the read color such as 3 × 10 or 3 × 20 Use third-order terms.

このため、こうした標準出力への色補正係数を、全画素分、3×10の係数分(30個)持つこと想定すると、メモリ量が膨大となる。また、1つの色補正部(色変換部)で、面内色むら補正と標準特性変換の2つの役割を担わそうとした場合、その標準特性への変換が強い非線形な変換特性を持つため、その変換特性差により、画素単位や小ブロック単位に、新たなむらが発生することも想定される。   For this reason, if it is assumed that the color correction coefficients for the standard output have 3 × 10 coefficients (30) for all pixels, the amount of memory becomes enormous. In addition, when one color correction unit (color conversion unit) tries to play two roles of in-plane color unevenness correction and standard characteristic conversion, since the conversion to the standard characteristic has strong nonlinear conversion characteristics, Due to the difference in the conversion characteristics, it may be assumed that new unevenness occurs in pixel units or small block units.

またこうした色補正係数を決定するには、通常、数百色のデータを使って最適値を求めるが、これを各画素単位に行なおうとすると、膨大な工数が必要となるとともに、数十枚の補正出力データを採取する間の変動で、精度低下の懸念も生じる。   In order to determine such a color correction coefficient, an optimum value is usually obtained by using data of several hundred colors. However, if this is performed for each pixel unit, a huge amount of man-hours are required and several tens of sheets are required. Due to fluctuations during the collection of the corrected output data, there is a concern that accuracy may be reduced.

また、主走査方向における分光特性むらに起因する色むらを補正する他の仕組みとして、特開平6−152954号公報に記載の仕組みがある。この仕組みでは、白色シェーディングが施された画像データに対してさらに色シェーディング(色むらと同義)を補正する機能部を設けている。具体的には、白色シェーディングが施された画像がどのような色調であるのかを判別するべくスペクトル分布を測定し、その測定結果に基づいて色調むらが低減するように、白色シェーディングが施されたR,G,Bの各色データについて、画素アドレスを参照しながら、センサを構成する各素子についてそれぞれ補正を加えている。つまり、白シェーディング補正されたR,G,Bの何れか1つのデータに対して色調を参照したゲイン補正を行なうことで、色むら補正済のR(G,B)データを取得する。   As another mechanism for correcting color unevenness caused by spectral characteristic unevenness in the main scanning direction, there is a mechanism described in Japanese Patent Laid-Open No. 6-152594. In this mechanism, a functional unit for correcting color shading (synonymous with color unevenness) is further provided for image data subjected to white shading. Specifically, the spectral distribution was measured to determine what color tone the white-shaded image was, and white shading was applied to reduce the unevenness of the color tone based on the measurement result. With respect to each color data of R, G, and B, correction is made for each element constituting the sensor while referring to the pixel address. That is, R (G, B) data with corrected color unevenness is obtained by performing gain correction with reference to the color tone on any one of R, G, and B data subjected to white shading correction.

色調は、複数の読取色の情報によって決定されるものであるので、色調を測定した結果に基づいてセンサを構成する各素子の出力データについて補正を加えることで色シェーディングを補正するという点においては、複数の読取色の情報であるR,G,Bの各色データと読取位置の情報を使って色むらの補正を行なう本実施形態の色むら補正部410の基本的な機能は似通っている。   Since the color tone is determined by information of a plurality of read colors, the color shading is corrected by correcting the output data of each element constituting the sensor based on the result of measuring the color tone. The basic function of the color unevenness correction unit 410 of this embodiment that performs color unevenness correction using R, G, and B color data, which is information on a plurality of read colors, and information on read positions is similar.

しかしながら、本実施形態では、2色の差である色差情報を使って補正を加えることで色むら補正済のR(G,B)データを取得するもの、つまり、R,G,Bの3つのデータのうちの、対象とする単色とそれ以外の少なくとも他の1色(あわせて、少なくとも2色)に対してゲイン補正を行なうことで色むら補正済のR(G,B)データを取得するものであるので、対象とする色ごとに複数色のデータを使った補正演算(たとえばマトリックス演算)となり、色相と彩度の双方を考慮した色むら補正を行なうことができる。   However, in the present embodiment, R (G, B) data obtained by correcting color unevenness by applying correction using color difference information that is a difference between two colors, that is, three of R, G, B R (G, B) data with corrected color unevenness is obtained by performing gain correction on the target single color and at least one other color (in combination, at least two colors) of the data. Therefore, the correction calculation (for example, matrix calculation) using data of a plurality of colors for each target color is performed, and color unevenness correction in consideration of both hue and saturation can be performed.

この結果、彩度が鮮やかな色と無彩色に近い色との差を考慮でき、彩度の違いに応じた適正量で補正を加えることができる。色調のみの情報では、彩度の違いに応じた適正量で補正を加えることができないのと大きく異なる。   As a result, it is possible to take into account the difference between a brightly saturated color and a color close to an achromatic color, and correction can be made with an appropriate amount corresponding to the difference in saturation. The information of only the color tone is greatly different from the case where correction cannot be made with an appropriate amount corresponding to the difference in saturation.

また、本願出願人は、特願2005−020991号にて、テストチャートの読取りに限定して、カラーシェーディング係数を決める仕組みを提案している。この仕組みでは、補正データをR,G,Bの色ごとに持つ必要上、限定された色にしか対応できない。これに対して、本実施形態では、補正対象となるR,G,Bについてだけでなく、色差データに対するゲイン補正を考慮して、さらに補正データとして持つ色の情報をたとえばY,M,Cといように増やすので、補正対象となるR,G,Bについてだけ補正データを持つ場合に比べて、色むら改善に対応できる範囲が広がる。   In addition, the applicant of the present application has proposed a mechanism for determining a color shading coefficient in Japanese Patent Application No. 2005-020991, limited to reading of a test chart. In this mechanism, it is necessary to have correction data for each of R, G, and B colors, and only a limited color can be handled. On the other hand, in the present embodiment, not only R, G, and B to be corrected but also color information held as correction data, for example, Y, M, and C, considering gain correction for color difference data. Therefore, compared with the case where correction data is provided only for R, G, and B to be corrected, the range in which color unevenness can be improved is widened.

<画像取得部の信号処理系統;第2実施形態>
図8は、画像取得部10の信号処理機能に着目して、その詳細の第2実施形態を示したブロック図である。
<Signal Processing System of Image Acquisition Unit; Second Embodiment>
FIG. 8 is a block diagram showing a second embodiment in detail focusing on the signal processing function of the image acquisition unit 10.

この第2実施形態は、画像取得部10を構成する処理回路の外部に色むら補正部440を設け、この外部に配置された色むら補正部440により色むら補正を行なう点に特徴を有する。   The second embodiment is characterized in that a color unevenness correction unit 440 is provided outside the processing circuit constituting the image acquisition unit 10 and the color unevenness correction unit 440 arranged outside the color correction is performed.

この観点では、従来の構成に対してハードウェア変更を殆ど加えなくても実現できる。たとえば、読み取った画像を表わす所定の色空間の色データを標準色座標データに変換するまでの過程、すなわち読取信号処理部14の出力から標準化色補正部430への入力までにおいて、画像処理部40におけるデータパスの途中から画像データを外部の色むら補正部440に取り込み、その画像データに対して色むら補正を加えてから戻す構成を採ればよい。“標準化色補正部430の前段において”との制約の下では、現実的には、入力階調補正部420の直前もしくは直後から画像データを取り込み、色むら補正後の画像データを戻すことになる。   From this point of view, it can be realized with almost no hardware change to the conventional configuration. For example, in the process until the color data of a predetermined color space representing the read image is converted into the standard color coordinate data, that is, from the output of the read signal processing unit 14 to the input to the standardized color correction unit 430, the image processing unit 40. A configuration may be adopted in which image data is taken into an external color unevenness correction unit 440 from the middle of the data path, and the image data is corrected after color unevenness correction and then returned. Under the restriction of “in the previous stage of the standardized color correction unit 430”, the image data is actually captured immediately before or immediately after the input tone correction unit 420, and the image data after the color unevenness correction is returned. .

外部における色むら補正機能の実現に当たっては、専用のハードウェア回路で構成された色むら補正部440を使用することに限らず、画像処理部40におけるデータパスの途中から取り込んだデータを使ってパーソナルコンピュータ(パソコン)などの電子計算機により演算処理を行なうことでも実現できる。すなわち、電子計算機が色むら補正部440の機能をソフトウェア処理で実現することになる。以下、図3に示した第1実施形態の構成との相違点を中心に説明する。   The implementation of the color unevenness correction function outside is not limited to the use of the color unevenness correction unit 440 configured by a dedicated hardware circuit, and personal data is used using data captured from the middle of the data path in the image processing unit 40. It can also be realized by performing arithmetic processing by an electronic computer such as a computer (personal computer). That is, the electronic computer implements the function of the color unevenness correction unit 440 by software processing. In the following, the description will focus on differences from the configuration of the first embodiment shown in FIG.

たとえば、色むら補正部440には、第1実施形態の補正演算処理部414に相当する補正演算処理部444および補正係数格納部415に相当する補正係数格納部445の他に、画像処理部40におけるデータパスの途中から取り込んだ画像データ(読取画像を表す画像データ)を保持するデータ保持部449を用意する。そして、データ保持部449に格納した画像データもしくは必要に応じて所望の信号処理を加えた後の画像データに対して補正演算処理部444にて色むら補正を加えるとよい。   For example, the color unevenness correction unit 440 includes the image processing unit 40 in addition to the correction calculation processing unit 444 corresponding to the correction calculation processing unit 414 and the correction coefficient storage unit 445 corresponding to the correction coefficient storage unit 415 of the first embodiment. A data holding unit 449 for holding image data (image data representing a read image) captured from the middle of the data path is prepared. Then, color unevenness correction may be performed by the correction calculation processing unit 444 on the image data stored in the data holding unit 449 or image data after performing desired signal processing as necessary.

図9は、こうした補正処理を使うことで読取面内むらを軽減した読取部を使用して印刷濃度むら測定を行なう際に使用するチャートの一例を示す図である。図示するように、画像形成部(画像出力部;プリントエンジン)にて使用する濃度再現性(あるいは色再現性)の検査に用いられている、C,M,Y,Kの各色材(1次色)(および必要に応じて高次色も)の濃度違いの単色パッチ(均一な濃度の小領域)を主走査方向すなわち1次元に配列したものである。   FIG. 9 is a diagram illustrating an example of a chart used when measuring print density unevenness using a reading unit that reduces unevenness in the reading surface by using such correction processing. As shown in the figure, C, M, Y, and K color materials (primary) used for inspection of density reproducibility (or color reproducibility) used in an image forming unit (image output unit; print engine). Color) (and higher order colors if necessary) are monochromatic patches (small areas of uniform density) of different densities arranged in the main scanning direction, that is, one-dimensionally.

このように、各1次色(および必要に応じて高次色も)の濃度違いのプリントエンジンの主走査方向の印刷範囲の幅を持つ帯状領域B_1,B_2,…,B_M(Mは正の整数;図では5までを示す)を含んだ検査チャート(帯状チャート)を用いることで、濃度再現性に加えて、主走査方向の印刷濃度むら(面内むら)を検査できるのである。検査する色の数が多く1枚の検査チャートに収まらない場合は、複数枚に分けて印刷することになる。なお、図9では、色の相違をハッチングパターンの相違で表現している。   In this way, strip regions B_1, B_2,..., B_M (M is positive) having the width of the print range in the main scanning direction of the print engine with different densities of each primary color (and higher order colors if necessary). By using an inspection chart (band chart) including an integer (showing up to 5 in the figure), in addition to density reproducibility, printing density unevenness (in-plane unevenness) in the main scanning direction can be inspected. If the number of colors to be inspected is too large to fit on a single inspection chart, printing is performed separately for a plurality of sheets. In FIG. 9, the difference in color is expressed by the difference in hatching pattern.

第2実施形態の色むら補正部440において、色むら補正処理を行なうには、たとえば、図9に示すものと同様で、主走査方向に平坦(均一)な濃度を持つ所定色の帯状のチャートを読み取り、その帯を単位として、主走査方向の同一位置の画素データを副走査方向に平均化処理を行なって各主走査位置での画素情報とし、すなわちカラー帯単位の色情報に変換し、その主走査方向の平均出力からの差分データにより主走査方向のプリント出力むらデータを作成し、その情報に基づいて色むらを補正するための補正係数αを求めておくとよい。   In the color unevenness correction unit 440 of the second embodiment, in order to perform the color unevenness correction process, for example, the same as shown in FIG. 9, a strip chart of a predetermined color having a flat (uniform) density in the main scanning direction. The pixel data at the same position in the main scanning direction is averaged in the sub scanning direction as pixel information at each main scanning position, that is, converted into color information in color band units. It is preferable to create print output unevenness data in the main scanning direction based on difference data from the average output in the main scanning direction, and obtain a correction coefficient α for correcting color unevenness based on the information.

原理的には、1つの主走査線分の画像データのみ基づいて補正係数αを求めることも可能であるが、読取時のばら付きを考慮すれば、主走査方向の同一画素位置ごとに、複数の副走査位置で得られる情報(画素データ)の平均値に基づいて各主走査位置での画素情報を取得するようにした方が、精度が格段に向上する。   In principle, it is possible to obtain the correction coefficient α based only on image data of one main scanning line. However, if variation in reading is taken into consideration, a plurality of correction coefficients α are provided for each same pixel position in the main scanning direction. If the pixel information at each main scanning position is acquired based on the average value of the information (pixel data) obtained at the sub-scanning position, the accuracy is remarkably improved.

このような第2実施形態の構成および手法による色むら補正においても、白基準による規格化を行なったのみの読取生データから基準出力(Lab値やsRGB値)に変換する工程の途中で、すなわちシェーディング補正後から標準色座標データに変換する過程において、色情報(前述したような2色間の差のデータ)に基づく補正量の小さい主走査方向についての画素単位の色むら補正を行なう機能部と、補正量が比較的大きくなる基準出力座標への変換を行なう機能部と言った2つの色補正部を持つ構成となることでは、前述した第1実施形態と同様であり、面内色むら補正に関して得られる効果も基本的には第1実施形態と相違ない。   Even in the color unevenness correction by the configuration and method of the second embodiment as described above, in the middle of the process of converting the raw read data that has only been standardized by the white reference to the reference output (Lab value or sRGB value), that is, A functional unit that performs color unevenness correction for each pixel in the main scanning direction with a small correction amount based on color information (difference data between two colors as described above) in the process of conversion to standard color coordinate data after shading correction. In addition, the configuration having two color correction units such as a function unit that performs conversion to a reference output coordinate with a relatively large correction amount is the same as the first embodiment described above, and in-plane color unevenness. The effect obtained with respect to the correction is basically the same as that of the first embodiment.

<画像取得部の信号処理系統;第3実施形態>
図10は、画像取得部10の信号処理機能に着目して、その詳細の第3実施形態を示したブロック図である。
<Signal Processing System of Image Acquisition Unit; Third Embodiment>
FIG. 10 is a block diagram showing a third embodiment in detail focusing on the signal processing function of the image acquisition unit 10.

この第3実施形態は、標準化色補正の後段において色むら補正を行なう点に特徴を有する。具体的には、標準化色補正部430の後段に、色むら補正部450を備えている。なお、このような標準化色補正部430の後段に色むら補正部450を備える構成は、従来の構成に対してハードウェア変更を行なわなくても実現でき、たとえば標準化色補正部430からの出力データを使ってパーソナルコンピュータなどの電子計算機により演算処理を行なうことでも実現できる。すなわち、電子計算機が色むら補正部450の機能をソフトウェア処理で実現することになる。以下、図3に示した第1実施形態の構成との相違点を中心に説明する。   This third embodiment is characterized in that color unevenness correction is performed after the standardized color correction. Specifically, a color unevenness correction unit 450 is provided in the subsequent stage of the standardized color correction unit 430. Such a configuration including the color unevenness correction unit 450 subsequent to the standardized color correction unit 430 can be realized without changing the hardware of the conventional configuration. For example, output data from the standardized color correction unit 430 This can also be realized by performing arithmetic processing using an electronic computer such as a personal computer. That is, the electronic computer implements the function of the color unevenness correction unit 450 by software processing. In the following, the description will focus on differences from the configuration of the first embodiment shown in FIG.

先ず、第3実施形態の画像処理部40における標準化色補正部430は、入力階調補正部420から出力されたENL変換済の画像データを処理対象のR,G,Bデータとして、たとえば、3×10の3色データを使った行列演算(マトリクス演算)により、標準フォーマットのデータとしてのsRGB値に変換する。   First, the standardized color correction unit 430 in the image processing unit 40 according to the third embodiment uses the ENL converted image data output from the input tone correction unit 420 as R, G, B data to be processed, for example, 3 Conversion into sRGB values as standard format data is performed by matrix calculation (matrix calculation) using three-color data of × 10.

この標準化色補正部430の後段に配された色むら補正部450は、入力階調補正部420における階調変換と逆特性の階調変換(逆階調変換ともいう)を行なう階調補正部453と、第1実施形態の色むら補正部410における補正演算処理部414と同様の構成の補正演算処理部454および補正係数格納部415と同様の構成の補正係数格納部455と、補正演算処理部454により色むら補正が施された画像データに対して、入力階調補正部420における階調変換と同特性の階調変換を行なう階調補正部457とを備えている。階調補正部453,457における逆階調変換および階調変換としては、第1実施形態の入力階調補正部420と同様に、ENL変換を採用する。   The color unevenness correction unit 450 arranged at the subsequent stage of the standardized color correction unit 430 is a gradation correction unit that performs gradation conversion (also referred to as reverse gradation conversion) with a reverse characteristic to the gradation conversion in the input gradation correction unit 420. 453, the correction coefficient processing unit 454 having the same configuration as the correction calculation processing unit 414 in the color unevenness correction unit 410 of the first embodiment, and the correction coefficient storage unit 455 having the same configuration as the correction coefficient storage unit 415, and the correction calculation processing A gradation correction unit 457 that performs gradation conversion of the same characteristics as the gradation conversion in the input gradation correction unit 420 on the image data that has been subjected to color unevenness correction by the unit 454; As the reverse gradation conversion and gradation conversion in the gradation correction units 453 and 457, ENL conversion is adopted as in the input gradation correction unit 420 of the first embodiment.

このような第3実施形態の構成の場合、階調補正部453により、一旦逆階調補正を行なってから色むら補正を行ない、その後に階調補正部457により階調補正を行なうので、主走査方向の色むら補正処理を行なう順序としては、事実上、第1実施形態と同様に、ENL補正の前段となる。   In the case of the configuration of the third embodiment, since the gradation correction unit 453 performs reverse gradation correction once and then performs color unevenness correction, and then the gradation correction unit 457 performs gradation correction. The order in which color unevenness correction processing in the scanning direction is performed is practically the previous stage of ENL correction, as in the first embodiment.

たとえば、標準化色補正部430から出力される標準色座標(本例ではsRGB色空間)で表された画像データDR3,DG3,DB3を、パソコンに取り込んで主走査方向における色むら補正を施す。   For example, image data DR3, DG3, DB3 represented by standard color coordinates (sRGB color space in this example) output from the standardized color correction unit 430 is taken into a personal computer and color unevenness correction is performed in the main scanning direction.

ここで、標準出力であるsRGBデータで出力された画像データDR3,DG3,DB3に対して、色むら補正処理を反射率空間でかけるために、入力階調補正部420による階調補正の効果を元に戻すべく階調補正部453により逆ENL変換をかけた後、画像データ取込時に決まる画像アドレスに基づいて、第1実施形態の補正演算処理部414にて行なっていた主走査方向の画素単位の色むら補正処理をソフトウェア処理により行ない、階調補正部457にて再度ENL変換をかけることで、標準色座標(本例ではsRGB色空間)で表された画像データDR4,DG4,DB4に変換する。   Here, in order to apply the color unevenness correction process to the image data DR3, DG3, DB3 output as the standard output sRGB data in the reflectance space, the effect of the gradation correction by the input gradation correction unit 420 is based on the original. Pixel unit in the main scanning direction performed by the correction calculation processing unit 414 of the first embodiment based on the image address determined at the time of taking in the image data after performing the inverse ENL conversion by the gradation correction unit 453 to return to The color unevenness correction processing is performed by software processing, and the ENL conversion is performed again by the gradation correction unit 457, thereby converting the image data into the image data DR4, DG4, and DB4 expressed in standard color coordinates (sRGB color space in this example). To do.

このようにして生成された画像データDR4,DG4,DB4は、たとえばカラープリンタ間の出力特性の校正におけるカラーパッチデータの計算や、カラープリンタにおけるプリント出力時の色むら情報抽出の用途に使用する場合に、精度の高い出力画像データの取得に好適なものとなる。   The image data DR4, DG4, and DB4 generated in this way are used for, for example, calculation of color patch data in calibration of output characteristics between color printers, and extraction of color unevenness information at the time of print output in a color printer. In addition, it is suitable for obtaining highly accurate output image data.

<画像取得部の信号処理系統;第4実施形態>
図11は、画像取得部10の信号処理機能に着目して、その詳細の第4実施形態を示したブロック図である。また、図12は、第4実施形態の色むら補正部内の一機能部の処理を説明する図である。
<Signal Processing System of Image Acquisition Unit; Fourth Embodiment>
FIG. 11 is a block diagram showing a fourth embodiment in detail focusing on the signal processing function of the image acquisition unit 10. FIG. 12 is a diagram illustrating processing of one functional unit in the color unevenness correction unit according to the fourth embodiment.

第4実施形態は、標準化色補正の後段において色むら補正を行なう点で第3実施形態と同様であるが、標準化色補正部430から出力される標準色座標(本例ではsRGB色空間)で表された画像データDR3,DG3,DB3を処理対象として、一旦、副走査方向に所定ライン数分の平均化処理を行なった後に、副走査方向への数値データ列とし、さらに逆ENL補正を施してから主走査方向の面内色むら補正を行なう点に特徴を有する。   The fourth embodiment is the same as the third embodiment in that color unevenness correction is performed after the standardized color correction. However, the fourth embodiment uses standard color coordinates (sRGB color space in this example) output from the standardized color correction unit 430. Using the represented image data DR3, DG3, and DB3 as a processing target, once averaging processing for a predetermined number of lines in the sub-scanning direction is performed, a numerical data string in the sub-scanning direction is generated, and inverse ENL correction is performed. It is characterized in that the in-plane color unevenness correction in the main scanning direction is corrected.

具体的には、標準化色補正部430の後段に、第3実施形態の色むら補正部450と同様の構成要素を包含した色むら補正部460を備えている。なお、このような標準化色補正部430の後段に色むら補正部460を備える構成は、第3実施形態と同様に、パーソナルコンピュータなどの電子計算機により演算処理を行なうことでも実現できる。すなわち、電子計算機が色むら補正部460の機能をソフトウェア処理で実現することになる。以下、図10に示した第3実施形態の構成との相違点を中心に説明する。   Specifically, a color unevenness correction unit 460 including the same components as the color unevenness correction unit 450 of the third embodiment is provided after the standardized color correction unit 430. Note that the configuration including the color unevenness correction unit 460 subsequent to the standardized color correction unit 430 can also be realized by performing arithmetic processing using an electronic computer such as a personal computer, as in the third embodiment. That is, the electronic computer implements the function of the color unevenness correction unit 460 by software processing. Hereinafter, the difference from the configuration of the third embodiment illustrated in FIG. 10 will be mainly described.

先ず、階調補正部463は階調補正部453に、補正演算処理部464は補正演算処理部454に、補正係数格納部465は補正係数格納部455に、階調補正部467は階調補正部457にそれぞれ対応する。   First, the gradation correction unit 463 is the gradation correction unit 453, the correction calculation processing unit 464 is the correction calculation processing unit 454, the correction coefficient storage unit 465 is the correction coefficient storage unit 455, and the gradation correction unit 467 is the gradation correction. Each corresponds to the portion 457.

また、第4実施形態の色むら補正部460の特徴部分として、標準化色補正部430から取り込んだ画像データDR3,DG3,DB3の副走査方向に所定ライン数分の帯状データを単位として、主走査方向の同一位置の画素データを副走査方向に平均化処理を行なう副走査方向平均化処理部461と、平均化処理された主走査方向各位置の平均出力を所定ライン数分ごとに出力することで副走査方向への数値データ列、すなわちカラー帯単位の色情報に変換する数値データ列処理部462とを有している。   Further, as a characteristic part of the color unevenness correction unit 460 of the fourth embodiment, main scanning is performed in units of band data corresponding to a predetermined number of lines in the sub-scanning direction of the image data DR3, DG3, DB3 captured from the standardized color correction unit 430. A sub-scanning direction averaging processing unit 461 that averages pixel data at the same position in the direction in the sub-scanning direction, and an average output at each position in the main scanning direction subjected to the averaging process is output every predetermined number of lines. And a numerical data string processing unit 462 for converting into numerical data strings in the sub-scanning direction, that is, color information in units of color bands.

ここで“所定ライン数”は、たとえば図9に示したような、主走査方向に平坦(均一)な濃度を持つ所定色の帯状のチャートに相当するライン数とするのがよい。   Here, the “predetermined number of lines” is preferably the number of lines corresponding to a strip-shaped chart of a predetermined color having a flat (uniform) density in the main scanning direction as shown in FIG.

このような第4実施形態の色むら補正部460では、sRGB座標の読取画像データから、一旦、図12に示すように、帯状チャートの帯状領域に対応させて、副走査方向に所定ライン数分の平均化処理を副走査方向平均化処理部461にて行なった後、数値データ列処理部462により数値データ列として出力し、以下、第3実施形態と同様に、色むら補正処理を反射率空間でかけるために、入力階調補正部420による階調補正の効果を元に戻すべく階調補正部463により逆ENL変換をかける。その後、画像データ取込時に決まる画像アドレスに基づいて、第1実施形態の補正演算処理部414にて行なっていた主走査方向の画素単位の色むら補正処理を行ない、階調補正部457にて再度ENL変換をかけることで、標準色座標(本例ではsRGB色空間)で表された数値データ列DR5,DG5,DB5として出力する。   In the color unevenness correction unit 460 of the fourth embodiment as described above, from the read image data of the sRGB coordinates, as shown in FIG. 12, a predetermined number of lines in the sub-scanning direction are once associated with the belt-like region of the belt-like chart. Is processed by the sub-scanning direction averaging processing unit 461, and then output as a numerical data sequence by the numerical data sequence processing unit 462. Hereinafter, as in the third embodiment, the color unevenness correction processing is performed with the reflectance. In order to apply in space, the tone correction unit 463 performs inverse ENL conversion in order to restore the effect of the tone correction by the input tone correction unit 420. Thereafter, based on the image address determined when the image data is taken in, the color unevenness correction processing for each pixel in the main scanning direction, which has been performed by the correction calculation processing unit 414 of the first embodiment, is performed, and the gradation correction unit 457 performs. By performing the ENL conversion again, it is output as a numerical data string DR5, DG5, DB5 expressed in standard color coordinates (sRGB color space in this example).

このようにして生成された数値データ列DR5,DG5,DB5は、検査対象であるプリンタの主走査方向の面内色むらデータとしてそのまま使用することができる。   The numerical data strings DR5, DG5, and DB5 generated in this way can be used as they are as in-plane color unevenness data in the main scanning direction of the printer to be inspected.

<画像取得部の信号処理系統;第5実施形態>
図13は、画像取得部10の信号処理機能に着目して、その詳細の第5実施形態を示したブロック図である。また、図14は、第5実施形態の色むら補正部内の一機能部の処理を説明する図である。
<Signal Processing System of Image Acquisition Unit; Fifth Embodiment>
FIG. 13 is a block diagram showing a fifth embodiment in detail focusing on the signal processing function of the image acquisition unit 10. FIG. 14 is a diagram illustrating processing of one functional unit in the color unevenness correction unit according to the fifth embodiment.

第5実施形態は、標準化色補正の後段において色むら補正を行なう点で第3および第4実施形態と同様であるが、先ず標準化色補正部430にては3×10のカラコレマトリックス部分の係数を処理を素通しにする係数に設定し、色むら補正の後にカラコレマトリックス処理を利用した標準化色補正を行なうようにした点に特徴を有する。なお、色むら補正の前後における基本的な信号処理としては、第4実施形態と同様とする。   The fifth embodiment is the same as the third and fourth embodiments in that color unevenness correction is performed after the standardized color correction. First, the standardized color correction unit 430 uses a coefficient of a 3 × 10 color correction matrix portion. Is set to a coefficient that makes processing easy, and after color unevenness correction, standardized color correction using color correction matrix processing is performed. The basic signal processing before and after color unevenness correction is the same as in the fourth embodiment.

具体的には、標準化色補正部430の後段に、第4実施形態の色むら補正部460と同様の構成要素を包含した色むら補正部470を備えている。なお、このような標準化色補正部430の後段に色むら補正部470を備える構成は、第3および第4実施形態と同様に、パーソナルコンピュータなどの電子計算機により演算処理を行なうことでも実現できる。すなわち、電子計算機が色むら補正部470の機能をソフトウェア処理で実現することになる。以下、図11に示した第4実施形態の構成との相違点を中心に説明する。   Specifically, a color unevenness correction unit 470 including the same components as the color unevenness correction unit 460 of the fourth embodiment is provided after the standardized color correction unit 430. Note that the configuration including the color unevenness correction unit 470 subsequent to the standardized color correction unit 430 can also be realized by performing arithmetic processing using an electronic computer such as a personal computer, as in the third and fourth embodiments. That is, the electronic computer realizes the function of the color unevenness correction unit 470 by software processing. Hereinafter, the difference from the configuration of the fourth embodiment shown in FIG. 11 will be mainly described.

先ず、副走査方向平均化処理部471は副走査方向平均化処理部461に、数値データ列処理部472は数値データ列処理部462に、階調補正部473は階調補正部463に、補正演算処理部474は補正演算処理部464に、補正係数格納部475は補正係数格納部465に、階調補正部477は階調補正部467にそれぞれ対応する。   First, the sub-scanning direction averaging processing unit 471 performs correction in the sub-scanning direction averaging processing unit 461, the numerical data string processing unit 472 in the numerical data string processing unit 462, and the gradation correction unit 473 in the gradation correction unit 463. The arithmetic processing unit 474 corresponds to the correction arithmetic processing unit 464, the correction coefficient storage unit 475 corresponds to the correction coefficient storage unit 465, and the gradation correction unit 477 corresponds to the gradation correction unit 467.

また第5実施形態の色むら補正部470の特徴部分として、先ず、補正演算処理部474と階調補正部477との間に主走査方向平均化処理部476を備える。主走査方向平均化処理部476は、補正演算処理部474により色むら補正が施された画像データDRc,DGc,DBcを処理対象として、主走査方向に所定画素数分の平均化処理を行なう。   As a characteristic part of the color unevenness correction unit 470 of the fifth embodiment, first, a main scanning direction averaging processing unit 476 is provided between the correction calculation processing unit 474 and the gradation correction unit 477. The main scanning direction averaging processing unit 476 performs averaging processing for a predetermined number of pixels in the main scanning direction on the image data DRc, DGc, DBc subjected to color unevenness correction by the correction calculation processing unit 474.

ここで“所定画素数”は、後述する図15に示すような、主走査方向および副走査方向に平坦(均一)な濃度を持つ所定色の矩形状のチャートに相当する主走査方向の画素数とするのがよい。   Here, the “predetermined number of pixels” is the number of pixels in the main scanning direction corresponding to a rectangular chart of a predetermined color having a flat (uniform) density in the main scanning direction and the sub-scanning direction as shown in FIG. It is good to do.

なお、副走査方向平均化処理部471における平均化処理対象の“所定ライン数”は、たとえば図15に示したような主走査方向および副走査方向に平坦(均一)な濃度を持つ所定色の矩形状のチャートに相当する副走査方向の画素数(ライン数)とするのがよい。   Note that the “predetermined number of lines” to be averaged in the sub-scanning direction averaging processing unit 471 is a predetermined color having a flat (uniform) density in the main scanning direction and the sub-scanning direction as shown in FIG. It is preferable to set the number of pixels (number of lines) in the sub-scanning direction corresponding to a rectangular chart.

さらに第5実施形態の色むら補正部470の特徴部分として、階調補正部477の後段に標準化色補正部430と同様の機能を持つ標準化色補正部478を備えている。本例ではLab色空間のデータに変換する。色情報(前述したような2色間の差のデータ)に基づく補正量の小さい主走査方向についての画素単位の色むら補正を行なう色むら補正部470が、事実上、補正量が比較的大きくなる基準出力座標への変換を行なう色補正部を包含した構成となるのである。   Further, as a characteristic part of the color unevenness correction unit 470 of the fifth embodiment, a standardized color correction unit 478 having a function similar to that of the standardized color correction unit 430 is provided after the gradation correction unit 477. In this example, it is converted to data in the Lab color space. The color unevenness correction unit 470 that performs color unevenness correction for each pixel in the main scanning direction with a small correction amount based on the color information (difference data between the two colors as described above) effectively has a relatively large correction amount. This is a configuration including a color correction unit that performs conversion into reference output coordinates.

図15は、第5実施形態の色むら補正部470における色むら補正に供される画像(パッチチャート)の一例を示す図である。図示するように、画像形成部(画像出力部;プリントエンジン)にて使用する濃度再現性(あるいは色再現性)の検査に用いられている、C,M,Y,Kの各色材(1次色)(および必要に応じて高次色も)の濃度違いの単色パッチ(均一な濃度の小領域)を主走査方向および副走査方向すなわち2次元に配列したものである。   FIG. 15 is a diagram illustrating an example of an image (patch chart) used for color unevenness correction in the color unevenness correction unit 470 according to the fifth embodiment. As shown in the figure, C, M, Y, and K color materials (primary) used for inspection of density reproducibility (or color reproducibility) used in an image forming unit (image output unit; print engine). Color) (and higher order colors if necessary) are monochromatic patches (small areas of uniform density) with different densities arranged in the main scanning direction and the sub-scanning direction, that is, two-dimensionally.

このように、各1次色(および必要に応じて高次色も)の濃度違いのプリントエンジンの主走査方向および副走査方向の印刷範囲の幅を持つ矩形領域B_11 ,B_12 ,…,B_1M ,B_21 ,B_22 ,…,B_2M ,…,B_N1 ,B_N2 ,…,B_NM (M,Nは正の整数)を含んだ検査チャート(矩形チャート)を用いることで、濃度再現性に加えて、主走査方向および副走査方向の印刷濃度むら(面内むら)を検査できるのである。検査する色の数が多く1枚の検査チャートに収まらない場合は、複数枚に分けて印刷することになる。なお、図15では、色の相違をハッチングパターンの相違で表現している。   In this way, the rectangular areas B_11, B_12,..., B_1M having the widths of the print ranges in the main scanning direction and the sub-scanning direction of the print engine having different densities of the primary colors (and higher order colors if necessary) By using an inspection chart (rectangular chart) including B_21, B_22,..., B_2M,..., B_N1, B_N2, ..., B_NM (M and N are positive integers), in addition to the density reproducibility, the main scanning direction In addition, the printing density unevenness (in-plane unevenness) in the sub-scanning direction can be inspected. If the number of colors to be inspected is too large to fit on a single inspection chart, printing is performed separately for a plurality of sheets. In FIG. 15, the difference in color is expressed by the difference in hatching pattern.

第5実施形態の色むら補正部470において、色むら補正処理を行なうには、先ず前提として、標準化色補正部430における3×10のカラコレマトリックス部分の係数を、処理を素通しにする係数に設定する。よって、事実上、標準化色補正部430からは、入力階調補正部420によるENL補正のみを施した、デバイス依存のRGB座標の画像データDR6,DG6,DB6が出力される。   In order to perform the color unevenness correction process in the color unevenness correction unit 470 of the fifth embodiment, first, as a premise, the coefficient of the 3 × 10 color correction matrix portion in the standardized color correction unit 430 is set to a coefficient that facilitates the process. To do. Therefore, in effect, the standardized color correction unit 430 outputs device-dependent RGB coordinate image data DR 6, DG 6, and DB 6 that have undergone only ENL correction by the input tone correction unit 420.

そして、たとえば、図15に示すような、主走査方向および副走査方向に平坦(均一)な濃度を持つ所定色の矩形部分(特にテストパッチともいう)をそれぞれ読み取り、その矩形を単位として、先ず、副走査方向平均化処理部471にて、主走査方向の同一位置の画素データを副走査方向に平均化処理を行なって各主走査位置での画素情報とし、すなわちテストパッチの副走査方向単位の色情報に変換し、数値データ列処理部472により数値データ列として出力する。   Then, for example, as shown in FIG. 15, a rectangular portion (in particular, also called a test patch) of a predetermined color having a flat (uniform) density in the main scanning direction and the sub-scanning direction is read. In the sub-scanning direction averaging processing unit 471, pixel data at the same position in the main scanning direction is averaged in the sub-scanning direction to obtain pixel information at each main scanning position. And is output as a numerical data string by the numerical data string processing unit 472.

そして、色むら補正処理を反射率空間でかけるために、入力階調補正部420による階調補正の効果を元に戻すべく階調補正部473により逆ENL変換をかける。その後、画像データ取込時に決まる画像アドレスに基づいて、第1実施形態の補正演算処理部414にて行なっていた主走査方向の画素単位の色むら補正処理を行なう。   Then, in order to apply the color unevenness correction process in the reflectance space, the tone correction unit 473 performs inverse ENL conversion to restore the effect of the tone correction by the input tone correction unit 420. Thereafter, based on the image address determined at the time of image data fetching, the color unevenness correction processing for each pixel in the main scanning direction, which has been performed by the correction calculation processing unit 414 of the first embodiment, is performed.

この後、主走査方向平均化処理部476にて、図14(B)に示すように、パッチチャートの主走査方向における矩形領域(パッチ範囲)に対応させて、副走査方向の同一位置の数値列データを主走査方向に平均化処理を行なって各副走査位置での画素情報とする、すなわちテストパッチの主走査方向単位の色情報に変換する。図14(A)に示すように、パッチチャートの副走査方向における矩形領域(パッチ範囲)に対応させて副走査方向平均化処理部471にて平均化処理を行ない、数値データ列処理部472にて、テストパッチの副走査方向単位の色情報(数値列データ)に変換しているので、結果的には、カラーパッチ単位の色情報に変換されることになる。   Thereafter, in the main scanning direction averaging processing unit 476, as shown in FIG. 14B, the numerical value at the same position in the sub-scanning direction corresponding to the rectangular area (patch range) in the main scanning direction of the patch chart. The column data is averaged in the main scanning direction to obtain pixel information at each sub-scanning position, that is, converted to color information in the main scanning direction unit of the test patch. As shown in FIG. 14A, the sub-scanning direction averaging processing unit 471 performs averaging processing in correspondence with the rectangular area (patch range) in the sub-scanning direction of the patch chart, and the numerical data string processing unit 472 As a result, the color information (numerical string data) in the sub-scanning direction unit of the test patch is converted into color information in color patch units.

さらに、階調補正部477にて再度ENL変換を施した後に、標準化色補正部478にて、第1実施形態の標準化色補正部430と同様にして、3×10のカラコレマトリックス処理を行なうことで、標準色座標(本例ではLab色空間)で表された数値データDR7,DG7,DB7として出力する。結果的には、Labのカラーパッチごとの色座標情報が出力されるようになる。   Further, after ENL conversion is performed again by the gradation correction unit 477, the standardized color correction unit 478 performs 3 × 10 color correction matrix processing in the same manner as the standardized color correction unit 430 of the first embodiment. Thus, it is output as numerical data DR7, DG7, DB7 expressed in standard color coordinates (Lab color space in this example). As a result, color coordinate information for each Lab color patch is output.

このようにして生成された数値データDR7,DG7,DB7は、第4実施形態と同様に、検査対象であるプリンタの主走査方向の面内色むらデータや、プリンタ間の色出力特性把握のためのより高精度なデータとしてそのまま使用することができる。   The numerical data DR7, DG7, and DB7 generated in this way are used for grasping in-plane color unevenness data in the main scanning direction of the printer to be inspected and color output characteristics between the printers, as in the fourth embodiment. It can be used as it is as more accurate data.

なお、第3〜第5実施形態の構成および手法による色むら補正においても、画像データまたは数値データによらず、処理の最終段階では、標準的な色座標のデータとして出力される。つまり、白基準による規格化を行なったのみの読取生データから基準出力(Lab値やsRGB値)に変換して出力する工程の途中で、すなわちシェーディング補正後から標準色座標データに変換して出力する過程において、色情報(前述したような2色間の差のデータ)に基づく補正量の小さい主走査方向についての画素単位の色むら補正を行なう機能部と、補正量が比較的大きくなる基準出力座標への変換を行なう機能部と言った2つの色補正部を持つ構成となることでは、前述した第1実施形態と同様であり、面内色むら補正に関して得られる効果も基本的には第1実施形態と相違ない。   In the color unevenness correction according to the configurations and methods of the third to fifth embodiments, standard color coordinate data is output at the final stage of processing regardless of image data or numerical data. In other words, in the middle of the process of converting the read raw data that has only been standardized by the white reference into the reference output (Lab value or sRGB value) and outputting it, that is, after the shading correction, it is converted to the standard color coordinate data and output. In this process, a functional unit that performs color unevenness correction for each pixel in the main scanning direction with a small correction amount based on color information (difference data between two colors as described above), and a reference for a relatively large correction amount Having a configuration having two color correction units called function units that perform conversion to output coordinates is the same as in the first embodiment described above, and basically the effects obtained with respect to in-plane color unevenness correction are also obtained. There is no difference from the first embodiment.

以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態に多様な変更または改良を加えることができ、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれる。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various changes or improvements can be added to the above-described embodiment without departing from the gist of the invention, and embodiments to which such changes or improvements are added are also included in the technical scope of the present invention.

また、上記の実施形態は、クレーム(請求項)にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組合せの全てが発明の解決手段に必須であるとは限らない。前述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組合せにより種々の発明を抽出できる。実施形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られる限りにおいて、この幾つかの構成要件が削除された構成が発明として抽出され得る。   Further, the above embodiments do not limit the invention according to the claims (claims), and all combinations of features described in the embodiments are not necessarily essential to the solution means of the invention. Absent. The embodiments described above include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. Even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, as long as an effect is obtained, a configuration from which these some constituent requirements are deleted can be extracted as an invention.

たとえば、前述の各実施形態では、補正特性上は、図7に示した特性のように、反射率に対して線型な特性を示すことから反射率空間での補正が望ましく、何れも、主走査方向における面内色むらの補正処理を行なう順序としては、ENL補正の前段としていた。   For example, in each of the above-described embodiments, the correction characteristic is a linear characteristic with respect to the reflectance as shown in FIG. 7, and thus correction in the reflectance space is desirable. The order of performing the in-plane color unevenness correction process in the direction is the previous stage of the ENL correction.

しかしながら、ENL補正の前段にて色むら補正を行なうことは必須ではなく、ENL補正の後段にて色むら補正を行なっても、相応の補正効果を享受できる。   However, it is not essential to perform color unevenness correction before the ENL correction, and even if color unevenness correction is performed after the ENL correction, a corresponding correction effect can be obtained.

<電子計算機を利用した構成>
また、既に説明したように、上述した色むら補正機能を含む画像処理部40における一連の画像処理機能は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。すなわち、画像処理(特に色補正に関わる画像処理)の実行に関わる各機能部は、それぞれハードウェアにより構成することに限らず、その機能を実現するプログラムコードに基づいて電子計算機(コンピュータ)を用いてソフトウェア的に実現することも可能である。たとえば、一般的なPC(パーソナルコンピュータ)本体の構成と同様に、CPU(Central Processing Unit )、RAM(Random Access Memory)、ROM(Read-Only Memory)などを備えて構成することができる。
<Configuration using an electronic computer>
As described above, the series of image processing functions in the image processing unit 40 including the color unevenness correction function described above can be executed by hardware, but can also be executed by software. That is, each functional unit related to execution of image processing (particularly image processing related to color correction) is not limited to being configured by hardware, but uses an electronic computer (computer) based on a program code that realizes the function. It can also be realized in software. For example, similarly to the configuration of a general PC (personal computer) main body, a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read-Only Memory), and the like can be provided.

上述の画像処理の実行に際しては、このコンピュータ構成の画像処理装置に組み込まれたアプリケーションプログラムをCPUが実行することによって実現することができる。よって、本発明に係る画像処理方法や装置を、電子計算機(コンピュータ)を用いてソフトウェアで実現するために好適な画像処理プログラムあるいはこの画像処理プログラムを格納したコンピュータ読取可能な記憶媒体を発明として抽出することもできる。   The execution of the image processing described above can be realized by the CPU executing an application program incorporated in the image processing apparatus having this computer configuration. Therefore, an image processing program suitable for realizing the image processing method and apparatus according to the present invention by software using an electronic computer (computer) or a computer-readable storage medium storing the image processing program is extracted as an invention. You can also

もちろん、このようなコンピュータを用いた構成に限らず、それぞれの機能をなす専用のハードウェアの組合せにより構成することもできる。ソフトウェアにより処理を実行させる仕組みとすることで、ハードウェアの変更を伴うことなく、処理手順や処理条件などを容易に変更できる利点を享受できるようになる。逆に、ハードウェアで構成すれば、高速処理が実現できる。   Of course, the configuration is not limited to such a computer, but may be configured by a combination of dedicated hardware that performs each function. By adopting a mechanism for executing processing by software, it is possible to enjoy the advantage that the processing procedure, processing conditions, and the like can be easily changed without changing hardware. On the contrary, if it is configured by hardware, high-speed processing can be realized.

記録媒体は、コンピュータのハードウェア資源に備えられている読取装置に対して、プログラムの記述内容に応じて、磁気、光、電気などのエネルギの状態変化を引き起こして、それに対応する信号の形式で、読取装置にプログラムの記述内容を伝達できるものである。   The recording medium causes a state change of energy such as magnetism, light, electricity, etc. according to the description contents of the program to the reading device provided in the hardware resource of the computer, and in the form of a signal corresponding to the change. The program description can be transmitted to the reader.

たとえば、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD−ROM(Compact Disc-Read Only Memory )、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc )を含む)、または半導体メモリなどよりなるパッケージメディア(可搬型の記憶媒体)により構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMやハードディスクなどで構成されてもよい。または、ソフトウェアを構成するプログラムが、有線あるいは無線などの通信網を介して提供されてもよい。   For example, a magnetic disc (including a flexible disc), an optical disc (CD-ROM (Compact Disc-Read Only Memory)), a DVD (which is distributed to provide a program to a user separately from a computer, (Including Digital Versatile Disc), magneto-optical disc (including MD (Mini Disc)), or package media (portable storage media) made of semiconductor memory, etc. It may be configured by a ROM, a hard disk, or the like in which a program is recorded that is provided to the user in a state. Or the program which comprises software may be provided via communication networks, such as a wire communication or radio | wireless.

一連の画像処理(特に色補正に関わる画像処理)をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ(組込みマイコンなど)、あるいは、CPU、論理回路、記憶装置などの機能を1つのチップ上に搭載して所望のシステムを実現するSOC(System On a Chip:システムオンチップ)、または、各種のプログラムをインストールすることで各種の機能を実行することが可能な汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。   When a series of image processing (especially image processing related to color correction) is executed by software, a computer (an embedded microcomputer or the like) in which a program constituting the software is incorporated in dedicated hardware, a CPU, Various functions can be executed by installing a system on a chip (SOC) that implements a desired system by mounting functions such as logic circuits and storage devices on a single chip, or by installing various programs. It is installed from a recording medium in a general-purpose personal computer capable of doing so.

たとえば、画像処理機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、ハードウェアにて構成する場合と同様の効果は達成される。この場合、記憶媒体から読み出されたプログラムコード自体が画像処理機能を実現する。   For example, a storage medium storing software program codes for realizing an image processing function is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium By doing so, the same effect as that achieved by hardware can be achieved. In this case, the program code itself read from the storage medium realizes the image processing function.

また、コンピュータが読み出したプログラムコードを実行することで、画像処理を行なう機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム;基本ソフト)などが実際の処理の一部または全部を行ない、その処理によって画像処理を行なう機能が実現される場合であってもよい。   Further, not only the function of performing image processing is realized by executing the program code read by the computer, but also an OS (operating system; basic software) running on the computer based on an instruction of the program code May perform a part or all of the actual processing and realize a function of performing image processing by the processing.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によって画像処理を行なう機能が実現される場合であってもよい。   Further, after the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. There may be a case where the CPU or the like provided in the card or the function expansion unit performs part or all of the actual processing, and the function of performing image processing is realized by the processing.

このような電子計算機には、たとえば、複写アプリケーションやプリンタアプリケーション、ファクシミリ(FAX)アプリケーション、あるいは他のアプリケーション用の処理プログラムなど、従来の画像形成装置(複合機)におけるものと同様のソフトウェアが組み込まれる。また、ネットワーク9を介して外部とのデータを送受信したりするための制御プログラムも組み込まれる。   In such an electronic computer, for example, software similar to that in a conventional image forming apparatus (multifunction machine) such as a copying application, a printer application, a facsimile (FAX) application, or a processing program for other applications is incorporated. . A control program for transmitting and receiving data to and from the outside via the network 9 is also incorporated.

このとき、画像処理を行なう機能を実現するプログラムコードを記述したファイルとしてプログラムが提供されるが、この場合、一括のプログラムファイルとして提供されることに限らず、コンピュータで構成されるシステムのハードウェア構成に応じて、個別のプログラムモジュールとして提供されてもよい。たとえば、既存の複写装置制御ソフトやプリンタ制御ソフト(プリンタドライバ)に組み込まれるアドインソフトとして提供されてもよい。   At this time, the program is provided as a file describing a program code that realizes a function of performing image processing. In this case, the program is not limited to being provided as a batch program file, and the hardware of the system configured by a computer Depending on the configuration, it may be provided as an individual program module. For example, it may be provided as add-in software incorporated in existing copying apparatus control software or printer control software (printer driver).

図16は、CPUやメモリを利用してソフトウェア的に画像処理部40に相当する画像処理装置を構成する、すなわちパーソナルコンピュータなどの電子計算機を利用して画像処理装置をソフトウェア的に実現する場合のハードウェア構成の一例を示した図である。   FIG. 16 shows a case where an image processing apparatus corresponding to the image processing unit 40 is configured by software using a CPU and a memory, that is, an image processing apparatus is realized by software using an electronic computer such as a personal computer. It is the figure which showed an example of the hardware constitutions.

画像処理装置を構成するコンピュータシステム900は、コントローラー部901と、ハードディスク装置、フレキシブルディスク(FD)ドライブ、あるいはCD−ROM(Compact Disk ROM)ドライブ、半導体メモリコントローラなどの、所定の記憶媒体からデータを読み出したり記録したりするための記録・読取制御部902とを有する。   A computer system 900 constituting an image processing apparatus receives data from a controller 901 and a predetermined storage medium such as a hard disk device, a flexible disk (FD) drive, a CD-ROM (Compact Disk ROM) drive, a semiconductor memory controller, or the like. And a recording / reading control unit 902 for reading and recording.

コントローラー部901は、CPU(Central Processing Unit )912、読出専用の記憶部であるROM(Read Only Memory)913、随時書込みおよび読出しが可能であるとともに揮発性の記憶部の一例であるRAM(Random Access Memory)915、および不揮発性の記憶部の一例であるRAM(NVRAMと記述する)916を有している。   The controller unit 901 includes a CPU (Central Processing Unit) 912, a ROM (Read Only Memory) 913 which is a read-only storage unit, and a RAM (Random Access) which can be written and read at any time and is an example of a volatile storage unit. Memory) 915 and RAM (described as NVRAM) 916 which is an example of a nonvolatile storage unit.

上記において“揮発性の記憶部”とは、画像出力端末4の電源がオフされた場合には、記憶内容を消滅してしまう形態の記憶部を意味する。一方、“不揮発性の記憶部”とは、装置のメイン電源がオフされた場合でも、記憶内容を保持し続ける形態の記憶部を意味する。記憶内容を保持し続けることができるものであればよく、半導体製のメモリ素子自体が不揮発性を有するものに限らず、バックアップ電源を備えることで、揮発性のメモリ素子を“不揮発性”を呈するように構成するものであってもよい。また、半導体製のメモリ素子により構成することに限らず、磁気ディスクや光ディスクなどの媒体を利用して構成してもよい。   In the above description, the “volatile storage unit” means a storage unit in a form in which the stored contents are lost when the power of the image output terminal 4 is turned off. On the other hand, the “nonvolatile storage unit” means a storage unit in a form that keeps stored contents even when the main power supply of the apparatus is turned off. Any memory device can be used as long as it can retain the stored contents. The semiconductor memory device itself is not limited to a nonvolatile memory device, and a backup power supply is provided to make a volatile memory device “nonvolatile”. You may comprise as follows. Further, the present invention is not limited to a semiconductor memory element, and may be configured using a medium such as a magnetic disk or an optical disk.

また、コンピュータシステム900は、ユーザインタフェースをなす機能部として、キーボードやマウスなどを有する指示入力部903と、操作時のガイダンス画面や処理結果などの所定の情報をユーザに提示する表示出力部904と、処理対象の画像を読み取る画像入力装置(スキャナユニット)930と、画像処理装置における処理済みの画像を所定の出力媒体(たとえば印刷用紙)に出力する画像出力装置950と、各機能部との間のインタフェース機能をなすインタフェース部909とを有する。   The computer system 900 also includes an instruction input unit 903 having a keyboard, a mouse, and the like as a function unit that forms a user interface, and a display output unit 904 that presents a user with predetermined information such as a guidance screen and a processing result during operation. An image input device (scanner unit) 930 that reads an image to be processed, an image output device 950 that outputs an image processed by the image processing device to a predetermined output medium (for example, printing paper), and each functional unit And an interface unit 909 having the interface function.

インタフェース部909としては、処理データ(画像データを含む)や制御データの転送経路であるシステムバス991の他、たとえば、画像入力装置930とのインタフェース機能をなすスキャナIF部995、画像出力装置950や他のプリンタとのインタフェース機能をなすプリンタIF部996、およびインターネットなどのネットワーク9との間の通信データの受け渡しを仲介する通信IF部999を有している。   As the interface unit 909, in addition to a system bus 991 that is a transfer path of processing data (including image data) and control data, for example, a scanner IF unit 995 that functions as an interface with the image input device 930, an image output device 950, and the like. It has a printer IF unit 996 that functions as an interface with other printers, and a communication IF unit 999 that mediates transfer of communication data with the network 9 such as the Internet.

表示出力部904は、読み取った全体画像やガイダンス情報などの主要な情報を提示するための表示装置を有して構成されている。表示された情報を確認しながら所定の入力を行なう作業を効率的にできるように、表示装置は、指示入力部903の近傍に配置するのがよい。   The display output unit 904 includes a display device for presenting main information such as the read whole image and guidance information. The display device is preferably arranged in the vicinity of the instruction input unit 903 so as to efficiently perform a predetermined input operation while confirming the displayed information.

表示出力部904は、たとえば、表示制御部942とCRT(Cathode Ray Tube;陰極線管)やLCD(Liquid Crystal Display;液晶)などでなるディスプレイ部944とを有する。たとえば、表示制御部942が、ディスプレイ部944上に、ガイダンス情報や画像読取部905が取り込んだ全体画像などを表示させる。なお、表示面上にタッチパネル945を有するディスプレイ部944とすることで、指先やペンなどで所定の情報を入力する指示入力部903を構成することもできる。   The display output unit 904 includes, for example, a display control unit 942 and a display unit 944 made up of a CRT (Cathode Ray Tube) or LCD (Liquid Crystal Display). For example, the display control unit 942 displays guidance information, the entire image captured by the image reading unit 905, and the like on the display unit 944. Note that by using the display unit 944 having the touch panel 945 on the display surface, the instruction input unit 903 for inputting predetermined information with a fingertip or a pen can be configured.

コンピュータシステム900には、画像入力装置930として、上記実施形態の画像取得部10の特に受光部140〜読取信号処理部14までに相当するものが接続される。この画像入力装置930は、画像入力端末の機能を備えており、たとえばCCD固体撮像素子の全幅アレイを使用して、読取位置へ送られた原稿に光を照射することで、原稿上の画像を読み取り、この読み取った画像を表す赤R、緑G、青Bのアナログビデオ信号をデジタル信号へ変換する。   The computer system 900 is connected to the image input device 930 corresponding to the image acquisition unit 10 of the above-described embodiment, particularly the light receiving unit 140 to the read signal processing unit 14. This image input device 930 has the function of an image input terminal. For example, by using a full-width array of a CCD solid-state imaging device, the image input device 930 irradiates the document sent to the reading position with light, thereby displaying an image on the document. Read and convert analog video signals of red R, green G and blue B representing the read image into digital signals.

また、コンピュータシステム900には、画像出力装置950が接続される。この画像出力装置950は、たとえば画像入力装置930にて得られた画像信号により表される画像を、電子写真式、感熱式、熱転写式、インクジェット式、あるいは同様な従来の画像形成処理を利用して、普通紙や感熱紙上に可視画像を形成する(印刷する)。   Further, an image output device 950 is connected to the computer system 900. The image output device 950 uses, for example, an electrophotographic method, a thermal method, a thermal transfer method, an ink jet method, or a similar conventional image forming process to display an image represented by an image signal obtained by the image input device 930. Thus, a visible image is formed (printed) on plain paper or thermal paper.

このため、画像出力装置950は、たとえばイエローY,マゼンタM,シアンC,ブラックKの2値化信号などの印刷出力用データを生成する画像処理部952と、画像処理装置をデジタル印刷システムとして稼働させるためのラスタ出力スキャンベースのプリントエンジン954を備える。   Therefore, the image output device 950 operates as an image processing unit 952 that generates print output data such as binary signals of yellow Y, magenta M, cyan C, and black K, for example, and the image processing device operates as a digital printing system. A raster output scan-based print engine 954.

このような構成において、CPU912は、システムバス991を介してシステム全体の制御を行なう。ROM913は、CPU912の制御プログラムなどを格納する。RAM915は、SRAM(Static Random Access Memory )などで構成され、プログラム制御変数や各種処理のためのデータなどを格納する。また、RAM915は、所定のアプリケーションプログラムによって取得した電子ドキュメント(文字データのみに限らず画像データを含んでよい)や自装置に備えられている画像読取部(画像入力装置70)で取得した画像データ、さらには外部から取得した電子データなどを一時的に格納する領域を含んでいる。   In such a configuration, the CPU 912 controls the entire system via the system bus 991. The ROM 913 stores a control program for the CPU 912 and the like. The RAM 915 is configured by SRAM (Static Random Access Memory) or the like, and stores program control variables, data for various processes, and the like. In addition, the RAM 915 stores an electronic document (not only character data but also image data) acquired by a predetermined application program, and image data acquired by an image reading unit (image input device 70) provided in the own device. In addition, an area for temporarily storing electronic data obtained from the outside is included.

そして、たとえば画像処理をコンピュータに実行させるプログラムは、CD−ROMなどの記録媒体を通じて配布される。あるいは、このプログラムは、CD−ROMではなくFDに格納されてもよい。また、MOドライブを設け、MOに前記プログラムを格納してもよく、またフラッシュメモリなどの不揮発性の半導体メモリカードなど、その他の記録媒体にプログラムを格納してもよい。さらに、他のサーバなどからインターネットなどのネットワーク9を経由してプログラムをダウンロードして取得したり、あるいは更新したりしてもよい。   For example, a program for causing a computer to execute image processing is distributed through a recording medium such as a CD-ROM. Alternatively, this program may be stored in the FD instead of the CD-ROM. In addition, an MO drive may be provided to store the program in the MO, or the program may be stored in another recording medium such as a nonvolatile semiconductor memory card such as a flash memory. Furthermore, the program may be downloaded and acquired from another server or the like via the network 9 such as the Internet, or may be updated.

なお、プログラムを提供するための記録媒体としては、FDやCD−ROMなどの他にも、DVDなどの光学記録媒体、MDなどの磁気記録媒体、PDなどの光磁気記録媒体、テープ媒体、磁気記録媒体、ICカードやミニチュアカードなどの半導体メモリを用いることができる。記録媒体の一例としてのFDやCD−ROMなどには、画像処理装置における画像処理機能の一部または全ての機能を格納することができる。   As a recording medium for providing the program, in addition to FD and CD-ROM, an optical recording medium such as DVD, a magnetic recording medium such as MD, a magneto-optical recording medium such as PD, a tape medium, and a magnetic medium. A semiconductor memory such as a recording medium, an IC card, or a miniature card can be used. Part or all of the image processing functions of the image processing apparatus can be stored in an FD or CD-ROM as an example of a recording medium.

また、ハードディスク装置は、制御プログラムによる各種処理のためのデータを格納したり、画像読取部(画像取得部10)で取得した画像データや外部から取得した印刷データなどを大量に一時的に格納したりする領域を含んでいる。また、ハードディスク装置、FDドライブ、あるいはCD−ROMドライブは、たとえば、CPU912にコンテンツ取得やアドレス取得あるいはアドレス設定などの処理をソフトウェアにて実行させるためのプログラムデータを登録するなどのために利用される。   Further, the hard disk device stores data for various processes by the control program, temporarily stores a large amount of image data acquired by the image reading unit (image acquisition unit 10), print data acquired from the outside, and the like. Or the area to be. The hard disk device, FD drive, or CD-ROM drive is used, for example, for registering program data for causing the CPU 912 to execute processing such as content acquisition, address acquisition, or address setting by software. .

なお、画像処理装置の画像処理に関わる各機能部分の全ての処理をソフトウェアで行なうのではなく、これら機能部分の一部を専用のハードウェアにて行なう処理回路908を設けてもよい。この場合、図示するように、補正演算処理部414,444などに相当する補正演算処理部984や階調補正部453,457などに相当する階調補正部986,987などを個別に設けてもよい。   Note that a processing circuit 908 may be provided in which not all processing of each functional part related to image processing of the image processing apparatus is performed by software, but part of these functional parts is performed by dedicated hardware. In this case, as shown in the drawing, a correction calculation processing unit 984 corresponding to the correction calculation processing units 414 and 444 and the like, gradation correction units 986 and 987 corresponding to the gradation correction units 453 and 457, and the like may be provided individually. Good.

ソフトウェアで行なう仕組みは、並列処理や連続処理に柔軟に対処し得るものの、その処理が複雑になるに連れ、処理時間が長くなるため、処理速度の低下が問題となる。これに対して、ハードウェア処理回路で行なうことで、高速化を図ったアクセラレータシステムを構築することができるようになる。アクセラレータシステムは、処理が複雑であっても、処理速度の低下を防ぐことができ、高いスループットを算出することができる。   Although the mechanism performed by software can flexibly cope with parallel processing and continuous processing, the processing time becomes longer as the processing becomes complicated, so that a reduction in processing speed becomes a problem. On the other hand, it is possible to construct an accelerator system with a higher speed by using a hardware processing circuit. Even if the processing is complicated, the accelerator system can prevent a reduction in processing speed and can calculate a high throughput.

本発明に係る面内位置参照型の色むら補正部の一例を含む画像処理装置を備えた画像読取装置の一実施形態の概略を示す側断面図である。1 is a side sectional view illustrating an outline of an embodiment of an image reading apparatus including an image processing apparatus including an example of an in-plane position reference type color unevenness correction unit according to the present invention. 受光部の構成例を示す図である。It is a figure which shows the structural example of a light-receiving part. 画像取得部の信号処理機能の第1実施形態を示したブロック図である。It is the block diagram which showed 1st Embodiment of the signal processing function of an image acquisition part. 第1実施形態の色むら補正部を示す機能ブロック図である。It is a functional block diagram which shows the color nonuniformity correction | amendment part of 1st Embodiment. 受光部に使用しているCCDラインセンサの分光感度特性の一例を示す図である。It is a figure which shows an example of the spectral sensitivity characteristic of the CCD line sensor currently used for the light-receiving part. 原稿の濃度と光検出器の出力信号との関係がオンチップフィルタの濃度によりどのように変化するかを示すための図である。It is a figure for demonstrating how the relationship between the density | concentration of a document and the output signal of a photodetector changes with the density | concentrations of an on-chip filter. フィルタばら付きによる読取値のばら付き(誤差分)の一例を示す図であって、図6のグラフを、各フィルタ濃度の相対誤差を縦軸としてプロットし直したものを示す図である。It is a figure which shows an example of the reading value dispersion | variation (error part) by filter dispersion | variation, Comprising: It is a figure which shows what re-plotted the graph of FIG. 6 by making the relative error of each filter density | concentration into a vertical axis | shaft. 画像取得部の信号処理機能の第2実施形態を示したブロック図である。It is the block diagram which showed 2nd Embodiment of the signal processing function of an image acquisition part. 読取面内むらを軽減した読取部を使用して印刷濃度むら測定を行なう際に使用するチャートの一例を示す図である。It is a figure which shows an example of the chart used when performing printing density nonuniformity measurement using the reading part which reduced the reading surface nonuniformity. 画像取得部の信号処理機能の第3実施形態を示したブロック図である。It is the block diagram which showed 3rd Embodiment of the signal processing function of an image acquisition part. 画像取得部の信号処理機能の第4実施形態を示したブロック図である。It is the block diagram which showed 4th Embodiment of the signal processing function of an image acquisition part. 第4実施形態の色むら補正部内の一機能部の処理を説明する図である。It is a figure explaining the process of the one function part in the color nonuniformity correction part of 4th Embodiment. 画像取得部の信号処理機能の第5実施形態を示したブロック図である。It is the block diagram which showed 5th Embodiment of the signal processing function of an image acquisition part. 第5実施形態の色むら補正部内の一機能部の処理を説明する図である。It is a figure explaining the process of the one function part in the color nonuniformity correction part of 5th Embodiment. 第5実施形態の色むら補正部における色むら補正に供される画像(テストチャート)の一例を示す図である。It is a figure which shows an example of the image (test chart) used for the color nonuniformity correction | amendment in the color nonuniformity correction part of 5th Embodiment. 電子計算機を利用して画像処理装置をソフトウェア的に実現する場合のハードウェア構成の一例を示した図である。It is the figure which showed an example of the hardware constitutions in the case of implement | achieving an image processing apparatus by software using an electronic computer.

符号の説明Explanation of symbols

3…画像読取装置、10…画像取得部、14…読取信号処理部、16…光学走査系、40…画像処理部、140…受光部、142…ラインセンサ、143…駆動回路、180…中央演算制御部、250…シェーディング補正回路、251…ラインメモリ、410,440,450,460,470…色むら補正部、412…減算部、413…積和演算部、414,444,454,464,474…補正演算処理部、415,445,455,465,475…補正係数格納部、420…入力階調補正部、430,4780…標準化色補正部、449…データ保持部、453,463,473…階調補正部、457,467,477…階調補正部、461,471…副走査方向平均化処理部、462,472…数値データ列処理部、476…主走査方向平均化処理部   DESCRIPTION OF SYMBOLS 3 ... Image reading apparatus, 10 ... Image acquisition part, 14 ... Read signal processing part, 16 ... Optical scanning system, 40 ... Image processing part, 140 ... Light receiving part, 142 ... Line sensor, 143 ... Drive circuit, 180 ... Central calculation Control unit, 250 ... shading correction circuit, 251 ... line memory, 410, 440, 450, 460, 470 ... color unevenness correction unit, 412 ... subtraction unit, 413 ... product-sum operation unit, 414, 444, 454, 464, 474 ... correction calculation processing unit, 415, 445, 455, 465, 475 ... correction coefficient storage unit, 420 ... input tone correction unit, 430, 4780 ... standardized color correction unit, 449 ... data holding unit, 453, 463, 473 ... Gradation correction unit, 457, 467, 477 ... gradation correction unit, 461, 471 ... sub-scanning direction averaging processing unit, 462, 472 ... numerical data string processing unit, 476 ... Scanning direction averaging unit

Claims (15)

読み取った画像に存在する色むらを補正する画像処理方法であって、
処理対象の色データごとに、処理対象の色とそれ以外の少なくとも他の1色のデータに対して、読取位置ごとにゲイン補正を加えることで色むら補正済の色データを取得する
ことを特徴とする画像処理方法。
An image processing method for correcting color unevenness existing in a read image,
For each color data to be processed, color data that has been corrected for color unevenness is obtained by performing gain correction for each reading position on the color to be processed and at least one other color data. An image processing method.
読み取った画像を表わす所定の色空間の色データを標準色座標データに変換して出力する過程において、前記色むら補正済の色データを取得する
ことを特徴とする請求項1に記載の画像処理方法。
2. The image processing according to claim 1, wherein in the process of converting color data of a predetermined color space representing the read image into standard color coordinate data and outputting the data, the color data corrected for color unevenness is acquired. Method.
2色のデータの差の関数に対してゲイン補正を加えた結果に基づいて前記色むら補正済の色データを取得する
ことを特徴とする請求項1に記載の画像処理方法。
2. The image processing method according to claim 1, wherein the color unevenness corrected color data is acquired based on a result of applying gain correction to a function of a difference between two color data.
さらに、2色のデータの差の関数のべき乗に対してゲイン補正を加えた結果にも基づいて前記色むら補正済の色データを取得する
ことを特徴とする請求項3に記載の画像処理方法。
The image processing method according to claim 3, further comprising acquiring the color data that has been corrected for color unevenness based on a result obtained by applying gain correction to a power of a function of a difference between data of two colors. .
読み取った画像に存在する色むらを補正する画像処理装置であって、
処理対象の色データごとに、処理対象の色とそれ以外の少なくとも他の1色のデータに対して読取位置ごとにゲイン補正を加えることで色むら補正済の色データを取得する色むら補正部
を備えたことを特徴とする画像処理装置。
An image processing apparatus that corrects uneven color in a read image,
A color unevenness correction unit that obtains color unevenness corrected color data by performing gain correction for each read position for each color data to be processed and at least one other color data other than the color to be processed An image processing apparatus comprising:
読み取った画像を表わす所定の色空間の色データを標準色座標データに変換する標準化色補正部を
さらに備えたことを特徴とする請求項5に記載の画像処理装置。
The image processing apparatus according to claim 5, further comprising a standardized color correction unit that converts color data of a predetermined color space representing the read image into standard color coordinate data.
前記色むら補正部は、前記標準化色補正部の前段に配されている
ことを特徴とする請求項6に記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the color unevenness correction unit is arranged in front of the standardized color correction unit.
前記色むら補正部は、
素通しの係数設定にされた前記標準化色補正部の後段に配されており、
前記色むら補正済の色データを標準色座標データに変換する
ことを特徴とする請求項6に記載の画像処理装置。
The color unevenness correction unit
Arranged in the subsequent stage of the standardized color correction unit set to a plain coefficient setting,
The image processing apparatus according to claim 6, wherein the color data that has been corrected for color unevenness is converted into standard color coordinate data.
前記色むら補正部は、
2色のデータの差の関数に対してゲイン補正を加えた結果に基づいて前記色むら補正済の色データを取得する
ことを特徴とする請求項5に記載の画像処理装置。
The color unevenness correction unit
The image processing apparatus according to claim 5, wherein the color unevenness corrected color data is acquired based on a result of gain correction performed on a function of a difference between two color data.
前記色むら補正部は、さらに、2色のデータの差の関数のべき乗に対してゲイン補正を加えた結果にも基づいて前記色むら補正済の色データを取得する
ことを特徴とする請求項9に記載の画像処理装置。
The color unevenness correction unit further acquires the color data that has been corrected for color unevenness based on a result of applying gain correction to a power of a function of a difference between two color data. The image processing apparatus according to 9.
前記色むら補正部は、前記ゲイン補正用の係数を読取位置ごとに記憶する補正係数格納部を備えている
ことを特徴とする請求項5に記載の画像処理装置。
The image processing apparatus according to claim 5, wherein the color unevenness correction unit includes a correction coefficient storage unit that stores the gain correction coefficient for each reading position.
処理対象の色データに対して標準出力へのデータ変換を行なう標準化色補正部
をさらに備えたことを特徴とする請求項5〜11の内の何れか1項に記載の画像処理装置。
The image processing apparatus according to claim 5, further comprising: a standardized color correction unit that converts data to be processed into standard output for color data to be processed.
カラー画像を読み取る受光部と、
前記受光部が取得した処理対象画像の色データごとに、処理対象の色とそれ以外の少なくとも他の1色のデータに対して読取位置ごとにゲイン補正を加えることで色むら補正済の色データを取得する色むら補正部と
を備えたことを特徴とする画像読取装置。
A light receiving unit for reading a color image;
For each color data of the processing target image acquired by the light receiving unit, color data that has been corrected for color unevenness by performing gain correction for each reading position on the processing target color and at least one other color data other than that. An image reading apparatus comprising: a color unevenness correcting unit that acquires
カラー画像を読み取る受光部と、
前記受光部が取得した処理対象画像の色データごとに、処理対象の色とそれ以外の少なくとも他の1色のデータに対して読取位置ごとにゲイン補正を加えることで色むら補正済の色データを取得する色むら補正部と、
前記色むら補正部にから出力された色データに基づいて、所定の記録媒体にカラー画像を形成する画像形成部と
を備えたことを特徴とする画像形成装置。
A light receiving unit for reading a color image;
For each color data of the processing target image acquired by the light receiving unit, color data that has been corrected for color unevenness by performing gain correction for each reading position on the processing target color and at least one other color data other than that. Color unevenness correction unit to obtain
An image forming apparatus comprising: an image forming unit that forms a color image on a predetermined recording medium based on color data output from the color unevenness correcting unit.
画像における空間周波数と関係した画質を評価する画像評価処理をコンピュータを用いて行なうためのプログラムであって、
処理対象の色データごとに、処理対象の色とそれ以外の少なくとも他の1色のデータに対して読取位置ごとにゲイン補正を加えることで色むら補正済の色データを取得する色むら補正部
として機能させることを特徴とするプログラム。
A program for performing image evaluation processing for evaluating image quality related to spatial frequency in an image using a computer,
A color unevenness correction unit that obtains color unevenness corrected color data by performing gain correction for each read position for each color data to be processed and at least one other color data other than the color to be processed A program characterized by functioning as
JP2005243893A 2005-08-25 2005-08-25 Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, and program Expired - Fee Related JP4626853B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005243893A JP4626853B2 (en) 2005-08-25 2005-08-25 Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005243893A JP4626853B2 (en) 2005-08-25 2005-08-25 Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, and program

Publications (2)

Publication Number Publication Date
JP2007060354A true JP2007060354A (en) 2007-03-08
JP4626853B2 JP4626853B2 (en) 2011-02-09

Family

ID=37923427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005243893A Expired - Fee Related JP4626853B2 (en) 2005-08-25 2005-08-25 Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, and program

Country Status (1)

Country Link
JP (1) JP4626853B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007078864A (en) * 2005-09-12 2007-03-29 National Institute For Materials Science Method for eliminating color unevenness of optical microscope photograph
JP2015162874A (en) * 2014-02-28 2015-09-07 富士ゼロックス株式会社 Image reader and image read program
JP2019012082A (en) * 2018-09-27 2019-01-24 株式会社日立ハイテクノロジーズ Nucleic acid analysis device and nucleic acid analysis method
JP2019193071A (en) * 2018-04-24 2019-10-31 株式会社リコー Information processing apparatus, image processing apparatus, information processing method, and program
JP2019220828A (en) * 2018-06-19 2019-12-26 株式会社リコー Image processing apparatus, image processing method, and program
WO2023187867A1 (en) * 2022-03-28 2023-10-05 富士通フロンテック株式会社 Data conversion device, data conversion method, and data conversion program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0448870A (en) * 1990-06-15 1992-02-18 Dainippon Screen Mfg Co Ltd Picture reader using ccd line sensor
JPH06152954A (en) * 1992-11-05 1994-05-31 Canon Inc Color image reader
JP2003152993A (en) * 2001-11-13 2003-05-23 Konica Corp Image processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0448870A (en) * 1990-06-15 1992-02-18 Dainippon Screen Mfg Co Ltd Picture reader using ccd line sensor
JPH06152954A (en) * 1992-11-05 1994-05-31 Canon Inc Color image reader
JP2003152993A (en) * 2001-11-13 2003-05-23 Konica Corp Image processing device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007078864A (en) * 2005-09-12 2007-03-29 National Institute For Materials Science Method for eliminating color unevenness of optical microscope photograph
JP2015162874A (en) * 2014-02-28 2015-09-07 富士ゼロックス株式会社 Image reader and image read program
JP2019193071A (en) * 2018-04-24 2019-10-31 株式会社リコー Information processing apparatus, image processing apparatus, information processing method, and program
JP7056350B2 (en) 2018-04-24 2022-04-19 株式会社リコー Information processing equipment, image processing equipment, information processing methods, and programs
JP2019220828A (en) * 2018-06-19 2019-12-26 株式会社リコー Image processing apparatus, image processing method, and program
JP2019012082A (en) * 2018-09-27 2019-01-24 株式会社日立ハイテクノロジーズ Nucleic acid analysis device and nucleic acid analysis method
WO2023187867A1 (en) * 2022-03-28 2023-10-05 富士通フロンテック株式会社 Data conversion device, data conversion method, and data conversion program

Also Published As

Publication number Publication date
JP4626853B2 (en) 2011-02-09

Similar Documents

Publication Publication Date Title
US8294947B2 (en) Image processing apparatus with front and back side reading units and method for correcting a color difference for a specific color
US9979860B2 (en) Image forming apparatus, non-transitory computer-readable storage medium storing color-conversion control program, and color-conversion control method
US7903302B2 (en) Image reading apparatus and image reading method
JP2006238408A (en) Image forming apparatus and calibration reference chart
JP2013192212A (en) Colorimetry device, image forming apparatus, colorimetry method and colorimetry system
JP6544266B2 (en) Image forming apparatus and program
JP4626853B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, and program
JP2007259123A (en) Image reading apparatus, image processing method and computer-readable program
US7271380B2 (en) Color input scanner calibration system
JP4197276B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, and image processing method
JP2019118031A (en) Image processing method, image processing device, and image processing system
JP3176101B2 (en) Image reading device
US7936477B2 (en) Image processing apparatus and image processing method
US7929806B2 (en) Image reading apparatus and image reading method
US7751083B2 (en) Scanner metamerism correction
US7564601B2 (en) Method for generating a tonal response curve for a scanner
JP2006121266A (en) Image processing apparatus, and image processing program
JP2002247394A (en) Method of preparing color converting rule, method of converting color, and colored image forming device
JP2018081244A (en) Image forming apparatus, image processing apparatus, and method for measuring patches
JP5344519B2 (en) Color conversion apparatus and color conversion method
US10142519B2 (en) Image forming apparatus and method for correcting read signal
JP2007088557A (en) Method of calculating inter-color crosstalk correction formula, and image reading apparatus
JP4642678B2 (en) Color matching method and image processing apparatus
JP2002262035A (en) Image reader
JP2009065559A (en) Image processing apparatus, image processing method, and storage medium with image processing program stored thereon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080522

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20091009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101015

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101028

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4626853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees