JP5950670B2 - Image reading apparatus, image processing apparatus, image processing method, and computer program - Google Patents

Image reading apparatus, image processing apparatus, image processing method, and computer program Download PDF

Info

Publication number
JP5950670B2
JP5950670B2 JP2012093273A JP2012093273A JP5950670B2 JP 5950670 B2 JP5950670 B2 JP 5950670B2 JP 2012093273 A JP2012093273 A JP 2012093273A JP 2012093273 A JP2012093273 A JP 2012093273A JP 5950670 B2 JP5950670 B2 JP 5950670B2
Authority
JP
Japan
Prior art keywords
interpolation
edge
series
interpolation position
read
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012093273A
Other languages
Japanese (ja)
Other versions
JP2013223087A5 (en
JP2013223087A (en
Inventor
井上 裕二
裕二 井上
聡 山中
聡 山中
伊藤 篤
篤 伊藤
太田 章
章 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012093273A priority Critical patent/JP5950670B2/en
Publication of JP2013223087A publication Critical patent/JP2013223087A/en
Publication of JP2013223087A5 publication Critical patent/JP2013223087A5/ja
Application granted granted Critical
Publication of JP5950670B2 publication Critical patent/JP5950670B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、原稿などの被読取媒体で反射した光を受光する複数のラインセンサを用いて当該被読取媒体に形成されている画像を光学的に読み取る技術に関する。   The present invention relates to a technique for optically reading an image formed on a read medium using a plurality of line sensors that receive light reflected by the read medium such as an original.

従来より、互いに平行となるように一定間隔で配列された複数のラインセンサを含むイメージセンサを使用して被読取媒体上の多色画像を読み取る画像読取装置が広く普及している。この種の画像読取装置のイメージセンサとしては、多色画像の読み取りや色判別を行うために、R(赤色)、G(緑色)及びB(青色)の3原色の光をそれぞれ受光する3本のラインセンサを1チップ化した3色一体型センサを使用することが多い。通常、イメージセンサを構成する各ラインセンサは、画像読取装置の主走査方向に沿って一定の間隔(ピッチ)で配列された複数の光電変換素子を含む固体撮像素子である。画像読取装置が原稿画像を読み取る際には、イメージセンサは、原稿に対して主走査方向とほぼ直交する副走査方向へ相対移動しつつ、その原稿で反射した光の線状像を連続的に光電変換する必要がある。   2. Description of the Related Art Conventionally, image reading apparatuses that read a multicolor image on a read medium using an image sensor including a plurality of line sensors arranged at regular intervals so as to be parallel to each other have been widely used. As an image sensor of this type of image reading apparatus, there are three image sensors that receive light of three primary colors R (red), G (green), and B (blue) in order to read a multicolor image and perform color discrimination. In many cases, a three-color integrated sensor in which the line sensor is integrated into one chip is used. Usually, each line sensor constituting the image sensor is a solid-state imaging device including a plurality of photoelectric conversion elements arranged at a constant interval (pitch) along the main scanning direction of the image reading apparatus. When the image reading device reads a document image, the image sensor continuously moves a linear image of light reflected by the document while moving relative to the document in a sub-scanning direction substantially orthogonal to the main scanning direction. It is necessary to perform photoelectric conversion.

また、イメージセンサを構成する複数のラインセンサは、通常、主走査方向と同じ長手方向を有し、副走査方向に沿って一定間隔で配列されている。このため、イメージセンサが被読取媒体に対して副走査方向に相対移動する際に、ラインセンサの間隔(ギャップ)に起因して、ラインセンサ間で被読取媒体の同じ領域画像を読み取るタイミングに時間的な差が発生する。たとえば、複数のラインセンサのうちその配列方向一端側のラインセンサは、その配列方向他端側のラインセンサよりも先行して被読取媒体の特定領域の光学像を光電変換することとなる。よって、複数のラインセンサから同一タイミングで並列に出力された複数の画像信号の間で読み取り位置に関するずれ(以下「位相ずれ」とも呼ぶ。)が生ずる。   The plurality of line sensors constituting the image sensor usually have the same longitudinal direction as the main scanning direction and are arranged at regular intervals along the sub-scanning direction. For this reason, when the image sensor moves relative to the read medium in the sub-scanning direction, it takes time to read the same area image of the read medium between the line sensors due to the gap (gap) of the line sensors. Difference occurs. For example, among the plurality of line sensors, a line sensor on one end side in the arrangement direction photoelectrically converts an optical image of a specific area of the read medium prior to the line sensor on the other end side in the arrangement direction. Therefore, a deviation (hereinafter also referred to as a “phase deviation”) regarding a reading position occurs between a plurality of image signals output in parallel from a plurality of line sensors at the same timing.

このような位相ずれの補正は、基本的に、複数のラインセンサから並列に出力された複数の画像信号のうち特定の画像信号をラインセンサの間隔(ギャップ)に対応する遅延時間だけライン単位で遅延させる遅延メモリと、遅延メモリの出力に対して補間演算を行う補間演算部とを用いて実現することが可能である。たとえば、画像の縮小または拡大のために、読み取り倍率(変倍率)に応じて被読取媒体に対するイメージセンサの副走査方向の相対速度(副走査速度)を変更する機能を有する画像読取装置の場合、位相ずれは、1ライン分の遅延時間の整数倍とはならず、1ライン分の遅延時間の端数(小数部)倍の位相ずれが補正されずに残る場合がある。かかる場合は、補間演算を用いてその端数倍の位相ずれが補正される。   Basically, such phase shift correction is performed in units of lines by a delay time corresponding to the interval (gap) of the line sensors for specific image signals among the plurality of image signals output in parallel from the plurality of line sensors. This can be realized by using a delay memory for delaying and an interpolation calculation unit for performing an interpolation calculation on the output of the delay memory. For example, in the case of an image reading device having a function of changing the relative speed (sub-scanning speed) of the image sensor in the sub-scanning direction with respect to the read medium in accordance with the reading magnification (variable magnification) for image reduction or enlargement, The phase shift is not an integral multiple of the delay time for one line, and a phase shift that is a fraction (decimal part) times the delay time for one line may remain uncorrected. In such a case, the fractional phase shift is corrected using interpolation calculation.

このような位相ずれを補正する従来技術は、たとえば、特開平1−109966号公報(特許文献1)、特開平9−270898号公報(特許文献2)、特許第3112377号明細書(特許文献3)、特許第3230281号明細書(特許文献4)及び特許第3379462号明細書(特許文献5)に開示されている。   Conventional techniques for correcting such a phase shift include, for example, JP-A-1-109966 (Patent Document 1), JP-A-9-270898 (Patent Document 2), and Japanese Patent No. 312377 (Patent Document 3). ), Japanese Patent No. 3230281 (Patent Document 4) and Japanese Patent No. 3379462 (Patent Document 5).

特開平1−109966号公報(第2図,第5図,第6図など)Japanese Patent Laid-Open No. 1-109966 (FIGS. 2, 5, 6, etc.) 特開平9−270898号公報(図5〜図7,段落0008及び段落0014〜0016など)JP-A-9-270898 (FIGS. 5 to 7, paragraph 0008, paragraphs 0014 to 0016, etc.) 特許第3112377号明細書(図3,図9,図29,段落0003〜0009,段落0046〜0047,段落0074〜0076など)Japanese Patent No. 311377 (FIGS. 3, 9, 29, paragraphs 0003-0009, paragraphs 0046-0047, paragraphs 0074-0076, etc.) 特許第3230281号明細書(図3,段落0049〜0056など)Japanese Patent No. 3230281 (FIG. 3, paragraphs 0049-0056, etc.) 特許第3379462号明細書(図1〜2,段落0015〜0022など)Japanese Patent No. 3379462 (FIGS. 1-2, paragraphs 0015-0022, etc.)

しかしながら、多色画像を読み取るために、複数色の光をそれぞれ受光する複数のラインセンサを使用する画像読取装置の場合、これら複数のラインセンサから並列に出力された複数の画像信号に個別に補間処理を施して位相ずれを補正すると、色再現性が低下する場合がある。   However, in the case of an image reading apparatus that uses a plurality of line sensors that respectively receive light of a plurality of colors in order to read a multicolor image, interpolation is individually performed on a plurality of image signals output in parallel from the plurality of line sensors. When processing is performed to correct the phase shift, color reproducibility may deteriorate.

たとえば、R,G,Bの3原色の光をそれぞれ受光するRラインセンサ、Gラインセンサ及びBラインセンサといった3つのラインセンサが使用される場合、Gラインセンサの出力に対してRラインセンサ及びBラインセンサの出力の位相ずれを補正するためにRラインセンサ及びBラインセンサの出力に線形補間を施すと、線形補間はスムージング処理であるため、読み取った画像の中の赤色成分及び青色成分のそれぞれのMTF(変調伝達関数:Modulation Transfer Function)が緑色成分のMTFと比べて劣化する。これにより、R,G,Bの階調バランスが崩れて色再現性が低下する場合がある。   For example, when three line sensors such as an R line sensor, a G line sensor, and a B line sensor that receive light of three primary colors R, G, and B are used, the R line sensor and the output of the G line sensor When linear interpolation is performed on the output of the R line sensor and the B line sensor in order to correct the phase shift of the output of the B line sensor, since the linear interpolation is a smoothing process, the red component and the blue component of the read image Each MTF (Modulation Transfer Function) is degraded as compared with the MTF of the green component. As a result, the gradation balance of R, G, B may be lost and color reproducibility may be reduced.

特に、原画像の中に階調が大きく変化するエッジ部分が存在すると、補間処理によりR,G,Bの階調バランスが大きく崩れて色ずれが発生するおそれがある。このような場合、たとえば、画像がぼけた感じになるだけでなく、原画像中の黒細線が緑や赤を帯びた細線として誤認識されるなど、白黒原稿がカラー原稿として誤認識されるという問題が起こる。また、画像読取装置が原画像中の黒文字部分を検出する黒文字検出機能を有する場合には、画像読取装置は、上述の色間のMTF差が生じることにより黒細線の色を他の色であると誤って判定するおそれもある。このため、黒文字判定を精度良く行うことができず、出力画像の黒文字部分や細線部分の品質が低下するという問題がある。   In particular, if there is an edge portion in which the gradation changes greatly in the original image, the gradation balance of R, G, B may be greatly lost due to the interpolation processing, and color misregistration may occur. In such a case, for example, not only does the image feel blurred, but a black and white document in the original image is erroneously recognized as a green or red-colored thin line. Problems arise. Further, when the image reading apparatus has a black character detection function for detecting a black character portion in the original image, the image reading apparatus changes the color of the black thin line to another color due to the MTF difference between the colors described above. There is also a risk of erroneous determination. For this reason, black character determination cannot be performed with high accuracy, and there is a problem that the quality of the black character portion and the thin line portion of the output image is deteriorated.

このような色ずれ発生を防止するために、たとえば、原画像から細線部分を検出した場合に補間処理を行わないことも考えられる。しかしながら、補間処理を実行しないことで位相ずれが補正されず、カラー画像については、むしろR,G,Bの階調バランスが大きく崩れてしまうおそれがある。   In order to prevent the occurrence of such color misregistration, for example, when a thin line portion is detected from the original image, it is conceivable that the interpolation processing is not performed. However, if the interpolation process is not executed, the phase shift is not corrected, and there is a possibility that the tone balance of R, G, and B will be greatly lost for a color image.

上記に鑑みて本発明の目的は、位相ずれを補正しても、色ずれを抑制して良好な色再現性を実現することができる画像読取装置、画像処理装置、画像処理方法及びコンピュータプログラムを提供することである。   In view of the above, an object of the present invention is to provide an image reading apparatus, an image processing apparatus, an image processing method, and a computer program capable of suppressing color misregistration and realizing good color reproducibility even when phase deviation is corrected. Is to provide.

本発明の第1の態様による画像読取装置は、主走査方向と該主走査方向とは異なる副走査方向とに延在する被読取媒体から2次元画像を読み取る画像読取装置であって、前記副走査方向に沿って所定間隔で配列された複数列のラインセンサを含むイメージセンサと、前記被読取媒体に対して前記イメージセンサを前記副走査方向に相対移動させて前記被読取媒体の表面で反射した光を前記イメージセンサに受光させる走査駆動部と、前記被読取媒体に対して前記イメージセンサが前記副走査方向に相対移動する走査期間内に一定の時間間隔ごとに前記複数列のラインセンサから並列に出力された複数系列の読取画素信号に基づいて画像データを生成する画像処理部とを備え、前記複数列のラインセンサは、互いに異なる複数の色の光をそれぞれ光電変換して前記複数系列の読取画素信号を並列に出力し、前記画像処理部は、前記複数系列の読取画素信号のうちの基準系列の読取画素信号と該基準系列以外の他系列の読取画素信号との間の位相ずれを補正するための画素補間位置を決定する補間位置決定部と、前記複数系列の読取画素信号に対して系列ごとに補間演算を実行して前記画素補間位置における前記複数の色それぞれの階調値を算出する補間処理部と、前記複数系列の読取画素信号のうち少なくとも1つの系列の読取画素信号に基づいて前記副走査方向に階調変化を有するエッジの有無を判定するエッジ検出部とを備え、前記補間処理部は、前記エッジが有ると判定されたときは、前記基準系列の読取画素信号に対しては、前記画素補間位置及び該画素補間位置からずれた位置のうちいずれか一方の第1の補間位置を基準として設定された加重係数を用いて前記補間演算を実行するとともに、前記他系列の読取画素信号に対しては、前記第1の補間位置とは異なる第2の補間位置を基準として設定された加重係数を用いて前記補間演算を実行することを特徴とする。   An image reading apparatus according to a first aspect of the present invention is an image reading apparatus for reading a two-dimensional image from a read medium extending in a main scanning direction and a sub-scanning direction different from the main scanning direction. An image sensor including a plurality of lines of line sensors arranged at predetermined intervals along the scanning direction, and the image sensor is moved relative to the read medium in the sub-scanning direction and reflected on the surface of the read medium. A scanning drive unit that causes the image sensor to receive the received light, and the line sensors of the plurality of rows at regular time intervals within a scanning period in which the image sensor moves relative to the read medium in the sub-scanning direction. An image processing unit that generates image data based on a plurality of series of read pixel signals output in parallel, and the plurality of lines of line sensors respectively emit light of a plurality of different colors. The plurality of series of read pixel signals are photoelectrically converted and the plurality of series of read pixel signals are output in parallel, and the image processing unit is configured to output a reference series of read pixel signals of the plurality of series of read pixel signals and other series of read pixels. An interpolation position determination unit for determining a pixel interpolation position for correcting a phase shift between the signal and the plurality of read pixel signals of the plurality of series by performing an interpolation operation for each series, and the plurality of pixels at the pixel interpolation position An interpolation processing unit that calculates a gradation value for each of the colors, and whether or not there is an edge having a gradation change in the sub-scanning direction based on at least one read pixel signal of the plurality of read pixel signals An edge detecting unit that performs a shift when the interpolation processing unit deviates from the pixel interpolation position and the pixel interpolation position with respect to the read pixel signal of the reference sequence when it is determined that the edge exists. The interpolation calculation is performed using a weighting coefficient set with reference to the first interpolation position of any one of the positions, and for the read pixel signals of the other series, the first interpolation position and Is characterized in that the interpolation operation is executed using a weighting coefficient set with reference to different second interpolation positions.

本発明の第2の態様による画像処理装置は、主走査方向と該主走査方向とは異なる副走査方向とに延在する被読取媒体に対して、前記副走査方向に沿って所定間隔で配列され且つ互いに異なる複数の色の光をそれぞれ光電変換して複数系列の読取画素信号を並列に出力する複数列のラインセンサを含むイメージセンサと、前記被読取媒体に対して前記イメージセンサを前記副走査方向に相対移動させて前記被読取媒体の表面で反射した光を前記イメージセンサに受光させる走査駆動部とを備えた画像読取装置に組み込まれる画像処理装置であって、前記被読取媒体に対して前記イメージセンサが前記副走査方向に相対移動する走査期間内に一定の時間間隔ごとに前記複数列のラインセンサから並列に出力された前記複数系列の読取画素信号のうち、基準系列の読取画素信号と該基準系列以外の他系列の読取画素信号との間の位相ずれを補正するための画素補間位置を決定する補間位置決定部と、前記複数系列の読取画素信号に対して系列ごとに補間演算を実行して前記画素補間位置における前記複数の色それぞれの階調値を算出する補間処理部と、前記複数系列の読取画素信号のうち少なくとも1つの系列の読取画素信号に基づいて前記副走査方向に階調変化を有するエッジの有無を判定するエッジ検出部とを備え、前記補間処理部は、前記エッジが有ると判定されたときは、前記基準系列の読取画素信号に対しては、前記画素補間位置及び該画素補間位置からずれた位置のうちいずれか一方の第1の補間位置を基準として設定された加重係数を用いて前記補間演算を実行するとともに、前記他系列の読取画素信号に対しては、前記第1の補間位置とは異なる第2の補間位置を基準として設定された加重係数を用いて前記補間演算を実行することを特徴とする。 An image processing apparatus according to a second aspect of the present invention is arranged at predetermined intervals along a sub-scanning direction with respect to a medium to be read that extends in a main scanning direction and a sub-scanning direction different from the main scanning direction. An image sensor including a plurality of lines of line sensors for photoelectrically converting light of a plurality of different colors and outputting a plurality of series of read pixel signals in parallel; and An image processing apparatus incorporated in an image reading apparatus including a scanning drive unit that causes the image sensor to receive light that is relatively moved in a scanning direction and reflected by the surface of the read medium. the image sensor Te is the plurality of series of read pixel signals from the line sensor of the plurality of rows every predetermined time interval in the scanning period is output in parallel to relative movement in the sub scanning direction An interpolation position determining unit that determines a pixel interpolation position for correcting a phase shift between a read pixel signal of a reference sequence and a read pixel signal of another sequence other than the reference sequence; and the read pixel signals of the plurality of sequences An interpolation processing unit that performs an interpolation operation for each series to calculate gradation values of each of the plurality of colors at the pixel interpolation position, and at least one series of read pixels among the plurality of series of read pixel signals An edge detection unit that determines the presence or absence of an edge having a gradation change in the sub-scanning direction based on a signal, and when the interpolation processing unit determines that the edge is present, the reference series of read pixels For the signal, the interpolation calculation is performed using a weighting coefficient set with reference to the first interpolation position of one of the pixel interpolation position and the position shifted from the pixel interpolation position. In addition, with respect to the read pixel signals of the other series, the interpolation calculation is performed using a weighting coefficient set with reference to a second interpolation position different from the first interpolation position. .

本発明の第3の態様による画像処理方法は、主走査方向と該主走査方向とは異なる副走査方向とに延在する被読取媒体に対して、前記副走査方向に所定間隔で配列され且つ互いに異なる複数の色の光をそれぞれ光電変換して複数系列の読取画素信号を並列に出力する複数列のラインセンサを含むイメージセンサと、前記被読取媒体に対して前記イメージセンサを前記副走査方向に相対移動させて前記被読取媒体の表面で反射した光を前記イメージセンサに受光させる走査駆動部とを備える画像読取装置における画像処理方法であって、前記被読取媒体に対して前記イメージセンサが前記副走査方向に相対移動する走査期間内に一定の時間間隔ごとに前記複数列のラインセンサから並列に出力された前記複数系列の読取画素信号のうち、基準系列の読取画素信号と該基準系列以外の他系列の読取画素信号との間の位相ずれを補正するための画素補間位置を決定するステップと、前記複数系列の読取画素信号のうち少なくとも1つの系列の読取画素信号に基づいて前記副走査方向に階調変化を有するエッジの有無を判定するステップと、前記エッジが有ると判定されたとき、前記基準系列の読取画素信号に対して、前記画素補間位置及び該画素補間位置からずれた位置のうちいずれか一方の第1の補間位置を基準として設定された加重係数を用いた補間演算を実行することにより前記画素補間位置における前記基準系列に対応した色の階調値を算出するステップと、前記エッジが有ると判定されたとき、前記他系列の読取画素信号に対して、前記第1の補間位置とは異なる第2の補間位置を基準として設定された加重係数を用いた補間演算を実行することにより前記画素補間位置における前記他系列に対応した色の階調値を算出するステップとを備えることを特徴とする。 According to a third aspect of the present invention, there is provided an image processing method in which a read medium extending in a main scanning direction and a sub-scanning direction different from the main scanning direction is arranged at predetermined intervals in the sub-scanning direction. An image sensor including a plurality of lines of line sensors for photoelectrically converting light of a plurality of different colors and outputting a plurality of series of read pixel signals in parallel; and the image sensor with respect to the read medium in the sub-scanning direction An image processing method in an image reading apparatus including a scanning drive unit that causes the image sensor to receive light reflected on the surface of the read medium relative to the read medium. among the plurality of series of read pixel signals from the line sensor of the plurality of rows every predetermined time interval in the scanning period is output in parallel to relative movement in the sub-scanning direction, the reference system Determining a pixel interpolation position for correcting a phase shift between the read pixel signal of the other series and the read pixel signal of the other series other than the reference series, and at least one of the plurality of series of read pixel signals. Determining whether or not there is an edge having a gradation change in the sub-scanning direction based on the read pixel signal; and when it is determined that the edge is present, the pixel interpolation position with respect to the reference series read pixel signal And a color corresponding to the reference series at the pixel interpolation position by executing an interpolation operation using a weighting coefficient set with reference to the first interpolation position of any one of the positions shifted from the pixel interpolation position A second interpolation position different from the first interpolation position with respect to the read pixel signals of the other series when it is determined that the edge exists. Characterized in that it comprises a step of calculating the color tone values of corresponding to the other sequence in the pixel interpolation positions by performing the interpolation calculation using the weighting coefficient set as a reference.

本発明の第4の態様によるコンピュータプログラムは、主走査方向と該主走査方向とは異なる副走査方向とに延在する被読取媒体に対して、前記副走査方向に所定間隔で配列され且つ互いに異なる複数の色の光をそれぞれ光電変換して複数系列の読取画素信号を並列に出力する複数列のラインセンサを含むイメージセンサと、前記被読取媒体に対して前記イメージセンサを前記副走査方向に相対移動させて前記被読取媒体の表面で反射した光を前記イメージセンサに受光させる走査駆動部と、前記被読取媒体に対して前記イメージセンサが前記副走査方向に相対移動する走査期間内に一定の時間間隔ごとに前記複数列のラインセンサから並列に出力された前記複数系列の読取画素信号に基づいて画像データを生成する画像処理部とを備えた画像読取装置において、前記画像処理部に画像処理を実行させるコンピュータプログラムであって、該コンピュータプログラムは、前記画像処理部によりコンピュータ読み取り可能な記録媒体から読み出されて実行されるものであり、前記画像処理は、前記複数系列の読取画素信号のうちの基準系列の読取画素信号と該基準系列以外の他系列の読取画素信号との間の位相ずれを補正するための画素補間位置を決定する補間位置決定処理と、前記複数系列の読取画素信号のうち少なくとも1つの系列の読取画素信号に基づいて前記副走査方向に階調変化を有するエッジの有無を判定するエッジ検出処理と、前記エッジが有ると判定されたとき、前記基準系列の読取画素信号に対して、前記画素補間位置及び該画素補間位置からずれた位置のうちいずれか一方の第1の補間位置を基準として設定された加重係数を用いた補間演算を実行することにより前記画素補間位置における前記基準系列に対応した色の階調値を算出する第1の補間処理と、前記エッジが有ると判定されたとき、前記他系列の読取画素信号に対して、前記第1の補間位置とは異なる第2の補間位置を基準として設定された加重係数を用いた補間演算を実行することにより前記画素補間位置における前記他系列に対応した色の階調値を算出する第2の補間処理とを含むことを特徴とする。 According to a fourth aspect of the present invention, there is provided a computer program that is arranged at a predetermined interval in the sub-scanning direction with respect to a medium to be read that extends in a main scanning direction and a sub-scanning direction different from the main scanning direction. An image sensor including a plurality of lines of line sensors for photoelectrically converting light of a plurality of different colors and outputting a plurality of series of read pixel signals in parallel; and the image sensor in the sub-scanning direction with respect to the read medium A scanning drive unit that causes the image sensor to receive light that is relatively moved and reflected by the surface of the read medium, and constant within a scanning period in which the image sensor moves relative to the read medium in the sub-scanning direction. image with an image processing unit for generating image data from the line sensor of the plurality of rows for each time period on the basis of the read pixel signals of the plurality of streams outputted in parallel In reading apparatus, a computer program for executing the image processing in the image processing unit, the computer program is intended to be read and executed from the computer-readable recording medium by the image processing unit, the image The processing includes an interpolation position for determining a pixel interpolation position for correcting a phase shift between a read pixel signal of a reference series of the read pixel signals of the plurality of series and a read pixel signal of a series other than the reference series. Determination processing, edge detection processing for determining the presence or absence of an edge having a gradation change in the sub-scanning direction based on at least one series of read pixel signals among the plurality of series of read pixel signals, and the presence of the edges When the determination is made, the pixel interpolation position and the position shifted from the pixel interpolation position with respect to the reference series read pixel signal First interpolation for calculating a gradation value of a color corresponding to the reference series at the pixel interpolation position by executing an interpolation operation using a weighting coefficient set with the first interpolation position as one of the references Processing and interpolation using a weighting coefficient set with reference to a second interpolation position different from the first interpolation position for the read pixel signal of the other series when it is determined that the edge is present And a second interpolation process for calculating a gradation value of a color corresponding to the other series at the pixel interpolation position by performing an operation.

本発明によれば、エッジが有ると判定されたときは、基準系列の読取画素信号に対して第1の補間位置を基準として設定された加重係数を用いた補間演算を実行することよって基準系列に対応する色の階調値が算出されるのに対し、他系列の読取画素信号に対しては、第1の補間位置とは異なる第2の補間位置を基準として設定された加重係数を用いた補間演算を実行することによって他系列に対応する色の階調値が算出される。これにより、読取画素信号の位相ずれを補正しても、階調値の色ずれを抑制することができる。したがって、良好な色再現性を実現することができる。   According to the present invention, when it is determined that there is an edge, a reference sequence is obtained by performing an interpolation operation using a weighting coefficient set with reference to the first interpolation position for the read pixel signal of the reference sequence. On the other hand, for the read pixel signals of other series, a weighting coefficient set based on a second interpolation position different from the first interpolation position is used for the read pixel signals of other series. The tone value of the color corresponding to the other series is calculated by executing the interpolation calculation. Thereby, even if the phase shift of the read pixel signal is corrected, the color shift of the gradation value can be suppressed. Therefore, good color reproducibility can be realized.

本発明に係る実施の形態1の画像読取装置の主な構成を概略的に示す図である。1 is a diagram schematically illustrating a main configuration of an image reading apparatus according to a first embodiment of the present invention. 実施の形態1のリニアイメージセンサの構成を概略的に示す図である。1 is a diagram schematically showing a configuration of a linear image sensor according to a first embodiment. (A),(B)は、複数のラインセンサの配列を概略的に例示する図である。(A), (B) is a figure which illustrates roughly the arrangement of a plurality of line sensors. 実施の形態1の画像処理部の概略構成を示す機能ブロック図である。2 is a functional block diagram illustrating a schematic configuration of an image processing unit according to Embodiment 1. FIG. (A)〜(C)は、実施の形態1のライン遅延部の構成例を示す図である。(A)-(C) are the figures which show the structural example of the line delay part of Embodiment 1. FIG. 実施の形態1の補間制御部の概略構成を示す機能ブロック図である。3 is a functional block diagram illustrating a schematic configuration of an interpolation control unit according to the first embodiment. FIG. (A)〜(C)は、実施の形態1の補間処理部の概略構成を示す機能ブロック図である。(A)-(C) are functional block diagrams which show schematic structure of the interpolation process part of Embodiment 1. FIG. 走査期間におけるラインセンサの相対位置の遷移を示す図である。It is a figure which shows the transition of the relative position of the line sensor in a scanning period. (A)〜(C)は、図8の画素補間位置に対するライン遅延部の出力間の位相ずれを示す図である。(A)-(C) is a figure which shows the phase shift between the outputs of a line delay part with respect to the pixel interpolation position of FIG. (A)〜(C)は、3次関数補間法による画素補間法を説明するための図である。(A)-(C) is a figure for demonstrating the pixel interpolation method by a cubic function interpolation method. 走査期間におけるラインセンサの相対位置の遷移を示す図である。It is a figure which shows the transition of the relative position of the line sensor in a scanning period. (A)〜(D)は、原画像が図11の階調エッジを有し、補間制御部が機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。(A)-(D) are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge of FIG. 11 and the interpolation control unit does not function. (A)〜(C)は、図11の階調エッジが存在する場合にR成分の補間方法を説明するための図である。(A)-(C) is a figure for demonstrating the interpolation method of R component when the gradation edge of FIG. 11 exists. (A)〜(C)は、図11の階調エッジが存在する場合にB成分の補間方法を説明するための図である。(A)-(C) is a figure for demonstrating the interpolation method of B component when the gradation edge of FIG. 11 exists. 図11の階調エッジが存在する場合に生成されるR成分,G成分及びB成分の補間階調値を示すグラフである。12 is a graph showing interpolation gradation values of R component, G component, and B component generated when the gradation edge of FIG. 11 exists. 本発明に係る実施の形態2の画像処理部の概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the image process part of Embodiment 2 which concerns on this invention. 実施の形態2の補間制御部の概略構成を示す機能ブロック図である。FIG. 10 is a functional block diagram illustrating a schematic configuration of an interpolation control unit according to a second embodiment. 走査期間におけるラインセンサの相対位置の遷移を示す図である。It is a figure which shows the transition of the relative position of the line sensor in a scanning period. (A)〜(D)は、原画像が図18の階調エッジを有し、補間制御部が機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。(A)-(D) are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge of FIG. 18 and the interpolation control unit does not function. 図19(D)の色ずれが補正されたときのR成分,G成分及びB成分の補間階調値を示すグラフである。It is a graph which shows the interpolation gradation value of R component, G component, and B component when the color shift of FIG.19 (D) is correct | amended. 走査期間におけるラインセンサの相対位置の遷移を示す図である。It is a figure which shows the transition of the relative position of the line sensor in a scanning period. (A)〜(D)は、原画像が図21の階調エッジを有し、補間制御部が機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。(A)-(D) are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge of FIG. 21 and the interpolation control unit does not function. 図22(D)の色ずれが補正されたときのR成分,G成分及びB成分の補間階調値を示すグラフである。It is a graph which shows the interpolation gradation value of R component, G component, and B component when the color shift of FIG.22 (D) is correct | amended. 走査期間におけるラインセンサの相対位置の遷移を示す図である。It is a figure which shows the transition of the relative position of the line sensor in a scanning period. (A)〜(D)は、原画像が図24の階調エッジを有し、補間制御部が機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。(A)-(D) are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge of FIG. 24 and the interpolation control unit does not function. 図25(D)の色ずれが補正されたときのR成分,G成分及びB成分の補間階調値を示すグラフである。FIG. 26 is a graph showing interpolation gradation values of an R component, a G component, and a B component when the color misregistration in FIG. 25 (D) is corrected. 走査期間におけるラインセンサの相対位置の遷移を示す図である。It is a figure which shows the transition of the relative position of the line sensor in a scanning period. (A)〜(D)は、原画像が図27の階調エッジを有し、補間制御部が機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。(A)-(D) are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge of FIG. 27 and the interpolation control unit does not function. 図28(D)の色ずれが補正されたときのR成分,G成分及びB成分の補間階調値を示すグラフである。It is a graph which shows the interpolation gradation value of R component, G component, and B component when the color shift of FIG.28 (D) is correct | amended. 走査期間におけるラインセンサの相対位置の遷移を示す図である。It is a figure which shows the transition of the relative position of the line sensor in a scanning period. (A)〜(D)は、原画像が図30の階調エッジを有し、補間制御部が機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。(A)-(D) are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge of FIG. 30 and the interpolation control unit does not function. 走査期間におけるラインセンサの相対位置の遷移を示す図である。It is a figure which shows the transition of the relative position of the line sensor in a scanning period. (A)〜(D)は、原画像が図32の階調エッジを有し、補間制御部が機能しない場合の画素位置と補間階調値との関係を示すグラフである。(A)-(D) are graphs showing the relationship between the pixel position and the interpolation gradation value when the original image has the gradation edge of FIG. 32 and the interpolation control unit does not function. 本発明に係る実施の形態3の画像処理部の概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the image process part of Embodiment 3 which concerns on this invention. 実施の形態3の補間制御部の構成を概略的に示す機能ブロック図である。FIG. 10 is a functional block diagram schematically showing a configuration of an interpolation control unit according to a third embodiment. 実施の形態1〜3の画像処理部の機能をコンピュータプログラムで実現する場合の構成を示す演算装置の機能ブロック図である。It is a functional block diagram of an arithmetic unit showing a configuration when the functions of the image processing unit of the first to third embodiments are realized by a computer program. 本発明に係る実施の形態4に係る処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which concerns on Embodiment 4 which concerns on this invention. 本発明に係る実施の形態5に係る処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which concerns on Embodiment 5 which concerns on this invention. 本発明に係る実施の形態6に係る処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which concerns on Embodiment 6 which concerns on this invention.

以下、本発明に係る種々の実施の形態について図面を参照しつつ説明する。なお、図面において、同様の構成要素には同一符号を付し、その詳細な説明は重複しないように適宜省略される。   Hereinafter, various embodiments according to the present invention will be described with reference to the drawings. In the drawings, the same components are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate so as not to overlap.

実施の形態1.
図1は、本発明に係る実施の形態1の画像読取装置1の主な構成を概略的に示す図である。この画像読取装置1は、シート状の被読取媒体2の裏面に形成されたカラー画像を読み取る機能を有する。被読取媒体2は、副走査方向Xと主走査方向Yとにそれぞれ延在する表面を有し、また、副走査方向X及び主走査方向Yの双方に直交するZ軸方向に厚みを有するものである。被読取媒体2としては、たとえば、紙媒体などの原稿が挙げられる。なお、本実施の形態では、副走査方向Xと主走査方向Yとは互いに直交するが、これに限定されるものではない。
Embodiment 1 FIG.
FIG. 1 is a diagram schematically showing a main configuration of an image reading apparatus 1 according to Embodiment 1 of the present invention. The image reading apparatus 1 has a function of reading a color image formed on the back surface of a sheet-like read medium 2. The read medium 2 has a surface extending in each of the sub-scanning direction X and the main scanning direction Y, and has a thickness in the Z-axis direction orthogonal to both the sub-scanning direction X and the main scanning direction Y. It is. Examples of the medium 2 to be read include a document such as a paper medium. In the present embodiment, the sub-scanning direction X and the main scanning direction Y are orthogonal to each other, but the present invention is not limited to this.

図1に示されるように、画像読取装置1は、シート形状の被読取媒体2が上面に載置される透光性板10と、この透光性板10を介して被読取媒体2の表面に光を照射して被読取媒体2で反射した光の線状像を検出する撮像センサモジュール12と、この撮像センサモジュール12を副走査方向Xに沿って機械的に移動させる走査駆動部11と、撮像センサモジュール12から並列に出力された3系列のアナログ電気信号(読取画素信号)R1,G1,B1をデジタル信号R2,G2,B2にそれぞれ変換するA/D変換器(ADC)13と、デジタル信号R2,G2,B2の系列に画像処理を施して2次元カラー画像データを表す画像信号Rout,Gout,Boutを生成する画像処理部14とを備えている。   As shown in FIG. 1, the image reading apparatus 1 includes a translucent plate 10 on which a sheet-shaped read medium 2 is placed, and a surface of the read medium 2 via the translucent plate 10. An imaging sensor module 12 that detects a linear image of the light reflected by the read medium 2 by irradiating light to the read medium 2, and a scanning drive unit 11 that mechanically moves the imaging sensor module 12 along the sub-scanning direction X; An A / D converter (ADC) 13 for converting three series of analog electrical signals (read pixel signals) R1, G1, B1 output in parallel from the imaging sensor module 12 into digital signals R2, G2, B2, respectively; And an image processing unit 14 that performs image processing on the series of digital signals R2, G2, and B2 to generate image signals Rout, Gout, and Bout representing two-dimensional color image data.

また、画像読取装置1は、走査駆動部11及び画像処理部14の動作を個別に制御するコントローラ(主制御部)15と、操作パネル16とを備えている。操作パネル16は、たとえば、キー入力デバイスやポインティングデバイスなどの操作入力装置を有しており、ユーザは、この操作パネル16を操作して変倍率などの設定情報あるいは指示情報を入力することが可能である。ユーザが変倍率を指定することで、画像読取装置1は、等倍率(=100%)以外の変倍率で被読取媒体2に形成された画像の拡大画像あるいは縮小画像を読み取ることができる。   In addition, the image reading apparatus 1 includes a controller (main control unit) 15 that individually controls the operations of the scanning drive unit 11 and the image processing unit 14, and an operation panel 16. The operation panel 16 has, for example, an operation input device such as a key input device or a pointing device, and the user can input setting information or instruction information such as a scaling factor by operating the operation panel 16. It is. When the user designates the variable magnification, the image reading apparatus 1 can read an enlarged image or a reduced image of the image formed on the read medium 2 at a variable magnification other than the equal magnification (= 100%).

なお、画像読取装置1は、図1に示した構成要素10〜16だけでなく、これら構成要素10〜16以外の構成(たとえば、光源21A,21Bを駆動するドライバ回路)をも有している。   The image reading apparatus 1 has not only the components 10 to 16 shown in FIG. 1 but also a configuration other than these components 10 to 16 (for example, a driver circuit that drives the light sources 21A and 21B). .

走査駆動部11は、撮像センサモジュール12を副走査方向Xに沿って案内するガイド機構や、このガイド機構を駆動する駆動モータなどの駆動部品(図示せず)からなる。走査駆動部11は、コントローラ15からの指令を受けて動作し、コントローラ15から指定された副走査速度で撮像センサモジュール12を被読取媒体2に対して相対的に移動させることができる。副走査速度は、変倍率に応じた値に設定される。走査駆動部11が撮像センサモジュール12を副走査方向Xに沿って相対移動させる走査期間内に、撮像センサモジュール12は、被読取媒体2で反射した光の線状像を一定の時間間隔で連続的に撮像して、3系列の読取画素信号R1,G1,B1を並列に出力することができる。   The scanning drive unit 11 includes a drive mechanism (not shown) such as a guide mechanism that guides the image sensor module 12 along the sub-scanning direction X and a drive motor that drives the guide mechanism. The scanning drive unit 11 operates in response to a command from the controller 15 and can move the image sensor module 12 relative to the read medium 2 at a sub-scanning speed designated by the controller 15. The sub-scanning speed is set to a value corresponding to the variable magnification. During the scanning period in which the scanning drive unit 11 relatively moves the image sensor module 12 along the sub-scanning direction X, the image sensor module 12 continuously produces a linear image of the light reflected by the read medium 2 at regular time intervals. Thus, three series of read pixel signals R1, G1, and B1 can be output in parallel.

撮像センサモジュール12は、図1に示されるように、透光性板10を介して被読取媒体2の裏面に主走査方向Yに沿った帯状の光を照射する一対の光源21A,21Bと、リニアイメージセンサ23と、被読取媒体2で反射した光をリニアイメージセンサ23上に等倍結像させる等倍結像光学系22とを有する。等倍結像光学系22が使用されるため、本実施の形態の撮像センサモジュール12は、いわゆる密着型イメージセンサ(CIS:Contact Image Sensor)である。光源21A,21Bには、たとえば、複数のLED(Light−Emitting Diode)素子を主走査方向Yに沿って配列して構成されたモジュールを使用すればよい。   As shown in FIG. 1, the imaging sensor module 12 includes a pair of light sources 21 </ b> A and 21 </ b> B that irradiate the back surface of the read medium 2 with a strip-shaped light along the main scanning direction Y via the translucent plate 10. It has a linear image sensor 23 and an equal magnification imaging optical system 22 for imaging the light reflected by the read medium 2 on the linear image sensor 23 at an equal magnification. Since the equal-magnification imaging optical system 22 is used, the image sensor module 12 of the present embodiment is a so-called contact image sensor (CIS: Contact Image Sensor). For the light sources 21A and 21B, for example, a module configured by arranging a plurality of LED (Light-Emitting Diode) elements along the main scanning direction Y may be used.

リニアイメージセンサ23は、主走査方向Yとほぼ同じ方向の長手方向を有し、R(赤色),G(緑色)及びB(青色)の3原色の光をそれぞれ受光する3列のライン状の固体撮像素子すなわちラインセンサを有している。R,G,Bの3個のラインセンサは、被読取媒体2からの反射光の線状像を光電変換して3系列の読取画素信号R1,G1,B1をそれぞれ出力する。   The linear image sensor 23 has a longitudinal direction substantially the same as the main scanning direction Y, and has three rows of line-like shapes that respectively receive light of three primary colors of R (red), G (green), and B (blue). It has a solid-state image sensor, that is, a line sensor. The three line sensors R, G, and B photoelectrically convert the linear image of the reflected light from the read medium 2 and output three series of read pixel signals R1, G1, and B1, respectively.

図2は、実施の形態1のリニアイメージセンサ23の構成を概略的に示す図である。図2に示されるように、リニアイメージセンサ23は、赤色の光(波長が約632nmの光)のみを透過させるカラーフィルタを有するRラインセンサ23Rと、緑色の光(波長が約530nmの光)のみを透過させるカラーフィルタを有するGラインセンサ23Gと、青色の光(波長が約470nmの光)のみを透過させるカラーフィルタを有するBラインセンサ23Bとを含む。Rラインセンサ23Rは、主走査方向Yに沿って配列された数百個の受光素子24R,…,24Rを光電変換素子として有している。同様に、Gラインセンサ23Gは、主走査方向Yに沿って配列された数百個の受光素子24G,…,24Gを光電変換素子として有し、Bラインセンサ23Bは、主走査方向Yに沿って配列された数百個の受光素子24B,…,24Bを光電変換素子として有する。これらのRラインセンサ23R,Gラインセンサ23G及びBラインセンサ23Bは、それぞれ受光量に応じたレベルを有する読取画素信号R1,G1,B1を出力する。受光素子24R,24G,24Bとしては、たとえば、CCD(Charge−Coupled Device)あるいはCMOS(Complementary Metal−Oxide Semiconductor)撮像素子を使用することができる。   FIG. 2 is a diagram schematically showing a configuration of the linear image sensor 23 according to the first embodiment. As shown in FIG. 2, the linear image sensor 23 includes an R line sensor 23R having a color filter that transmits only red light (light having a wavelength of about 632 nm) and green light (light having a wavelength of about 530 nm). G line sensor 23G having a color filter that transmits only blue light, and B line sensor 23B having a color filter that transmits only blue light (light having a wavelength of about 470 nm). The R line sensor 23R has hundreds of light receiving elements 24R,..., 24R arranged along the main scanning direction Y as photoelectric conversion elements. Similarly, the G line sensor 23G has several hundred light receiving elements 24G,..., 24G arranged along the main scanning direction Y as photoelectric conversion elements, and the B line sensor 23B extends along the main scanning direction Y. .., 24B are arranged as photoelectric conversion elements. These R line sensor 23R, G line sensor 23G, and B line sensor 23B output read pixel signals R1, G1, and B1 having levels corresponding to the amounts of received light, respectively. As the light receiving elements 24R, 24G, and 24B, for example, a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor can be used.

図3(A),(B)は、Rラインセンサ23R,Gラインセンサ23G及びBラインセンサ23Bの配列を概略的に例示する図である。図3(A)は、Rラインセンサ23R,Gラインセンサ23G及びBラインセンサ23Bが副走査方向Xに沿って1画素ピッチ(=d)の間隔で配列された構造を示す図であり、図3(B)は、Rラインセンサ23R,Gラインセンサ23G及びBラインセンサ23Bが副走査方向Xに沿って1/3画素ピッチ(=d/3)の間隔で配列された構造を示す図である。   3A and 3B are diagrams schematically illustrating the arrangement of the R line sensor 23R, the G line sensor 23G, and the B line sensor 23B. FIG. 3A is a diagram showing a structure in which the R line sensor 23R, the G line sensor 23G, and the B line sensor 23B are arranged along the sub-scanning direction X at an interval of one pixel pitch (= d). 3B is a diagram illustrating a structure in which the R line sensor 23R, the G line sensor 23G, and the B line sensor 23B are arranged along the sub-scanning direction X at intervals of 1/3 pixel pitch (= d / 3). is there.

次に、画像処理部14について説明する。図4は、実施の形態1の画像処理部14の概略構成を示す機能ブロック図である。   Next, the image processing unit 14 will be described. FIG. 4 is a functional block diagram illustrating a schematic configuration of the image processing unit 14 according to the first embodiment.

図4に示されるように、画像処理部14は、シェーディング補正部31、ライン遅延部32R,32G,32B、補間処理部33R,33G,33B、エッジ検出部36及び補間制御部39を有する。エッジ検出部36は、Rエッジ検出部37R,Gエッジ検出部37G,Bエッジ検出部37B及びエッジ判定部38を有している。   As shown in FIG. 4, the image processing unit 14 includes a shading correction unit 31, line delay units 32 R, 32 G, and 32 B, interpolation processing units 33 R, 33 G, and 33 B, an edge detection unit 36, and an interpolation control unit 39. The edge detection unit 36 includes an R edge detection unit 37R, a G edge detection unit 37G, a B edge detection unit 37B, and an edge determination unit 38.

シェーディング補正部31は、リニアイメージセンサ23が有する受光素子の素子ごとの特性ばらつきをラインセンサ単位で補正する。シェーディング補正部31は、デジタル信号R2について受光素子24Rの素子ごとの特性ばらつきを補正することで得られる補正画素信号R3を出力し、デジタル信号G2について受光素子24Gの素子ごとの特性ばらつきを補正することで得られる補正画素信号G3を出力し、デジタル信号B2について受光素子24Bの素子ごとの特性ばらつきを補正することで得られる補正画素信号B3を出力する。これら補正画素信号R3,G3,B3は、ライン遅延部32R,32G,32Bにそれぞれ供給される。   The shading correction unit 31 corrects the characteristic variation of each light receiving element of the linear image sensor 23 for each line sensor. The shading correction unit 31 outputs a correction pixel signal R3 obtained by correcting the characteristic variation of each light receiving element 24R for the digital signal R2, and corrects the characteristic variation of each light receiving element 24G for the digital signal G2. The correction pixel signal G3 obtained in this way is output, and the correction pixel signal B3 obtained by correcting the characteristic variation of each light receiving element 24B for the digital signal B2 is output. These corrected pixel signals R3, G3, B3 are supplied to the line delay units 32R, 32G, 32B, respectively.

ライン遅延部32R,32G,32Bは、補正画素信号R3,G3,B3をそれぞれ遅延させて補正画素信号R3,G3,B3の間の位相ずれをライン単位で補正する機能を有する遅延メモリである。ライン遅延部32Rは、連続する4ライン分の4系列の遅延画素信号R41,R42,R43,R44を補間処理部33Rに出力し、これら遅延画素信号R41,R42,R43,R44のうち遅延画素信号R42,R43は、Rエッジ検出部37Rに供給される。また、ライン遅延部32Gは、連続する4ライン分の4系列の遅延画素信号G41,G42,G43,G44を補間処理部33Gに出力し、これら遅延画素信号G41,G42,G43,G44のうち遅延画素信号G42,G43は、Gエッジ検出部37Gに供給される。ライン遅延部32Bは、連続する4ライン分の4系列の遅延画素信号B41,B42,B43,B44を補間処理部33Bに出力し、これら遅延画素信号B41,B42,B43,B44のうち遅延画素信号B42,B43は、Bエッジ検出部37Bに供給される。   The line delay units 32R, 32G, and 32B are delay memories having a function of correcting the phase shift between the correction pixel signals R3, G3, and B3 in units of lines by delaying the correction pixel signals R3, G3, and B3, respectively. The line delay unit 32R outputs four series of delayed pixel signals R41, R42, R43, and R44 for four consecutive lines to the interpolation processing unit 33R, and among these delayed pixel signals R41, R42, R43, and R44, the delayed pixel signal R42 and R43 are supplied to the R edge detector 37R. Further, the line delay unit 32G outputs four series of delayed pixel signals G41, G42, G43, and G44 for four consecutive lines to the interpolation processing unit 33G, and the delay among the delayed pixel signals G41, G42, G43, and G44. Pixel signals G42 and G43 are supplied to a G edge detector 37G. The line delay unit 32B outputs four series of delayed pixel signals B41, B42, B43, and B44 for four consecutive lines to the interpolation processing unit 33B, and among these delayed pixel signals B41, B42, B43, and B44, the delayed pixel signal B42 and B43 are supplied to the B edge detector 37B.

図5(A)〜(C)は、ライン遅延部32R,32G,32Bの構成例を示す図である。図5(A)に示されるように、ライン遅延部32Rは、Nライン(Nは5以上の整数)分の補正画素信号R3を保持し転送するラインメモリ40R〜40Rと、これらラインメモリ40R〜40Rから並列に出力される遅延信号IR〜IRの中から4ライン分の遅延画素信号R41,R42,R43,R44を選択するセレクタ41Rとを含む。ラインメモリ40R〜40Rは、直列接続されており、これらラインメモリ40R〜40Rの各々は、Rラインセンサ23Rの主走査方向Yにおける1ライン分の補正画素信号R3を保持し得る記憶容量を有する。セレクタ41Rは、コントローラ15から供給された制御信号CR1に応じて動作し、制御信号CR1で指定された遅延時間δに応じて、ラインメモリ40R〜40Rの出力IR〜IRの中から4ライン分の遅延画素信号R41,R42,R43,R44を選択する。同様に、ライン遅延部32Gは、図5(B)に示されるように、Nライン分の補正画素信号G3を保持し転送するラインメモリ40G〜40Gと、これらラインメモリ40G〜40Gから並列に出力される遅延信号IG〜IGの中から4ライン分の遅延画素信号G41,G42,G43,G44を選択するセレクタ41Gとを含む。セレクタ41Gは、コントローラ15から供給された制御信号CG1に応じて動作し、制御信号CG1で指定された遅延時間δに応じて、ラインメモリ40G〜40Gの出力IG〜IGの中から4ライン分の遅延画素信号G41,G42,G43,G44を選択する。また、ライン遅延部32Bは、図5(C)に示されるように、Nライン分の補正画素信号B3を保持し転送するラインメモリ40B〜40Bと、これらラインメモリ40B〜40Bから並列に出力される遅延信号IB〜IBの中から4ライン分の遅延画素信号B41,B42,B43,B44を選択するセレクタ41Bとを含む。セレクタ41Bは、コントローラ15から供給された制御信号CB1に応じて動作し、制御信号CB1で指定された遅延時間δに応じて、ラインメモリ40B〜40Bの出力IB〜IBの中から4ライン分の遅延画素信号B41,B42,B43,B44を選択する。 5A to 5C are diagrams illustrating configuration examples of the line delay units 32R, 32G, and 32B. As shown in FIG. 5 (A), line delay unit 32R includes a line memory 40R 1 ~40R N to N lines (N is an integer of five or more) holds the corrected pixel signal R3 of partial transfer, these line memories 40R 1 ~40R N from four lines from the delayed signal IR 1 ~IR N output in parallel delayed pixel signals R41, R42, and a R43, the selector selects the R44 41R. Line memory 40R 1 ~40R N, are connected in series, each of the line memories 40R 1 ~40R N is stored capable of retaining corrected pixel signal R3 of one line in the main scanning direction Y of the R line sensor 23R Have capacity. The selector 41R operates in response to control signals CR1 supplied from the controller 15, in accordance with the given delay [delta] R in the control signal CR1, in the output IR 1 ~IR N line memories 40R 1 ~40R N The delayed pixel signals R41, R42, R43, and R44 for four lines are selected. Similarly, as illustrated in FIG. 5B, the line delay unit 32G holds line memories 40G 1 to 40G N that store and transfer correction pixel signals G3 for N lines, and these line memories 40G 1 to 40G N. delayed signal IG 1 ~IG delayed pixel signals for four lines from among the N output in parallel from the G41, G42, selects the G43, G44 and a selector 41G. The selector 41G operates in response to control signals CG1 supplied from the controller 15, in accordance with the given delay [delta] G in the control signal CG1, in the output IG 1 ~IG N line memories 40G 1 to 40 g N To 4 lines of delayed pixel signals G41, G42, G43, and G44 are selected. Further, as shown in FIG. 5C, the line delay unit 32B holds the line of corrected pixel signals B3 for N lines 40B 1 to 40B N and the line memories 40B 1 to 40B N. delayed signal IB 1 ~IB delayed pixel signals for four lines from among the N B41 outputted in parallel, B42, B43, and a selector 41B for selecting B44. The selector 41B operates in accordance with a control signal CB1 supplied from the controller 15, in accordance with the given delay [delta] B by the control signal CB1, in the output IB 1 ~IB N line memory 40B 1 ~40B N The delayed pixel signals B41, B42, B43, and B44 for four lines are selected.

補正画素信号R3,G3,B3間の位相ずれは、Rラインセンサ23R,Gラインセンサ23G及びBラインセンサ23Bの副走査方向Xにおける配列間隔(距離)と、被読取媒体2に対するリニアイメージセンサ23の走査間隔とに起因して生ずる。リニアイメージセンサ23の走査間隔は、2ライン分の画像を撮像する間にリニアイメージセンサ23が副走査方向Xに移動する距離に相当し、変倍率に応じて変化し得る。コントローラ15は、たとえば、補正画素信号G3の系列(基準系列)に対する他系列の補正画素信号R3,B3の位相ずれをライン単位で補正し得るように遅延時間δ,δ,δを変倍率に応じた値に設定することができる。ライン遅延部32R,32G,32Bはそれぞれ1ライン分の遅延時間の整数倍の位相ずれを補正することができるが、1ライン分の遅延時間の端数(小数部)倍(たとえば、0.5倍)の位相ずれを補正する機能を持たない。このような端数倍の位相ずれの補正は、補間処理部33R,33G,33Bによって行われる。 The phase shift between the correction pixel signals R3, G3, and B3 is the arrangement interval (distance) of the R line sensor 23R, G line sensor 23G, and B line sensor 23B in the sub-scanning direction X, and the linear image sensor 23 with respect to the read medium 2. Due to the scan interval. The scanning interval of the linear image sensor 23 corresponds to the distance that the linear image sensor 23 moves in the sub-scanning direction X while capturing an image for two lines, and can change according to the magnification. For example, the controller 15 changes the delay times δ R , δ G , and δ B so that the phase shift of the correction pixel signals R3 and B3 of the other series with respect to the series (reference series) of the correction pixel signal G3 can be corrected in line units. A value corresponding to the magnification can be set. Each of the line delay units 32R, 32G, and 32B can correct a phase shift that is an integral multiple of the delay time for one line. ) Is not provided. Such correction of the fractional phase shift is performed by the interpolation processing units 33R, 33G, and 33B.

なお、本実施の形態では、ライン遅延部32Rは、4ライン分の遅延画素信号R41,R42,R43,R44を並列に出力しているが、これに限定されるものではない。ライン遅延部32G,32Bについても同様である。ライン遅延部32R,32G,32Bの各々は、後段の補間処理部33R,33G,33Bで実行される補間演算に使用されるべきデータ点数に応じて、5ライン以上のライン分の遅延画素信号を並列に出力してもよい。   In the present embodiment, the line delay unit 32R outputs the delayed pixel signals R41, R42, R43, and R44 for four lines in parallel, but the present invention is not limited to this. The same applies to the line delay units 32G and 32B. Each of the line delay units 32R, 32G, and 32B outputs a delayed pixel signal for five or more lines according to the number of data points to be used for the interpolation calculation performed by the subsequent interpolation processing units 33R, 33G, and 33B. You may output in parallel.

Rエッジ検出部37Rは、連続する2ライン分の遅延画素信号R42,R43から副走査方向Xに大きな階調変化を有する赤色エッジの有無を判定し、その判定結果を示す判定信号EDRをエッジ判定部38に出力する。たとえば、副走査方向Xにおける隣接する画素(ライン)間の階調変化量の大きさが閾値を超えた場合には、赤色エッジが有ると判定し、それ以外の場合には、赤色エッジが無いと判定することができる。同様にして、Gエッジ検出部37Gは、連続する2ライン分の遅延画素信号G42,G43から副走査方向Xに大きな階調変化を有する緑色エッジの有無を判定し、その判定結果を示す判定信号EDGをエッジ判定部38に出力する。また、Bエッジ検出部37Bは、連続する2ライン分の遅延画素信号B42,B43から副走査方向Xに大きな階調変化を有する青色エッジの有無を判定し、その判定結果を示す判定信号EDBをエッジ判定部38に出力する。   The R edge detection unit 37R determines the presence / absence of a red edge having a large gradation change in the sub-scanning direction X from the delayed pixel signals R42 and R43 for two consecutive lines, and determines the determination signal EDR indicating the determination result as an edge determination. To the unit 38. For example, if the amount of gradation change between adjacent pixels (lines) in the sub-scanning direction X exceeds a threshold value, it is determined that there is a red edge, otherwise there is no red edge. Can be determined. Similarly, the G edge detection unit 37G determines the presence or absence of a green edge having a large gradation change in the sub-scanning direction X from the delayed pixel signals G42 and G43 for two continuous lines, and a determination signal indicating the determination result The EDG is output to the edge determination unit 38. Further, the B edge detection unit 37B determines the presence or absence of a blue edge having a large gradation change in the sub-scanning direction X from the delayed pixel signals B42 and B43 for two continuous lines, and generates a determination signal EDB indicating the determination result. The data is output to the edge determination unit 38.

エッジ判定部38は、判定信号EDR,EDG,EDBに基づき、赤色エッジ、緑色エッジ及び青色エッジの有無の組み合わせに応じて、被読取媒体2に形成されている原画像中の副走査方向Xのエッジの有無を判定する。たとえば、エッジ判定部38は、モノクロの白黒画像のエッジといった、補間処理部33R,33G,33Bによる補間処理によりR,G,Bの階調バランスが崩れることが想定されるエッジの有無を判定し、その判定結果を示すエッジ判定信号EDを補間制御部39に出力する。   The edge determination unit 38 is based on the determination signals EDR, EDG, and EDB, and in the sub-scanning direction X in the original image formed on the read medium 2 according to the combination of the presence / absence of the red edge, the green edge, and the blue edge. The presence or absence of an edge is determined. For example, the edge determination unit 38 determines the presence / absence of an edge, such as an edge of a monochrome monochrome image, that is assumed to lose the gradation balance of R, G, B due to the interpolation processing by the interpolation processing units 33R, 33G, 33B. The edge determination signal ED indicating the determination result is output to the interpolation control unit 39.

補間制御部39は、エッジ判定信号EDに応じて、上記した端数倍の位相ずれを補正するためのR,G,Bで共通の画素補間位置を決定し、この画素補間位置に基づいてR,G,Bの補間中心位置を表す補間制御信号PHR,PHG,PHBを補間処理部33R,33G,33Bにそれぞれ供給する。補間処理部33R,33G,33Bは、これら補間制御信号PHR,PHG,PHBに応じて、ライン遅延部32R,32G,32Bの出力系列に対して加重係数を用いた補間演算を実行することにより、当該画素補間位置におけるR,G,Bの階調値を生成する。そして、これらR,G,Bの階調値をそれぞれ表す画像信号Rout,Gout,Boutが外部に出力される。   The interpolation control unit 39 determines a pixel interpolation position common to R, G, and B for correcting the above-described fractional phase shift in accordance with the edge determination signal ED, and R, G, and B based on the pixel interpolation position. Interpolation control signals PHR, PHG, and PHB representing the interpolation center positions of G and B are supplied to the interpolation processing units 33R, 33G, and 33B, respectively. The interpolation processing units 33R, 33G, and 33B perform interpolation calculation using weighting coefficients on the output sequences of the line delay units 32R, 32G, and 32B in accordance with the interpolation control signals PHR, PHG, and PHB. R, G, and B gradation values at the pixel interpolation position are generated. Then, image signals Rout, Gout, and Bout representing the R, G, and B gradation values are output to the outside.

図6は、本実施の形態の補間制御部39の概略構成を示す機能ブロック図である。図6に示されるように、補間制御部39は、コントローラ15から供給された制御信号CLに応じて画素補間位置を示すパラメータr,g,bを決定する補間位置決定部43と、エッジ判定信号EDに応じて当該パラメータr,g,bを補正するための位相補正量(以下、「補正量」とも呼ぶ。)Δr,Δg,Δbを算出する補間位置制御部44と、加算器45R,45G,45Bとを有する。加算器45Rは、パラメータrに補正量Δrを加算してその加算結果を示す補間制御信号PHRを出力し、加算器45Gは、パラメータgに補正量Δgを加算してその加算結果を示す補間制御信号PHGを出力し、加算器45Bは、パラメータbに補正量Δbを加算してその加算結果を示す補間制御信号PHBを出力する。よって、補間制御信号PHR,PHG,PHBの値をqr,qg,qbで表すとき、次式が成立する。
qr=r+Δr
qg=g+Δg
qb=b+Δb
FIG. 6 is a functional block diagram showing a schematic configuration of the interpolation control unit 39 of the present embodiment. As shown in FIG. 6, the interpolation control unit 39 includes an interpolation position determination unit 43 that determines parameters r, g, and b indicating pixel interpolation positions in accordance with the control signal CL supplied from the controller 15, and an edge determination signal. An interpolation position control unit 44 for calculating phase correction amounts (hereinafter also referred to as “correction amounts”) Δr, Δg, Δb for correcting the parameters r, g, b according to ED, and adders 45R, 45G. , 45B. The adder 45R adds the correction amount Δr to the parameter r and outputs an interpolation control signal PHR indicating the addition result. The adder 45G adds the correction amount Δg to the parameter g and performs interpolation control indicating the addition result. The signal PHG is output, and the adder 45B outputs the interpolation control signal PHB indicating the addition result by adding the correction amount Δb to the parameter b. Therefore, when the values of the interpolation control signals PHR, PHG, and PHB are expressed by qr, qg, and qb, the following expression is established.
qr = r + Δr
qg = g + Δg
qb = b + Δb

補間位置決定部43は、制御信号CLで指定された端数倍の位相ずれに応じて、この位相ずれを補正するための画素補間位置を示すパラメータr,g,bを決定する。なお、その端数倍の位相ずれは、コントローラ15で算出される代わりに、補間位置決定部43で算出されてもよい。後述するように、補間制御信号PHR,PHG,PHBは、補間処理部33R,33G,33Bでの補間演算に使用される補間係数(加重係数)の値を制御する信号である。補間位置制御部44は、エッジ無しを示すエッジ判定信号EDが入力されたときは、補正量Δr,Δg,Δbを基準値(=0)に設定する。一方、エッジ有りを示すエッジ判定信号EDが入力されたときは、補間位置制御部44は、補正量Δr,Δg,Δbを基準値以外の値に設定して補間処理部33R,33G,33Bにおける加重係数を変化させる。これにより、同一画素におけるR,G,B間の階調値のずれ(色ずれ)を低減することが可能となる。   The interpolation position determination unit 43 determines parameters r, g, and b indicating pixel interpolation positions for correcting this phase shift according to the fractional phase shift specified by the control signal CL. The fractional phase shift may be calculated by the interpolation position determination unit 43 instead of being calculated by the controller 15. As will be described later, the interpolation control signals PHR, PHG, and PHB are signals that control the value of the interpolation coefficient (weighting coefficient) used for the interpolation calculation in the interpolation processing units 33R, 33G, and 33B. When the edge determination signal ED indicating no edge is input, the interpolation position control unit 44 sets the correction amounts Δr, Δg, and Δb to reference values (= 0). On the other hand, when the edge determination signal ED indicating the presence of an edge is input, the interpolation position control unit 44 sets the correction amounts Δr, Δg, Δb to values other than the reference values, and the interpolation processing units 33R, 33G, 33B Change the weighting factor. As a result, it is possible to reduce a gradation value shift (color shift) between R, G, and B in the same pixel.

図7(A)〜(C)は、補間処理部33R,33G,33Bの概略構成を示す機能ブロック図である。図7(A)に示されるように、補間処理部33Rは、補間制御信号PHRに応じて補間係数(加重係数)KR1〜KR4を算出する補間係数算出部48Rと、ライン遅延部32Rの出力R41〜R44に対して補間係数KR1〜KR4を用いた補間演算(フィルタリング)を実行する補間演算部47Rとを有する。補間係数算出部48Rは、所定の補間法に従って補間係数KR1〜KR4を算出する。補間係数KR1〜KR4の算出方法については後述する。補間演算部47Rは、次式による補間演算を実行して画素補間位置でのR階調値QRを算出することができる。
QR=(KR1×R41+KR2×R42+KR3×R43+KR4×R44)/SR
7A to 7C are functional block diagrams illustrating a schematic configuration of the interpolation processing units 33R, 33G, and 33B. As shown in FIG. 7A, the interpolation processing unit 33R includes an interpolation coefficient calculation unit 48R that calculates interpolation coefficients (weighting coefficients) KR1 to KR4 according to the interpolation control signal PHR, and an output R41 of the line delay unit 32R. To R44, an interpolation calculation unit 47R that executes interpolation calculation (filtering) using the interpolation coefficients KR1 to KR4. The interpolation coefficient calculation unit 48R calculates interpolation coefficients KR1 to KR4 according to a predetermined interpolation method. A method for calculating the interpolation coefficients KR1 to KR4 will be described later. The interpolation calculation unit 47R can calculate the R gradation value QR at the pixel interpolation position by executing an interpolation calculation according to the following equation.
QR = (KR1 × R41 + KR2 × R42 + KR3 × R43 + KR4 × R44) / SR

ここで、SR=KR1+KR2+KR3+KR4、である。   Here, SR = KR1 + KR2 + KR3 + KR4.

同様に、補間処理部33Gは、図7(B)に示されるように補間演算部47Gと補間係数算出部48Gとを有する。補間演算部47Gは、補間制御信号PHGに応じて、所定の補間法を用いて補間係数(加重係数)KG1〜KG4を算出する。また、補間係数算出部48Gは、次式による補間演算を実行して画素補間位置でのG階調値QGを算出することができる。
QG=(KG1×G41+KG2×G42+KG3×G43+KG4×G44)/SG
Similarly, the interpolation processing unit 33G includes an interpolation calculation unit 47G and an interpolation coefficient calculation unit 48G, as shown in FIG. 7B. The interpolation calculation unit 47G calculates interpolation coefficients (weighting coefficients) KG1 to KG4 using a predetermined interpolation method according to the interpolation control signal PHG. Also, the interpolation coefficient calculation unit 48G can calculate the G gradation value QG at the pixel interpolation position by executing an interpolation calculation according to the following equation.
QG = (KG1 × G41 + KG2 × G42 + KG3 × G43 + KG4 × G44) / SG

ここで、SG=KG1+KG2+KG3+KG4、である。   Here, SG = KG1 + KG2 + KG3 + KG4.

また、補間処理部33Bは、図7(C)に示されるように補間演算部47Bと補間係数算出部48Bとを有する。補間演算部47Bは、補間制御信号PHBに応じて、所定の補間法を用いて補間係数(加重係数)KB1〜KB4を算出する。また、補間係数算出部48Bは、次式による補間演算を実行して画素補間位置でのB階調値QBを算出することができる。
QB=(KB1×B41+KB2×B42+KB3×B43+KB4×B44)/SB
In addition, the interpolation processing unit 33B includes an interpolation calculation unit 47B and an interpolation coefficient calculation unit 48B as shown in FIG. 7C. The interpolation calculation unit 47B calculates interpolation coefficients (weighting coefficients) KB1 to KB4 using a predetermined interpolation method according to the interpolation control signal PHB. Further, the interpolation coefficient calculation unit 48B can calculate the B gradation value QB at the pixel interpolation position by executing an interpolation calculation according to the following equation.
QB = (KB1 × B41 + KB2 × B42 + KB3 × B43 + KB4 × B44) / SB

ここで、SB=KB1+KB2+KB3+KB4、である。   Here, SB = KB1 + KB2 + KB3 + KB4.

次に、上記構成を有する画像処理部14の動作を以下に説明する。以下の説明では、図3(B)に示したように1/3画素ピッチ(=d/3)でRラインセンサ23R,Gラインセンサ23G及びBラインセンサ23B(以下、単に「ラインセンサ23R,23G,23B」とも呼ぶ。)が配列された構造を有するリニアイメージセンサ23が使用されるものとし、画像読取装置1は、1画素ピッチ(=d)の走査間隔で被読取媒体2の原画像を読み取るように動作するものとする。   Next, the operation of the image processing unit 14 having the above configuration will be described below. In the following description, as shown in FIG. 3B, the R line sensor 23R, the G line sensor 23G, and the B line sensor 23B (hereinafter simply referred to as “line sensor 23R,” at a 1/3 pixel pitch (= d / 3). 23G, 23B ") is used, and the image reading apparatus 1 uses the original image of the read medium 2 at a scanning interval of 1 pixel pitch (= d). Shall operate to read

図8は、被読取媒体2からの画像読み取りの際にリニアイメージセンサ23が副走査方向Xへ相対移動する走査期間におけるラインセンサ23R,23G,23Bの相対位置の遷移を示す図である。図8において、横軸は、経過時間tを表し、縦軸は、副走査方向Xにおけるラインセンサ23R,23G,23Bの相対位置を表している。図8では、リニアイメージセンサ23が1画素ピッチで画像を読み取るタイミングを示す時刻は、T−2,T−1,T,T+1,T+2,T+3で示されている。また、これら時刻T−2,T−1,T,T+1,T+2,T+3にそれぞれ対応する受光素子23Gの中心位置(画像読取位置)P(n−2),P(n−1),P(n),P(n+1),P(n+2),P(n+3)が示されている。図8中のK(n−1),K(n),K(n+1)は、画素補間位置を示す。 FIG. 8 is a diagram illustrating transition of the relative positions of the line sensors 23R, 23G, and 23B in a scanning period in which the linear image sensor 23 relatively moves in the sub-scanning direction X when reading an image from the read medium 2. In FIG. 8, the horizontal axis represents the elapsed time t, and the vertical axis represents the relative positions of the line sensors 23R, 23G, and 23B in the sub-scanning direction X. 8, time indicating timing for linear image sensor 23 reads an image on a pixel pitch, T -2, T -1, T 0, T +1, T +2, indicated by T +3. These time T -2, T -1, T 0 , T +1, T +2, the center position of each of the T +3 corresponding light-receiving element 23G (image reading position) P (n-2), P (n-1 ), P (n), P (n + 1), P (n + 2), and P (n + 3). K (n−1), K (n), and K (n + 1) in FIG. 8 indicate pixel interpolation positions.

図8に示されるように、各時刻でのラインセンサ23R,23G,23B間の画像取得位置のずれが画像読み取りピッチの整数倍とならずに端数(小数部)倍のずれが生ずる。このため、補間処理によって補正画素信号R3,G3,B3間の位相ずれを補正する必要が生ずる。図8に示されるように、画素補間位置K(n)を着目位置としたとき、補間演算部47R,47G,47Bは、着目位置K(n)の近傍4点の位置P(n−1),P(n),P(n+1),P(n+2)で読み取られた画素を参照画素とした補間演算を実行することにより、画素補間位置K(n)における階調値QR,QB,QGを算出して位相ずれを補正する。   As shown in FIG. 8, the shift in the image acquisition position between the line sensors 23R, 23G, and 23B at each time does not become an integral multiple of the image reading pitch, but a shift that is a fraction (decimal part) times occurs. For this reason, it is necessary to correct the phase shift between the correction pixel signals R3, G3, and B3 by interpolation processing. As shown in FIG. 8, when the pixel interpolation position K (n) is set as the position of interest, the interpolation calculation units 47R, 47G, and 47B have positions P (n−1) of four points in the vicinity of the position of interest K (n). , P (n), P (n + 1), and P (n + 2) are used as reference pixels to execute the interpolation calculation, and the gradation values QR, QB, and QG at the pixel interpolation position K (n) are obtained. Calculate to correct phase shift.

図9(A)〜(C)は、図8の画素補間位置K(n)に対するライン遅延部32R,32G,32Bの出力間の位相ずれを示す図である。図9(A)は、画像読取位置P(n−1),P(n),P(n+1),P(n+2)にそれぞれ対応するライン遅延部32Rの出力値Rn−1,R,Rn+1,Rn+2の系列の位相状態を示す図であり、図9(B)は、画像読取位置P(n−1),P(n),P(n+1),P(n+2)にそれぞれ対応するライン遅延部32Gの出力値Gn−1,G,Gn+1,Gn+2の系列の位相状態を示す図であり、図9(C)は、画像読取位置P(n−1),P(n),P(n+1),P(n+2)にそれぞれ対応するライン遅延部32Bの出力値Bn−1,B,Bn+1,Bn+2の系列の位相状態を示す図である。図9(A),(B),(C)には、画素補間位置K(n)における補間階調値QR,QG,QBが示されている。 9A to 9C are diagrams illustrating phase shifts between the outputs of the line delay units 32R, 32G, and 32B with respect to the pixel interpolation position K (n) in FIG. FIG. 9A shows output values R n−1 , R n , R n , R n , R n , R ( R) of the line delay unit 32R corresponding to the image reading positions P (n−1), P (n), P (n + 1), and P (n + 2), respectively. FIG. 9B is a diagram illustrating phase states of a series of R n + 1 and R n + 2 , and FIG. 9B corresponds to image reading positions P (n−1), P (n), P (n + 1), and P (n + 2), respectively. FIG. 9C is a diagram showing a phase state of a series of output values G n−1 , G n , G n + 1 , and G n + 2 of the line delay unit 32G that performs image reading positions P (n−1) and P It is a figure which shows the phase state of the series of the output value Bn-1 , Bn , Bn + 1 , Bn + 2 of the line delay part 32B corresponding to (n), P (n + 1), and P (n + 2), respectively. 9A, 9B, and 9C show interpolation gradation values QR, QG, and QB at the pixel interpolation position K (n).

図9(B)に示されるように、G成分の値G,Gn+1の中間にG成分の画素補間位置が設定された場合、図9(A)に示されるように、R成分の画素補間位置は、出力値Rの位置から距離0.833だけ離間し且つ出力値Rn+1の位置から距離0.167だけ離間した内分点に設定され、図9(C)に示されるように、B成分の画素補間位置は、出力値Bn+1の位置から距離0.167だけ離間し且つ出力値Bn+2の位置から距離0.833だけ離間した内分点に設定される。 As shown in FIG. 9B, when the G component pixel interpolation position is set between the G component values G n and G n + 1 , as shown in FIG. 9A, the R component pixel is set. The interpolation position is set to an internal dividing point that is separated from the position of the output value R n by a distance of 0.833 and separated from the position of the output value R n + 1 by a distance of 0.167, as shown in FIG. 9C. The pixel interpolation position of the B component is set to an internal dividing point separated from the position of the output value B n + 1 by a distance of 0.167 and separated from the position of the output value B n + 2 by a distance of 0.833.

補間演算の方法としては、たとえば、公知のニアレストネイバー法、線形補間法あるいは3次関数補間法が挙げられる。本実施の形態では、例として3次関数補間法を用いた補間演算について述べるが、他の方法を用いることも可能である。   Examples of the interpolation calculation method include a known nearest neighbor method, a linear interpolation method, and a cubic function interpolation method. In the present embodiment, an interpolation calculation using a cubic function interpolation method will be described as an example, but other methods can also be used.

図10(A)〜(C)は、3次関数補間法による画素補間法を説明するための図である。図10(A)は、補間階調値Qn−2,Qn−1,Q,Qn+1,Qn+2の位置及び位相状態を示す図であり、図10(B)は、ライン遅延部32R,32G,32Bのいずれかの出力値Pn−1,P,Pn+1,Pn+2の位置及び位相状態を示す図であり、図10(C)は、補間演算で使用される補間関数h(x)を示すグラフである。図10(C)の横軸は、補間すべき階調値Qの位置(画素補間位置)K(n)からの距離xを表している。補間関数h(x)は、画素補間位置K(n)を中心として左右対称に分布し、中心から離れるに従い減衰する偶関数である。よって、h(−x)=h(x)、が成立する。この画素補間法では、画素補間位置K(n)を中心とする近傍4点の参照値Pn−1,P,Pn+1,Pn+2に加重係数h(s+1),h(s),h(1−s),h(2−s)をそれぞれ乗算(重み付け)し、その乗算結果の総和を正規化することにより補間階調値Qを算出することができる。すなわち、次式(1)に従って補間階調値Qが算出される。

Figure 0005950670
FIGS. 10A to 10C are diagrams for explaining a pixel interpolation method by a cubic function interpolation method. 10A is a diagram showing the positions and phase states of the interpolated gradation values Q n−2 , Q n−1 , Q n , Q n + 1 , and Q n + 2 , and FIG. 10B is a line delay unit. FIG. 10C is a diagram showing the positions and phase states of output values P n−1 , P n , P n + 1 , and P n + 2 of any one of 32R, 32G, and 32B. FIG. 10C is an interpolation function used in the interpolation calculation. It is a graph which shows h (x). The horizontal axis of FIG. 10 (C) represents the distance x from the position of gray scale value Q n to be interpolated (pixel interpolation position) K (n). The interpolation function h (x) is an even function that is distributed symmetrically with respect to the pixel interpolation position K (n) as a center and attenuates as the distance from the center increases. Therefore, h (−x) = h (x) is established. In this pixel interpolation method, weighting factors h (s + 1), h (s), h are added to reference values P n−1 , P n , P n + 1 , and P n + 2 at four points around the pixel interpolation position K (n). (1-s), multiplied by h a (2-s) respectively (weighting) can calculate the interpolated gray level values Q n by normalizing the sum of the multiplication result. That is, the interpolated gradation value Q n is calculated according to the following equation (1).
Figure 0005950670

エッジが検出されない場合、加重係数h(s+1),h(s),h(1−s),h(2−s)は、画素補間位置K(n)を基準として設定される。より具体的には、加重係数h(s+1),h(s),h(1−s),h(2−s)は、図10(C)に示されるように、基準となる画素補間位置K(n)の近傍4点の参照値Pn−1,P,Pn+1,Pn+2の画素補間位置K(n)からの距離s+1,s,1−s,2−sを入力としたときの補間関数h(x)の出力として算出される。補間演算に使用される参照値の位置が画素補間位置K(n)から離れるほど、加重係数の値は小さくなる。 When no edge is detected, the weighting factors h (s + 1), h (s), h (1-s), and h (2-s) are set with reference to the pixel interpolation position K (n). More specifically, the weighting coefficients h (s + 1), h (s), h (1-s), and h (2-s) are reference pixel interpolation positions as shown in FIG. The distances s + 1, s, 1-s, and 2-s from the pixel interpolation position K (n) of the reference values P n−1 , P n , P n + 1 , and P n + 2 near four points of K (n) are input. Is calculated as the output of the interpolation function h (x). As the position of the reference value used for the interpolation calculation is further away from the pixel interpolation position K (n), the value of the weighting coefficient becomes smaller.

補間演算部47R,47G,47Bは、それぞれ、上記した補間演算をラインごとに実行することにより、位相ずれが補正された2次元画像を生成することができる。ただし、従来技術では、画素補間位置K(n)の位置によっては、R,G,Bの階調バランスが大きく崩れて色ずれが発生するという問題がある。   The interpolation calculation units 47R, 47G, and 47B can generate a two-dimensional image in which the phase shift is corrected by executing the above-described interpolation calculation for each line. However, the conventional technique has a problem in that color balance occurs due to a large loss in the R, G, B gradation balance depending on the position of the pixel interpolation position K (n).

図11は、図8と同様に走査期間におけるラインセンサ23R,23G,23Bの相対位置の遷移を示す図である。図11の被読取媒体2に形成されている原画像は、副走査方向Xに大きな階調変化を有するエッジ(階調エッジ)Eg0を有する。この階調エッジEg0の位置は画素補間位置K(n)とほぼ一致する。このような場合に補間制御部39が機能しないと仮定すると、上記した補間演算によりR,G,Bの階調バランスが大きく崩れて色ずれが発生するおそれがある。   FIG. 11 is a diagram illustrating the transition of the relative positions of the line sensors 23R, 23G, and 23B in the scanning period, as in FIG. The original image formed on the read medium 2 in FIG. 11 has an edge (gradation edge) Eg0 having a large gradation change in the sub-scanning direction X. The position of the gradation edge Eg0 substantially coincides with the pixel interpolation position K (n). Assuming that the interpolation control unit 39 does not function in such a case, there is a risk that the gradation balance of R, G, and B is greatly lost due to the above-described interpolation calculation and color misregistration occurs.

図12(A)〜(D)は、原画像が図11の階調エッジEg0を有し、補間制御部39が機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。図12(A)〜(D)に示されるように、階調エッジEg0を境にして階調値は255から零へ急峻に変化している。図12(A)は、R成分の補間階調値QRn−1,QR,QRn+1,QRn+2を示すグラフであり、図12(B)は、G成分の補間階調値QGn−1,QG,QGn+1,QGn+2を示すグラフであり、図12(C)は、B成分の補間階調値QBn−1,QB,QBn+1,QBn+2を示すグラフである。また、図12(D)は、図12(A),(B),(C)の補間階調値QR,QG,QBを示すグラフである。 12A to 12D are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge Eg0 of FIG. 11 and the interpolation control unit 39 does not function. It is. As shown in FIGS. 12A to 12D, the gradation value sharply changes from 255 to zero at the gradation edge Eg0. FIG. 12A is a graph showing R component interpolation gradation values QR n−1 , QR n , QR n + 1 , QR n + 2 , and FIG. 12B is a G component interpolation gradation value QG n−. 1 , QG n , QG n + 1 , and QG n + 2 , and FIG. 12C is a graph showing B component interpolation gradation values QB n−1 , QB n , QB n + 1 , and QB n + 2 . FIG. 12D is a graph showing the interpolated gradation values QR n , QG n , and QB n of FIGS. 12A, 12B, and 12C.

図12(A)に示されるように、階調エッジEg0の両側に位置する参照値R,Rn+1のうち右側の参照値Rn+1は、画素補間位置K(n)に近く且つ階調エッジEg0の近傍にある。このため、右側の参照値Rn+1に乗算すべき加重係数の値は、左側の参照値Rに乗算すべき加重係数の値よりも大きく、補間階調値QRは零値付近となる。また、図12(B)に示されるように、階調エッジEg0の両側に位置する参照値G,Gn+1は、画素補間位置K(n)からほぼ等距離にある。このため、これらの参照値G,Gn+1に乗算すべき加重係数の値はほぼ等しく、補間階調値QGは128付近となる。そして、図12(C)に示されるように、階調エッジEg0の両側に位置する参照値B,Bn+1のうち左側の参照値Bは、画素補間位置K(n)に近い。このため、左側の参照値Bに乗算すべき加重係数の値は、右側の参照値Bn+1に乗算すべき加重係数の値よりも大きくなり、補間階調値QBは255付近となる。よって、図12(D)に示されるように、補間階調値QR,QG,QBの間にずれ(色ずれ)が発生し、R,G,Bの階調バランスが大きく崩れる。Bの補間階調値QBが相対的に大きいため、青味を帯びた色ずれが発生することとなる。 As shown in FIG. 12 (A), the reference value R n located on both sides of the gradation edge EG0, right reference value R n + 1 of R n + 1 is closer and gradation edge pixel interpolation position K (n) It is in the vicinity of Eg0. For this reason, the value of the weighting coefficient to be multiplied by the reference value R n + 1 on the right side is larger than the value of the weighting coefficient to be multiplied on the reference value R n on the left side, and the interpolated gradation value QR n is near zero. As shown in FIG. 12B, the reference values G n and G n + 1 located on both sides of the gradation edge Eg0 are substantially equidistant from the pixel interpolation position K (n). For this reason, the values of the weighting coefficients to be multiplied by these reference values G n and G n + 1 are almost equal, and the interpolation gradation value QG n is about 128. Then, as shown in FIG. 12 (C), the reference value B n located on both sides of the gradation edge EG0, reference values B n on the left of B n + 1 is closer to the pixel interpolation position K (n). Therefore, the values of the weighted coefficients to be multiplied to the left of the reference value B n is greater than the value of the weighted coefficients to be multiplied to the right of the reference values B n + 1, the interpolation gray-scale value QB n becomes around 255. Accordingly, as shown in FIG. 12D, a shift (color shift) occurs between the interpolated gradation values QR n , QG n , and QB n , and the gradation balance of R, G, and B is greatly lost. For interpolation gradation value QB n of B is relatively large, so that the color shift bluish occurs.

これに対し、本実施の形態では、補間制御部39が機能するため、色ずれを抑制することができる。   On the other hand, in this embodiment, since the interpolation control unit 39 functions, color misregistration can be suppressed.

Rエッジ検出部37R,Gエッジ検出部37G及びBエッジ検出部37Bは、画素補間位置K(n)の前後の参照値の差分の絶対値を算出し、この絶対値が所定のしきい値より大きい場合はエッジがあると判断し、判定信号EDR,EDG,EDBの値VEDR,VEDG,VEDBを1(アクティブレベル)に設定する。具体的には、以下に示されるように判定信号EDR,EDG,EDBの値VEDR,VEDG,VEDBが設定される。
|R−Rn+1|>Thrの場合、VEDR=1、
|G−Gn+1|>Thgの場合、VEDG=1、
|B−Bn+1|>Thbの場合、VEDB=1。
The R edge detection unit 37R, the G edge detection unit 37G, and the B edge detection unit 37B calculate the absolute value of the difference between the reference values before and after the pixel interpolation position K (n), and the absolute value is calculated based on a predetermined threshold value. If it is larger, it is determined that there is an edge, and the values V EDR , V EDG , and V EDB of the determination signals EDR, EDG, and EDB are set to 1 (active level). Specifically, as shown below, the values V EDR , V EDG , and V EDB of the determination signals EDR, EDG, and EDB are set.
If | R n −R n + 1 |> Thr, V EDR = 1,
If | G n −G n + 1 |> Thg, V EDG = 1,
When | B n −B n + 1 |> Thb, V EDB = 1.

一方、上記絶対値が所定のしきい値以下の場合には、判定信号EDR,EDG,EDBの値VEDR,VEDG,VEDBは零に設定される。しきい値Thr,Thg,Thbは、各色の特性に合わせて個別に設定されればよい。たとえば、G成分は輝度成分を多く含み、原画像の階調変化部分がエッジと誤認識されやすい。そのため、しきい値Thgを他のしきい値Thr,Thbと比較して小さい値に設定してもよい。 On the other hand, when the absolute value is equal to or less than the predetermined threshold value, the values V EDR , V EDG , and V EDB of the determination signals EDR, EDG, and EDB are set to zero. The threshold values Thr, Thg, Thb may be set individually according to the characteristics of each color. For example, the G component contains a lot of luminance components, and the gradation change portion of the original image is easily erroneously recognized as an edge. For this reason, the threshold value Thg may be set to a smaller value than the other threshold values Thr and Thb.

なお、本実施の形態では、Rエッジ検出部37R,Gエッジ検出部37G及びBエッジ検出部37Bは、いずれも、2ライン分の遅延画素信号に基づいて色エッジの有無を判定しているが、これに限定されるものではない。3ラインよりも多いライン分の遅延画素信号に基づいて色エッジの有無を判定するようにRエッジ検出部37R,Gエッジ検出部37G及びBエッジ検出部37Bの構成を適宜変更してもよい。   In this embodiment, the R edge detection unit 37R, the G edge detection unit 37G, and the B edge detection unit 37B all determine the presence or absence of a color edge based on the delayed pixel signals for two lines. However, the present invention is not limited to this. The configurations of the R edge detection unit 37R, the G edge detection unit 37G, and the B edge detection unit 37B may be appropriately changed so as to determine the presence / absence of a color edge based on delayed pixel signals for more than three lines.

エッジ判定部38は、判定信号EDR,EDG,EDBの値VEDR,VEDG,VEDBのうち少なくとも1つの値が1(アクティブレベル)である場合に、エッジ有りと判定してエッジ判定信号EDの値を1に設定し、そうでない場合には、エッジ判定信号EDの値を零に設定する。また、図6の補間位置制御部44は、エッジ判定信号EDの値が1である場合には、色ずれを低減させる補正量Δr,Δg,Δbを算出し、エッジ判定信号EDの値が零の場合には、補正量Δr,Δg,Δbをいずれも零に設定する。 The edge determination unit 38 determines that there is an edge and determines an edge determination signal ED when at least one of the values V EDR , V EDG , and V EDB of the determination signals EDR, EDG, and EDB is 1 (active level). Is set to 1; otherwise, the value of the edge determination signal ED is set to zero. In addition, when the value of the edge determination signal ED is 1, the interpolation position control unit 44 in FIG. 6 calculates correction amounts Δr, Δg, and Δb that reduce color misregistration, and the value of the edge determination signal ED is zero. In this case, the correction amounts Δr, Δg, Δb are all set to zero.

なお、エッジ判定部38は、判定信号EDR,EDG,EDBの値の全てが1(アクティブレベル)である場合に限り、エッジ有りと判定してエッジ判定信号EDの値を1に設定してもよい。   The edge determination unit 38 determines that there is an edge and sets the value of the edge determination signal ED to 1 only when all of the determination signals EDR, EDG, and EDB are 1 (active level). Good.

エッジ判定信号EDの値が1である場合には、補間位置制御部44は、上記の3次関数補間法(図10)に基づいて補正量Δr,Δg,Δbを算出することができる。補間位置制御部44は、補正量Δr,Δg,Δbが零値である場合と比べて、遅延画素信号R41〜R44,B41〜B44から生成される補間階調値QR,QBの一方または双方が遅延画素信号G41〜G44から生成される補間階調値QGに近づくように補正量Δr,Δg,Δbを設定する。 When the value of the edge determination signal ED is 1, the interpolation position control unit 44 can calculate the correction amounts Δr, Δg, Δb based on the above-described cubic function interpolation method (FIG. 10). The interpolation position control unit 44 compares one of the interpolation gradation values QR n and QB n generated from the delayed pixel signals R41 to R44 and B41 to B44 as compared with the case where the correction amounts Δr, Δg, and Δb are zero values. both the correction amount Δr to approach the interpolated tone values QG n generated from the delayed pixel signal G41~G44, Δg, sets the [Delta] b.

図13(A)〜(C)は、図11の階調エッジEg0が存在する場合にR成分の補間方法を説明するための図である。図13(A)は、補間階調値QRn−2,QRn−1,QR,QRn+1,QRn+2の位置及び位相状態を示す図であり、図13(B)は、ライン遅延部32Rの出力値Rn−1,R,Rn+1,Rn+2の位置及び位相状態を示す図であり、図13(C)は、R成分用の補間演算で使用される補間関数h(x−Δr)を示すグラフである。補間処理部33Rは、図13(C)に示されるように画素補間位置よりも補正量Δr(<0)だけずれた補間位置を基準(中心)とする近傍4点の参照値Rn−1,R,Rn+1,Rn+2に対して補間演算を実行して補間階調値QRを生成する。このとき、図7(A)の補間係数算出部48Rは、加重係数KR1,KR2,KR3,KR4として補間関数h(x−Δr)の出力値h(2−qr),h(1−qr),h(qr),h(qr+1)を算出する(qr=r+Δr)。 FIGS. 13A to 13C are diagrams for explaining an interpolation method for the R component when the gradation edge Eg0 of FIG. 11 exists. FIG. 13A is a diagram showing the positions and phase states of the interpolated gradation values QR n−2 , QR n−1 , QR n , QR n + 1 , and QR n + 2 , and FIG. 13B is a line delay unit. FIG. 13C is a diagram showing the positions and phase states of the output values R n−1 , R n , R n + 1 , and R n + 2 of 32R, and FIG. 13C shows an interpolation function h (x used in the interpolation calculation for the R component -Δr). As shown in FIG. 13C, the interpolation processing unit 33R has four reference values R n−1 in the vicinity with the interpolation position shifted from the pixel interpolation position by the correction amount Δr (<0) as a reference (center). , R n , R n + 1 , R n + 2 , an interpolation calculation is performed to generate an interpolation gradation value QR n . At this time, the interpolation coefficient calculation unit 48R in FIG. 7A outputs the output values h (2-qr) and h (1-qr) of the interpolation function h (x−Δr) as the weighting coefficients KR1, KR2, KR3, and KR4. , H (qr), h (qr + 1) are calculated (qr = r + Δr).

一方、図14(A)〜(C)は、図11の階調エッジEg0が存在する場合にB成分の補間方法を説明するための図である。図14(A)は、補間階調値QBn−2,QBn−1,QB,QBn+1,QBn+2の位置及び位相状態を示す図であり、図14(B)は、ライン遅延部32Bの出力値Bn−1,B,Bn+1,Bn+2の位置及び位相状態を示す図であり、図14(C)は、B成分用の補間演算で使用される補間関数h(x−Δb)を示すグラフである。補間処理部33Bは、図14(C)に示されるように画素補間位置よりも補正量Δb(>0)だけずれた補間位置を基準(中心)とする近傍4点の参照値Bn−1,B,Bn+1,Bn+2に対して補間演算を実行して補間階調値QBを生成する。このとき、図7(C)の補間係数算出部48Bは、加重係数KB1,KB2,KB3,KB4として補間関数h(x−Δb)の出力値h(2−qb),h(1−qb),h(qb),h(qb+1)を算出する(qb=b+Δb)。 On the other hand, FIGS. 14A to 14C are diagrams for explaining the interpolation method of the B component when the gradation edge Eg0 of FIG. 11 exists. FIG. 14A is a diagram illustrating the positions and phase states of the interpolated gradation values QB n−2 , QB n−1 , QB n , QB n + 1 , and QB n + 2 , and FIG. 14B is a line delay unit. FIG. 14C is a diagram showing the positions and phase states of the output values B n−1 , B n , B n + 1 , and B n + 2 of 32B. FIG. 14C shows an interpolation function h (x used in the interpolation calculation for the B component. -Δb). As shown in FIG. 14C, the interpolation processing unit 33B has four reference values B n−1 in the vicinity with the interpolation position shifted by the correction amount Δb (> 0) from the pixel interpolation position as a reference (center). , B n , B n + 1 , B n + 2 , an interpolation calculation is performed to generate an interpolation gradation value QB n . At this time, the interpolation coefficient calculation unit 48B in FIG. 7C outputs the output values h (2-qb) and h (1-qb) of the interpolation function h (x−Δb) as the weighting coefficients KB1, KB2, KB3, and KB4. , H (qb), h (qb + 1) are calculated (qb = b + Δb).

なお、図7(B)の補間係数算出部48Gは、G成分用の補間量Δgを零値に設定するので、補間処理部33Gは、通常の画素補間位置を中心とする近傍4点の参照値Gn−1,G,Gn+1,Gn+2に対して補間演算を実行して補間階調値QGを生成する。 The interpolation coefficient calculation unit 48G in FIG. 7B sets the G component interpolation amount Δg to zero, so that the interpolation processing unit 33G refers to the four neighboring points centered on the normal pixel interpolation position. An interpolation operation is performed on the values G n−1 , G n , G n + 1 , and G n + 2 to generate an interpolation gradation value QG n .

図15は、図11の階調エッジEg0が存在し、補間制御部39が機能する場合に生成されるR成分,G成分及びB成分の補間階調値QR,QG,QBを示すグラフである。図15に示されるように、図12(D)の場合と比べると、補間階調値QR,QBは、補間階調値QGに近づいていることが分かる。これにより、図12(D)の場合と比べると、R,G,Bの階調バランスが改善され、色ずれが軽減される。 FIG. 15 shows the interpolation gradation values QR n , QG n , and QB n of the R component, the G component, and the B component that are generated when the gradation edge Eg0 of FIG. 11 exists and the interpolation control unit 39 functions. It is a graph. As shown in FIG. 15, it can be seen that the interpolation gradation values QR n and QB n are closer to the interpolation gradation value QG n as compared with the case of FIG. Thereby, compared with the case of FIG. 12D, the gradation balance of R, G, and B is improved, and the color shift is reduced.

なお、G成分用の補正量Δgを零値に設定する理由は、G成分は、R成分やB成分と比べると輝度成分を多く含むので、G成分用の補間中心位置が画素補間位置からずれた位置に設定されると、出力画像の変化が目立ちやすいためである。ただし、G成分用の補間位置を画素補間位置からずらすことで、エッジ部分の輝度を変化させてエッジ部分をより鮮明化することも可能である。   The reason why the correction amount Δg for the G component is set to zero is that the G component includes more luminance components than the R component and the B component, and therefore the interpolation center position for the G component deviates from the pixel interpolation position. This is because the change in the output image is conspicuous if the position is set to a different position. However, by shifting the G component interpolation position from the pixel interpolation position, it is also possible to change the brightness of the edge portion to make the edge portion clearer.

以上に説明したように実施の形態1の画像読取装置1では、エッジ検出部36によりエッジ有りと判定されたとき、補間処理部33Gは、ライン遅延部32Gの出力G41〜G44に対して、画素補間位置K(n)を基準として設定された加重係数KG1〜KG4を用いた補間演算を実行してG成分の階調値QGを算出する。これに対し、補間処理部33Rは、ライン遅延部32Rの出力R41〜R44に対して、図13(A)〜(C)に示されるように、画素補間位置から補正量Δrだけずれた補間位置を基準として設定された加重係数h(2−qr),h(1−qr),h(qr),h(qr+1)(=KR1〜KR4)を用いた補間演算を実行してR成分の階調値QRを算出する。また、補間処理部33Bは、ライン遅延部32Bの出力B41〜B44に対して、図14(A)〜(C)に示されるように、画素補間位置から補正量Δbだけずれた補間位置を基準として設定された加重係数h(2−qb),h(1−qb),h(qb),h(qb+1)(=KB1〜KB4)を用いた補間演算を実行してB成分の階調値QBを算出する。よって、図15に示したように、補間処理部33R,33G,33Bによる補間演算で位相ずれが補正されても、階調値QR,QG,QB間の色ずれを抑制することができる。したがって、R,G,Bの階調バランスを良好にし、色ずれを抑制して良好な色再現性を実現することができるという効果が得られる。 As described above, in the image reading apparatus 1 according to the first embodiment, when the edge detection unit 36 determines that there is an edge, the interpolation processing unit 33G outputs pixels to the outputs G41 to G44 of the line delay unit 32G. and performing interpolation calculation using a weighting factor KG1~KG4 the interpolation position K (n) is set as a reference for calculating the gradation value QG n of the G component. On the other hand, the interpolation processing unit 33R, with respect to the outputs R41 to R44 of the line delay unit 32R, as shown in FIGS. 13A to 13C, the interpolation position shifted by the correction amount Δr from the pixel interpolation position. The interpolation calculation using the weighting coefficients h (2-qr), h (1-qr), h (qr), h (qr + 1) (= KR1 to KR4) set with reference to The adjustment value QR n is calculated. Further, the interpolation processing unit 33B uses the interpolation position shifted from the pixel interpolation position by the correction amount Δb as a reference with respect to the outputs B41 to B44 of the line delay unit 32B, as shown in FIGS. 14 (A) to (C). B component gradation value by executing an interpolation operation using weighting coefficients h (2-qb), h (1-qb), h (qb), h (qb + 1) (= KB1 to KB4) set as QB n is calculated. Therefore, as shown in FIG. 15, even when the phase shift is corrected by the interpolation calculation by the interpolation processing units 33R, 33G, and 33B, the color shift between the gradation values QR n , QG n , and QB n can be suppressed. it can. Therefore, it is possible to obtain an effect that a good color reproducibility can be realized by improving the gradation balance of R, G, and B and suppressing color shift.

また、上記のエッジ検出部36は、複数のラインセンサ23R,23G,23Bから得られた複数系列の信号から系列ごとに色エッジの有無を判定し、その判定結果に基づいて最終的なエッジの有無を判定するので、エッジの判定精度を高いものとすることができる。また、しきい値Thr,Thg,Thbを色ごとの特性に合わせて個別に設定することができるので、読取状況や目的に応じたエッジ判定を行うことができる。たとえば、しきい値Thgを調整して輝度成分が多く含まれるG画像のエッジ判定を容易にすることができる。   The edge detection unit 36 determines the presence / absence of a color edge for each series from a plurality of series of signals obtained from the plurality of line sensors 23R, 23G, and 23B, and determines the final edge based on the determination result. Since the presence or absence is determined, the edge determination accuracy can be increased. Further, since the threshold values Thr, Thg, Thb can be individually set according to the characteristics for each color, edge determination according to the reading situation and purpose can be performed. For example, the threshold Thg can be adjusted to facilitate the edge determination of a G image that includes a large amount of luminance components.

なお、図3(A)に示すようにラインセンサ23R,23G,23Bを1画素ピッチで配列した構造を有するリニアイメージセンサ23が使用される場合にも、図3(B)に示すようにラインセンサ23R,23G,23Bを1/3画素ピッチで配列した構造を有するリニアイメージセンサ23が使用される場合と同様の効果を得ることが可能である。   In addition, even when the linear image sensor 23 having a structure in which the line sensors 23R, 23G, and 23B are arranged at one pixel pitch as shown in FIG. 3A is used, the line sensor as shown in FIG. It is possible to obtain the same effect as when the linear image sensor 23 having a structure in which the sensors 23R, 23G, and 23B are arranged at a 1/3 pixel pitch is used.

実施の形態2.
次に、本発明に係る実施の形態2について説明する。図16は、実施の形態2の画像処理部14Dの概略構成を示す機能ブロック図である。この実施の形態2の画像読取装置の構成は、図16の画像処理部14Dを除いて、上記実施の形態1の画像読取装置1(図1)の構成と同じである。
Embodiment 2. FIG.
Next, a second embodiment according to the present invention will be described. FIG. 16 is a functional block diagram illustrating a schematic configuration of the image processing unit 14D according to the second embodiment. The configuration of the image reading apparatus of the second embodiment is the same as that of the image reading apparatus 1 (FIG. 1) of the first embodiment except for the image processing unit 14D of FIG.

図16に示されるように、画像処理部14Dは、上記実施の形態1の画像処理部14と同様に、シェーディング補正部31、ライン遅延部32R,32G,32B、補間処理部33R,33G,33B及びエッジ検出部36を有する。本実施の形態の画像処理部14Dはさらに、エッジ位置検出部49及び補間制御部39Dを有している。   As shown in FIG. 16, the image processing unit 14D is similar to the image processing unit 14 of the first embodiment, and includes a shading correction unit 31, line delay units 32R, 32G, and 32B, and interpolation processing units 33R, 33G, and 33B. And an edge detector 36. The image processing unit 14D of the present embodiment further includes an edge position detection unit 49 and an interpolation control unit 39D.

エッジ位置検出部49は、エッジ検出部36から供給される判定信号EDR,EDG,EDB及びエッジ判定信号EDに応じて、エッジ有りと判定されている場合には当該エッジの位置を検出し、その検出結果を示すエッジ位置情報SEPを補間制御部39Dに与える。補間制御部39Dは、当該エッジの検出位置に応じて、補間演算で使用される補間位置を制御する機能を有する。   The edge position detection unit 49 detects the position of the edge when it is determined that there is an edge in accordance with the determination signals EDR, EDG, EDB and the edge determination signal ED supplied from the edge detection unit 36. Edge position information SEP indicating the detection result is given to the interpolation control unit 39D. The interpolation control unit 39D has a function of controlling the interpolation position used in the interpolation calculation according to the edge detection position.

図17は、本実施の形態の補間制御部39Dの概略構成を示す機能ブロック図である。図17に示されるように、補間制御部39Dは、上記実施の形態1の補間制御部39と同様に、制御信号CLに応じて画素補間位置を示すパラメータr,g,bを決定する補間位置決定部43を有する。補間制御部39Dは、さらに、エッジ位置情報SEPに応じて当該パラメータr,g,bを補正するための補正量Δr,Δg,Δbを算出する補間位置制御部44Dと、加算器45R,45G,45Bとを有する。加算器45Rは、パラメータrに補正量Δrを加算してその加算結果を示す補間制御信号PHRを出力する。同様に、加算器45Gは、パラメータgに補正量Δgを加算してその加算結果を示す補間制御信号PHGを出力し、加算器45Bは、パラメータbに補正量Δbを加算してその加算結果を示す補間制御信号PHBを出力する。   FIG. 17 is a functional block diagram showing a schematic configuration of the interpolation control unit 39D of the present embodiment. As shown in FIG. 17, the interpolation control unit 39D, like the interpolation control unit 39 in the first embodiment, interpolates positions for determining parameters r, g, and b indicating pixel interpolation positions in accordance with the control signal CL. A determination unit 43 is included. The interpolation control unit 39D further includes an interpolation position control unit 44D that calculates correction amounts Δr, Δg, and Δb for correcting the parameters r, g, and b according to the edge position information SEP, and adders 45R, 45G, 45B. The adder 45R adds the correction amount Δr to the parameter r and outputs an interpolation control signal PHR indicating the addition result. Similarly, the adder 45G adds the correction amount Δg to the parameter g and outputs an interpolation control signal PHG indicating the addition result, and the adder 45B adds the correction amount Δb to the parameter b and outputs the addition result. The interpolation control signal PHB shown is output.

次に、上記構成を有する画像処理部14Dの動作を以下に説明する。以下の説明では、図3(B)に示したように1/3画素ピッチ(=d/3)でラインセンサ23R,23G,23Bが配列された構造を有するリニアイメージセンサ23が使用されるものとし、本実施の形態の画像読取装置は、1画素ピッチ(=d)の走査間隔で被読取媒体2の原画像を読み取るように動作するものとする。   Next, the operation of the image processing unit 14D having the above configuration will be described below. In the following description, a linear image sensor 23 having a structure in which line sensors 23R, 23G, and 23B are arranged at a 1/3 pixel pitch (= d / 3) as shown in FIG. 3B is used. The image reading apparatus according to the present embodiment is assumed to operate so as to read the original image of the read medium 2 at a scanning interval of one pixel pitch (= d).

まず、図11に示したように画素補間位置K(n)とほぼ一致する階調エッジEg0が形成されている場合、次の3つの不等式が同時に成立する。
|R−Rn+1|>Thr、
|G−Gn+1|>Thg、且つ、
|B−Bn+1|>Thb。
First, when the gradation edge Eg0 that substantially coincides with the pixel interpolation position K (n) is formed as shown in FIG. 11, the following three inequalities hold simultaneously.
| R n −R n + 1 |> Thr,
| G n −G n + 1 |> Thg, and
| B n −B n + 1 |> Thb.

よって、判定信号EDR,EDG,EDBの値VEDR,VEDG,VEDBは、次のようになる。
EDR=1、VEDG=1、且つ、VEDB=1。
Therefore, the values V EDR , V EDG , and V EDB of the determination signals EDR, EDG, and EDB are as follows.
V EDR = 1, V EDG = 1, and V EDB = 1.

このエッジ位置情報SEPの値VSEPは、「7」に設定される。このときに補間制御部39Dが機能しないと仮定した場合には、図12(D)に示したように色ずれが発生し、R,G,Bの階調バランスは大きく崩れる。一方、図14(A),(B)に示すように画素補間位置から補正量Δr,Δbだけずれた補間位置を基準とする加重係数を用いて補間演算を実行することで、R,G,Bの階調バランスを改善することができる。このとき、R成分の補正量Δrの絶対値|Δr|は、B成分の補正量Δbの絶対値|Δb|とほぼ等しいと考えられる。 The value V SEP of the edge position information SEP is set to “7”. If it is assumed that the interpolation control unit 39D does not function at this time, color misregistration occurs as shown in FIG. 12D, and the gradation balance of R, G, and B is greatly lost. On the other hand, as shown in FIGS. 14A and 14B, the interpolation calculation is performed using the weighting coefficient based on the interpolation position that is shifted from the pixel interpolation position by the correction amounts Δr and Δb. The gradation balance of B can be improved. At this time, the absolute value | Δr | of the R component correction amount Δr is considered to be substantially equal to the absolute value | Δb | of the B component correction amount Δb.

次に、図18は、図8と同様に走査期間におけるラインセンサ23R,23G,23Bの相対位置の遷移を示す図である。図18の被読取媒体2に形成されている原画像は、副走査方向Xに大きな階調変化を有する階調エッジEg1を有する。この階調エッジEg1は、時刻T+1にGラインセンサ23Gが画像読取位置P(n+1)を通過する際のGラインセンサ23Gの下端とBラインセンサ23Bの上端との間に形成されている。このとき、次の不等式が同時に成立する。
|R−Rn+1|<Thr、
|G−Gn+1|<Thg、且つ
|B−Bn+1|>Thb。
Next, FIG. 18 is a diagram illustrating the transition of the relative position of the line sensors 23R, 23G, and 23B in the scanning period, as in FIG. The original image formed on the read medium 2 in FIG. 18 has a gradation edge Eg1 having a large gradation change in the sub-scanning direction X. The gradation edge Eg1 is, G line sensor 23G at time T +1 is formed between the upper end of the lower end and the B line sensor 23B of the G line sensor 23G when passing through the image reading position P (n + 1). At this time, the following inequality holds simultaneously.
| R n −R n + 1 | <Thr,
| G n −G n + 1 | <Thg and | B n −B n + 1 |> Thb.

よって、判定信号EDR,EDG,EDBの値は、次のようになる。
EDR=0、VEDG=0、且つ、VEDB=1。
Therefore, the values of the determination signals EDR, EDG, and EDB are as follows.
V EDR = 0, V EDG = 0, and V EDB = 1.

この場合のエッジ位置情報SEPの値VSEPは、「1」に設定される。 In this case, the value V SEP of the edge position information SEP is set to “1”.

図19(A)〜(D)は、原画像が図18の階調エッジEg1を有し、補間制御部39Dが機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。図19(A)〜(D)に示されるように、階調エッジEg1を境にして階調値は255から零へ急峻に変化している。図19(A)は、R成分の補間階調値QRn−1,QR,QRn+1,QRn+2を示すグラフであり、図19(B)は、G成分の補間階調値QGn−1,QG,QGn+1,QGn+2を示すグラフであり、図19(C)は、B成分の補間階調値QBn−1,QB,QBn+1,QBn+2を示すグラフである。また、図19(D)は、図19(A),(B),(C)の補間階調値QR,QG,QBを示すグラフである。 19A to 19D are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge Eg1 of FIG. 18 and the interpolation control unit 39D does not function. It is. As shown in FIGS. 19A to 19D, the gradation value sharply changes from 255 to zero at the gradation edge Eg1. FIG. 19A is a graph showing R component interpolation gradation values QR n−1 , QR n , QR n + 1 , QR n + 2 , and FIG. 19B is a G component interpolation gradation value QG n−. 1 , QG n , QG n + 1 , QG n + 2 , and FIG. 19C is a graph showing B component interpolation gradation values QB n−1 , QB n , QB n + 1 , QB n + 2 . FIG. 19D is a graph showing the interpolated gradation values QR n , QG n , and QB n of FIGS. 19A, 19B, and 19C.

図19(A)に示されるように、階調エッジEg1の両側に位置する参照値R,Rn+1のうち左側の参照値Rは、画素補間位置K(n)の近傍にある。このため、補間階調値QBは255よりも若干小さな値となる。これに対し、図19(A),(B)に示されるように、R成分及びG成分の補間階調値QR,QGはほぼ255付近である。よって、図19(D)に示されるように、補間階調値QR,QGと補間階調値QBとの間にずれ(色ずれ)が発生し、R,G,Bの階調バランスが崩れる。この場合、補間位置制御部44Dは、図20に示されるように補間階調値QBを補間階調値QRに近づけるように補正量Δbを算出することで、R,G,Bの階調バランスを改善することができる。このとき、R成分の補正量Δrの絶対値|Δr|は、補正量Δbの絶対値|Δb|よりも小さく、且つ、絶対値|Δr|はほぼ零に等しいと考えられる。 As shown in FIG. 19 (A), the reference value R n located on both sides of the gradation edge Eg1, the reference value R n of the left of the R n + 1 is in the vicinity of the pixel interpolation position K (n). Therefore, the interpolation gray-scale value QB n is slightly smaller than 255. On the other hand, as shown in FIGS. 19A and 19B, the interpolation gradation values QR n and QG n of the R component and the G component are approximately 255. Accordingly, as shown in FIG. 19D, a shift (color shift) occurs between the interpolation gradation values QR n and QG n and the interpolation gradation value QB n, and the gradations of R, G, and B are generated. Balance is lost. In this case, the interpolation position controller 44D, by calculating the correction amount Δb to approach the interpolated tone values QB n as shown in Figure 20 to the interpolation gray-scale value QR n, R, G, floor B Tonal balance can be improved. At this time, the absolute value | Δr | of the R component correction amount Δr is considered to be smaller than the absolute value | Δb | of the correction amount Δb, and the absolute value | Δr | is substantially equal to zero.

次に、図21は、図8と同様に走査期間におけるラインセンサ23R,23G,23Bの相対位置の遷移を示す図である。図21の被読取媒体2に形成されている原画像は、副走査方向Xに大きな階調変化を有する階調エッジEg2を有する。この階調エッジEg2は、時刻T+1にGラインセンサ23Gが画像読取位置P(n+1)を通過する際のGラインセンサ23Gの上端とRラインセンサ23Rの下端との間に形成されている。このとき、次の不等式が同時に成立する。
|R−Rn+1|<Thr、
|G−Gn+1|>Thg、且つ
|B−Bn+1|>Thb。
Next, FIG. 21 is a diagram illustrating the transition of the relative positions of the line sensors 23R, 23G, and 23B in the scanning period, as in FIG. The original image formed on the read medium 2 in FIG. 21 has a gradation edge Eg2 having a large gradation change in the sub-scanning direction X. The gradation edge Eg2 is, G line sensor 23G at time T +1 is formed between the lower end of the upper end and the R line sensor 23R of G line sensor 23G when passing through the image reading position P (n + 1). At this time, the following inequality holds simultaneously.
| R n −R n + 1 | <Thr,
| G n −G n + 1 |> Thg and | B n −B n + 1 |> Thb.

よって、判定信号EDR,EDG,EDBの値は、次のようになる。   Therefore, the values of the determination signals EDR, EDG, and EDB are as follows.

EDR=0、VEDG=1、且つ、VEDB=1。
この場合のエッジ位置情報SEPの値VSEPは、「3」に設定される。
V EDR = 0, V EDG = 1, and V EDB = 1.
In this case, the value V SEP of the edge position information SEP is set to “3”.

図22(A)〜(D)は、原画像が図21の階調エッジEg2を有し、補間制御部39Dが機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。図22(A)〜(D)に示されるように、階調エッジEg2を境にして階調値は255から零へ急峻に変化している。図22(A)は、R成分の補間階調値QRn−1,QR,QRn+1,QRn+2を示すグラフであり、図22(B)は、G成分の補間階調値QGn−1,QG,QGn+1,QGn+2を示すグラフであり、図22(C)は、B成分の補間階調値QBn−1,QB,QBn+1,QBn+2を示すグラフである。また、図22(D)は、図22(A),(B),(C)の補間階調値QR,QG,QBを示すグラフである。 22A to 22D are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge Eg2 of FIG. 21 and the interpolation control unit 39D does not function. It is. As shown in FIGS. 22A to 22D, the gradation value sharply changes from 255 to zero at the gradation edge Eg2. 22A is a graph showing R component interpolation gradation values QR n−1 , QR n , QR n + 1 , and QR n + 2 , and FIG. 22B is a G component interpolation gradation value QG n−. 1 , QG n , QG n + 1 , QG n + 2 , and FIG. 22C is a graph showing B component interpolated gradation values QB n−1 , QB n , QB n + 1 , QB n + 2 . FIG. 22D is a graph showing the interpolated gradation values QR n , QG n , and QB n of FIGS. 22A, 22B, and 22C.

図22(A)に示されるように、階調エッジEg2の両側に位置する参照値Rn+1,Rn+2のうち左側の参照値Rn+1は、画素補間位置K(n)の近傍にあるため、補間階調値QRは255付近となる。また、図22(C)に示されるように、階調エッジEg2の両側に位置する参照値B,Bn+1のうち左側の参照値Bは、画素補間位置K(n)の近傍にあるため、補間階調値QBは255よりも若干小さい値となる。これに対し、図22(B)に示されるように、G成分の補間階調値QBは128付近である。よって、図22(D)に示されるように、補間階調値QR,QBと補間階調値QGとの間にずれ(色ずれ)が発生し、R,G,Bの階調バランスが崩れる。この場合、補間位置制御部44Dは、図23に示されるように補間階調値QR,QBを補間階調値QRに近づけるように補正量Δr,Δbを算出することで、R,G,Bの階調バランスを改善することができる。このとき、補正量Δrの絶対値|Δr|は、補正量Δbの絶対値|Δb|よりも大きいと考えられる。 As shown in FIG. 22 (A), the reference value R n + 1, R n + reference value R n + 1 of the left of the two located on either side of the gradation edge Eg2, since in the vicinity of the pixel interpolation position K (n), The interpolated gradation value QR n is around 255. Further, as shown in FIG. 22 (C), the reference value B n located on both sides of the gradation edge Eg2, reference values B n on the left of B n + 1 is in the vicinity of the pixel interpolation position K (n) Therefore, the interpolation gray-scale value QB n is the value slightly smaller than 255. In contrast, as shown in FIG. 22 (B), the interpolation gray-scale value QB n of the G component is around 128. Therefore, as shown in FIG. 22D, a shift (color shift) occurs between the interpolation gradation values QR n and QB n and the interpolation gradation value QG n, and the gradations of R, G, and B are generated. Balance is lost. In this case, the interpolation position control unit 44D calculates the correction amounts Δr and Δb so that the interpolation gradation values QR n and QB n approach the interpolation gradation value QR n as shown in FIG. The gradation balance of G and B can be improved. At this time, it is considered that the absolute value | Δr | of the correction amount Δr is larger than the absolute value | Δb | of the correction amount Δb.

次に、図24は、図8と同様に走査期間におけるラインセンサ23R,23G,23Bの相対位置の遷移を示す図である。図24の被読取媒体2に形成されている原画像は、副走査方向Xに大きな階調変化を有する階調エッジEg3を有する。この階調エッジEg3は、時刻TにGラインセンサ23Gが画像読取位置P(n)を通過する際のGラインセンサ23Gの下端とBラインセンサ23Bの上端との間に形成されている。このとき、次の不等式が同時に成立する。
|R−Rn+1|>Thr、
|G−Gn+1|>Thg、且つ
|B−Bn+1|<Thb。
Next, FIG. 24 is a diagram illustrating the transition of the relative positions of the line sensors 23R, 23G, and 23B in the scanning period, as in FIG. The original image formed on the read medium 2 in FIG. 24 has a gradation edge Eg3 having a large gradation change in the sub-scanning direction X. The gradation edge Eg3 is, G line sensor 23G at time T 0 is formed between the upper end of the lower end and the B line sensor 23B of the G line sensor 23G when passing through the image reading position P (n). At this time, the following inequality holds simultaneously.
| R n −R n + 1 |> Thr,
| G n −G n + 1 |> Thg and | B n −B n + 1 | <Thb.

よって、判定信号EDR,EDG,EDBの値は、次のようになる。
EDR=1、VEDG=1、且つ、VEDB=0。
Therefore, the values of the determination signals EDR, EDG, and EDB are as follows.
V EDR = 1, V EDG = 1, and V EDB = 0.

この場合のエッジ位置情報SEPの値VSEPは、「6」に設定される。 In this case, the value V SEP of the edge position information SEP is set to “6”.

図25(A)〜(D)は、原画像が図24の階調エッジEg3を有し、補間制御部39Dが機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。図25(A)〜(D)に示されるように、階調エッジEg3を境にして階調値は255から零へ急峻に変化している。図25(A)は、R成分の補間階調値QRn−1,QR,QRn+1,QRn+2を示すグラフであり、図25(B)は、G成分の補間階調値QGn−1,QG,QGn+1,QGn+2を示すグラフであり、図25(C)は、B成分の補間階調値QBn−1,QB,QBn+1,QBn+2を示すグラフである。また、図25(D)は、図25(A),(B),(C)の補間階調値QR,QG,QBを示すグラフである。 25A to 25D are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge Eg3 of FIG. 24 and the interpolation control unit 39D does not function. It is. As shown in FIGS. 25A to 25D, the gradation value sharply changes from 255 to zero at the gradation edge Eg3. FIG. 25A is a graph showing R component interpolation gradation values QR n−1 , QR n , QR n + 1 , and QR n + 2 , and FIG. 25B is a G component interpolation gradation value QG n−. 1 , QG n , QG n + 1 , QG n + 2 , and FIG. 25C is a graph showing B component interpolated gradation values QB n−1 , QB n , QB n + 1 , QB n + 2 . FIG. 25D is a graph showing the interpolated gradation values QR n , QG n , and QB n of FIGS. 25A, 25B, and 25C.

図25(A)に示されるように、階調エッジEg3の両側に位置する参照値R,Rn+1のうち右側の参照値Rn+1は、画素補間位置K(n)に近いため、補間階調値QRは零よりも若干大きな値となる。また、図25(C)に示されるように、階調エッジEg3の両側に位置する参照値Bn−1,Bのうち右側の参照値Bは、画素補間位置K(n)の近傍にあるため、補間階調値QBはほぼ零である。これに対し、図25(B)に示されるように、G成分の補間階調値QBは128付近である。よって、図25(D)に示されるように、補間階調値QR,QBと補間階調値QGとの間にずれ(色ずれ)が発生し、R,G,Bの階調バランスが崩れる。この場合、補間位置制御部44Dは、図26に示されるように補間階調値QR,QBを補間階調値QRに近づけるように補正量Δr,Δbを算出することで、R,G,Bの階調バランスを改善することができる。このとき、補正量Δrの絶対値|Δr|は、補正量Δbの絶対値|Δb|よりも小さいと考えられる。 As shown in FIG. 25 (A), the reference value R n located on both sides of the gradation edge Eg3, the right of the reference value R n + 1 of R n + 1 is closer to the pixel interpolation position K (n), the interpolation Floor The adjustment value QR n is a value slightly larger than zero. Further, the vicinity of 25 as shown (C), the right side of the reference values B n of the reference values B n-1, B n positioned at both sides of the gradation edge Eg3, the pixel interpolation position K (n) Therefore, the interpolation gradation value QB n is almost zero. In contrast, as shown in FIG. 25 (B), the interpolation gray-scale value QB n of the G component is around 128. Therefore, as shown in FIG. 25D, a shift (color shift) occurs between the interpolation gradation values QR n and QB n and the interpolation gradation value QG n, and the gradations of R, G, and B are generated. Balance is lost. In this case, the interpolation position control unit 44D calculates the correction amounts Δr and Δb so that the interpolation gradation values QR n and QB n approach the interpolation gradation value QR n as shown in FIG. The gradation balance of G and B can be improved. At this time, the absolute value | Δr | of the correction amount Δr is considered to be smaller than the absolute value | Δb | of the correction amount Δb.

次に、図27は、図8と同様に走査期間におけるラインセンサ23R,23G,23Bの相対位置の遷移を示す図である。図27の被読取媒体2に形成されている原画像は、副走査方向Xに大きな階調変化を有する階調エッジEg4を有する。この階調エッジEg4は、時刻TにGラインセンサ23Gが画像読取位置P(n)を通過する際のGラインセンサ23Gの上端とRラインセンサ23Rの下端との間に形成されている。このとき、次の不等式が同時に成立する。
|R−Rn+1|>Thr、
|G−Gn+1|<Thg、且つ
|B−Bn+1|<Thb。
Next, FIG. 27 is a diagram illustrating the transition of the relative positions of the line sensors 23R, 23G, and 23B in the scanning period, as in FIG. The original image formed on the read medium 2 in FIG. 27 has a gradation edge Eg4 having a large gradation change in the sub-scanning direction X. The gradation edge Eg4 is, G line sensor 23G at time T 0 is formed between the lower end of the upper end and the R line sensor 23R of G line sensor 23G when passing through the image reading position P (n). At this time, the following inequality holds simultaneously.
| R n −R n + 1 |> Thr,
| G n −G n + 1 | <Thg and | B n −B n + 1 | <Thb.

よって、判定信号EDR,EDG,EDBの値は、次のようになる。
EDR=1、VEDG=0、且つ、VEDB=0。
Therefore, the values of the determination signals EDR, EDG, and EDB are as follows.
V EDR = 1, V EDG = 0, and V EDB = 0.

この場合のエッジ位置情報SEPの値VSEPは、「4」に設定される。 In this case, the value V SEP of the edge position information SEP is set to “4”.

図28(A)〜(D)は、原画像が図27の階調エッジEg4を有し、補間制御部39Dが機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。図28(A)〜(D)に示されるように、階調エッジEg4を境にして階調値は255から零へ急峻に変化している。図28(A)は、R成分の補間階調値QRn−1,QR,QRn+1,QRn+2を示すグラフであり、図28(B)は、G成分の補間階調値QGn−1,QG,QGn+1,QGn+2を示すグラフであり、図28(C)は、B成分の補間階調値QBn−1,QB,QBn+1,QBn+2を示すグラフである。また、図28(D)は、図19(A),(B),(C)の補間階調値QR,QG,QBを示すグラフである。 28A to 28D are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge Eg4 of FIG. 27 and the interpolation control unit 39D does not function. It is. As shown in FIGS. 28A to 28D, the gradation value sharply changes from 255 to zero at the gradation edge Eg4. FIG. 28A is a graph showing R component interpolation gradation values QR n−1 , QR n , QR n + 1 , and QR n + 2 , and FIG. 28B is a G component interpolation gradation value QG n−. 1 , QG n , QG n + 1 , and QG n + 2 , and FIG. 28C is a graph showing B component interpolation gradation values QB n−1 , QB n , QB n + 1 , and QB n + 2 . FIG. 28D is a graph showing the interpolated gradation values QR n , QG n , and QB n in FIGS. 19A, 19B, and 19C.

図28(A)に示されるように、階調エッジEg4の両側に位置する参照値R,Rn+1のうち右側の参照値Rn+1は、画素補間位置K(n)の近傍にあるため、補間階調値QRは零よりも少し大きな値となる。これに対し、図22(B),(C)に示されるように、補間階調値QG,QBはほぼ零である。よって、図28(D)に示されるように、補間階調値QB,QGと補間階調値QRとの間にずれ(色ずれ)が発生し、R,G,Bの階調バランスが若干崩れる。この場合、補間位置制御部44Dは、図29に示されるように補間階調値QRを補間階調値QGに近づけるように補正量Δrを算出することで、R,G,Bの階調バランスを改善することができる。このとき、補正量Δrの絶対値|Δr|は、補正量Δbの絶対値|Δb|よりも大きく、且つ、絶対値|Δb|はほぼ零と考えられる。 As shown in FIG. 28 (A), the reference value R n located on both sides of the gradation edge Eg4, the right of the reference value R n + 1 of R n + 1, since in the vicinity of the pixel interpolation position K (n), The interpolated gradation value QR n is a value slightly larger than zero. On the other hand, as shown in FIGS. 22B and 22C, the interpolation gradation values QG n and QB n are almost zero. Therefore, as shown in FIG. 28D, a shift (color shift) occurs between the interpolation gradation values QB n and QG n and the interpolation gradation value QR n, and the R, G, and B gradations are generated. Balance is slightly lost. In this case, the interpolation position control unit 44D calculates the correction amount Δr so that the interpolation gradation value QR n approaches the interpolation gradation value QG n as shown in FIG. Tonal balance can be improved. At this time, the absolute value | Δr | of the correction amount Δr is larger than the absolute value | Δb | of the correction amount Δb, and the absolute value | Δb | is considered to be almost zero.

次に、図30は、図8と同様に走査期間におけるラインセンサ23R,23G,23Bの相対位置の遷移を示す図である。図30の被読取媒体2に形成されている原画像は、副走査方向Xに大きな階調変化を有する階調エッジEg5を有する。この階調エッジEg5は、時刻TにGラインセンサ23Gが画像読取位置P(n)を通過する際のGラインセンサ23Gの上端付近に形成されている。このとき、次の不等式が同時に成立する。
|R−Rn+1|<Thr、
|G−Gn+1|<Thg、且つ
|B−Bn+1|<Thb。
Next, FIG. 30 is a diagram illustrating the transition of the relative positions of the line sensors 23R, 23G, and 23B in the scanning period, as in FIG. The original image formed on the read medium 2 in FIG. 30 has a gradation edge Eg5 having a large gradation change in the sub-scanning direction X. The gradation edge Eg5 is, G line sensor 23G at time T 0 is formed at the upper end near the G line sensor 23G when passing through the image reading position P (n). At this time, the following inequality holds simultaneously.
| R n −R n + 1 | <Thr,
| G n −G n + 1 | <Thg and | B n −B n + 1 | <Thb.

よって、判定信号EDR,EDG,EDBの値は、次のようになる。
EDR=0、VEDG=0、且つ、VEDB=0。
Therefore, the values of the determination signals EDR, EDG, and EDB are as follows.
V EDR = 0, V EDG = 0, and V EDB = 0.

この場合のエッジ位置情報SEPの値VSEPは、「0」に設定される。 In this case, the value V SEP of the edge position information SEP is set to “0”.

図31(A)〜(D)は、原画像が図30の階調エッジEg5を有し、補間制御部39Dが機能しないと仮定した場合の画素位置と補間階調値との関係を示すグラフである。図31(A)〜(D)に示されるように、階調エッジEg5を境にして階調値は255から零へ急峻に変化している。図31(A)は、R成分の補間階調値QRn−1,QR,QRn+1,QRn+2を示すグラフであり、図31(B)は、G成分の補間階調値QGn−1,QG,QGn+1,QGn+2を示すグラフであり、図31(C)は、B成分の補間階調値QBn−1,QB,QBn+1,QBn+2を示すグラフである。また、図31(D)は、図31(A),(B),(C)の補間階調値QR,QG,QBを示すグラフである。 31A to 31D are graphs showing the relationship between the pixel position and the interpolation gradation value when it is assumed that the original image has the gradation edge Eg5 of FIG. 30 and the interpolation control unit 39D does not function. It is. As shown in FIGS. 31A to 31D, the gradation value sharply changes from 255 to zero at the gradation edge Eg5. FIG. 31A is a graph showing R component interpolation gradation values QR n−1 , QR n , QR n + 1 , and QR n + 2 , and FIG. 31B is a G component interpolation gradation value QG n−. 1 , QG n , QG n + 1 , QG n + 2 , and FIG. 31C is a graph showing the B component interpolation gradation values QB n−1 , QB n , QB n + 1 , QB n + 2 . FIG. 31D is a graph showing the interpolated gradation values QR n , QG n , and QB n of FIGS. 31A, 31B, and 31C.

図31(A)〜(C)に示されるように、補間階調値QR,QG,QBはいずれも零付近である。よって、図31(D)に示されるように色ずれはほとんど発生しない。この場合、補間位置制御部44Dは、補正量Δr,Δb,Δgを全て零値に設定すればよい。 As shown in FIGS. 31A to 31C, the interpolated gradation values QR n , QG n , and QB n are all near zero. Therefore, almost no color misregistration occurs as shown in FIG. In this case, the interpolation position controller 44D may set all the correction amounts Δr, Δb, Δg to zero values.

次に、図32は、図8と同様に走査期間におけるラインセンサ23R,23G,23Bの相対位置の遷移を示す図である。図32の被読取媒体2に形成されている原画像は、副走査方向Xに大きな階調変化を有する階調エッジEg6を有する。この階調エッジEg6は、時刻T+1にGラインセンサ23Gが画像読取位置P(n+1)を通過する際のBラインセンサ23Bの下端付近に形成されている。このとき、エッジ検出部36は、参照位置P(n),P(n+1)の間でエッジを検出しない。よって、判定信号EDR,EDG,EDBの値VEDR,VEDG,VEDBは全て零に設定される。この場合のエッジ位置情報SEPの値VSEPは、「0」に設定される。 Next, FIG. 32 is a diagram illustrating the transition of the relative positions of the line sensors 23R, 23G, and 23B in the scanning period, as in FIG. The original image formed on the read medium 2 in FIG. 32 has a gradation edge Eg6 having a large gradation change in the sub-scanning direction X. The gradation edge Eg6 is, G line sensor 23G at time T +1 is formed at the lower end near the B line sensor 23B when passing through the image reading position P (n + 1). At this time, the edge detector 36 does not detect an edge between the reference positions P (n) and P (n + 1). Therefore, the values V EDR , V EDG , and V EDB of the determination signals EDR, EDG, and EDB are all set to zero. In this case, the value V SEP of the edge position information SEP is set to “0”.

図33(A)〜(D)は、原画像が図32の階調エッジEg6を有し、補間制御部39Dが機能しない場合の画素位置と補間階調値との関係を示すグラフである。図33(A)〜(D)に示されるように、階調エッジEg6を境にして階調値は255から零へ急峻に変化している。図33(A)は、R成分の補間階調値QRn−1,QR,QRn+1,QRn+2を示すグラフであり、図33(B)は、G成分の補間階調値QGn−1,QG,QGn+1,QGn+2を示すグラフであり、図33(C)は、B成分の補間階調値QBn−1,QB,QBn+1,QBn+2を示すグラフである。また、図33(D)は、図33(A),(B),(C)の補間階調値QR,QG,QBを示すグラフである。 33A to 33D are graphs showing the relationship between the pixel position and the interpolation gradation value when the original image has the gradation edge Eg6 of FIG. 32 and the interpolation control unit 39D does not function. As shown in FIGS. 33A to 33D, the gradation value sharply changes from 255 to zero at the gradation edge Eg6. FIG. 33A is a graph showing R component interpolation gradation values QR n−1 , QR n , QR n + 1 , and QR n + 2 , and FIG. 33B is a G component interpolation gradation value QG n−. 1 , QG n , QG n + 1 , and QG n + 2 , and FIG. 33C is a graph showing B component interpolated gradation values QB n−1 , QB n , QB n + 1 , and QB n + 2 . FIG. 33 (D) is a graph showing the interpolated gradation values QR n , QG n , and QB n of FIGS. 33 (A), (B), and (C).

図33(A)〜(C)に示されるように、補間階調値QR,QG,QBは全てほぼ255付近である。よって、図33(D)に示されるように色ずれはほとんど発生しない。この場合、補間位置制御部44Dは、補正量Δr,Δb,Δgを全て零値に設定すればよい。 As shown in FIGS. 33A to 33C, the interpolation gradation values QR n , QG n , and QB n are all in the vicinity of 255. Therefore, almost no color misregistration occurs as shown in FIG. In this case, the interpolation position controller 44D may set all the correction amounts Δr, Δb, Δg to zero values.

以上より、上記階調エッジの位置と判定信号EDR,EDG,EDBの値VEDR,VEDG,VEDBの組み合わせとの対応関係は、下記表のように整理される。

Figure 0005950670
From the above, the correspondence relationship between the position of the gradation edge and the combination of the values V EDR , V EDG , and V EDB of the determination signals EDR, EDG, and EDB is arranged as shown in the following table.
Figure 0005950670

エッジ位置検出部49は、この表の情報をルックアップテーブルとして予め記憶し、このルックアップテーブルに従ってエッジ位置情報SEPを生成することができる。   The edge position detection unit 49 can store the information in this table in advance as a lookup table, and can generate the edge position information SEP in accordance with the lookup table.

なお、本実施の形態の場合、しきい値Thr,Thg,Thbは、R,G,Bの各色の特性に合わせた値に設定されればよい。たとえば、G成分は輝度成分を比較的多く含み、その階調変化は、エッジと誤認識されやすい。そのため、しきい値Thgをしきい値Thr,Thbと比較して小さい値にしてもよい。   In the present embodiment, the threshold values Thr, Thg, Thb may be set to values according to the characteristics of the R, G, B colors. For example, the G component includes a relatively large luminance component, and the gradation change is easily recognized as an edge. Therefore, the threshold value Thg may be made smaller than the threshold values Thr and Thb.

本実施の形態では、G成分用の補正量Δgは常に零値に設定される。補正量Δgを零値に設定する理由は、G成分は、R成分やB成分と比べると輝度成分を多く含むので、G成分用の補間中心位置が画素補間位置からずれた位置に設定されると、出力画像の変化が目立ちやすいためである。ただし、G成分用の補間位置を画素補間位置からずらすことで、エッジ部分の輝度を変化させてエッジ部分をより鮮明化することも可能である。   In the present embodiment, the correction amount Δg for the G component is always set to a zero value. The reason why the correction amount Δg is set to zero is that the G component includes more luminance components than the R component and B component, and therefore the G component interpolation center position is set to a position shifted from the pixel interpolation position. This is because the change in the output image is conspicuous. However, by shifting the G component interpolation position from the pixel interpolation position, it is also possible to change the brightness of the edge portion to make the edge portion clearer.

以上に説明したように実施の形態2では、補間制御部39Dは、エッジ位置情報SEPに応じて補間制御信号PHR,PHG,PHBを生成する。この場合でも、上記実施の形態1と同様の効果を得ることができる。   As described above, in the second embodiment, the interpolation control unit 39D generates the interpolation control signals PHR, PHG, and PHB according to the edge position information SEP. Even in this case, the same effect as in the first embodiment can be obtained.

なお、本実施の形態において、図3(A)に示すようにラインセンサ23R,23G,23Bを1画素ピッチで配列した構造を有するリニアイメージセンサ23が使用される場合にも、図3(B)に示すようにラインセンサ23R,23G,23Bを1/3画素ピッチで配列した構造を有するリニアイメージセンサ23が使用される場合と同様の効果を得ることが可能である。   In this embodiment, as shown in FIG. 3A, the linear image sensor 23 having a structure in which the line sensors 23R, 23G, and 23B are arranged at one pixel pitch is used. ), The same effect as when the linear image sensor 23 having a structure in which the line sensors 23R, 23G, and 23B are arranged at a 1/3 pixel pitch can be obtained.

実施の形態3.
次に、本発明に係る実施の形態3について説明する。図34は、実施の形態3の画像処理部14Eの概略構成を示す機能ブロック図である。この実施の形態3の画像読取装置の構成は、図34の画像処理部14Eを除いて、上記実施の形態1の画像読取装置1(図1)の構成と同じである。
Embodiment 3 FIG.
Next, a third embodiment according to the present invention will be described. FIG. 34 is a functional block diagram illustrating a schematic configuration of the image processing unit 14E according to the third embodiment. The configuration of the image reading apparatus of the third embodiment is the same as that of the image reading apparatus 1 (FIG. 1) of the first embodiment except for the image processing unit 14E of FIG.

図34に示されるように、画像処理部14Eは、上記実施の形態2の画像処理部14D(図16)と同様に、シェーディング補正部31、ライン遅延部32R,32G,32B、補間処理部33R,33G,33B及びエッジ位置検出部49を有する。本実施の形態の画像処理部14Eはさらに、エッジ検出部36E及び補間制御部39Eを有している。この画像処理部14Eの構成は、エッジ検出部36E及び補間制御部39Eを除いて、実施の形態2の画像処理部14Dの構成と同じである。   As shown in FIG. 34, the image processing unit 14E is similar to the image processing unit 14D (FIG. 16) of the second embodiment, and includes a shading correction unit 31, line delay units 32R, 32G, and 32B, and an interpolation processing unit 33R. , 33G, 33B and an edge position detector 49. The image processing unit 14E of the present embodiment further includes an edge detection unit 36E and an interpolation control unit 39E. The configuration of the image processing unit 14E is the same as the configuration of the image processing unit 14D of the second embodiment except for the edge detection unit 36E and the interpolation control unit 39E.

エッジ検出部36Eは、Rエッジ検出部37ER、Gエッジ検出部37EG、Bエッジ検出部37EB及びエッジ判定部38を有する。図34のエッジ判定部38の機能は、図16のエッジ判定部38の機能と同じである。   The edge detection unit 36E includes an R edge detection unit 37ER, a G edge detection unit 37EG, a B edge detection unit 37EB, and an edge determination unit 38. The function of the edge determination unit 38 in FIG. 34 is the same as the function of the edge determination unit 38 in FIG.

Rエッジ検出部37ER、Gエッジ検出部37EG及びBエッジ検出部37EBは、実施の形態1のRエッジ検出部37R、Gエッジ検出部37G及びBエッジ検出部37Bと同様に判定信号EDR,EDG,EDBをそれぞれ生成する機能を有し、さらに、赤色エッジ、緑色エッジ及び青色エッジそれぞれの階調変化量の大きさ(絶対値)を算出する機能を有する。具体的には、Rエッジ検出部37ER、Gエッジ検出部37EG及びBエッジ検出部37EBは、次式に従って、副走査方向Xにおける連続する2ライン間の赤色エッジ、緑色エッジ及び青色エッジそれぞれの階調変化量の大きさ(絶対値)に比例する値VEVR,VEVG,VEVBを算出することができる。
EVR=KR×|R−Rn+1
EVG=KG×|G−Gn+1
EVB=KB×|B−Bn+1
The R edge detection unit 37ER, the G edge detection unit 37EG, and the B edge detection unit 37EB are similar to the R edge detection unit 37R, the G edge detection unit 37G, and the B edge detection unit 37B of the first embodiment. Each has a function of generating EDB, and further has a function of calculating the magnitude (absolute value) of the gradation change amount of each of the red edge, the green edge, and the blue edge. Specifically, the R edge detection unit 37ER, the G edge detection unit 37EG, and the B edge detection unit 37EB respectively calculate the red edge, the green edge, and the blue edge between two consecutive lines in the sub-scanning direction X according to the following formula. Values V EVR , V EVG , and V EVB proportional to the magnitude (absolute value) of the tone change amount can be calculated.
V EVR = KR × | R n −R n + 1 |
V EVG = KG × | G n −G n + 1 |
V EVB = KB × | B n −B n + 1 |

ここで、KR,KG,KBは、比例定数である。   Here, KR, KG, and KB are proportional constants.

Rエッジ検出部37ER、Gエッジ検出部37EG及びBエッジ検出部37EBは、値VEVR,VEVG,VEVBをそれぞれ表すエッジ検出情報EVR,EVG,EVBを補間制御部39Eに供給する。補間制御部39Eは、エッジ検出情報EVR,EVG,EVBに応じて補正量Δr,Δg,Δbを算出して補間位置を制御する機能を有する。 R edge detector 37ER, G edge detector 37EG and B edge detector 37EB supplies value V EVR, V EVG, V EVB edge detection information indicating each EVR, EVG, the EVB the interpolation control unit 39E. The interpolation control unit 39E has a function of calculating the correction amounts Δr, Δg, Δb according to the edge detection information EVR, EVG, EVB and controlling the interpolation position.

図35は、本実施の形態の補間制御部39Eの構成を概略的に示す機能ブロック図である。図35に示されるように、補間制御部39Eは、補間位置決定部43及び補間位置制御部44Eを有する。補間位置制御部44Eは、エッジ位置情報SEPとエッジ検出情報EVR,EVG,EVBとを入力とし、上記実施の形態2の補間位置制御部44Dと同様にエッジ位置情報SEPに応じて補正量Δr,Δg,Δbを算出する機能と、エッジ検出情報EVR,EVG,EVBに応じてそれら補正量Δr,Δg,Δbを変更する機能とを有している。補間位置制御部44Eは、たとえば、値VEVR,VEVG,VEVBが大きいほど、補正量Δr,Δg,Δbの変更量を大きくし、値VEVR,VEVG,VEVBが小さいほど、補正量Δr,Δg,Δbの変更量を小さくすることができる。 FIG. 35 is a functional block diagram schematically showing the configuration of the interpolation control unit 39E of the present embodiment. As illustrated in FIG. 35, the interpolation control unit 39E includes an interpolation position determination unit 43 and an interpolation position control unit 44E. The interpolation position control unit 44E receives the edge position information SEP and the edge detection information EVR, EVG, EVB as input, and similarly to the interpolation position control unit 44D of the second embodiment, the correction amount Δr, It has a function of calculating Δg, Δb and a function of changing the correction amounts Δr, Δg, Δb in accordance with the edge detection information EVR, EVG, EVB. For example, the interpolation position control unit 44E increases the amount of change of the correction amounts Δr, Δg, Δb as the values V EVR , V EVG , V EVB are larger, and corrects as the values V EVR , V EVG , V EVB are smaller. The amount of change of the amounts Δr, Δg, Δb can be reduced.

以上に説明したように実施の形態3では、検出されたエッジの階調変化量の大きさに応じて補正量Δr,Δg,Δbを動的に制御することができるので、実施の形態2の場合と比べると、R,G,B階調バランスを更に改善することができ、より色ずれを抑制することができる。   As described above, in the third embodiment, the correction amounts Δr, Δg, and Δb can be dynamically controlled according to the magnitude of the detected gradation change amount of the edge. Compared to the case, the R, G, B gradation balance can be further improved, and the color shift can be further suppressed.

実施の形態4.
次に、本発明に係る実施の形態4について説明する。上記実施の形態1〜3の画像処理部14,14D,14Eの機能の全部または一部は、ハードウェア資源により実現され得るが、ハードウェア資源とソフトウェアとの協働により実現されてもよい。当該機能は、CPU(central processing unit)を含むマイクロプロセッサにより実行されるコンピュータプログラムで実現することもできる。当該機能の一部がコンピュータプログラムで実現される場合には、マイクロプロセッサは、コンピュータ読み取り可能な記録媒体から当該コンピュータプログラムをロードし実行することによって当該機能の一部を実現することができる。
Embodiment 4 FIG.
Next, a fourth embodiment according to the present invention will be described. All or part of the functions of the image processing units 14, 14D, and 14E according to the first to third embodiments can be realized by hardware resources, but may be realized by cooperation of hardware resources and software. This function can also be realized by a computer program executed by a microprocessor including a CPU (central processing unit). When a part of the function is realized by a computer program, the microprocessor can realize a part of the function by loading and executing the computer program from a computer-readable recording medium.

このようなコンピュータプログラムは、光ディスクなどのコンピュータ読み取り可能な記録媒体に記録されて提供されてもよいし、インターネットなどの通信回線を介して提供されてもよい。   Such a computer program may be provided by being recorded on a computer-readable recording medium such as an optical disk, or may be provided via a communication line such as the Internet.

図36は、上記実施の形態1〜3の画像処理部14,14D,14Eの機能をコンピュータプログラムで実現する場合の構成を示す演算装置14Fの機能ブロック図である。図36に示されるように、この演算装置14Fは、CPUを含むプロセッサ51、RAM(random access memory)52、不揮発性メモリ53、大容量記録媒体54、入出力インタフェース55及びバス56を備えている。不揮発性メモリ53としては、たとえば、フラッシュメモリを使用することができる。また、大容量記録媒体54としては、たとえば、ハードディスク(磁気ディスク)や光ディスクを使用することが可能である。   FIG. 36 is a functional block diagram of an arithmetic unit 14F showing a configuration when the functions of the image processing units 14, 14D, and 14E according to the first to third embodiments are realized by a computer program. As shown in FIG. 36, the arithmetic device 14F includes a processor 51 including a CPU, a RAM (Random Access Memory) 52, a nonvolatile memory 53, a large-capacity recording medium 54, an input / output interface 55, and a bus 56. . As the non-volatile memory 53, for example, a flash memory can be used. Further, as the large-capacity recording medium 54, for example, a hard disk (magnetic disk) or an optical disk can be used.

入出力インタフェース55は、図1のA/D変換器13から転送されたデジタル信号R2,G2,B2をプロセッサ51に転送する機能と、プロセッサ51から転送された画像信号Rout,Gout,Boutを外部機器(図示せず)に出力する機能とを有し、さらに、コントローラ15から転送された制御信号をプロセッサ51に与える機能をも有する。   The input / output interface 55 transfers the digital signals R2, G2, and B2 transferred from the A / D converter 13 of FIG. 1 to the processor 51 and the image signals Rout, Gout, and Bout transferred from the processor 51 to the outside. And a function of giving a control signal transferred from the controller 15 to the processor 51.

プロセッサ51は、不揮発性メモリ53または大容量記録媒体54からコンピュータプログラムをロードし実行することによって上記画像処理部14,14D,14Eのいずれかの機能を実現することができる。   The processor 51 can realize any of the functions of the image processing units 14, 14 </ b> D, and 14 </ b> E by loading and executing a computer program from the nonvolatile memory 53 or the large-capacity recording medium 54.

図37は、上記実施の形態1の画像処理部14の機能を実現するコンピュータプログラムをプロセッサ51が実行する場合の実施の形態4に係る処理手順の一例を示すフローチャートである。   FIG. 37 is a flowchart illustrating an example of a processing procedure according to the fourth embodiment in the case where the processor 51 executes a computer program that implements the function of the image processing unit 14 according to the first embodiment.

まず、プロセッサ51は、図4のシェーディング補正部31と同様に、入力されたデジタル信号R2,G2,B2にシェーディング補正を施して補正画素信号R3,G3,B3を生成する(ステップS11)。次に、プロセッサ51は、ライン遅延部32R,32G,32Bと同様に、補正画素信号R3,G3,B3をそれぞれ遅延させて補正画素信号R3,G3,B3の間の位相ずれをライン単位で補正する(ステップS12)。次に、プロセッサ51は、Rエッジ検出部37R、Gエッジ検出部37G及びBエッジ検出部37Bと同様に色エッジ検出処理を実行して色エッジの有無を示す判定信号EDR,EDG,EDBを生成する(ステップS13)。次に、プロセッサ51は、エッジ判定部38と同様に、判定信号EDR,EDG,EDBに基づき、赤色エッジ、緑色エッジ及び青色エッジの有無の組み合わせに応じて被読取媒体2の原画像中の副走査方向Xのエッジの有無を判定し、その判定結果を示すエッジ判定信号EDを生成する(ステップS14)。   First, the processor 51 performs shading correction on the input digital signals R2, G2, and B2 to generate corrected pixel signals R3, G3, and B3, similarly to the shading correction unit 31 in FIG. 4 (step S11). Next, similarly to the line delay units 32R, 32G, and 32B, the processor 51 delays the correction pixel signals R3, G3, and B3 to correct the phase shift between the correction pixel signals R3, G3, and B3 in units of lines. (Step S12). Next, the processor 51 performs color edge detection processing in the same manner as the R edge detection unit 37R, G edge detection unit 37G, and B edge detection unit 37B, and generates determination signals EDR, EDG, and EDB that indicate the presence or absence of color edges. (Step S13). Next, similarly to the edge determination unit 38, the processor 51, based on the determination signals EDR, EDG, and EDB, determines the sub-image in the original image of the read medium 2 according to the combination of the presence / absence of red edge, green edge, and blue edge. The presence / absence of an edge in the scanning direction X is determined, and an edge determination signal ED indicating the determination result is generated (step S14).

その後、プロセッサ51は、補間位置決定部43と同様に、画素補間位置を示すパラメータr,g,bを算出する(ステップS15)。次に、プロセッサ51は、補間制御部39の補間位置制御部44と同様に、R,G,Bそれぞれの補間位置に対応する補正量Δr,Δg,Δbを算出する(ステップS16)。次に、エッジ有りと判定されている場合には(ステップS17のYES)、プロセッサ51は、画素補間位置を示すパラメータr,g,bのいずれかを補正して補間制御信号PHR,PHG,PHBを生成する(ステップS18)。一方、エッジ無しと判定されている場合は、次のステップS18に処理を移行させる。   Thereafter, the processor 51 calculates the parameters r, g, and b indicating the pixel interpolation position in the same manner as the interpolation position determination unit 43 (step S15). Next, similarly to the interpolation position control unit 44 of the interpolation control unit 39, the processor 51 calculates correction amounts Δr, Δg, Δb corresponding to the R, G, B interpolation positions (step S16). Next, when it is determined that there is an edge (YES in step S17), the processor 51 corrects one of the parameters r, g, and b indicating the pixel interpolation position to interpolate the control signals PHR, PHG, and PHB. Is generated (step S18). On the other hand, if it is determined that there is no edge, the process proceeds to the next step S18.

そして、プロセッサ51は、補間処理部33R,33G,33Bと同様に、補間制御信号PHR,PHG,PHBに基づいて補間係数を算出し(ステップS19)、これら補間係数を用いた補間演算を実行して画像信号Rout,Gout,Boutを生成する(ステップS20)。   Then, similarly to the interpolation processing units 33R, 33G, and 33B, the processor 51 calculates interpolation coefficients based on the interpolation control signals PHR, PHG, and PHB (step S19), and executes an interpolation operation using these interpolation coefficients. The image signals Rout, Gout, and Bout are generated (step S20).

実施の形態5.
次に、図38を参照しつつ、本発明に係る実施の形態5について説明する。図38は、図36の演算装置14Fを用いて上記実施の形態2の画像処理部14Dの機能を実現するコンピュータプログラムをプロセッサ51が実行する場合の実施の形態5に係る処理手順の一例を示すフローチャートである。
Embodiment 5 FIG.
Next, Embodiment 5 according to the present invention will be described with reference to FIG. FIG. 38 shows an example of a processing procedure according to the fifth embodiment when the processor 51 executes a computer program for realizing the function of the image processing unit 14D of the second embodiment using the arithmetic device 14F of FIG. It is a flowchart.

図39を参照すると、プロセッサ51は、上記実施の形態4に係る処理手順と同様にステップS11〜S14を実行する。次いで、プロセッサ51は、上記エッジ位置検出部49(図16)と同様に、判定信号EDR,EDG,EDB及びエッジ判定信号EDに応じて、エッジ有りと判定されている場合には当該エッジの位置を検出し、その検出結果を示すエッジ位置情報SEPを生成する(ステップS14D)。次に、プロセッサ51は、補間位置決定部43と同様に、画素補間位置を示すパラメータr,g,bを算出する(ステップS15)。さらに、プロセッサ51は、補間位置制御部44D(図17)と同様に、エッジ位置情報SEPに基づいてR,G,Bそれぞれの補間位置に対応する補正量Δr,Δg,Δbを算出する(ステップS16D)。   Referring to FIG. 39, the processor 51 executes steps S11 to S14 as in the processing procedure according to the fourth embodiment. Next, similarly to the edge position detector 49 (FIG. 16), the processor 51 determines the position of the edge when it is determined that there is an edge according to the determination signals EDR, EDG, EDB and the edge determination signal ED. , And edge position information SEP indicating the detection result is generated (step S14D). Next, the processor 51 calculates the parameters r, g, and b indicating the pixel interpolation position, similarly to the interpolation position determination unit 43 (step S15). Further, similarly to the interpolation position control unit 44D (FIG. 17), the processor 51 calculates correction amounts Δr, Δg, Δb corresponding to the R, G, B interpolation positions based on the edge position information SEP (step). S16D).

その後は、上記実施の形態4に係る処理手順と同様に、ステップS17〜S20が実行される。   Thereafter, steps S17 to S20 are executed in the same manner as the processing procedure according to the fourth embodiment.

実施の形態6.
次に、図39を参照しつつ、本発明に係る実施の形態6について説明する。図39は、図36の演算装置14Fを用いて上記実施の形態3の画像処理部14Eの機能を実現するコンピュータプログラムをプロセッサ51が実行する場合の実施の形態6に係る処理手順の一例を示すフローチャートである。
Embodiment 6 FIG.
Next, Embodiment 6 according to the present invention will be described with reference to FIG. FIG. 39 shows an example of a processing procedure according to the sixth embodiment when the processor 51 executes a computer program that realizes the function of the image processing unit 14E of the third embodiment using the arithmetic device 14F of FIG. It is a flowchart.

図39を参照すると、プロセッサ51は、上記実施の形態4に係る処理手順と同様にステップS11,S12を実行する。次いで、プロセッサ51は、上記Rエッジ検出部37ER,Gエッジ検出部37EG及びBエッジ検出部37EBと同様に、判定信号EDR,EDG,EDBをそれぞれ生成し、さらに、赤色エッジ、緑色エッジ及び青色エッジそれぞれの階調変化量の大きさ(絶対値)を算出する(ステップS13E)。   Referring to FIG. 39, the processor 51 executes steps S11 and S12 in the same manner as the processing procedure according to the fourth embodiment. Next, the processor 51 generates determination signals EDR, EDG, and EDB, respectively, similarly to the R edge detection unit 37ER, G edge detection unit 37EG, and B edge detection unit 37EB, and further, a red edge, a green edge, and a blue edge The magnitude (absolute value) of each gradation change amount is calculated (step S13E).

その後、プロセッサ51は、上記エッジ判定部38と同様に、判定信号EDR,EDG,EDBに基づき、赤色エッジ、緑色エッジ及び青色エッジの有無の組み合わせに応じて被読取媒体2の原画像中の副走査方向Xのエッジの有無を判定し、その判定結果を示すエッジ判定信号EDを生成する(ステップS14)。次に、プロセッサ51は、上記補間位置制御部44Eと同様に、エッジ位置情報SEPに応じて補正量Δr,Δg,Δbを算出し、さらに、エッジ検出情報EVR,EVG,EVBに応じてそれら補正量Δr,Δg,Δbを変更する(ステップS16E)。   Thereafter, similarly to the edge determination unit 38, the processor 51, based on the determination signals EDR, EDG, and EDB, determines the sub-image in the original image of the read medium 2 in accordance with the combination of the presence of the red edge, the green edge, and the blue edge. The presence / absence of an edge in the scanning direction X is determined, and an edge determination signal ED indicating the determination result is generated (step S14). Next, the processor 51 calculates correction amounts Δr, Δg, Δb according to the edge position information SEP, and further corrects them according to the edge detection information EVR, EVG, EVB, similarly to the interpolation position control unit 44E. The amounts Δr, Δg, Δb are changed (step S16E).

その後は、上記実施の形態4に係る処理手順と同様に、ステップS17〜S20が実行される。   Thereafter, steps S17 to S20 are executed in the same manner as the processing procedure according to the fourth embodiment.

実施の形態1〜6の変形例.
以上、図面を参照して本発明に係る種々の実施の形態について述べたが、これらは本発明の例示であり、上記以外の様々な形態を採用することもできる。たとえば、上記実施の形態1〜6では、リニアイメージセンサ23は、3原色の光をそれぞれ受光する3列のラインセンサ23R,23G,23Bを有するものであったが、これに限定されるものではなく、赤外光を受光するラインセンサをさらに有していてもよい。
Modified examples of the first to sixth embodiments.
Although various embodiments according to the present invention have been described above with reference to the drawings, these are examples of the present invention, and various forms other than the above can be adopted. For example, in the first to sixth embodiments, the linear image sensor 23 has the three rows of line sensors 23R, 23G, and 23B that receive the three primary colors, respectively. However, the present invention is not limited to this. Alternatively, a line sensor that receives infrared light may be further included.

また、上記リニアイメージセンサ23は、密着型イメージセンサであるが、これに限定されるものではない。原稿で反射した光を複数のラインセンサに縮小結像させる縮小結像光学系を使用するイメージセンサを有するように上記実施の形態1〜6の画像読取装置の構成を適宜変更することも可能である。   The linear image sensor 23 is a contact image sensor, but is not limited thereto. It is also possible to appropriately change the configuration of the image reading apparatus according to any of the first to sixth embodiments so as to have an image sensor that uses a reduction imaging optical system for reducing and imaging the light reflected from the document on a plurality of line sensors. is there.

また、実施の形態1のエッジ検出部36を実施の形態2のエッジ検出部36Dと置き換えて他の形態の画像処理部を構成することもできる。   Further, the edge detection unit 36 according to the first embodiment can be replaced with the edge detection unit 36D according to the second embodiment to configure an image processing unit of another form.

また、画像処理部14,14D,14Eの構成の一部は、LSI(Large Scale Integrated circuit)で実現することができる。また、FPGA(Field−Programmable Gate Array)やASIC(Application Specific Integrated Circuit)により画像処理部14,14D,14Eの構成の一部を実現することも可能である。   A part of the configuration of the image processing units 14, 14D, and 14E can be realized by an LSI (Large Scale Integrated circuit). Also, part of the configuration of the image processing units 14, 14 </ b> D, and 14 </ b> E can be realized by an FPGA (Field-Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit).

なお、本発明は、上記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の態様で実施することができる。   In addition, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it can implement with a various aspect.

1 画像読取装置、 2 被読取媒体、 10 透光性板、 11 走査駆動部、 12 撮像センサモジュール、 13 A/D変換器(ADC)、 14,14D,14E 画像処理部、 14F 演算装置、 15 コントローラ、 16 操作パネル、 21A,21B 光源、 22 等倍結像光学系(レンズアレイ)、 23 リニアイメージセンサ、 23R Rラインセンサ、 23G Gラインセンサ、 23B Bラインセンサ、 24R,24G,14B 受光素子、 31 シェーディング補正部、 32R,32G,32B ライン遅延部、 33R,33G,33B 補間処理部、 36,36E,エッジ検出部、 37R,37ER Rエッジ検出部、 37G,37EG Gエッジ検出部、 37B,37EB Bエッジ検出部、 38 エッジ判定部、 39,39D,39E 補間制御部、 40R〜40R,40G〜40G,40B〜40B ラインメモリ、 41R,41G,41B セレクタ、 43 補間位置決定部、 44,44D,44E 補間位置制御部、 45R,45G,45B 加算器、 47R,47G,47B 補間演算部、 48R,48G,48B 補間係数算出部、 49 エッジ位置検出部、 51 プロセッサ、 52 RAM、 53 不揮発性メモリ、 54 大容量記録媒体、 55 入出力インタフェース、 56 バス。 DESCRIPTION OF SYMBOLS 1 Image reader, 2 Medium to be read, 10 Translucent board, 11 Scanning drive part, 12 Imaging sensor module, 13 A / D converter (ADC), 14, 14D, 14E Image processing part, 14F arithmetic unit, 15 Controller, 16 operation panel, 21A, 21B light source, 22 magnification optical system (lens array), 23 linear image sensor, 23R R line sensor, 23G G line sensor, 23B B line sensor, 24R, 24G, 14B 31 Shading correction unit, 32R, 32G, 32B line delay unit, 33R, 33G, 33B interpolation processing unit, 36, 36E, edge detection unit, 37R, 37ERR R edge detection unit, 37G, 37EG G edge detection unit, 37B, 37EB B edge detection unit, 38 edge determination unit, 39, 39D, 39E Interpolation control unit, 40R 1 to 40R N , 40G 1 to 40G N , 40B 1 to 40B N line memory, 41R, 41G, 41B selector, 43 Interpolation position determination unit, 44, 44D, 44E Interpolation position control unit, 45R, 45G , 45B adder, 47R, 47G, 47B interpolation calculation unit, 48R, 48G, 48B interpolation coefficient calculation unit, 49 edge position detection unit, 51 processor, 52 RAM, 53 nonvolatile memory, 54 large capacity recording medium, 55 input / output Interface, 56 buses.

Claims (20)

主走査方向と該主走査方向とは異なる副走査方向とに延在する被読取媒体から2次元画像を読み取る画像読取装置であって、
前記副走査方向に沿って所定間隔で配列された複数列のラインセンサを含むイメージセンサと、
前記被読取媒体に対して前記イメージセンサを前記副走査方向に相対移動させて前記被読取媒体の表面で反射した光を前記イメージセンサに受光させる走査駆動部と、
前記被読取媒体に対して前記イメージセンサが前記副走査方向に相対移動する走査期間内に一定の時間間隔ごとに前記複数列のラインセンサから並列に出力された複数系列の読取画素信号に基づいて画像データを生成する画像処理部と
を備え、
前記複数列のラインセンサは、互いに異なる複数の色の光をそれぞれ光電変換して前記複数系列の読取画素信号を並列に出力し、
前記画像処理部は、
前記複数系列の読取画素信号のうちの基準系列の読取画素信号と該基準系列以外の他系列の読取画素信号との間の位相ずれを補正するための画素補間位置を決定する補間位置決定部と、
前記複数系列の読取画素信号に対して系列ごとに補間演算を実行して前記画素補間位置における前記複数の色それぞれの階調値を算出する補間処理部と、
前記複数系列の読取画素信号のうち少なくとも1つの系列の読取画素信号に基づいて前記副走査方向に階調変化を有するエッジの有無を判定するエッジ検出部と
を有し、
前記補間処理部は、前記エッジが有ると判定されたときは、前記基準系列の読取画素信号に対しては、前記画素補間位置及び該画素補間位置からずれた位置のうちいずれか一方の第1の補間位置を基準として設定された加重係数を用いて前記補間演算を実行するとともに、前記他系列の読取画素信号に対しては、前記第1の補間位置とは異なる第2の補間位置を基準として設定された加重係数を用いて前記補間演算を実行する
ことを特徴とする画像読取装置。
An image reading device for reading a two-dimensional image from a read medium extending in a main scanning direction and a sub-scanning direction different from the main scanning direction,
An image sensor including a plurality of line sensors arranged at predetermined intervals along the sub-scanning direction;
A scanning drive unit that causes the image sensor to receive light reflected by the surface of the read medium by moving the image sensor relative to the read medium in the sub-scanning direction;
Based on a plurality of series of read pixel signals output in parallel from the plurality of line sensor at regular time intervals within a scanning period in which the image sensor moves relative to the read medium in the sub-scanning direction. An image processing unit for generating image data,
The plurality of lines of line sensors photoelectrically convert light of a plurality of different colors, respectively, and output the plurality of series of read pixel signals in parallel.
The image processing unit
An interpolation position determining unit for determining a pixel interpolation position for correcting a phase shift between a read pixel signal of a reference series among the read pixel signals of the plurality of series and a read pixel signal of another series other than the reference series; ,
An interpolation processing unit that performs an interpolation operation for each of the plurality of read pixel signals and calculates a gradation value of each of the plurality of colors at the pixel interpolation position;
An edge detector that determines the presence or absence of an edge having a gradation change in the sub-scanning direction based on at least one series of read pixel signals among the plurality of series of read pixel signals;
When it is determined that the edge is present, the interpolation processing unit, with respect to the read pixel signal of the reference series, the first one of the pixel interpolation position and the position shifted from the pixel interpolation position. The interpolation calculation is performed using a weighting coefficient set with reference to the interpolation position of the second interpolation position, and a second interpolation position different from the first interpolation position is used as a reference for the read pixel signals of the other series. An image reading apparatus that performs the interpolation operation using a weighting coefficient set as.
請求項1に記載の画像読取装置であって、前記補間処理部は、前記エッジが無いと判定されたときは、前記系列ごとに前記画素補間位置を基準として設定された加重係数を用いて前記補間演算を実行することを特徴とする画像読取装置。   The image reading apparatus according to claim 1, wherein when the interpolation processing unit determines that there is no edge, the interpolation processing unit uses the weighting coefficient set with reference to the pixel interpolation position for each series. An image reading apparatus that performs an interpolation operation. 請求項1または2に記載の画像読取装置であって、前記エッジ検出部による検出結果に応じて、前記第1の補間位置及び前記第2の補間位置を個別に制御する補間位置制御部をさらに備えることを特徴とする画像読取装置。   The image reading apparatus according to claim 1, further comprising an interpolation position control unit that individually controls the first interpolation position and the second interpolation position in accordance with a detection result by the edge detection unit. An image reading apparatus comprising: 請求項3に記載の画像読取装置であって、前記補間位置制御部は、前記エッジが有ると判定されたときは、前記複数の色それぞれの階調値のうち前記他系列の読取画素信号から算出される色の階調値が前記基準系列の読取画素信号から算出される色の階調値に近づくように前記第1の補間位置及び前記第2の補間位置を制御することを特徴とする画像読取装置。   4. The image reading apparatus according to claim 3, wherein when the interpolation position control unit determines that the edge is present, the interpolation position control unit determines from the read pixel signals of the other series among the gradation values of the plurality of colors. 5. The first interpolation position and the second interpolation position are controlled such that the calculated color gradation value approaches the color gradation value calculated from the reference series of read pixel signals. Image reading device. 請求項3または4に記載の画像読取装置であって、
前記エッジが有ると判定されたときに当該エッジの位置を検出するエッジ位置検出部をさらに備え、
前記補間位置制御部は、当該エッジの検出位置に応じて前記第1の補間位置及び前記第2の補間位置を個別に制御する
ことを特徴とする画像読取装置。
The image reading apparatus according to claim 3, wherein
An edge position detector that detects the position of the edge when it is determined that the edge is present;
The image reading apparatus, wherein the interpolation position control unit individually controls the first interpolation position and the second interpolation position according to a detection position of the edge.
請求項5に記載の画像読取装置であって、
前記エッジ検出部は、前記複数系列の読取画素信号から、前記複数の色にそれぞれ対応し且つ前記副走査方向に階調変化を有する色エッジの有無を判定し、前記色エッジの有無の判定結果の組み合わせに応じて、前記副走査方向のエッジの有無を判定し、
前記補間位置制御部は、前記エッジ検出部によるエッジの有無の判定結果に基づき、前記第1の補間位置及び前記第2の補間位置を個別に制御する
ことを特徴とする画像読取装置。
The image reading apparatus according to claim 5,
The edge detection unit determines the presence / absence of a color edge corresponding to each of the plurality of colors and having a gradation change in the sub-scanning direction from the plurality of read pixel signals, and a determination result of the presence / absence of the color edge According to the combination of, the presence or absence of an edge in the sub-scanning direction is determined,
The image reading apparatus, wherein the interpolation position control unit individually controls the first interpolation position and the second interpolation position based on a determination result of the presence or absence of an edge by the edge detection unit .
請求項6に記載の画像読取装置であって、前記エッジ位置検出部は、前記色エッジの有無と複数のエッジの位置との対応関係が予め定められたルックアップテーブルを有し、前記ルックアップテーブルに従って前記エッジの位置を示す情報を生成することを特徴とする画像読取装置。   The image reading apparatus according to claim 6, wherein the edge position detection unit includes a lookup table in which correspondence between the presence / absence of the color edge and the positions of a plurality of edges is determined in advance. An image reading apparatus that generates information indicating the position of the edge according to a table. 請求項3から7のうちのいずれか1項に記載の画像読取装置であって、
前記エッジ検出部は、前記エッジの階調変化量の大きさを検出し、
前記補間位置制御部は、前記階調変化量の大きさに応じて前記第1の補間位置及び前記第2の補間位置を個別に制御する
ことを特徴とする画像読取装置。
The image reading apparatus according to any one of claims 3 to 7,
The edge detection unit detects a magnitude of a gradation change amount of the edge;
The image reading apparatus, wherein the interpolation position control unit individually controls the first interpolation position and the second interpolation position in accordance with the magnitude of the gradation change amount.
請求項1から8のうちのいずれか1項に記載の画像読取装置であって、前記基準系列の読取画素信号と前記他系列の読取画素信号との間の位相ずれを低減するように前記基準系列の読取画素信号に対して前記他系列の読取画素信号を相対的に遅延させる遅延メモリをさらに備えることを特徴とする画像読取装置。   9. The image reading apparatus according to claim 1, wherein the reference so as to reduce a phase shift between the read pixel signal of the reference series and the read pixel signal of the other series. An image reading apparatus, further comprising: a delay memory that delays the read pixel signals of the other series relative to the read pixel signals of the series. 請求項9に記載の画像読取装置であって、前記遅延メモリは、前記被読取媒体に対する可変の読み取り倍率に応じた遅延時間だけ前記他系列の読取画素信号を相対的に遅延させることを特徴とする画像読取装置。   10. The image reading apparatus according to claim 9, wherein the delay memory relatively delays the read pixel signals of the other series by a delay time corresponding to a variable reading magnification with respect to the read medium. An image reading apparatus. 主走査方向と該主走査方向とは異なる副走査方向とに延在する被読取媒体に対して、前記副走査方向に沿って所定間隔で配列され且つ互いに異なる複数の色の光をそれぞれ光電変換して複数系列の読取画素信号を並列に出力する複数列のラインセンサを含むイメージセンサと、前記被読取媒体に対して前記イメージセンサを前記副走査方向に相対移動させて前記被読取媒体の表面で反射した光を前記イメージセンサに受光させる走査駆動部とを備えた画像読取装置に組み込まれる画像処理装置であって、
前記被読取媒体に対して前記イメージセンサが前記副走査方向に相対移動する走査期間内に一定の時間間隔ごとに前記複数列のラインセンサから並列に出力された前記複数系列の読取画素信号のうち、基準系列の読取画素信号と該基準系列以外の他系列の読取画素信号との間の位相ずれを補正するための画素補間位置を決定する補間位置決定部と、
前記複数系列の読取画素信号に対して系列ごとに補間演算を実行して前記画素補間位置における前記複数の色それぞれの階調値を算出する補間処理部と、
前記複数系列の読取画素信号のうち少なくとも1つの系列の読取画素信号に基づいて前記副走査方向に階調変化を有するエッジの有無を判定するエッジ検出部と
を備え、
前記補間処理部は、前記エッジが有ると判定されたときは、前記基準系列の読取画素信号に対しては、前記画素補間位置及び該画素補間位置からずれた位置のうちいずれか一方の第1の補間位置を基準として設定された加重係数を用いて前記補間演算を実行するとともに、前記他系列の読取画素信号に対しては、前記第1の補間位置とは異なる第2の補間位置を基準として設定された加重係数を用いて前記補間演算を実行する
ことを特徴とする画像処理装置。
For a read medium extending in a main scanning direction and a sub-scanning direction different from the main scanning direction, photoelectric conversion is performed for light of a plurality of different colors arranged at predetermined intervals along the sub-scanning direction. An image sensor including a plurality of lines of line sensors that output a plurality of series of read pixel signals in parallel, and a surface of the read medium by moving the image sensor relative to the read medium in the sub-scanning direction An image processing apparatus incorporated in an image reading apparatus including a scanning drive unit that causes the image sensor to receive light reflected by the image sensor,
Among the plurality of series of read pixel signals output in parallel from the plurality of line sensor at regular time intervals within a scanning period in which the image sensor moves relative to the read medium in the sub-scanning direction. An interpolation position determination unit for determining a pixel interpolation position for correcting a phase shift between the read pixel signal of the reference series and the read pixel signal of other series other than the reference series;
An interpolation processing unit that performs an interpolation operation for each of the plurality of read pixel signals and calculates a gradation value of each of the plurality of colors at the pixel interpolation position;
An edge detection unit that determines the presence or absence of an edge having a gradation change in the sub-scanning direction based on at least one series of read pixel signals among the plurality of series of read pixel signals;
When it is determined that the edge is present, the interpolation processing unit, with respect to the read pixel signal of the reference series, the first one of the pixel interpolation position and the position shifted from the pixel interpolation position. The interpolation calculation is performed using a weighting coefficient set with reference to the interpolation position of the second interpolation position, and a second interpolation position different from the first interpolation position is used as a reference for the read pixel signals of the other series. An image processing apparatus that performs the interpolation operation using a weighting coefficient set as.
請求項11に記載の画像処理装置であって、前記エッジ検出部による検出結果に応じて、前記第1の補間位置及び前記第2の補間位置を個別に制御する補間位置制御部をさらに備えることを特徴とする画像処理装置。   The image processing apparatus according to claim 11, further comprising an interpolation position control unit that individually controls the first interpolation position and the second interpolation position in accordance with a detection result by the edge detection unit. An image processing apparatus. 請求項12に記載の画像処理装置であって、
前記エッジが有ると判定されたときに当該エッジの位置を検出するエッジ位置検出部をさらに備え、
前記補間位置制御部は、当該エッジの検出位置に応じて前記第1の補間位置及び前記第2の補間位置を個別に制御する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 12,
An edge position detector that detects the position of the edge when it is determined that the edge is present;
The said interpolation position control part controls the said 1st interpolation position and the said 2nd interpolation position separately according to the detection position of the said edge, The image processing apparatus characterized by the above-mentioned.
請求項12または13に記載の画像処理装置であって、
前記エッジ検出部は、前記エッジの階調変化量を検出し、
前記補間位置制御部は、前記階調変化量の大きさに応じて前記第1の補間位置及び前記第2の補間位置を個別に制御する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 12 or 13,
The edge detection unit detects a gradation change amount of the edge,
The image processing apparatus, wherein the interpolation position control unit individually controls the first interpolation position and the second interpolation position according to the magnitude of the gradation change amount.
主走査方向と該主走査方向とは異なる副走査方向とに延在する被読取媒体に対して、前記副走査方向に所定間隔で配列され且つ互いに異なる複数の色の光をそれぞれ光電変換して複数系列の読取画素信号を並列に出力する複数列のラインセンサを含むイメージセンサと、前記被読取媒体に対して前記イメージセンサを前記副走査方向に相対移動させて前記被読取媒体の表面で反射した光を前記イメージセンサに受光させる走査駆動部とを備える画像読取装置における画像処理方法であって、
前記被読取媒体に対して前記イメージセンサが前記副走査方向に相対移動する走査期間内に一定の時間間隔ごとに前記複数列のラインセンサから並列に出力された前記複数系列の読取画素信号のうち、基準系列の読取画素信号と該基準系列以外の他系列の読取画素信号との間の位相ずれを補正するための画素補間位置を決定するステップと、
前記複数系列の読取画素信号のうち少なくとも1つの系列の読取画素信号に基づいて前記副走査方向に階調変化を有するエッジの有無を判定するステップと、
前記エッジが有ると判定されたとき、前記基準系列の読取画素信号に対して、前記画素補間位置及び該画素補間位置からずれた位置のうちいずれか一方の第1の補間位置を基準として設定された加重係数を用いた補間演算を実行することにより前記画素補間位置における前記基準系列に対応した色の階調値を算出するステップと、
前記エッジが有ると判定されたとき、前記他系列の読取画素信号に対して、前記第1の補間位置とは異なる第2の補間位置を基準として設定された加重係数を用いた補間演算を実行することにより前記画素補間位置における前記他系列に対応した色の階調値を算出するステップと
を備えることを特徴とする画像処理方法。
For a read medium extending in a main scanning direction and a sub-scanning direction different from the main scanning direction, light of a plurality of different colors arranged in the sub-scanning direction at different intervals is photoelectrically converted. An image sensor including a plurality of lines of line sensors that output a plurality of series of read pixel signals in parallel, and the image sensor is moved relative to the read medium in the sub-scanning direction and reflected by the surface of the read medium. An image processing method in an image reading apparatus comprising a scanning drive unit that causes the image sensor to receive the light that has been obtained,
Among the plurality of series of read pixel signals output in parallel from the plurality of line sensor at regular time intervals within a scanning period in which the image sensor moves relative to the read medium in the sub-scanning direction. Determining a pixel interpolation position for correcting a phase shift between a read pixel signal of a reference series and a read pixel signal of another series other than the reference series;
Determining the presence or absence of an edge having a gradation change in the sub-scanning direction based on at least one series of read pixel signals among the plurality of series of read pixel signals;
When it is determined that the edge is present, the reference series read pixel signal is set with the first interpolation position as one of the pixel interpolation position and the position shifted from the pixel interpolation position as a reference. Calculating a tone value of a color corresponding to the reference series at the pixel interpolation position by performing an interpolation operation using the weighting coefficient,
When it is determined that the edge is present, an interpolation operation using a weighting coefficient set with reference to a second interpolation position different from the first interpolation position is performed on the read pixel signals of the other series And calculating a color gradation value corresponding to the other series at the pixel interpolation position.
請求項15に記載の画像処理方法であって、
前記エッジが有ると判定されたときに当該エッジの位置を検出するステップと、
当該エッジの検出位置に応じて前記第1の補間位置及び前記第2の補間位置を個別に制御するステップと
をさらに備えることを特徴とする画像処理方法。
The image processing method according to claim 15, comprising:
Detecting the position of the edge when it is determined that the edge is present;
And a step of individually controlling the first interpolation position and the second interpolation position in accordance with the detected position of the edge.
請求項15または16に記載の画像処理方法であって、
前記エッジの階調変化量を検出するステップと、
前記階調変化量の大きさに応じて前記第1の補間位置及び前記第2の補間位置を個別に制御するステップと
をさらに備えることを特徴とする画像処理方法。
The image processing method according to claim 15 or 16,
Detecting a gradation change amount of the edge;
And a step of individually controlling the first interpolation position and the second interpolation position in accordance with the magnitude of the gradation change amount.
主走査方向と該主走査方向とは異なる副走査方向とに延在する被読取媒体に対して、前記副走査方向に所定間隔で配列され且つ互いに異なる複数の色の光をそれぞれ光電変換して複数系列の読取画素信号を並列に出力する複数列のラインセンサを含むイメージセンサと、前記被読取媒体に対して前記イメージセンサを前記副走査方向に相対移動させて前記被読取媒体の表面で反射した光を前記イメージセンサに受光させる走査駆動部と、前記被読取媒体に対して前記イメージセンサが前記副走査方向に相対移動する走査期間内に一定の時間間隔ごとに前記複数列のラインセンサから並列に出力された前記複数系列の読取画素信号に基づいて画像データを生成する画像処理部とを備えた画像読取装置において、前記画像処理部に画像処理を実行させるコンピュータプログラムであって、
該コンピュータプログラムは、前記画像処理部によりコンピュータ読み取り可能な記録媒体から読み出されて実行されるものであり、
前記画像処理は、
前記複数系列の読取画素信号のうちの基準系列の読取画素信号と該基準系列以外の他系列の読取画素信号との間の位相ずれを補正するための画素補間位置を決定する補間位置決定処理と、
前記複数系列の読取画素信号のうち少なくとも1つの系列の読取画素信号に基づいて前記副走査方向に階調変化を有するエッジの有無を判定するエッジ検出処理と、
前記エッジが有ると判定されたとき、前記基準系列の読取画素信号に対して、前記画素補間位置及び該画素補間位置からずれた位置のうちいずれか一方の第1の補間位置を基準として設定された加重係数を用いた補間演算を実行することにより前記画素補間位置における前記基準系列に対応した色の階調値を算出する第1の補間処理と、
前記エッジが有ると判定されたとき、前記他系列の読取画素信号に対して、前記第1の補間位置とは異なる第2の補間位置を基準として設定された加重係数を用いた補間演算を実行することにより前記画素補間位置における前記他系列に対応した色の階調値を算出する第2の補間処理と
を含むことを特徴とするコンピュータプログラム。
For a read medium extending in a main scanning direction and a sub-scanning direction different from the main scanning direction, light of a plurality of different colors arranged in the sub-scanning direction at different intervals is photoelectrically converted. An image sensor including a plurality of lines of line sensors that output a plurality of series of read pixel signals in parallel, and the image sensor is moved relative to the read medium in the sub-scanning direction and reflected by the surface of the read medium. A scanning drive unit that causes the image sensor to receive the received light, and the line sensors of the plurality of rows at regular time intervals within a scanning period in which the image sensor moves relative to the read medium in the sub-scanning direction. An image reading apparatus comprising: an image processing unit configured to generate image data based on the plurality of series of read pixel signals output in parallel; and performing image processing on the image processing unit A computer program to,
The computer program is read from a computer-readable recording medium by the image processing unit and executed.
The image processing is
An interpolation position determination process for determining a pixel interpolation position for correcting a phase shift between a read pixel signal of a reference series among the read pixel signals of the plurality of series and a read pixel signal of a series other than the reference series; ,
Edge detection processing for determining the presence or absence of an edge having a gradation change in the sub-scanning direction based on at least one series of read pixel signals among the plurality of series of read pixel signals;
When it is determined that the edge is present, the reference series read pixel signal is set with the first interpolation position as one of the pixel interpolation position and the position shifted from the pixel interpolation position as a reference. A first interpolation process for calculating a tone value of a color corresponding to the reference series at the pixel interpolation position by executing an interpolation operation using the weighting coefficient;
When it is determined that the edge is present, an interpolation operation using a weighting coefficient set with reference to a second interpolation position different from the first interpolation position is performed on the read pixel signals of the other series And a second interpolation process for calculating a gradation value of a color corresponding to the other series at the pixel interpolation position.
請求項18に記載のコンピュータプログラムであって、
前記画像処理は、
前記エッジが有ると判定されたときに当該エッジの位置を検出するエッジ位置検出処理と、
当該エッジの検出位置に応じて前記第1の補間位置及び前記第2の補間位置を個別に制御する第1の補間位置制御処理と
をさらに含むことを特徴とするコンピュータプログラム。
A computer program according to claim 18, comprising:
The image processing is
Edge position detection processing for detecting the position of the edge when it is determined that the edge is present;
A computer program further comprising: a first interpolation position control process for individually controlling the first interpolation position and the second interpolation position in accordance with a detection position of the edge.
請求項18または19に記載のコンピュータプログラムであって、
前記画像処理は、
前記エッジの階調変化量を検出する処理と、
前記階調変化量の大きさに応じて前記第1の補間位置及び前記第2の補間位置を個別に制御する第2の補間位置制御処理と
を含むことを特徴とするコンピュータプログラム。
A computer program according to claim 18 or 19, comprising:
The image processing is
A process of detecting a gradation change amount of the edge;
A computer program comprising: a second interpolation position control process for individually controlling the first interpolation position and the second interpolation position in accordance with the magnitude of the gradation change amount.
JP2012093273A 2012-04-16 2012-04-16 Image reading apparatus, image processing apparatus, image processing method, and computer program Active JP5950670B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012093273A JP5950670B2 (en) 2012-04-16 2012-04-16 Image reading apparatus, image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012093273A JP5950670B2 (en) 2012-04-16 2012-04-16 Image reading apparatus, image processing apparatus, image processing method, and computer program

Publications (3)

Publication Number Publication Date
JP2013223087A JP2013223087A (en) 2013-10-28
JP2013223087A5 JP2013223087A5 (en) 2015-05-28
JP5950670B2 true JP5950670B2 (en) 2016-07-13

Family

ID=49593773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012093273A Active JP5950670B2 (en) 2012-04-16 2012-04-16 Image reading apparatus, image processing apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP5950670B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7207041B2 (en) * 2019-03-14 2023-01-18 株式会社リコー Image reading device, image reading method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3861498B2 (en) * 1999-03-19 2006-12-20 コニカミノルタビジネステクノロジーズ株式会社 Black edge discrimination device and image processing device
JP2001203900A (en) * 2000-01-21 2001-07-27 Minolta Co Ltd Image reader

Also Published As

Publication number Publication date
JP2013223087A (en) 2013-10-28

Similar Documents

Publication Publication Date Title
JP4066484B2 (en) Image processing apparatus, image processing method, and camera
USRE47062E1 (en) Image processing apparatus and method for generating a restoration image
KR101012537B1 (en) Solid-state image sensor
JP4289419B2 (en) Imaging device, defective pixel correction device, processing method thereof, and program
JP4803156B2 (en) SIGNAL PROCESSING DEVICE FOR SOLID-STATE IMAGING ELEMENT, IMAGING DEVICE HAVING SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD, AND PROGRAM
US20030197793A1 (en) Imaging device
US8363294B2 (en) Image processing apparatus and method of controlling the same
JP5096291B2 (en) Image reading apparatus, image forming apparatus, and image data processing program
JP2012019356A (en) Image reader
JP4548390B2 (en) Imaging apparatus and signal processing method
JP2006345527A (en) Color image correcting method and image processing system
JP5950670B2 (en) Image reading apparatus, image processing apparatus, image processing method, and computer program
JPWO2006059365A1 (en) Image processing device, non-imaging color signal calculation device, and image processing method
JP4302391B2 (en) Pixel interpolation device, pixel interpolation method, and digital camera
US9892487B1 (en) Method and apparatus for combining pixel values in array including linear pixels and logarithmic pixels
JP4303525B2 (en) Interpolated pixel generation apparatus and method
JP5590911B2 (en) Image reading apparatus and method
JPH1032722A (en) Picture reader
JP5223400B2 (en) Image reading device
JP3709733B2 (en) Image processing device
JP2023050437A (en) Image reading device, image reading method, and image processing device
JP2005168044A (en) Image scanner
JP3406674B2 (en) Two-chip imaging device
JP5206396B2 (en) Image processing device
JP2005210274A (en) Pixel signal processing method and apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150414

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160607

R150 Certificate of patent or registration of utility model

Ref document number: 5950670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250