JP6246379B2 - Image processing apparatus, image processing method, image reading apparatus, and program - Google Patents

Image processing apparatus, image processing method, image reading apparatus, and program Download PDF

Info

Publication number
JP6246379B2
JP6246379B2 JP2016546342A JP2016546342A JP6246379B2 JP 6246379 B2 JP6246379 B2 JP 6246379B2 JP 2016546342 A JP2016546342 A JP 2016546342A JP 2016546342 A JP2016546342 A JP 2016546342A JP 6246379 B2 JP6246379 B2 JP 6246379B2
Authority
JP
Japan
Prior art keywords
low
frequency
image data
data
scanning direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016546342A
Other languages
Japanese (ja)
Other versions
JPWO2016035387A1 (en
Inventor
まさ子 浅村
まさ子 浅村
善隆 豊田
善隆 豊田
聡 山中
聡 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2016035387A1 publication Critical patent/JPWO2016035387A1/en
Application granted granted Critical
Publication of JP6246379B2 publication Critical patent/JP6246379B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits

Description

本発明は、被読取物を複数のラインセンサでスキャンすることによって得られた画像データを結合して被読取物に対応する合成画像データを生成する画像処理装置、画像処理方法、及び画像読取装置、並びに、前記画像データを結合させる処理をコンピュータに実行させるプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image reading apparatus that combine image data obtained by scanning a read object with a plurality of line sensors to generate composite image data corresponding to the read object. The present invention also relates to a program for causing a computer to execute processing for combining the image data.

被読取物を主走査方向にライン状に並ぶ複数の撮像素子を有するラインセンサ(一次元撮像素子)によってスキャンして、被読取物に対応する画像データを生成する画像読取装置が、複写機、スキャナ、及びファクシミリ等に広く使用されている。例えば、特許文献1(特開2011−50039号公報)及び特許文献2(特開2006−140599号公報)に示されているように、主走査方向(ラインセンサが配列された方向)にライン状に間隔を開けて配列された複数台のラインセンサから成る第1列のラインセンサ群及び第2列のラインセンサ群を、隣接するラインセンサの端部が互いに重複(オーバーラップ)するように、千鳥状に配列した画像読取装置がある。   An image reading apparatus that scans a reading object with a line sensor (one-dimensional imaging element) having a plurality of imaging elements arranged in a line in the main scanning direction and generates image data corresponding to the reading object is a copying machine, Widely used in scanners and facsimiles. For example, as shown in Patent Document 1 (Japanese Patent Laid-Open No. 2011-50039) and Patent Document 2 (Japanese Patent Laid-Open No. 2006-140599), a line shape is formed in the main scanning direction (direction in which line sensors are arranged). The line sensor group in the first row and the line sensor group in the second row composed of a plurality of line sensors arranged with a space between each other, so that the ends of the adjacent line sensors overlap each other (overlap). There is an image reading device arranged in a staggered pattern.

このような画像読取装置では、読取られた画像データは、原稿を主走査方向の複数の領域に分割して得られた副走査方向に長い矩形形状の領域の画像データになる。言い換えれば、このような画像読取装置によって読取られた画像データは、ラインセンサ毎に副走査方向に長い矩形形状の領域の画像データを、主走査方向に複数個並べたような画像データになる。そのため、複数のラインセンサにより読取られた複数の画像データに対する処理として、第1の画像データと複数の第2の画像データそれぞれとのオーバーラップ部分を比較し、複数の画像データの中から差分の最も小さい第2の画像データを選択することで、副走査方向の画像ずれを補正する技術(例えば、特許文献1)、及び、調整用原稿の直線画像パターンを読取り、重複範囲における画素数の差分から隣接したセンサ同士の副走査方向に沿った位置ずれを計測し、この計測の結果から隣接したセンサ間の画像の合成に要する遅延時間を決定する技術(例えば、特許文献2)を用いて、画像データの副走査方向(スキャンする方向)の位置ずれを求め、画像データの副走査方向の位置を合わせることで、画像データを繋ぎ合せて、被読取物に対応する合成画像データを生成している。   In such an image reading apparatus, the read image data is image data of a rectangular region long in the sub-scanning direction obtained by dividing the document into a plurality of regions in the main scanning direction. In other words, the image data read by such an image reading device is image data in which a plurality of image data of rectangular regions that are long in the sub-scanning direction are arranged in the main scanning direction for each line sensor. Therefore, as processing for a plurality of image data read by a plurality of line sensors, an overlap portion between the first image data and each of the plurality of second image data is compared, and a difference is determined from the plurality of image data. A technique for correcting image shift in the sub-scanning direction by selecting the smallest second image data (for example, Patent Document 1) and a linear image pattern of an adjustment document are read, and the difference in the number of pixels in the overlapping range Using the technique (for example, patent document 2) which measures the position shift along the sub-scanning direction of adjacent sensors from the sensor, and determines the delay time required for the synthesis | combination of the image between adjacent sensors from the result of this measurement, By obtaining the positional deviation of the image data in the sub-scanning direction (scanning direction) and aligning the position of the image data in the sub-scanning direction, the image data are joined and read. And it generates a composite image data corresponding to the object.

特開2011−50039号公報(段落0040〜0041、図9)JP2011-50039 (paragraphs 0040-0041, FIG. 9) 特開2006−140599号公報(段落0073〜0075、0081〜0084、図3)JP 2006-140599 A (paragraphs 0073 to 0075, 0081 to 0084, FIG. 3)

上述したように、特許文献1及び特許文献2の画像読取装置においては、ラインセンサが重複して読取る画像データを比較し、画像データが一致する副走査方向の位置を検出することによって、隣接するラインセンサによって生成された2つの画像データの副走査方向の位置ずれを求めていた。   As described above, in the image reading apparatuses of Patent Document 1 and Patent Document 2, the image data read by the line sensors are compared, and the adjacent image data are detected by detecting the position in the sub-scanning direction where the image data matches. The positional deviation in the sub-scanning direction between the two image data generated by the line sensor has been obtained.

しかしながら、上記画像読取装置においては、ラインセンサ毎に性能のばらつき及び照明分布などの読取り条件の違いがあるため、ラインセンサ間には読取った画像データのレベル差が生じる場合がある。このため、1つのラインセンサの主走査方向の範囲を一単位とみなすと、一単位ごとに主走査方向に取得した画像データのレベル差(すなわち、明暗の差、又は、画素データの値の差である)が現れる。   However, in the image reading apparatus, since there are differences in reading conditions such as performance variation and illumination distribution for each line sensor, there may be a difference in the level of the read image data between the line sensors. For this reason, if the range in the main scanning direction of one line sensor is regarded as one unit, the level difference of image data acquired in the main scanning direction for each unit (that is, the difference in brightness or the difference in pixel data value). Appears).

したがって、ラインセンサにより読取られた画像データのそのままの画素値により、隣接するラインセンサ間のオーバーラップ部分の画像データの比較を行うと、その差分には、隣接するラインセンサ間のレベル差が含まれる。このため、上記画像読取装置においては、隣接するラインセンサが同じ画像を読取ったとしても、読取画像のレベル差による差分が比較結果として検出され、この差分が、副走査方向の位置ずれの誤検出を生じさせ、隣接するラインセンサによって生成された画像データの副走査方向の位置ずれを適切に検出できないという問題があった。   Therefore, when the image data of the overlap portion between the adjacent line sensors is compared with the pixel value as it is of the image data read by the line sensor, the difference includes the level difference between the adjacent line sensors. It is. For this reason, in the image reading apparatus, even if the adjacent line sensors read the same image, a difference due to the level difference of the read image is detected as a comparison result, and this difference is erroneously detected as a positional deviation in the sub-scanning direction. There is a problem that the positional deviation in the sub-scanning direction of the image data generated by the adjacent line sensors cannot be properly detected.

本発明は、上記従来技術の課題を解決するためになされたものであり、その目的は、各列のラインセンサにより読取られる画像データ間の副走査方向の位置ずれを検出する際に、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響を抑えて、副走査方向の位置ずれの誤検出がなく、精度よく画像の位置ずれを求め、被読取物に対応する高品質な合成画像データを生成することができる画像処理装置、画像処理方法、及び画像読取装置、並びに、前記画像データを結合する処理をコンピュータに実行させるプログラムを提供することである。   The present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to detect a positional deviation in the sub-scanning direction between image data read by the line sensors in each column. High-quality composite image corresponding to the object to be read by suppressing the influence of level differences caused by differences in performance and reading conditions, and detecting misalignment in the sub-scanning direction without misdetection of the image. An object is to provide an image processing apparatus, an image processing method, and an image reading apparatus capable of generating data, and a program for causing a computer to execute processing for combining the image data.

本発明の一態様に係る画像処理装置は、主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部によって生成された画像データを処理する画像処理装置であって、前記複数のラインセンサからの出力に基づく画像データを格納する画像メモリと、前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去部と、前記低域除去部で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出部と、前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定部と、前記シフト量推定部によって算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理部とを備え、前記低域除去部は、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成することを特徴としている。 An image processing apparatus according to an aspect of the present invention includes a plurality of line sensors arranged in the main scanning direction at least two rows at different positions in the sub-scanning direction, and the end portions of adjacent line sensors in different rows are main. An image processing apparatus that processes image data generated by an imaging unit that is arranged to have overlapping areas within the same range in the scanning direction, and that is configured to output image data based on outputs from the plurality of line sensors. The image data to be stored and the image data in the overlap area of the image data stored in the image memory are determined in advance from image data in a pixel range including the pixel of interest and peripheral pixels of the pixel of interest. The low frequency component, which is a frequency component lower than the detected frequency, is removed, and the image data from which the low frequency component has been removed is removed. -Low band based on low band removal reference data at a predetermined position in the sub-scanning direction in the overlap area and image data from which the low band frequency component is removed in an area overlapping the overlap area of the low band removal reference data. A low-frequency removal unit that obtains low-frequency band removal comparison data, and a process of comparing the low-frequency removal reference data obtained by the low-frequency band removal unit with the low-frequency band removal comparison data, the position of the low-frequency band removal comparison data Is performed on a plurality of low frequency band removal comparison data at a plurality of positions moved in the sub-scanning direction, and a plurality of similarities are calculated between the low frequency band removal reference data and the plurality of low frequency band removal comparison data Sub-run of low-frequency removal comparison data having the highest similarity among the calculation unit, the position of the low-frequency removal reference data in the sub-scanning direction, and the plurality of low-frequency removal comparison data A shift amount estimation unit that calculates shift amount data based on a difference from a direction position, and a sub-scanning direction of image data that is read from the image memory based on the shift amount data calculated by the shift amount estimation unit A combining process for generating composite image data by determining the position of the image data, reading out the image data at the determined position from the image memory, and combining the image data read out by adjacent line sensors in different columns And the low-frequency removing unit includes a plurality of sub-scanning directions at the same position in the main scanning direction as the target pixel from image data in the pixel range of the image data read from the image memory. The low frequency component in the sub-scanning direction is removed based on the image data at the position, and the low frequency component in the sub-scanning direction is removed. The low-frequency removal reference data and the low-frequency removal comparison data are generated .

本発明の他の態様に係る画像処理方法は、主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部によって生成された画像データを処理する画像処理方法であって、前記複数のラインセンサからの出力に基づく画像データを画像メモリに格納する格納ステップと、前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去ステップと、前記低域除去ステップで求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出ステップと、前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定ステップと、前記シフト量推定ステップで算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理ステップとを備え、前記低域除去ステップでは、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成することを特徴とする。 An image processing method according to another aspect of the present invention includes a plurality of line sensors arranged in the main scanning direction at least two rows at different positions in the sub-scanning direction, and ends of adjacent line sensors in different rows are adjacent to each other. An image processing method for processing image data generated by an imaging unit arranged so as to have overlapping areas in the same range in the main scanning direction, the image data based on outputs from the plurality of line sensors Storing in the image memory, and image data in a pixel range including the pixel of interest and peripheral pixels of the pixel of interest with respect to the image data in the overlap region of the image data stored in the image memory The low frequency component, which is a frequency component lower than the predetermined frequency, is removed, and the low frequency component is removed. The low-frequency removal reference data at a predetermined position in the sub-scanning direction in the overlap region of the image data and the low-frequency component in the region overlapping the overlap region of the low-frequency removal reference data are removed. A low-frequency removal step for obtaining low-frequency removal comparison data based on image data, and a process for comparing the low-frequency removal reference data obtained in the low-frequency removal step with the low-frequency removal comparison data. A plurality of low-frequency removal comparison data at a plurality of positions where the position of the removal comparison data is moved in the sub-scanning direction, and a plurality of similarities between the low-frequency removal reference data and the plurality of low-frequency removal comparison data A similarity calculation step for calculating the low-frequency band removal reference data, a position in the sub-scanning direction of the low-frequency band removal reference data, and the highest type of the plurality of low-frequency band removal comparison data A shift amount estimation step for calculating shift amount data based on a difference between the low-frequency removal comparison data having a degree and a position in the sub-scanning direction, and the shift amount data calculated based on the shift amount data calculated in the shift amount estimation step. The position in the sub-scanning direction of the image data read from the image memory is determined, the image data at the determined position is read from the image memory, and the image data read by adjacent line sensors in different columns are combined. A combined processing step of generating composite image data by performing the same, and in the low frequency removing step, the same main pixel as the target pixel is obtained from the image data in the pixel range of the image data read from the image memory. Low frequency component in the sub-scanning direction based on image data at multiple positions in the sub-scanning direction Is generated, and the low-frequency-removal reference data and the low-frequency-removed comparison data from which the low-frequency components in the sub-scanning direction are removed are generated .

本発明の他の態様に係る画像読取装置は、主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部と、前記複数のラインセンサからの出力に基づく画像データを格納する画像メモリと、前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去部と、前記低域除去部で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出部と、前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定部と、前記シフト量推定部によって算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理部とを備え、前記低域除去部は、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成することを特徴としている。 An image reading apparatus according to another aspect of the present invention has a plurality of line sensors arranged in the main scanning direction at least two rows at different positions in the sub-scanning direction, and ends of adjacent line sensors in different rows are adjacent to each other. An image pickup unit arranged so as to have overlapping areas in the same range in the main scanning direction, an image memory storing image data based on outputs from the plurality of line sensors, and stored in the image memory A low frequency component which is a frequency component lower than a predetermined frequency from image data in a pixel range including a target pixel and peripheral pixels of the target pixel with respect to the image data in the overlap region of the image data And a predetermined position in the sub-scanning direction in the overlap region of the image data from which the low frequency component has been removed. A low-frequency removal unit that obtains low-frequency removal reference data in image data and low-frequency removal comparison data based on image data in which the low-frequency components in the region overlapping the overlap region of the low-frequency removal reference data are removed The processing for comparing the low-frequency removal reference data obtained by the low-frequency removal unit and the low-frequency removal comparison data is performed at a plurality of positions where the position of the low-frequency removal comparison data is moved in the sub-scanning direction. A similarity calculator for calculating a plurality of similarities between the plurality of low-frequency removal reference data and the plurality of low-frequency removal comparison data; Shift amount data is calculated based on the difference between the position in the scanning direction and the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity among the plurality of low-frequency removal comparison data. A shift amount estimating unit; and determining a position in the sub-scanning direction of image data read from the image memory based on the shift amount data calculated by the shift amount estimating unit; A combination processing unit that generates composite image data by combining the image data read from the image memory and read by the adjacent line sensors in different columns, and the low-frequency removal unit includes: Low-frequency components in the sub-scanning direction based on image data at a plurality of positions in the sub-scanning direction at the same position in the main scanning direction as the target pixel from image data in the pixel range of the read image data Is generated, and the low-frequency removal reference data and the low-frequency removal comparison data from which the low-frequency components in the sub-scanning direction are removed are generated. It is characterized in that that.

本発明の他の態様に係るプログラムは、主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部によって生成された画像データの処理をコンピュータに実行させるためのプログラムであって、前記複数のラインセンサからの出力に基づく画像データを画像メモリに格納する格納処理と、前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去処理であって、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成する低周波除去処理と、前記低域除去処理で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出処理と、前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定処理と、前記シフト量推定処理で算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理とをコンピュータに実行させることを特徴としている。 A program according to another aspect of the present invention has a plurality of line sensors arranged in the main scanning direction at least two columns at different positions in the sub-scanning direction, and ends of adjacent line sensors in different columns are in the main scanning. A program for causing a computer to process image data generated by an imaging unit arranged so as to have overlapping regions within the same range in a direction, based on outputs from the plurality of line sensors A storage process for storing image data in an image memory, and a pixel range including a target pixel and peripheral pixels of the target pixel with respect to the image data in the overlap region of the image data stored in the image memory. A low frequency component that is a frequency component lower than a predetermined frequency is removed from the image data, and the low frequency The low-frequency removal reference data at a predetermined position in the sub-scanning direction in the overlap region of the image data from which several components have been removed, and the low-frequency region in a region overlapping the overlap region of the low-frequency removal reference data Low-frequency removal processing for obtaining low-frequency removal comparison data based on image data from which frequency components have been removed , wherein the pixel of interest is obtained from image data in the pixel range of the image data read from the image memory. The low-frequency component in the sub-scanning direction is removed based on the image data at a plurality of positions in the sub-scanning direction at the same position in the main-scanning direction, and the low-frequency component in the sub-scanning direction is removed. wherein the frequency canceling reference data wherein the low frequency removal process for generating a low-frequency removal comparative data, the said low-frequency canceling reference data obtained by the low-pass removal process A process of comparing the low-frequency band removal comparison data is performed on a plurality of low-frequency band removal comparison data at a plurality of positions where the position of the low-frequency band removal comparison data is moved in the sub-scanning direction. Similarity calculation processing for calculating a plurality of similarities between the low-frequency band removal comparison data, the position of the low-frequency band removal reference data in the sub-scanning direction, and the highest of the plurality of low-frequency band removal comparison data Based on the difference between the low-frequency removal comparison data having similarity and the position in the sub-scanning direction, based on the shift amount estimation process for calculating shift amount data, and the shift amount data calculated in the shift amount estimation process A position in the sub-scanning direction of image data read from the image memory is determined, the image data at the determined position is read from the image memory, and adjacent lines in different columns It is characterized by causing a computer to execute a combining process for generating composite image data by combining image data read by a sensor.

本発明においては、オーバーラップ領域における画像データに対して、注目画素とその周辺画素とを含む画素範囲における画像データから低域周波数成分を除去し、オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、低域除去基準データのオーバーラップ領域に重複する領域における低域除去比較データとを求め、低域除去基準データと低域除去比較データから求められたシフト量データを用いて、互いに異なる列の隣接するラインセンサによって読み出された画像データを結合している。このため、本発明によれば、ラインセンサ毎の性能及び読取り条件の違いにより生じるラインセンサ間のレベル差の影響を抑えて、副走査方向の位置ずれの誤検出なく、精度よく画像の位置ずれを求めることができ、被読取物に対応する高品質な合成画像データを生成することができる。   In the present invention, the low frequency component is removed from the image data in the pixel range including the target pixel and its surrounding pixels with respect to the image data in the overlap region, and the sub-scanning direction in the overlap region is determined in advance. The shift amount data obtained from the low-frequency removal reference data and the low-frequency removal comparison data are obtained by obtaining the low-frequency removal reference data at the position and the low-frequency removal comparison data in the region overlapping the overlap region of the low-frequency removal reference data. Are used to combine image data read by adjacent line sensors in different columns. For this reason, according to the present invention, it is possible to suppress the influence of the level difference between the line sensors caused by the difference in performance and reading conditions for each line sensor, and to accurately detect the positional deviation of the image without erroneous detection of the positional deviation in the sub-scanning direction. And high-quality composite image data corresponding to the object to be read can be generated.

本発明の実施の形態1に係る画像読取装置の構成を概略的に示す機能ブロック図である。1 is a functional block diagram schematically showing a configuration of an image reading apparatus according to Embodiment 1 of the present invention. (a)及び(b)は、撮像部を説明するための図であり、(a)は、撮像部を構成する第1列のラインセンサ群と第2列のラインセンサ群とを概略的に示す平面図であり、(b)は、第1列のラインセンサ群と第2列のラインセンサ群により読取られた被読取物としての原稿を示す図である。(A) And (b) is a figure for demonstrating an imaging part, (a) shows roughly the 1st line | wire line sensor group and the 2nd line | wire line sensor group which comprise an imaging part. FIG. 6B is a diagram illustrating a document as a reading object read by the first row line sensor group and the second row line sensor group. 図2(a)に示される1個のラインセンサを拡大して示す概略平面図である。It is a schematic plan view which expands and shows one line sensor shown by Fig.2 (a). (a)〜(c)は、原稿がガラス面に密着しているときの状態を示し、(a)は撮像部の概略的な側面図、(b)は撮像部の概略的な平面図及び原稿の平面図、(c)は読取られた画像データを概念的に示す図である。(A)-(c) shows a state when the document is in close contact with the glass surface, (a) is a schematic side view of the imaging unit, (b) is a schematic plan view of the imaging unit, and A plan view of the document, (c) is a diagram conceptually showing the read image data. (a)〜(c)は、原稿がガラス面から離れているときの状態を示し、(a)は撮像部の概略的な側面図、(b)は撮像部の概略的な平面図及び原稿の平面図、(c)は読取られた画像データを概念的に示す図である。(A)-(c) shows a state when the document is separated from the glass surface, (a) is a schematic side view of the imaging unit, (b) is a schematic plan view of the imaging unit and the document (C) is a diagram conceptually showing the read image data. 実施の形態1に係る画像処理装置における低域除去部の一構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a low frequency removing unit in the image processing apparatus according to Embodiment 1. FIG. 実施の形態1の低域除去部において、低域周波数成分を抽出する画素範囲の一例を示す図である。6 is a diagram illustrating an example of a pixel range from which a low-frequency component is extracted in the low-frequency removing unit according to Embodiment 1. FIG. 実施の形態1の低域除去部及び類似度算出部において、原稿がガラス面に密着しているときの動作を説明するための図である。FIG. 6 is a diagram for explaining an operation when a document is in close contact with a glass surface in the low-frequency removing unit and the similarity calculating unit according to the first embodiment. 実施の形態1の低域除去部及び類似度算出部において、原稿がガラス面から離れているときの動作を説明するための図である。FIG. 6 is a diagram for explaining an operation when a document is separated from a glass surface in the low frequency removing unit and the similarity calculating unit according to the first embodiment. 実施の形態1の低域除去部において、出力するオーバーラップ領域の画像データの位置関係を示す図である。FIG. 6 is a diagram illustrating a positional relationship of image data in an overlap region to be output in the low frequency removing unit according to the first embodiment. 実施の形態1の低域除去部の他の構成例である低域除去部の構成例を示すブロック図である。6 is a block diagram illustrating a configuration example of a low-frequency removal unit that is another configuration example of the low-frequency removal unit according to Embodiment 1. FIG. (a)及び(b)は、実施の形態1の類似算出部に関する図であり、(a)は類似度算出の動作を説明するための図、(b)は算出された類似度データ(相関データ)と副走査方向の位置ずれの関係を説明するための図である。(A) And (b) is a figure regarding the similarity calculation part of Embodiment 1, (a) is a figure for demonstrating the operation | movement of similarity calculation, (b) is the calculated similarity data (correlation). It is a figure for demonstrating the relationship between the position shift of data) and a subscanning direction. 実施の形態1の結合処理部における結合動作の一例を示す説明図である。6 is an explanatory diagram illustrating an example of a combining operation in the combining processing unit according to the first embodiment. FIG. (a)及び(b)は、実施の形態1の結合処理部における結合動作の他の例を示す説明図である。(A) And (b) is explanatory drawing which shows the other example of the coupling | bonding operation | movement in the coupling | bonding process part of Embodiment 1. FIG. 結合処理部から出力される画像データを概念的に示す図である。It is a figure which shows notionally the image data output from a joint process part. (a)及び(b)は、撮像部を搬送中に、原稿の位置が変わる例を示す図である。(A) And (b) is a figure which shows the example from which the position of a document changes during conveyance of an imaging part. 実施の形態2に係る画像処理装置における低域除去部の一構成例を示すブロック図である。6 is a block diagram illustrating a configuration example of a low frequency removing unit in an image processing apparatus according to Embodiment 2. FIG. 実施の形態2の低域除去部の他の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating another configuration example of the low-frequency removal unit according to the second embodiment. 本発明の実施の形態3に係る画像読取装置及び画像処理装置の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the image reading apparatus and image processing apparatus which concern on Embodiment 3 of this invention. 実施の形態3の演算装置による処理手順の一例を概略的に示すフローチャートである。12 is a flowchart schematically illustrating an example of a processing procedure performed by the arithmetic device according to the third embodiment. (a)及び(b)は、本発明の実施の形態4に係る画像読取装置の撮像部の構成を概略的に示す側面図である。(A) And (b) is a side view which shows roughly the structure of the imaging part of the image reader which concerns on Embodiment 4 of this invention. 実施の形態4の撮像部により読取られた画像データの一例を示す図である。FIG. 10 is a diagram illustrating an example of image data read by an imaging unit according to a fourth embodiment. 実施の形態4において、一定量の副走査方向の位置ずれを補正後の画像データを説明するための図である。In Embodiment 4, it is a figure for demonstrating the image data after correct | amending the position shift of a fixed amount of subscanning directions.

実施の形態1.
図1は、本発明の実施の形態1に係る画像読取装置1の構成を概略的に示す機能ブロック図である。図1に示されるように、実施の形態1に係る画像読取装置1は、撮像部2と、A/D変換部3と、画像処理部4とを備えている。画像処理部4は、実施の形態1に係る画像処理装置(実施の形態1に係る画像処理方法を実施することができる装置)であり、画像メモリ41と、低域除去部42と、類似度算出部43と、シフト量推定部44と、結合処理部45とを備えている。
Embodiment 1 FIG.
FIG. 1 is a functional block diagram schematically showing a configuration of an image reading apparatus 1 according to Embodiment 1 of the present invention. As shown in FIG. 1, the image reading apparatus 1 according to the first embodiment includes an imaging unit 2, an A / D conversion unit 3, and an image processing unit 4. The image processing unit 4 is an image processing apparatus according to the first embodiment (an apparatus that can perform the image processing method according to the first embodiment), and includes an image memory 41, a low-frequency removal unit 42, and a similarity degree A calculation unit 43, a shift amount estimation unit 44, and a combination processing unit 45 are provided.

撮像部2は、主走査方向に間隔を開けて(例えば、ライン状に)並ぶ複数(例えば、n個)の第1列のラインセンサを含む第1列のラインセンサ群(後述する図2(a)に符号21O又は21Eとして示される)と、主走査方向に間隔を開けて(例えば、ライン状に)並ぶ複数(例えば、n個)の第2列のラインセンサを含む第2列のラインセンサ群(図2(a)に符号21E又は21Oとして示される)とを備えている。ここで、nは、正の整数である。複数の第1列のラインセンサの主走査方向の位置は、複数の第2列のラインセンサが備えられていない領域、すなわち、主走査方向に隣接する第2列のラインセンサの間の領域、に対向する位置であり、複数の第2列のラインセンサの主走査方向の位置は、複数の第1列のラインセンサが備えられていない領域、すなわち、主走査方向に隣接する第1列のラインセンサの間の領域、に対向する位置となる。その結果、複数の第1列のラインセンサと複数の第2列のラインセンサとは、センサ基板上に千鳥状に配列される。また、複数の第1列のラインセンサと複数の第2列のラインセンサのうちの互いに隣接する第1列のラインセンサと第2列のラインセンサとは、隣接する端部同士(図2(a)において、最も近い位置にある端部srと端部sl)が、主走査方向における同じ範囲内で重なる重複領域(「オーバーラップ領域」とも呼ぶ。)を有するよう配置される。   The imaging unit 2 includes a first row of line sensor groups including a plurality of (eg, n) first row line sensors arranged at intervals (eg, in a line) in the main scanning direction (see FIG. 2 (described later)). a) and a second row of lines including a plurality of (eg, n) second row line sensors arranged at intervals (eg, in a line) in the main scanning direction. A sensor group (indicated as 21E or 21O in FIG. 2A). Here, n is a positive integer. The positions of the plurality of first row line sensors in the main scanning direction are regions where the plurality of second row line sensors are not provided, that is, regions between the second row line sensors adjacent in the main scanning direction, The positions of the plurality of second row line sensors in the main scanning direction are regions where the plurality of first row line sensors are not provided, that is, in the first row adjacent to the main scanning direction. The position is opposite to the area between the line sensors. As a result, the plurality of first row line sensors and the plurality of second row line sensors are arranged in a staggered pattern on the sensor substrate. Of the plurality of first row line sensors and the plurality of second row line sensors, the first row line sensor and the second row line sensor adjacent to each other are adjacent to each other (see FIG. 2 ( In a), the end portion sr and the end portion sl) that are closest to each other are arranged so as to have overlapping regions (also referred to as “overlap regions”) that overlap within the same range in the main scanning direction.

撮像部2は、被読取物としての原稿の画像を光学的に読取り、原稿の画像に対応する電気信号(画像データ)SIを生成する。撮像部2で生成される電気信号(画像データ)SIは、第1列のラインセンサ群を構成する複数の第1列のラインセンサから出力される第1の画像データと、第2列のラインセンサ群を構成する複数の第2のラインセンサから出力される第2の画像データとを含む。なお、第1列のラインセンサ群及び第2列のラインセンサ群と原稿との間には、例えば、第1列のラインセンサ群及び第2列のラインセンサ群のそれぞれに正立像を結像させるレンズなどのような光学系を備えてもよい。   The imaging unit 2 optically reads an image of a document as an object to be read and generates an electrical signal (image data) SI corresponding to the image of the document. The electrical signal (image data) SI generated by the imaging unit 2 includes first image data output from a plurality of first row line sensors constituting the first row line sensor group, and second row lines. And second image data output from a plurality of second line sensors constituting the sensor group. Note that, for example, an erect image is formed on each of the first row line sensor group and the second row line sensor group between the first row line sensor group and the second row line sensor group and the original. An optical system such as a lens may be provided.

以下の説明においては、撮像部2が2列のラインセンサ群を備えた例を説明するが、ラインセンサ群の列数が3列以上の装置にも、本発明は適用可能である。また、本発明は、オーバーラップ領域を有する2個以上のラインセンサを有する撮像部によって被読取物の画像を読取る場合に適用可能である。したがって、本発明は、第1列のラインセンサ群が1個のラインセンサから構成され、第2列のラインセンサ群が1個のラインセンサから構成される場合にも適用可能である。   In the following description, an example in which the imaging unit 2 includes two lines of line sensor groups will be described. However, the present invention can also be applied to an apparatus having three or more line sensor groups. Further, the present invention can be applied to a case where an image of an object to be read is read by an imaging unit having two or more line sensors having an overlap region. Therefore, the present invention can also be applied to the case where the first row line sensor group is composed of one line sensor and the second row line sensor group is composed of one line sensor.

図2(a)及び(b)は、撮像部2を説明するための図であり、図2(a)は、撮像部2を概略的に示す平面図であり、図2(b)は、被読取物としての原稿60を示す平面図である。図2(a)は、例えば、複写機の原稿台ガラス(以下「ガラス面」という)26を上から見た状態を示している。図3は、撮像部2の構成要素の1つであるラインセンサ21Oを使ってラインセンサの構成を説明するための図である。2 (a) and 2 (b) are diagrams for explaining the imaging unit 2, FIG. 2 (a) is a plan view schematically showing the imaging unit 2, and FIG. It is a top view which shows the original 60 as a to-be-read object. FIG. 2A shows, for example, a state in which an original table glass (hereinafter referred to as “glass surface”) 26 of the copying machine is viewed from above. FIG. 3 is a diagram for explaining the configuration of the line sensor using the line sensor 21O 1 which is one of the components of the imaging unit 2.

図2(a)に示されるように、撮像部2は、センサ基板20を有する。センサ基板20には、複数のラインセンサが2列になるように配置されている。センサ基板20において、一方の端部(例えば、左側)から数えて奇数番目に位置するラインセンサ21O,…,21O,…,21Oは、主走査方向(X方向)の直線状に間隔を開けて配置されている。左側の端部から数えて偶数番目に位置するラインセンサ21E,…,21E,…,21Eは、奇数番目に位置するラインセンサ21O,…,21O,…,21Oと主走査方向(X方向)について異なる位置に、主走査方向の直線状に配置される。偶数番目に位置するラインセンサ21E,…,21E,…,21Eと奇数番目に位置するラインセンサ21O,…,21O,…,21Oとは、千鳥状に配列されている。図2(a)において、nは2以上の整数であり、kは1以上n以下の整数である。奇数番目に位置するラインセンサ21O,…,21O,…,21Oは、複数の第1のラインセンサを含む第1列のラインセンサ群(又は、複数の第2のラインセンサを含む第2列のラインセンサ群)を構成し、偶数番目に位置するラインセンサ21E,…,21E,…,21Eは、複数の第2のラインセンサを含む第2列のラインセンサ群(又は、複数の第1のラインセンサを含む第1列のラインセンサ群)を構成する。As illustrated in FIG. 2A, the imaging unit 2 includes a sensor substrate 20. A plurality of line sensors are arranged on the sensor substrate 20 in two rows. In the sensor substrate 20, one end (e.g., left side) line sensor 21O 1 located odd counted from, ..., 21O k, ..., 21O n is linearly interval in the main scanning direction (X-direction) Is opened and placed. Line sensor 21E 1 located to the even-numbered counting from the left end, ..., 21E k, ..., 21E n is the line sensor 21O 1 located odd, ..., 21O k, ..., 21O n main scanning They are arranged linearly in the main scanning direction at different positions in the direction (X direction). Line sensor 21E 1 located even-numbered, ..., 21E k, ..., the line sensor 21O 1 positioned to the odd-numbered and 21E n, ..., 21O k, ..., and 21O n, are staggered. In FIG. 2A, n is an integer of 2 or more, and k is an integer of 1 to n. Line sensor 21O 1 located odd, ..., 21O k, ..., 21O n is the first column line group of sensors comprising a plurality of first line sensor (or first comprises a plurality second line sensor The line sensors 21E 1 ,..., 21E k ,..., 21E n located in the even-numbered line sensors are configured as a second line sensor group (or a plurality of second line sensors) (or 1st line sensor group including a plurality of first line sensors).

図2(a)に示されるように、第1列のラインセンサ群に属する複数の第1のラインセンサ(例えば、21E,…,21E,…,21E)は、第2列のラインセンサ群におけるラインセンサの主走査方向の間隔に対向するように配置され、第2列のラインセンサ群に属する複数のラインセンサ(例えば、21O,…,21O,…,21O)は、第1列のラインセンサ群におけるラインセンサの主走査方向の間隔に対向するように配置されている。また、隣接する第1のラインセンサと第2のラインセンサの隣接する端部同士(端部srとsl)は、主走査方向の位置が同じ位置である(主走査方向において重複する領域である)オーバーラップ領域を有している。As shown in FIG. 2A, the plurality of first line sensors (for example, 21E 1 ,..., 21E k ,..., 21E n ) belonging to the first row line sensor group are arranged in the second row line. A plurality of line sensors (for example, 21O 1 ,..., 21O k ,..., 21O n ) arranged so as to face the interval in the main scanning direction of the line sensors in the sensor group and belonging to the second row line sensor group are The line sensors in the first row of line sensor groups are arranged so as to face the interval in the main scanning direction. Further, the adjacent end portions (end portions sr and sl) of the adjacent first line sensor and the second line sensor have the same position in the main scanning direction (an overlapping region in the main scanning direction). ) It has an overlap area.

図2(a)に示されるように、撮像部2は、搬送部(後述の図4(a)における24)によって副走査方向(Y方向)に移動し、被読取物としての原稿(図4(a)における60)を読取る。また、搬送部24は、撮像部2を固定し、副走査方向の反対方向(−Y方向)に原稿60を搬送させ、被読取物としての原稿を読取る装置であってもよい。ここで、本出願の各実施の形態においては、搬送部24によって撮像部2が矢印Dy方向(図2(a))に移動する場合を説明する。なお、副走査方向(Y方向)は、撮像部2の移動方向を示し(図2(a)の矢印Dy方向)、主走査方向は、奇数番目に位置するラインセンサ21O,…,21O,…,21Oの配列方向、又は、偶数番目に位置するラインセンサ21E,…,21E,…,21Eの配列方向を示す。As shown in FIG. 2A, the imaging unit 2 is moved in the sub-scanning direction (Y direction) by the transport unit (24 in FIG. 4A described later), and the document (FIG. 4) as the object to be read. 60) in (a) is read. Further, the transport unit 24 may be a device that fixes the imaging unit 2, transports the document 60 in the direction opposite to the sub-scanning direction (−Y direction), and reads the document as an object to be read. Here, in each embodiment of the present application, a case will be described in which the imaging unit 2 is moved in the arrow Dy direction (FIG. 2A) by the transport unit 24. Incidentally, the sub-scanning direction (Y-direction) indicates the moving direction of the imaging unit 2 (the arrow Dy direction FIG. 2 (a)), the main scanning direction, the line sensor 21O 1 located odd, ..., 21O k , ..., the arranging direction of 21O n, or line sensor 21E 1 located even-numbered, ..., shown 21E k, ..., the arranging direction of 21E n.

図3に示されるように、ラインセンサ21Oは、受光した光のうちの赤色成分の光を電気信号に変換する複数の赤色用光電変換素子(R光電変換素子)26Rと、受光した光のうちの緑色成分の光を電気信号に変換する複数の緑色用光電変換素子(G光電変換素子)26Gと、受光した光のうちの青色成分の光を電気信号に変換する複数の青色用光電変換素子(B光電変換素子)26Bとを備えている。図3に示されるように、複数のR光電変換素子26Rは、主走査方向(X方向)に直線状に配列され、複数のG光電変換素子26Gは、主走査方向(X方向)に直線状に配列され、複数のB光電変換素子26Bは、主走査方向(X方向)に直線状に配列されている。実施の形態1においては、図3の構成のラインセンサについて説明するが、本発明は、色を識別しない白黒用の光電変換素子が1列に並んだものとしてもよい。また、複数のR光電変換素子26R、複数のG光電変換素子26G、及び複数のB光電変換素子26Bの配列は、図3の例に限定されない。ラインセンサ21Oは、受光した情報を電気信号SI(O)として出力する。また、ラインセンサ21E,21O,…,21O,21Eも同様に、受光した情報を電気信号SI(E),SI(O),…,SI(O),SI(E)として出力する。全てのラインセンサから出力される電気信号を、電気信号SIと表記する。撮像部2から出力された電気信号SIは、A/D変換部3に入力される。As shown in FIG. 3, the line sensor 21O 1 includes a plurality of red photoelectric conversion elements (R photoelectric conversion elements) 26R that convert red component light of received light into an electrical signal, and the received light. A plurality of green photoelectric conversion elements (G photoelectric conversion elements) 26G for converting green component light into electrical signals, and a plurality of blue photoelectric conversions for converting blue component light of received light into electrical signals. And an element (B photoelectric conversion element) 26B. As shown in FIG. 3, the plurality of R photoelectric conversion elements 26R are linearly arranged in the main scanning direction (X direction), and the plurality of G photoelectric conversion elements 26G are linear in the main scanning direction (X direction). The plurality of B photoelectric conversion elements 26B are linearly arranged in the main scanning direction (X direction). In the first embodiment, the line sensor having the configuration shown in FIG. 3 will be described. However, the present invention may be configured such that black-and-white photoelectric conversion elements that do not identify colors are arranged in a line. Further, the arrangement of the plurality of R photoelectric conversion elements 26R, the plurality of G photoelectric conversion elements 26G, and the plurality of B photoelectric conversion elements 26B is not limited to the example of FIG. The line sensor 21O 1 outputs the received information as an electric signal SI (O 1 ). Similarly, the line sensors 21E 1 , 21O 2 ,..., 21O n , 21E n also receive the received information as electrical signals SI (E 1 ), SI (O 2 ),..., SI (O n ), SI (E n ). Electrical signals output from all line sensors are denoted as electrical signal SI. The electrical signal SI output from the imaging unit 2 is input to the A / D conversion unit 3.

奇数番目に位置するラインセンサ21O,…,21O,…,21Oと偶数番目に位置するラインセンサ21E,…,21E,…,21Eとは、一部重複して原稿60を読取るオーバーラップ領域A1,1,A1,2,…,Ak,k,Ak,K+1,Ak+1,K+1,…,An,nを有している。なお、オーバーラップ領域の詳細は、後述する。Line sensor 21O 1 located odd, ..., 21O k, ..., 21O n a line sensor 21E 1 located even-numbered, ..., 21E k, ..., A 21E n, the original 60 and partially overlapping overlap region a 1,1, a 1,2 reading, ..., a k, k, a k, K + 1, a k + 1, K + 1, ..., has a n, a n. Details of the overlap area will be described later.

A/D変換部3は、撮像部2から出力される電気信号SIをデジタルデータ(画像データ)DIに変換する。画像データDIは、画像処理部4に入力され、画像処理部4の画像メモリ41に格納される。   The A / D converter 3 converts the electrical signal SI output from the imaging unit 2 into digital data (image data) DI. The image data DI is input to the image processing unit 4 and stored in the image memory 41 of the image processing unit 4.

図4(a)〜(c)は、画像処理部4内の画像メモリ41に格納される画像データDIを説明するための図である。図4(a)は、奇数番目に位置するラインセンサ21O,…,21O,…,21Oと偶数番目に位置するラインセンサ21E,…,21E,…,21Eの光軸27Oと光軸27Eが交差する位置に原稿60がある場合(すなわち、光軸27Oと27Eを副走査方向(Y方向)に見たときに、光軸27Oと光軸27Eとがガラス面26上で交差する場合)の原稿60とラインセンサの位置関係を示す図である。図4(b)は、原稿60の一例を示す図である。図4(c)は、原稿60とラインセンサが図4(a)の位置関係にある場合に読取られた図4(b)の原稿60に対応する画像データDIを概念的に示す図である。4A to 4C are diagrams for explaining the image data DI stored in the image memory 41 in the image processing unit 4. 4 (a) is a line sensor 21O 1 located odd, ..., 21O k, ..., 21O n a line sensor 21E 1 located even-numbered, ..., 21E k, ..., the optical axis 27O of 21E n And the optical axis 27E intersect with each other (that is, when the optical axes 27O and 27E are viewed in the sub-scanning direction (Y direction), the optical axis 27O and the optical axis 27E are on the glass surface 26). It is a figure which shows the positional relationship of the original document 60 and a line sensor in the case of crossing. FIG. 4B is a diagram illustrating an example of the document 60. FIG. 4C conceptually shows image data DI corresponding to the document 60 of FIG. 4B read when the document 60 and the line sensor are in the positional relationship of FIG. 4A. .

図4(a)は、画像読取装置1の概略的な側面図であり、画像読取装置1を備えた装置(例えば、複写機)を横から見た状態を示している。図2(a)に示される奇数番目に位置するラインセンサ21O,…,21O,…,21Oは、ラインセンサ21Oとも表記し、偶数番目に位置するラインセンサ21E,…,21E,…,21Eは、ラインセンサ21Eとも表記する。発光ダイオード(LED)などの照明光源25で光照射された原稿60の反射光は、光軸27Oに沿ってラインセンサ21Oに向けて進み、光軸27Eに沿ってラインセンサ21Eに向けて進む。副走査方向(Y方向)に搬送される撮像部2は、ガラス面26に置かれた原稿60の反射光を逐次光電変換し、変換した電気信号SIを出力し、A/D変換部3は、その電気信号SIを画像データDIに変換して出力する。FIG. 4A is a schematic side view of the image reading apparatus 1 and shows a state in which an apparatus (for example, a copying machine) including the image reading apparatus 1 is viewed from the side. Line sensor 21O 1 positioned to the odd-numbered as shown in FIG. 2 (a), ..., 21O k, ..., 21O n is also the line sensor 21O expressed, the line sensor 21E 1 located even-numbered, ..., 21E k ,..., 21E n are also expressed as a line sensor 21E. The reflected light of the original 60 irradiated with light from the illumination light source 25 such as a light emitting diode (LED) travels toward the line sensor 21O along the optical axis 27O and travels toward the line sensor 21E along the optical axis 27E. The imaging unit 2 conveyed in the sub-scanning direction (Y direction) sequentially photoelectrically converts the reflected light of the document 60 placed on the glass surface 26 and outputs the converted electric signal SI. The A / D conversion unit 3 The electric signal SI is converted into image data DI and output.

図4(b)に示されるような原稿60を、撮像部2により逐次光電変換し、A/D変換部3によりデジタルデータに変換すると、図4(c)に示されるような画像データDIが画像メモリ41に格納される。画像データDIは、奇数番目に位置するラインセンサ21O,…,21O,…,21Oが生成する画像データDI(O),…,DI(O),…,DI(O)と、偶数番目に位置するラインセンサ21E,…,21E,…,21Eが生成する画像データDI(E),…,DI(E),…,DI(E)とから成る。図4(c)では、奇数番目に位置するラインセンサ21O及び21Ok+1が生成する画像データDI(O)及びDI(Ok+1)と、偶数番目に位置するラインセンサ21E及び21Ek+1が生成する画像データDI(E)及びDI(Ek+1)とを示している。When a document 60 as shown in FIG. 4B is sequentially photoelectrically converted by the imaging unit 2 and converted into digital data by the A / D conversion unit 3, image data DI as shown in FIG. Stored in the image memory 41. Image data DI, the line sensor 21O 1 located odd, ..., 21O k, ..., image data DI (O 1) generated by 21O n, ..., DI (O k), ..., DI (O n) , 21E k ,..., 21E n generate image data DI (E 1 ),..., DI (E k ),..., DI (E n ) generated by the even-numbered line sensors 21E 1 ,. . In FIG. 4C, the image data DI (O k ) and DI (O k + 1 ) generated by the odd-numbered line sensors 21O k and 21O k + 1 and the even-numbered line sensors 21E k and 21E k + 1 are included. Image data DI (E k ) and DI (E k + 1 ) to be generated are shown.

なお、ラインセンサ毎には、性能のばらつき及び照明分布などの読取り条件の違いがあるため、ラインセンサ21O,…,21O,…,21Oが生成する画像データDI(O),…,DI(O),…,DI(O)とラインセンサ21E,…,21E,…,21Eが生成する画像データDI(E),…,DI(E),…,DI(E)とのそれぞれで、ラインセンサ毎に読取った画像データのレベル差(明暗の差、画素データの値の差)が生じる場合がある。このため、同一の画像を読取った場合であっても、画像データDI(O)とDI(E)とでは、画像データにおける画素値(レベル)に差が生じる。Note that the each line sensor, because of the difference in read conditions such as variation and the illumination distribution of the performance, the line sensor 21O 1, ..., 21O k, ..., image data DI (O 1) generated by 21O n, ... , DI (O k), ... , DI (O n) and the line sensor 21E 1, ..., 21E k, ..., image data DI to be generated 21E n (E 1), ... , DI (E k), ..., There may be a difference in level of image data read for each line sensor (brightness / darkness difference, difference in pixel data value) with each of DI (E n ). For this reason, even when the same image is read, there is a difference in the pixel value (level) in the image data between the image data DI (O k ) and DI (E k ).

ここで、オーバーラップ領域A1,1,A1,2,…,Ak,k,Ak,K+1,Ak+1,K+1,…,An,nについて説明する。図2(a)に示されるように、撮像部2が副走査方向(Y方向)に搬送されて原稿60を読取ると、奇数番目に位置するラインセンサ21O,…,21O,…,21Oと偶数番目に位置するラインセンサ21E,…,21E,…,21Eで一部重複した領域(オーバーラップ領域)が読取られる。例えば、ラインセンサ21Oの右端srとラインセンサ21Eの左端slは、原稿60の同じ領域、すなわち、領域A1,1を読取る。同様に、ラインセンサ21Eの右端srとラインセンサ21Oの左端slは、原稿60の同じ領域、すなわち、領域A1,2を読取る。Here, the overlap area A 1,1, A 1,2, ..., A k, k, A k, K + 1, A k + 1, K + 1, ..., A n, n will be described. As shown in FIG. 2A, when the imaging unit 2 is conveyed in the sub-scanning direction (Y direction) and reads the document 60, the odd-numbered line sensors 21O 1 ,..., 21O k ,. line sensor 21E 1 positioned in the n and the even-numbered, ..., 21E k, ..., partially overlapping regions (overlap region) is read at 21E n. For example, the left end sl the right sr and the line sensor 21E 1 of the line sensor 21O 1 has the same area of the document 60, i.e., read the regions A 1, 1. Similarly, the left end sl the right sr and the line sensor 21O 2 line sensors 21E 1 is the same area of the document 60, i.e., read the regions A 1, 2.

図4(b)に示される例で説明すると、ラインセンサ21Oの右端srとラインセンサ21Eの左端slは、ともに原稿60の領域Ak,kを読取り、ラインセンサ21Eの右端srとラインセンサ21Ok+1の左端slは、ともに原稿60の領域Ak,k+1を読取り、ラインセンサ21Ok+1の右端srとラインセンサ21Ek+1の左端slは、ともに原稿60の領域Ak+1,k+1を読取る。Referring to the example shown in FIG. 4 (b), the left end sl the right sr and the line sensor 21E k of the line sensor 21O k are both read the area A k, k of the original 60, and the right end sr line sensor 21E k left sl line sensor 21O k + 1 are both read area a k of the original 60, a k + 1, the left end sl the right sr and the line sensor 21E k + 1 of the line sensor 21O k + 1 are both read the area a k + 1, k + 1 of the document 60.

したがって、ラインセンサ21Oに対応する画像データDI(O)は、原稿60のオーバーラップ領域Ak,kに対応するデジタルデータdを含み、ラインセンサ21Eに対応する画像データDI(E)は、原稿60の領域Ak,kに対応するデジタルデータdを含んでいる。原稿60が、図4(a)で示されるように、ガラス面26に密着している場合、ラインセンサ21Oとラインセンサ21Eの、原稿60の副走査方向(Y方向)についての読取り位置は、ほぼ同じ位置であるため、図4(c)に示されるように、隣接するデジタルデータdとdは、原稿60の副走査方向(Y方向)についての位置ずれの無いデータになる。言い換えれば、ラインセンサ21Oとラインセンサ21Eによって読取られる副走査方向(Y方向)の位置、すなわち、ライン(以下「読取ライン」ともいう)は、隣接するデジタルデータdとdではほぼ同じ位置になり、ラインセンサ21Oとラインセンサ21Eによって読取られた画像データ間の副走査方向の位置ずれ量(ライン数)は、ゼロに近い値となる。Thus, image data DI (O k) corresponding to the line sensor 21O k is the overlap area A k of the document 60, it includes a digital data d r corresponding to k, image data DI (E corresponding to the line sensor 21E k k ) includes digital data d 1 corresponding to the areas A k, k of the document 60. When the document 60 is in close contact with the glass surface 26 as shown in FIG. 4A, the reading positions of the line sensor 21O and the line sensor 21E in the sub-scanning direction (Y direction) of the document 60 are it is almost the same position, as shown in FIG. 4 (c), the digital data d r and d l adjacent will free data position shift of the sub-scanning direction of the document 60 (Y-direction). In other words, the position in the sub-scanning direction to be read by the line sensor 21O and the line sensor 21E (Y-direction), i.e., (hereinafter also referred to as "read line") line is substantially the same position in the digital data d r and d l adjacent Thus, the amount of positional deviation (number of lines) in the sub-scanning direction between the image data read by the line sensor 21O and the line sensor 21E becomes a value close to zero.

また、上述したように、ラインセンサ毎には性能のばらつき及び照明分布などの読取り条件の違いがあると、ラインセンサ21Oに対応する画像データDI(O)に含まれるオーバーラップ領域Ak,kに対応するデジタルデータdと、ラインセンサ21Eに対応する画像データDI(E)に含まれる領域Ak,kに対応するデジタルデータdとでは、同じ原稿60の領域Ak,kを読取っていても、画像データの値にレベル差が生じることになる。Further, as described above, when the each line sensor there is a difference of reading conditions, such as variations and lighting distribution performance, the overlap area A k included in the image data DI (O k) corresponding to the line sensor 21O k , a digital data d r corresponding to k, the area a k included in the image data DI (E k) corresponding to the line sensor 21E k, in the digital data d l corresponding to k, the area a k of the same document 60 , K is read, a level difference occurs in the value of the image data.

次に、原稿60がガラス面26から離れることにより原稿60とラインセンサの位置関係が、図4(a)に示される場合と異なる場合について説明する。図5(a)〜(c)は、画像メモリ41に格納される画像データDIを説明するための図である。図5(a)は、原稿60がガラス面26から浮いて(離れて)おり、奇数番目に位置するラインセンサ21O,…,21O,…,21Oの光軸と偶数番目に位置するラインセンサ21E,…,21E,…,21Eの光軸とが交差する位置とは違う位置に、原稿60がある場合における、原稿60とラインセンサの位置関係を示す図である。図5(b)は、原稿60の一例を示す図であり、図5(c)は、原稿60とラインセンサが図5(a)の位置関係にある場合の図5(b)の原稿60に対応する画像データDIを概念的に示す図である。Next, a case where the positional relationship between the original 60 and the line sensor is different from the case shown in FIG. 4A when the original 60 is separated from the glass surface 26 will be described. FIGS. 5A to 5C are diagrams for explaining the image data DI stored in the image memory 41. 5 (a) is, document 60 is floated from the glass surface 26 Cage (apart), the line sensor 21O 1 located odd, ..., 21O k, ..., is positioned on the optical axis and the even-numbered 21O n line sensor 21E 1, ..., 21E k, ..., a position different from the position where the optical axis intersects the 21E n, in the case where there is a document 60 is a diagram showing the positional relationship between the document 60 and the line sensor. FIG. 5B is a diagram showing an example of the original 60. FIG. 5C is an original 60 shown in FIG. 5B when the original 60 and the line sensor are in the positional relationship shown in FIG. 5A. It is a figure which shows notionally the image data DI corresponding to.

原稿60がガラス面26から浮いている場合であっても、平面図で見た場合のラインセンサと原稿60の位置関係は、変わらない。すなわち、原稿60がガラス面26から浮いている場合と、ガラス面26上に密着している場合とでは、各ラインセンサは主走査方向(X方向)については、同じ位置のデータを取得する。したがって、図5(b)では、図4(b)の場合と同様に、ラインセンサ21Oの右端srとラインセンサ21Eの左端slは、ともに原稿60の領域Ak,kを読取り、ラインセンサ21Eの右端srとラインセンサ21Ok+1の左端slは、ともに原稿60の領域Ak,k+1を読取り、ラインセンサ21Ok+1の右端srとラインセンサ21Ek+1の左端slは、ともに原稿60の領域Ak+1,k+1を読取る。Even when the document 60 is lifted from the glass surface 26, the positional relationship between the line sensor and the document 60 when viewed in a plan view is not changed. That is, each line sensor acquires data at the same position in the main scanning direction (X direction) when the document 60 is floating from the glass surface 26 and when it is in close contact with the glass surface 26. Thus, in FIG. 5 (b), the as in the case of FIG. 4 (b), the left sl the right sr and the line sensor 21E k of the line sensor 21O k are both read the area A k, k of the original 60, line rightmost sr and the line sensor 21O k + 1 of the left sl sensor 21E k reads both areas a k of the original 60, a k + 1, the left end sl the right sr and the line sensor 21E k + 1 of the line sensor 21O k + 1 are both regions of the document 60 Read A k + 1, k + 1 .

一方、図5(a)に示されるように、撮像部2の側面図で見た場合、原稿60がガラス面26から浮いているため、奇数番目に位置するラインセンサ21O,…,21O,…,21Oの光軸27Oが原稿60と交わる位置と偶数番目に位置するラインセンサ21E,…,21E,…,21Eの光軸27Eが原稿60と交わる位置が異なる。そのため、原稿60がガラス面26から浮いている場合、副走査方向(Y方向)には、ラインセンサごとで読取り位置が異なる。これは、副走査方向(Y方向)に撮像部2が搬送されるとき、それぞれのラインセンサは、逐次光電変換しているため、偶数番目に位置するラインセンサ21E,…,21E,…,21Eは、奇数番目に位置するラインセンサ21O,…,21O,…,21Oに比べて、同じ位置の画像を時間的に遅れて取得することになるからである。したがって、図5(c)に示されるように、奇数番目に位置するラインセンサ21O,21Ok+1に対応する画像データDI(O),DI(Ok+1)と偶数番目に位置するラインセンサ21E,21Ek+1に対応する画像データDI(E),DI(Ek+1)とは、副走査方向の位置(ライン)がずれて(画像データDI(O),DI(Ok+1)に比べ画像データDI(E),DI(Ek+1)が図示の下方向にずれて)、画像メモリ41に格納される。言い換えれば、ラインセンサ21Oとラインセンサ21Eによって読取られる副走査方向(Y方向)の位置は、隣接するデジタルデータdとdでは、画像メモリ41内の副走査方向の位置(ライン)が異なることになり、ラインセンサによって読取られた画像データとの間の副走査方向の位置ずれ量(ライン数)が生じる。また、図4(a)〜(c)の場合と同様に、ラインセンサ毎には性能のばらつき及び照明分布などの読取り条件の違いがあるため、ラインセンサ21Oが読取る画像データDI(O)と、ラインセンサ21Eが読取る画像データDI(E)では、ラインセンサ毎に読取った画像データのレベル差が生じる場合がある。On the other hand, as shown in FIG. 5A, when viewed from the side view of the imaging unit 2, since the document 60 is floating from the glass surface 26, the odd-numbered line sensors 21 </ b> O 1 ,. , ..., the line sensor 21E 1 to the optical axis 27O of 21O n is located at the position and the even-numbered intersecting the document 60, ..., 21E k, ..., a position where the optical axis 27E intersects the document 60 21E n different. Therefore, when the document 60 is floating from the glass surface 26, the reading position is different for each line sensor in the sub-scanning direction (Y direction). This is because the line sensors 21E 1 ,..., 21E k ,... Positioned evenly because each line sensor sequentially performs photoelectric conversion when the imaging unit 2 is conveyed in the sub-scanning direction (Y direction). , 21E n is the line sensor 21O 1 located odd, ..., 21O k, ..., compared to 21O n, is because so that acquiring an image of the same position temporally delayed. Accordingly, as shown in FIG. 5C, the image data DI (O k ) and DI (O k + 1 ) corresponding to the odd-numbered line sensors 21O k and 21O k + 1 and the even-numbered line sensor 21E. The image data DI (E k ) and DI (E k + 1 ) corresponding to k 1 and 21E k + 1 are shifted in position (line) in the sub-scanning direction from (image data DI (O k ) and DI (O k + 1 )). The image data DI (E k ) and DI (E k + 1 ) are shifted downward in the drawing) and stored in the image memory 41. In other words, the position in the sub-scanning direction to be read by the line sensor 21O and the line sensor 21E (Y direction), the adjacent digital data d r and d l, the sub-scanning direction of the position in the image memory 41 (lines) are different As a result, a positional deviation amount (number of lines) in the sub-scanning direction from the image data read by the line sensor occurs. Similarly to the cases of FIGS. 4A to 4C, the line sensor 21O reads image data DI (O k ) because there are differences in reading conditions such as performance variations and illumination distribution among the line sensors. In the image data DI (E k ) read by the line sensor 21E, there may be a level difference between the image data read for each line sensor.

画像読取装置1の画像処理部4は、画像メモリ41と、低域除去部42とを備えている。画像メモリ41は、第1列のラインセンサ群と第2列のラインセンサ群の複数のラインセンサによる出力から生成された、第1の画像データと第2の画像データを格納する。低域除去部42は、画像メモリ41に格納されている画像データDIのうちのオーバーラップ領域における画像データに対しての処理を行う。すなわち、低域除去部42は、オーバーラップ領域における注目画素近傍(すなわち、注目画素と該注目画素の周辺画素とを含む画素範囲)における画像データから低域周波数成分を除去し、この低域周波数成分が除去された画像データのうち、副走査方向の予め決められた位置(所定の副走査位置又は所定のラインとも記す)の基準データと、この基準データと重複して読取られた同じオーバーラップ領域の予め決められたライン数の比較データとを出力する。なお、低域除去部42から出力される基準データ及び比較データは、低域除去基準データ及び低域除去比較データとも言う。また、「注目画素近傍」とは、注目画素と、この注目画素の周囲の予め決められた範囲内の周辺画像と、を含む範囲(画素範囲)を意味する。また、「所定の副走査方向の位置」とは、副走査方向における予め決められた位置を意味する。また、「低域周波数成分」とは、予め設定された(予め決められた)周波数よりも低い周波数の成分を意味する。   The image processing unit 4 of the image reading apparatus 1 includes an image memory 41 and a low frequency removing unit 42. The image memory 41 stores first image data and second image data generated from outputs from a plurality of line sensors in the first row line sensor group and the second row line sensor group. The low frequency removing unit 42 performs processing on the image data in the overlap region of the image data DI stored in the image memory 41. That is, the low-frequency removing unit 42 removes a low-frequency component from the image data in the vicinity of the pixel of interest in the overlap region (that is, a pixel range including the pixel of interest and the peripheral pixels of the pixel of interest). Of the image data from which the components have been removed, reference data at a predetermined position in the sub-scanning direction (also referred to as a predetermined sub-scanning position or a predetermined line) and the same overlap read in duplicate with this reference data Comparison data of a predetermined number of lines in the area is output. Note that the reference data and comparison data output from the low-frequency removal unit 42 are also referred to as low-frequency removal reference data and low-frequency removal comparison data. Further, “near pixel of interest” means a range (pixel range) including the pixel of interest and a peripheral image within a predetermined range around the pixel of interest. The “predetermined position in the sub-scanning direction” means a predetermined position in the sub-scanning direction. The “low frequency component” means a component having a frequency lower than a preset (predetermined) frequency.

また、画像処理部4は、低域除去部42における低域周波数成分の除去処理によって生成された低域除去基準データと低域除去比較データとを比較する処理を、複数の位置の低域除去比較データについて行い、低域除去基準データと副走査方向の複数の位置における低域除去比較データ(すなわち、複数ラインの低域除去比較データ)との間の類似度を算出する類似度算出部43と、低域除去基準データの副走査方向の位置と複数ラインの低域除去比較データとの間の複数の類似度のうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいてシフト量データを算出(推定)するシフト量推定部44とを備えている。   Further, the image processing unit 4 performs a process of comparing the low-frequency removal reference data generated by the low-frequency component removal processing in the low-frequency removing unit 42 with the low-frequency removal comparison data, at a plurality of positions. A similarity calculation unit 43 that performs the comparison data and calculates the similarity between the low-frequency removal reference data and the low-frequency removal comparison data at a plurality of positions in the sub-scanning direction (that is, low-frequency removal comparison data of a plurality of lines). And the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity among the plurality of similarities between the position in the sub-scanning direction of the low-frequency removal reference data and the low-frequency removal comparison data of a plurality of lines And a shift amount estimation unit 44 that calculates (estimates) shift amount data based on the difference between them.

さらに、画像処理部4は、シフト量データに基づいて副走査方向の位置を変えて、画像メモリ41から画像データを読み出し、第1の画像データと第2の画像データとを結合する結合処理部45とを備えている。   Further, the image processing unit 4 changes the position in the sub-scanning direction based on the shift amount data, reads the image data from the image memory 41, and combines the first image data and the second image data. 45.

画像処理部4内の低域除去部42と類似度算出部43、及びシフト量推定部44では、画像メモリ41に格納されている画像データDIのうちのオーバーラップ領域における画像データに対しての処理を行う。すなわち、画像処理部4の低域除去部42から類似度算出部43、シフト量推定部44での処理により、オーバーラップ領域における注目画素とその周辺画素を含む画素範囲における画像データの低域周波数成分を除去し、この低域周波数成分が除去されたオーバーラップ領域における低域除去基準データと複数の低域除去比較データとを比較して複数の類似度を算出し、複数の類似度のうちの最も類似度の高い低域除去比較データの副走査方向の位置からシフト量データを算出する。そして、画像処理部4内の結合処理部45において、算出されたシフト量データに基づいて画像メモリ41から画像データを読み出し、読み出された画像データの結合処理を行って合成画像データを生成する。以下に、この画像処理部4の構成及び動作をさらに具体的に説明する。   In the low frequency removing unit 42, the similarity calculating unit 43, and the shift amount estimating unit 44 in the image processing unit 4, the image data in the overlap region of the image data DI stored in the image memory 41 is processed. Process. That is, the low frequency of the image data in the pixel range including the target pixel in the overlap region and the surrounding pixels is obtained by the processing from the low frequency removing unit 42 to the similarity calculating unit 43 and the shift amount estimating unit 44 of the image processing unit 4. The component is removed, the low frequency removal reference data in the overlap region from which the low frequency component is removed is compared with a plurality of low frequency removal comparison data, and a plurality of similarities are calculated. The shift amount data is calculated from the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity. Then, the combination processing unit 45 in the image processing unit 4 reads out the image data from the image memory 41 based on the calculated shift amount data, and combines the read image data to generate composite image data. . Hereinafter, the configuration and operation of the image processing unit 4 will be described more specifically.

画像処理部4内の低域除去部42には、画像メモリ41内のオーバーラップ領域における画像データ、すなわち、画像データDIのうち、副走査方向(Y方向)の所定位置yとその前後のラインにおけるオーバーラップ領域(図4及び図5中のd又はd)の画像データrMを読み出し入力する。オーバーラップ領域の画像データrMは、画像メモリ41内のオーバーラップ領域における画像データDIのうち、画像データrMO(低域除去基準データに相当)と、画像データrMOと重複して読取られた同じオーバーラップ領域に位置する画像データrME(低域除去比較データに相当)を含んでいる。The low-frequency removing section 42 of the image processing unit 4, the image data in the overlap area of the image memory 41, i.e., out of the image data DI, a predetermined position y n in the sub-scanning direction (Y direction) the preceding and Image data rM in the overlap region (d r or d l in FIGS. 4 and 5) in the line is read and input. The image data rM in the overlap area is the same overlap read as the image data rMO (corresponding to the low-frequency removal reference data) of the image data DI in the overlap area in the image memory 41 and the image data rMO. It includes image data rME (corresponding to low-frequency removal comparison data) located in the wrap region.

低域除去部42は、オーバーラップ領域における画像データrMに対する処理、すなわち、オーバーラップ領域における注目画素とその周辺画素を含む画素範囲について、画像データの低域周波数成分を画像データから除去して、低域周波数成分を除去された低域除去画像データhM(低域除去基準データhMO及び低域除去比較データhME)を生成する。そして、低域除去部42は、低域除去画像データhMのうち、副走査方向(Y方向)の所定位置Yとその周辺(Y方向1ライン間隔毎及びX方向)の低域除去画像データを低域除去基準データMOとして、低域除去基準データMOと重複して読取られた同じオーバーラップ領域における低域除去基準データMOの副走査方向(Y方向)の位置である基準ラインYを中心として−yから+yまでの範囲((Y−y)から(Y+y)までの範囲)、すなわち、基準ラインYの前後ラインにおける予め決められた検索範囲“−y〜+y”の位置とその周辺(Y方向1ライン間隔毎及びX方向)における低域除去画像データを低域除去比較データMEとし、予め決められたライン数の低域除去基準データMOと低域除去比較データMEとして出力する。The low frequency removing unit 42 performs processing on the image data rM in the overlap region, that is, removes the low frequency component of the image data from the image data for the pixel range including the target pixel and the surrounding pixels in the overlap region, Low-frequency-removed image data hM from which low-frequency components have been removed (low-frequency removal reference data hMO and low-frequency removal comparison data hME) is generated. Then, the low-frequency removal unit 42 of the low-frequency removed image data hM, low-frequency removed image data in the sub-scanning direction position Y m and its surrounding (Y direction one line interval and for each X-direction) of the (Y-direction) Is a reference line Y m which is a position in the sub-scanning direction (Y direction) of the low-frequency removal reference data MO in the same overlap area read overlapping with the low-frequency removal reference data MO. A range from −y to + y as a center (range from (Y m −y) to (Y m + y)), that is, a predetermined search range “−y to + y” in the lines before and after the reference line Y m The low-frequency-removed image data at the position and its surroundings (every line interval in the Y direction and the X-direction) is used as low-frequency-removed comparison data ME, and the low-frequency removal reference data MO and the low-frequency removal comparative data ME having a predetermined number of lines Output as.

ここで、上述したように、ラインセンサ毎の性能及び照明分布などの読取り条件の違いにより、ラインセンサにより読取られた画像データDIには、ラインセンサ間で画像データの値のレベル差(明暗の差、画素データの値の差)が生じる。このラインセンサ間のレベル差を生じさせる各ラインセンサで取得した画像データの値の変化、すなわち、デジタルデータDIの値の変化は、画素ごとで発生するランダムノイズ及び、読取り画像にある副走査方向若しくは主走査方向の1ライン単位又は1画素単位で変化するようなパターン及びエッジ等の輪郭での変化とは異なり、副走査方向あるいは主走査方向に、比較的緩やかに変化する低域周波数成分として現れる。この低域周波数成分は、例えば、副走査方向に数ライン(3ライン以上のライン数)より多くのライン周期に亘り変化するような、画像データの値の変化として扱うことができる。   Here, as described above, due to differences in reading conditions such as the performance of each line sensor and illumination distribution, the image data DI read by the line sensor has a level difference (brightness and darkness) of the value of the image data between the line sensors. Difference, difference in pixel data value). The change in the value of the image data acquired by each line sensor causing the level difference between the line sensors, that is, the change in the value of the digital data DI is caused by random noise generated in each pixel and the sub-scanning direction in the read image. Alternatively, as a low frequency component that changes relatively slowly in the sub-scanning direction or the main scanning direction, unlike a pattern and an edge or the like that change in units of one line or one pixel in the main scanning direction. appear. This low frequency component can be treated as a change in the value of the image data, for example, which changes over a line cycle larger than several lines (the number of lines of 3 lines or more) in the sub-scanning direction.

したがって、低域除去部42において、この緩やかに変化する低域周波数成分をオーバーラップ領域における画像データrMから除くことで、画像処理部4は、ラインセンサ毎の性能及び読取り条件の違いにより生じる取得したオーバーラップ領域における画像データDIの値の変化を除き、重複して読取られた同じオーバーラップ領域の低域除去基準データMOと低域除去比較データMEを、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データとして得ることができる。   Therefore, the low-frequency removing unit 42 removes this slowly changing low-frequency component from the image data rM in the overlap region, so that the image processing unit 4 obtains due to differences in performance and reading conditions for each line sensor. Except for the change in the value of the image data DI in the overlap region, the low-frequency removal reference data MO and the low-frequency removal comparison data ME of the same overlap region, which are read in duplicate, are It can be obtained as image data in which the influence of the level difference caused by the difference is suppressed.

低域除去部42は、例えば、図6に示されるように構成される。低域除去部42は、画像メモリ41から読み出されたオーバーラップ領域における画像データrMに対しての処理を行う。すなわち、低域除去部42は、オーバーラップ領域における画像データrMの低域周波数成分を、画像データrMから除去して低域除去画像データhMを生成し、低域除去画像データhMのうち、オーバーラップ領域の位置に応じて低域除去基準データhMOと低域除去比較データhMEとをそれぞれオーバーラップMO画像メモリ424とオーバーラップME画像メモリ425のいずれかに一時格納し、一時格納されたデータから予め決められたライン数の低域除去基準データMOと低域除去比較データMEを読み出して出力する。   The low frequency removing unit 42 is configured as shown in FIG. 6, for example. The low frequency removing unit 42 performs processing on the image data rM in the overlap area read from the image memory 41. That is, the low-frequency removal unit 42 generates low-frequency-removed image data hM by removing low-frequency components of the image data rM in the overlap region from the image data rM. Depending on the position of the overlap region, the low-frequency removal reference data hMO and the low-frequency removal comparison data hME are temporarily stored in either the overlap MO image memory 424 or the overlap ME image memory 425, respectively. The low frequency band removal reference data MO and the low frequency band removal comparison data ME having a predetermined number of lines are read and output.

図6に示されるように、低域除去部42は、オーバーラップ低域除去部421と、オーバーラップMO画像メモリ424と、オーバーラップME画像メモリ425とを備えている。また、オーバーラップ低域除去部421は、低域周波数成分を抽出する低域成分抽出部422と、減算部423とを備えている。   As shown in FIG. 6, the low frequency removing unit 42 includes an overlap low frequency removing unit 421, an overlap MO image memory 424, and an overlap ME image memory 425. The overlap low frequency removing unit 421 includes a low frequency component extracting unit 422 that extracts a low frequency component and a subtracting unit 423.

低域除去部42におけるオーバーラップ低域除去部421は、画像メモリ41から、オーバーラップ領域における画像データrM(基準画像データrMOと比較画像データrME)を読み出す。オーバーラップ低域除去部421は、オーバーラップ領域における画像データrMに対しての処理を行う。すなわち、オーバーラップ低域除去部421は、画像の低域周波数成分を画像データrMから除去して低域除去画像データhMを生成する。このとき、低域除去画像データhMは、低域周波数成分が除かれた、画像データの副走査方向若しくは主走査方向の1ライン、1画素単位で変化するようなパターン及びエッジ等の輪郭での変化情報を持つ値により構成される画像データとなり、例えば、符号付きの画像データ、又は、所定のオフセット値により正の値へ変換した画像データとなる。   The overlap low-frequency removal unit 421 in the low-frequency removal unit 42 reads out the image data rM (reference image data rMO and comparison image data rME) in the overlap region from the image memory 41. The overlap low frequency removing unit 421 performs processing on the image data rM in the overlap region. That is, the overlap low-frequency removal unit 421 generates low-frequency-removed image data hM by removing low-frequency components of the image from the image data rM. At this time, the low-frequency-removed image data hM is an outline of a pattern and an edge that changes in units of one line and one pixel in the sub-scanning direction or main-scanning direction of the image data from which the low-frequency component is removed The image data is constituted by values having change information, for example, signed image data or image data converted to a positive value by a predetermined offset value.

図7は、低域除去部42において、低域周波数成分を抽出する画素範囲の一例を示す。図7は、低域除去部42での低域成分抽出画素範囲の位置関係を示す。ここで、オーバーラップ低域除去部421で画像の低域周波数成分として抽出する範囲(低域成分抽出範囲)は、例えば、図7に示されるように、画像メモリ41内の副走査方向の所定位置yにおけるオーバーラップ領域の注目画素P0を中心とし、副走査方向9ライン、主走査方向1画素の合計9画素で構成される画素範囲(低域成分抽出範囲)b2である。オーバーラップ低域除去部421は、副走査方向9ラインの範囲(低域成分抽出ライン範囲)における低域周波数成分を得て、低域周波数成分を除去された低域除去画像データhMを生成する。この低域除去画像データhMは、副走査方向の低域周波数成分が除去された低域除去画像データhMとなる。FIG. 7 shows an example of a pixel range in which the low frequency removing unit 42 extracts a low frequency component. FIG. 7 shows the positional relationship of the low-frequency component extraction pixel range in the low-frequency removal unit 42. Here, the range (low-frequency component extraction range) extracted by the overlap low-frequency removing unit 421 as the low-frequency component of the image is, for example, a predetermined value in the sub-scanning direction in the image memory 41 as shown in FIG. the center pixel of interest P0 in the overlap region at position y n, the sub-scanning direction 9 lines, a pixel range composed of nine pixels in the main scanning direction by one pixel (low-frequency component extraction range) b2. The overlap low-frequency removing unit 421 obtains a low-frequency component in the range of nine lines in the sub-scanning direction (low-frequency component extraction line range), and generates low-frequency-removed image data hM from which the low-frequency component has been removed. . This low-frequency-removed image data hM is low-frequency-removed image data hM from which the low-frequency component in the sub-scanning direction has been removed.

なお、低域成分抽出範囲は、図7に示される副走査方向9ライン(ラインy+4からラインy−4までの9ライン)、主走査方向1画素の計9画素で構成される範囲に限定されるものではなく、ラインセンサ間のレベル差につながる各ラインセンサで取得した画像データの値の変化、例えば、副走査方向に数ラインより多くのライン周期に亘り変化するような、比較的緩やかに変化する低域周波数成分が抽出できる範囲であれば、他の範囲であってもよい。低域成分抽出範囲は、例えば、画像メモリ41内の副走査方向の所定位置yにおけるオーバーラップ領域の注目画素P0を中心とし、副走査方向uライン、主走査方向v画素の合計(u×v)画素で構成される画素範囲としてもよい。ここで、uは、2以上の整数であり、vは1以上の整数である。The low-frequency component extraction range is a range composed of (9 lines from the line y n +4 to the line y n -4), a total of nine pixels in the main scanning direction by one pixel sub-scanning direction 9 lines shown in FIG. 7 It is not limited to, but the change of the value of the image data acquired by each line sensor that leads to the level difference between the line sensors, for example, the comparison that changes over several line periods in the sub-scanning direction Any other range may be used as long as a low frequency component that changes gradually can be extracted. Low-frequency component extraction range, for example, the pixel of interest P0 in the overlap region in the sub-scanning direction at a predetermined position y n of the image memory 41 as a center, sub-scanning direction u line, the sum of the main scanning direction v pixels (u × v) A pixel range composed of pixels may be used. Here, u is an integer of 2 or more, and v is an integer of 1 or more.

また、主走査方向に2画素以上の範囲をとり、副走査方向と主走査方向の二次元方向で低域周波数成分を求めることもできる。しかし、ラインセンサ間の副走査方向の位置ずれは、一般的には、主走査方向に同じ値が並ぶ横線又は傾きを持つ斜め線など(副走査方向のエッジ部、高域周波数部分)の一致による判定が主要素となり、主走査方向のエッジである縦線だけでは副走査方向の画像の一致は判定できない。したがって、副走査方向のみの低域周波数成分の抽出であっても、低域周波数成分の抽出の精度は低下し難い。また、副走査方向のみで低域周波数成分を求める場合には、二次元方向で低域周波数成分を求める場合に比べて、ハードウェアの構成の簡素化及び演算処理の容易化が実現でき、演算規模を小さくすることができる。   It is also possible to obtain a low frequency component in the two-dimensional direction of the sub-scanning direction and the main scanning direction by taking a range of two or more pixels in the main scanning direction. However, the positional deviation between the line sensors in the sub-scanning direction generally coincides with horizontal lines or diagonal lines with the same value in the main scanning direction (edges in the sub-scanning direction, high-frequency parts). The determination by is the main element, and the coincidence of the images in the sub-scanning direction cannot be determined only by the vertical lines that are the edges in the main scanning direction. Therefore, even if the low frequency component is extracted only in the sub-scanning direction, the accuracy of extracting the low frequency component is unlikely to decrease. In addition, when the low frequency component is obtained only in the sub-scanning direction, the hardware configuration can be simplified and the arithmetic processing can be facilitated, compared with the case where the low frequency component is obtained in the two-dimensional direction. The scale can be reduced.

図6において、オーバーラップ低域除去部421へ入力されたオーバーラップ領域における画像データrMは、低域成分抽出部422と、減算部423へ入力される。   In FIG. 6, the image data rM in the overlap region input to the overlap low frequency removing unit 421 is input to the low frequency component extracting unit 422 and the subtracting unit 423.

オーバーラップ低域除去部421における低域成分抽出部422は、オーバーラップ領域の画像データrM内の注目画素P0を中心とする副走査方向9ラインの低域成分抽出範囲b2(図7に長方形の破線で囲う範囲)において、注目画素P0(又はそれに対応する位置)の近傍の画像データにおける副走査方向の低域周波数成分である低域成分adcを抽出し、これを出力する。   The low-frequency component extraction unit 422 in the overlap low-frequency removal unit 421 has a low-frequency component extraction range b2 of nine lines in the sub-scanning direction centering on the pixel of interest P0 in the image data rM in the overlap region (in FIG. In a range surrounded by a broken line), a low-frequency component adc, which is a low-frequency component in the sub-scanning direction, is extracted from the image data in the vicinity of the target pixel P0 (or a position corresponding thereto), and this is output.

低域成分抽出部422における画像データの低域周波数成分(低域成分adc)抽出は、例えば、低域成分抽出範囲b2に対応する位置にある画素の画素値の平均を算出することにより行う。低域成分抽出範囲b2内における平均を算出するので、副走査方向の9ラインの間に平均して存在する画素レベル、すなわち、9ライン中の低域周波数成分を抽出することができる。ここで、図7に示される低域成分抽出範囲b2では9画素(9ライン)の画素値の平均値を求めるため、画素値の合計を9分の1することとなるが、ハードウェアの構成の容易さ及び演算処理の容易さを考慮して、9に代えて、8(2の3乗)又は、4(2の2乗)で割る演算となるように低域成分抽出部422を構成してもよい。低域成分抽出部422が行う処理は、低域周波数成分としての平均値を反映した指標が得られる処理であれば、他の処理であってもよい。また、低域成分抽出部422は、低域成分抽出範囲b2に対応する位置にある画素の画素値の平均値に、予め決められた係数を乗算して、ゲイン調整等の変換を行うよう構成することもできる。   The low frequency component (low frequency component adc) extraction of the image data in the low frequency component extraction unit 422 is performed by, for example, calculating the average of the pixel values of the pixels at the position corresponding to the low frequency component extraction range b2. Since the average in the low-frequency component extraction range b2 is calculated, it is possible to extract pixel levels that exist on average among the nine lines in the sub-scanning direction, that is, low-frequency components in the nine lines. Here, in the low-frequency component extraction range b2 shown in FIG. 7, the average value of the pixel values of 9 pixels (9 lines) is obtained, so the sum of the pixel values is reduced to 1/9. The low-frequency component extraction unit 422 is configured so that the calculation is divided by 8 (2 to the 3rd power) or 4 (2 to the 2nd power) instead of 9. May be. The process performed by the low frequency component extraction unit 422 may be another process as long as an index that reflects the average value as the low frequency component is obtained. The low frequency component extraction unit 422 is configured to perform conversion such as gain adjustment by multiplying the average value of the pixel values of the pixels at the position corresponding to the low frequency component extraction range b2 by a predetermined coefficient. You can also

なお、低域成分抽出部422では画素値の平均から低域成分adcを求める場合を説明したが、低域成分抽出部422は、注目画素P0に対する各画素の位置(図7ではライン間隔)に応じて、重み付け平均化してもよく、例えば、注目画素P0に近い画素における重みが大きく、注目画素P0からの距離が大きくなるほど重みが次第に小さくなるように重み付け加算することで重み付け平均化を行うこととしてもよい。   Note that the low frequency component extraction unit 422 has described the case where the low frequency component adc is obtained from the average of the pixel values. However, the low frequency component extraction unit 422 determines the position of each pixel with respect to the target pixel P0 (line interval in FIG. 7). Accordingly, weighted averaging may be performed. For example, weighted averaging is performed by weighting and adding so that the weight in the pixel close to the target pixel P0 is large and the weight gradually decreases as the distance from the target pixel P0 increases. It is good.

また、低域成分抽出部422は、低域通過フィルタ(ローパスフィルタ、又は、LPFとも記す)等により構成することができ、ライン間の画素でLPF処理した値を低域成分adcとして求めることもできる。この場合、低域成分抽出部422では、通過させる低域周波数成分が、ライン周波数の数ライン分の1(例えば、図7においては1/9)となるように、緩やかに変化する低域周波数成分を抽出させるようなフィルタ係数を設定すればよい。   Further, the low-frequency component extraction unit 422 can be configured by a low-pass filter (also referred to as a low-pass filter or LPF) or the like, and a value obtained by performing LPF processing on pixels between lines can be obtained as the low-frequency component adc. it can. In this case, the low-frequency component extraction unit 422 gradually changes the low-frequency component so that the low-frequency component to be transmitted is 1 / (for example, 1/9 in FIG. 7) of several line frequencies. What is necessary is just to set the filter coefficient which extracts a component.

図6のオーバーラップ低域除去部421における減算部423へは、オーバーラップ領域における画像データrMの中心ライン(図7における副走査方向読み出しラインy)の注目画素P0と、低域成分抽出部422からの低域周波数成分である低域成分adcとが入力される。To the subtraction unit 423 in the overlap low-frequency removal unit 421 in FIG. 6, the pixel of interest P0 in the center line of the image data rM in the overlap region (sub-scanning direction readout line y n in FIG. 7) and the low-frequency component extraction unit The low frequency component adc which is the low frequency component from 422 is input.

オーバーラップ低域除去部421の減算部423は、画像データrMに対する処理、すなわち、画像データrMの注目画素P0の画像データから、低域成分抽出部422からの低域成分adcを減算することで、画像データrMから注目画素P0の近傍にある画像の低域周波数成分を除去し、低域除去画像データhMを生成する処理を行う。このとき、低域除去画像データhMは、低域周波数成分である低域成分adcを画像データrMから減算することによって生成されるので、符号付きのパターン及びエッジ等などの輪郭での変化情報を持つ値の画像データとなる。この低域除去画像データhMは、符号付きの値のままで扱うことも可能であるが、所定のオフセット値により正の値に変換(絶対値に変換)したデータであってもよい。ただし、減算結果を絶対値化した値は、エッジ及び輪郭情報の有無を示す値となり、変化の方向を示していないので、この場合の低域除去画像データhMでは、符号値(変化する方向を示す)を併せて保持する必要がある。   The subtraction unit 423 of the overlap low-frequency removal unit 421 performs processing on the image data rM, that is, subtracts the low-frequency component adc from the low-frequency component extraction unit 422 from the image data of the target pixel P0 of the image data rM. Then, the low frequency component of the image in the vicinity of the target pixel P0 is removed from the image data rM, and the low frequency removal image data hM is generated. At this time, the low-frequency-removed image data hM is generated by subtracting the low-frequency component adc, which is a low-frequency component, from the image data rM. It becomes the image data of the value it has. The low-frequency-removed image data hM can be handled with a signed value, but may be data converted into a positive value (converted into an absolute value) with a predetermined offset value. However, the absolute value of the subtraction result is a value indicating the presence / absence of edge and contour information, and does not indicate the direction of change. In this case, in the low-frequency-removed image data hM, the sign value (the direction of change is changed). Need to be held together.

オーバーラップ低域除去部421へ入力されたオーバーラップ領域の画像データrMは、オーバーラップ領域における画像データDIのうちの、画像データrMO(基準データに相当)と、画像データrMOと重複して読取られた同じオーバーラップ領域に位置する画像データrME(比較データに相当)とを含んでいるので、減算部423で低域周波数成分を除去された低域除去画像データhMもまた、基準データとなる画像データrMOと比較データとなる画像データrMEから低域周波数成分を除去した低域除去基準データhMO及び低域除去比較データhMEを含む。   The overlap region image data rM input to the overlap low frequency removing unit 421 is read in duplicate with the image data rMO (corresponding to the reference data) of the image data DI in the overlap region and the image data rMO. Image data rME (corresponding to comparison data) located in the same overlap region, the low-frequency-removed image data hM from which the low-frequency component has been removed by the subtracting unit 423 also serves as reference data. The image data rMO and the image data rME serving as the comparison data include the low frequency removal reference data hMO obtained by removing the low frequency components and the low frequency removal comparison data hME.

以上のように、図6に示されるオーバーラップ低域除去部421は、オーバーラップ領域における画像データrMに対する処理、すなわち、画像の低域周波数成分を除去した低域除去画像データhMを生成して出力する処理を行う。オーバーラップ低域除去部421からの低域除去画像データhMは、オーバーラップMO画像メモリ424及びオーバーラップME画像メモリ425へと入力されて、一時格納される。   As described above, the overlap low-frequency removal unit 421 shown in FIG. 6 performs processing on the image data rM in the overlap region, that is, generates low-frequency-removed image data hM from which low-frequency components of the image are removed. Perform output processing. The low-frequency-removed image data hM from the overlap low-frequency removal unit 421 is input to the overlap MO image memory 424 and the overlap ME image memory 425 and temporarily stored.

オーバーラップ低域除去部421からの低域除去画像データhMは、低域除去基準データとなる画像データrMOと低域除去比較データとなる画像データrMEとから低域周波数成分を除去した低域除去基準データhMO及び低域除去比較データhMEを持つので、低域除去画像データhMのうち、オーバーラップ領域の位置(処理のタイミング)に応じて、低域除去基準データhMOはオーバーラップMO画像メモリ424に、低域除去比較データhMEはオーバーラップME画像メモリ425にそれぞれ格納される。   The low-frequency removal image data hM from the overlap low-frequency removal unit 421 is low-frequency removal obtained by removing low-frequency components from the image data rMO serving as low-frequency removal reference data and the image data rME serving as low-frequency removal comparison data. Since the reference data hMO and the low-frequency removal comparison data hME are included, the low-frequency removal reference data hMO is included in the overlap MO image memory 424 in accordance with the position of the overlap region (processing timing) in the low-frequency removal image data hM. In addition, the low frequency band removal comparison data hME is stored in the overlap ME image memory 425, respectively.

そして、オーバーラップMO画像メモリ424及びオーバーラップME画像メモリ425からは、次の類似度算出部43での処理タイミングに合わせ、予め決められたライン数の低域除去基準データMOと低域除去比較データMEが読み出され、出力される。オーバーラップMO画像メモリ424からは、低域除去基準データhMOのうちの所定の副走査方向(Y方向)の位置Yとその周辺(Y方向1ライン間隔毎及びX方向)の低域除去画像データが、低域除去基準データMOとして読み出される。オーバーラップME画像メモリ425からは、低域除去比較データhMEのうち、低域除去基準データMOと重複して読取られた同じオーバーラップ領域において、低域除去基準データMOの副走査方向(Y方向)の位置Yの前後ラインにおける予め決められた検索範囲“−y〜+y”(「+」で示す正方向が副走査方向)の位置とその周辺(Y方向1ライン間隔毎及びX方向)における低域除去画像データが、低域除去比較データMEとして読み出される。Then, from the overlap MO image memory 424 and the overlap ME image memory 425, the low-frequency removal reference data MO having a predetermined number of lines and the low-frequency removal comparison are matched with the processing timing in the next similarity calculation unit 43. Data ME is read and output. From the overlapping MO image memory 424, low pass removed image position Y m and surrounding a predetermined sub-scanning direction of the low-frequency canceling reference data HMO (Y-direction) (Y-direction every one-line spacing and the X-direction) Data is read out as low-frequency removal reference data MO. From the overlap ME image memory 425, the sub-scanning direction (Y direction) of the low-frequency removal reference data MO in the same overlap region that is read redundantly with the low-frequency removal reference data MO in the low-frequency removal comparison data hME. predetermined search range before and after the line of position Y m in) "-y~ + y" (position surrounding the positive direction sub-scanning direction) indicated by "+" (Y direction one line interval and for each X-direction) Is read as low-frequency-removed comparison data ME.

オーバーラップMO画像メモリ424から読み出された低域除去基準データMOとオーバーラップME画像メモリ425から読み出された低域除去比較データMEとは、低域周波数成分を除去した予め決められたライン数の低域除去基準データMOと低域除去比較データMEとして、低域除去部42から類似度算出部43へと送られる。   The low-frequency removal reference data MO read from the overlap MO image memory 424 and the low-frequency removal comparison data ME read from the overlap ME image memory 425 are predetermined lines from which low-frequency components are removed. The low-frequency removal reference data MO and the low-frequency removal comparison data ME are sent from the low-frequency removal unit 42 to the similarity calculation unit 43.

上記予め決められた検索範囲“−y〜+y”は、低域除去基準データMO(低域除去基準データhMO)の中心ライン位置との差、すなわち、副走査方向の位置ずれ量(シフト量とも呼ぶ。)dYが取り得る値の範囲である。検索範囲“−y〜+y”は、画像読取装置1の撮像部2により原稿60を読取る際、原稿60とガラス面との距離及び光軸のずれ等により起こり得る副走査方向の位置のずれ量を考慮して決められる。検索範囲“−y〜+y”は、結合処理において画像データをシフトさせる副走査方向の位置(ライン)、すなわち、副走査方向の位置ずれの検出を行う検索範囲である。位置ずれ量dYは、−yから+yまでの範囲内の値をとる。   The predetermined search range “−y to + y” is different from the center line position of the low-frequency removal reference data MO (low-frequency removal reference data hMO), that is, the positional deviation amount in the sub-scanning direction (both the shift amount). This is the range of values that dY can take. The search range “−y to + y” is the amount of positional deviation in the sub-scanning direction that may occur due to the distance between the original 60 and the glass surface, the optical axis, and the like when the imaging unit 2 of the image reading apparatus 1 reads the original 60. Determined in consideration of The search range “−y to + y” is a search range in which a position (line) in the sub-scanning direction in which image data is shifted in the combining process, that is, a position shift in the sub-scanning direction is detected. The positional deviation amount dY takes a value within a range from -y to + y.

以上から、図6における低域除去部42は、オーバーラップ領域における画像データrMから低域周波数成分を除去した低域除去画像データhM(低域除去基準データhMO及び低域除去比較データhME)を生成し、低域除去画像データhMのうち、オーバーラップ領域におけるラインY(後述する図8〜10に示される)とその周辺の画像データを、検索範囲“−y〜+y”に対する低域除去基準データMOとして出力する。また、低域除去部42は、対応するオーバーラップ領域については、ラインYを中心とした検索範囲“−y〜+y”(すなわち、ライン(Y−y)からライン(Y+y)までの範囲)内のラインとその周辺の画像データを低域除去比較データhMEとして求め、検索範囲“−y〜+y”内にある各ラインの低域除去比較データMEとして出力する。低域除去部42から出力する際の副走査方向の位置ずれ量dYの検出を行うための検索範囲は、ライン(Y−y)からライン(Y+y)までの範囲内のラインとなり、低域除去基準データMOと検索範囲“−y〜+y”内にあるライン数に等しい数の低域除去比較データMEは、類似度算出部43へ送られる。From the above, the low-frequency removal unit 42 in FIG. 6 uses the low-frequency-removed image data hM (low-frequency removal reference data hMO and low-frequency removal comparison data hME) obtained by removing the low-frequency components from the image data rM in the overlap region. The low-frequency removal for the search range “−y to + y” is performed on the line Y m (shown in FIGS. 8 to 10 to be described later) and the surrounding image data in the overlap region of the generated low-frequency removal image data hM. Output as reference data MO. In addition, the low-frequency removal unit 42 searches for the corresponding overlap region from the search range “−y to + y” centered on the line Y m (that is, from the line (Y m −y) to the line (Y m + y)). Line) and the surrounding image data are obtained as low-frequency removal comparison data hME, and output as low-frequency removal comparison data ME for each line within the search range “−y to + y”. The search range for detecting the positional deviation amount dY in the sub-scanning direction when outputting from the low-frequency removal unit 42 is a line within the range from the line (Y m -y) to the line (Y m + y). The low-frequency removal reference data MO and the low-frequency removal comparison data ME whose number is equal to the number of lines in the search range “−y to + y” are sent to the similarity calculation unit 43.

低域除去部42は、オーバーラップ領域における画像データrMから、オーバーラップ低域除去部421において低域周波数成分を除去して低域除去画像データhM(低域除去基準データhMO及び低域除去比較データhME)を生成し、低域除去画像データhMを、低域除去画像データのうちの低域除去基準データMOと、位置ずれ量dYが−yから+yまでの範囲内の値をとる低域除去比較データMEとして、出力することができる。このように、低域除去部42は、重複して読取られた同じオーバーラップ領域の低域除去基準データMOと低域除去比較データMEを、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データとして、出力することができる。また、オーバーラップ低域除去部421における低域成分抽出範囲を副走査方向に並ぶラインとしたので、出力される低域除去画像データは、副走査方向の低域周波数成分が除去された低域除去基準データMOと低域除去比較データMEとなり、低域周波数成分の抽出の精度を落とさず、ハードウェアの構成の簡素化、演算処理の容易化を実現でき、演算規模を小さくすることができる。   The low frequency removing unit 42 removes the low frequency component from the image data rM in the overlap region in the overlap low frequency removing unit 421 and removes the low frequency image data hM (the low frequency removal reference data hMO and the low frequency removal comparison). Data hME), the low-frequency-removed image data hM, the low-frequency-removed reference data MO in the low-frequency-removed image data, and the low-frequency range where the positional deviation amount dY takes a value in the range from -y to + y. The removal comparison data ME can be output. As described above, the low-frequency removal unit 42 generates the low-frequency removal reference data MO and the low-frequency removal comparison data ME of the same overlap region that are duplicated and read according to the performance of each line sensor and the difference in the reading conditions. It can be output as image data in which the influence of the difference is suppressed. In addition, since the low-frequency component extraction range in the overlap low-frequency removing unit 421 is a line aligned in the sub-scanning direction, the output low-frequency-removed image data is a low frequency band from which the low-frequency component in the sub-scanning direction has been removed. It becomes the removal reference data MO and the low-frequency removal comparison data ME, so that the accuracy of extraction of the low-frequency components can be reduced, the hardware configuration can be simplified, the arithmetic processing can be facilitated, and the operational scale can be reduced. .

図8は、原稿がガラス面に密着しているときの低域除去部42及び類似度算出部43の動作を説明するための図であり、図9は、原稿がガラス面から離れているときの低域除去部42及び類似度算出部43の動作を説明するための図である。図8及び図9は、低域除去部42が、画像メモリからオーバーラップ領域における画像データrMを読み出し、読み出された画像データrMから低域周波数成分を除去して得られた低域除去画像データのうちの低域除去基準データMOと低域除去比較データMEとを出力する際の、低域除去基準データMOの画像データDI(O)と低域除去比較データMEの画像データDI(E)のオーバーラップ領域上での位置と動作を説明するための図である。   FIG. 8 is a diagram for explaining the operation of the low frequency removing unit 42 and the similarity calculating unit 43 when the document is in close contact with the glass surface, and FIG. 9 is a diagram when the document is separated from the glass surface. It is a figure for demonstrating operation | movement of the low region removal part 42 and the similarity calculation part 43 of FIG. 8 and 9 show the low-frequency-removed image obtained by the low-frequency removing unit 42 reading the image data rM in the overlap region from the image memory and removing the low-frequency components from the read image data rM. Image data DI (O) of the low-frequency removal reference data MO and image data DI (E of the low-frequency removal comparison data ME when outputting the low-frequency removal reference data MO and the low-frequency removal comparison data ME of the data FIG. 6 is a diagram for explaining the position and operation on the overlap region.

図8は、図4(c)に対応する図(原稿60がガラス面に密着している場合)であり、低域除去画像データのうちの低域除去基準データMOと低域除去比較データMEの画像データDI上における位置関係を示している。低域除去基準データMOは、副走査方向(Y方向)の位置Y(ラインY)における画像データから低域周波数成分を除去して得られた低域除去画像データであり、低域除去比較データMEは、位置ずれ量dYが−yから+yまでの範囲内の値をとる画像データから低域周波数成分を除去して得られた低域除去画像データである。FIG. 8 is a diagram corresponding to FIG. 4C (when the original 60 is in close contact with the glass surface), and the low-frequency removal reference data MO and the low-frequency removal comparison data ME of the low-frequency removal image data. The positional relationship on the image data DI is shown. The low-frequency removal reference data MO is low-frequency-removed image data obtained by removing low-frequency components from the image data at the position Y m (line Y m ) in the sub-scanning direction (Y direction). The comparison data ME is low-frequency-removed image data obtained by removing low-frequency components from image data in which the positional deviation amount dY takes a value in the range from −y to + y.

図9は、図5(c)に対応する図(原稿60がガラス面から離れている場合)であり、副走査方向(Y方向)の位置Y(ラインY)における画像データから低域周波数成分を除去して得られた低域除去画像データである低域除去基準データMOと、位置ずれ量dYが−yから+yまでの範囲内の値をとる画像データから低域周波数成分を除去して得られた低域除去比較データMEとの位置関係を示している。FIG. 9 is a diagram corresponding to FIG. 5C (in the case where the document 60 is separated from the glass surface), from the image data at the position Y m (line Y m ) in the sub-scanning direction (Y direction). The low-frequency component is removed from the low-frequency-removal reference data MO, which is low-frequency-removed image data obtained by removing the frequency component, and the image data in which the positional deviation amount dY takes a value in the range from -y to + y. The positional relationship with the low-frequency removal comparison data ME obtained in this way is shown.

上述したように、低域除去部42には、画像メモリ41から読み出されたオーバーラップ領域における画像データrMが、オーバーラップ低域除去部421に入力される。図8及び図9に示されるように、副走査方向(Y方向)の位置Yにおける低域除去画像データである低域除去基準データMOは、ラインセンサ21Oに対応する画像データDI(O)のオーバーラップ領域dにおいて、ラインYを中心とした周辺の画像データに対応する低域除去画像データであり、図8及び9におけるMO(O,d,Y)となる。位置ずれ量dYが−yから+yまでの範囲内の値をとる画像データから低域周波数成分を除去して得られた低域除去比較データMEは、ラインセンサ21Eに対応する画像データDI(E)のオーバーラップ領域dにおいて、ラインYを中心とし検索範囲“−y〜+y”内のラインとその周辺の画像データに対応する低域除去画像データであり、図8及び図9における画像データME(E,d,Y)となる。低域除去比較データMEは、検索範囲“−y〜+y”内のラインの画像データに対応する低域除去画像データであり、低域除去基準データMOより低域除去比較データMEが副走査方向(Y方向)に広くなる。As described above, the image data rM in the overlap region read from the image memory 41 is input to the overlap low-frequency removal unit 421 to the low-frequency removal unit 42. As shown in FIGS. 8 and 9, the low-frequency canceling reference data MO which is a low-frequency removed image data at the position Y m in the sub-scanning direction (Y direction), the image data DI (O corresponding to the line sensor 21O k in the overlap region d r of k), a low-frequency removing image data corresponding to the image data of the surrounding around the line Y m, the MO (O k, d r, Y m) in FIG. 8 and 9 . Positional displacement amount dY is reduction cancellation comparative data ME obtained values from the image data taking by removing the low frequency components in the range from -y to + y, the image data DI corresponding to the line sensor 21E k ( E k ) in the overlap region d l , low-frequency-removed image data corresponding to the line in the search range “−y to + y” and the surrounding image data centered on the line Y m , and FIGS. Is the image data ME (E k , d l , Y m ). The low-frequency removal comparison data ME is low-frequency removal image data corresponding to the image data of the lines in the search range “−y to + y”, and the low-frequency removal comparison data ME is in the sub-scanning direction from the low-frequency removal reference data MO. Widens in (Y direction).

図8及び図9において、低域除去部42は、
画像データDI(O)のオーバーラップ領域dの低域除去基準データMO(O,d,Y)と画像データDI(E)のオーバーラップ領域dの低域除去比較データME(E,d,Y)、
画像データDI(Ok+1)のオーバーラップ領域dの低域除去基準データMO(Ok+1,d,Y)と画像データDI(E)のオーバーラップ領域dの低域除去比較データME(E,d,Y)、
画像データDI(Ok+1)のオーバーラップ領域dの低域除去基準データMO(Ok+1,d,Y)と画像データDI(Ek+1)のオーバーラップ領域dの低域除去比較データME(Ek+1,d,Y)、…のような順番で、
順次、低域除去基準データと低域除去比較データとを出力する。
In FIG. 8 and FIG.
Image data DI (O k) of the overlap region d r of the low-frequency canceling reference data MO (O k, d r, Y m) and the low-frequency removal comparative data overlap region d l of the image data DI (E k) ME (E k , d l , Y m ),
Image data DI (O k + 1) of the overlap region d l of the low-frequency canceling reference data MO (O k + 1, d l, Y m) and the low-frequency removal comparative data overlap region d r of the image data DI (E k) ME (E k , dr , Y m ),
Image data DI (O k + 1) of the overlap region d r of the low-frequency canceling reference data MO (O k + 1, d r, Y m) and the low-frequency removal comparative data overlap region d l of the image data DI (E k + 1) In the order of ME (E k + 1 , d l , Y m ), ...
Sequentially, low-pass removal reference data and low-pass removal comparison data are output.

図10は、低域除去部42から出力される予め決められたライン数の低域除去基準データMOと低域除去比較データMEの副走査方向の位置関係をさらに詳しく説明するための図である。図10は、低域除去部42から出力されるときの低域除去基準データMOと低域除去比較データMEの副走査方向(ラインの配列方向)の位置関係を示している。低域除去部42は、ラインYを基準ラインとして、オーバーラップ領域における画像データrMから低域周波数成分を除去し、低域除去基準データMOと低域除去比較データMEを生成する。低域除去基準データMOと低域除去比較データMEは、検出基準ラインYを中心として複数の画素のデータで構成される。FIG. 10 is a diagram for explaining in more detail the positional relationship in the sub-scanning direction between the low-frequency removal reference data MO having a predetermined number of lines output from the low-frequency removal unit 42 and the low-frequency removal comparison data ME. . FIG. 10 shows the positional relationship between the low-frequency removal reference data MO and the low-frequency removal comparison data ME when output from the low-frequency removal unit 42 in the sub-scanning direction (line arrangement direction). Reduction cancellation unit 42, a line Y m as a reference line, to remove the low frequency components from the image data rM in the overlap region, to generate a low-frequency canceling reference data MO and the low frequency removal comparative data ME. Low-frequency canceling reference data MO and the low frequency removal comparative data ME is composed of data of a plurality of pixels around the detection reference line Y m.

図10において、低域除去部42では、低域除去基準データMOと低域除去比較データMEが、オーバーラップMO画像メモリ424及びオーバーラップME画像メモリ425により、検出基準ラインYを中心とした低域除去基準データMO(O,d)と低域除去比較データME(E,d)としてそれぞれ格納される。低域除去部42は、オーバーラップMO画像メモリ424及びオーバーラップME画像メモリ425から画像データを読み出し、低域除去基準データMOと低域除去比較データMEを出力する。低域除去基準データMO(O,d)は、基準ラインYを中心とした副走査方向の幅bhラインの低域除去基準データhMOにおける画像データMO(O,d,Y)であり、低域除去比較データME(E,d)は、デジタルデータDI(E)のオーバーラップ領域dにおいて、基準ラインYを中心とした検索範囲“−y〜+y”内の各ラインで、それぞれがMO(O,d,Y)と同じ幅bhラインとなるような画像データME(E,d,dY)となる。具体的には、図10において、検出基準ラインYと中心位置が同じデータとして、画像データME(E,d,0)とし、1ライン分ずらした位置のデータME(E,d,1)、yライン分ずらしたデータME(E,d,y)とし、逆方向にyライン分ずらしたデータME(E,d,−y)として配置して、低域除去部42から出力する。ここで、yは、ライン数を示す正の整数である。10, the low-frequency removing unit 42, the low-frequency canceling reference data MO and the low frequency removal comparison data ME is the overlap MO image memory 424 and overlap ME image memory 425, around the detection reference line Y m The low-frequency removal reference data MO (O k , d r ) and the low-frequency removal comparison data ME (E k , d l ) are stored respectively. The low-frequency removal unit 42 reads image data from the overlap MO image memory 424 and the overlap ME image memory 425, and outputs low-frequency removal reference data MO and low-frequency removal comparison data ME. Low-frequency canceling reference data MO (O k, d r), the image data in the low-frequency canceling reference data hMO the reference line Y m center and the sub-scanning direction width bh line MO (O k, d r, Y m The low-frequency band removal comparison data ME (E k , d l ) is a search range “−y to + y” centered on the reference line Y m in the overlap region d l of the digital data DI (E k ). In each of the lines, image data ME (E k , d l , dY) is obtained such that each line has the same width bh as MO (O k , d r , Y m ). Specifically, in FIG. 10, as the detection reference line Y m and the center position is the same data, the image data ME (E k, d l, 0), Data ME (E k of position shifted one line, d 1 , 1), data ME (E k , d l , y) shifted by y lines, and data ME (E k , d l , -y) shifted by y lines in the reverse direction Output from the removal unit 42. Here, y is a positive integer indicating the number of lines.

なお、図10に関する上記説明では、低域除去部42において出力される予め決められたライン数の低域除去基準データMOと低域除去比較データMEは、基準ラインYを中心とした副走査方向の幅bhラインの低域除去画像データとしたが、幅bhは1つの中心ラインのみにしてもよい。副走査方向の幅bhをとることで、周辺の画像データの情報をもつ低域除去基準データ及び低域除去比較データとすることができ、後述する類似度算出部43における処理でより精度よく類似度を算出することができる。In the above description of FIG. 10, the low-frequency canceling reference data MO and the low frequency removal comparative data ME of a predetermined number of lines to be output in the low frequency removal unit 42, with a focus on the reference line Y m subscanning Although the low-frequency-removed image data of the width bh line in the direction is used, the width bh may be only one center line. By taking the width bh in the sub-scanning direction, it is possible to obtain low-frequency removal reference data and low-frequency removal comparison data having information on peripheral image data, and similar with higher accuracy by processing in the similarity calculation unit 43 described later. The degree can be calculated.

また、画像処理部4は、図6に示される低域除去部42の代わりに、図11に示される低域除去部42bを備えてもよい。図11に示される低域除去部42bにおいては、画像メモリ41内のオーバーラップ領域における画像データrMを基準データとなる画像データrMOと比較データとなる画像データrMEとして別々に読み出して、それぞれの画像データに対し図6のオーバーラップ低域除去部421と同様の処理を行い、低域除去基準データhMO及び低域除去比較データhMEを求める。   Further, the image processing unit 4 may include a low frequency removing unit 42b shown in FIG. 11 instead of the low frequency removing unit 42 shown in FIG. In the low-frequency removal unit 42b shown in FIG. 11, the image data rM in the overlap region in the image memory 41 is read out separately as image data rMO serving as reference data and image data rME serving as comparison data. The same processing as that of the overlap low-frequency removal unit 421 in FIG. 6 is performed on the data to obtain low-frequency removal reference data hMO and low-frequency removal comparison data hME.

図11において、図6に示される構成要素と同一又は対応する構成要素には、図6における符号と同じ符号を付す。図11に示される低域除去部42bは、2つのオーバーラップ低域除去部4211及び4212を備えている点において、1つのオーバーラップ低域除去部421を備えている図6の低域除去部42と相違する。図11に示されるオーバーラップ低域除去部4211及び4212には、オーバーラップ領域における画像データrMのうちの基準画像データrMO及び比較画像データrMEがそれぞれ入力される。オーバーラップ低域除去部4211は、オーバーラップ領域における画像データrMのうちの基準画像データrMOに対し、画像の低域周波数成分を画像データから除去して低域除去基準データhMOを出力する。オーバーラップ低域除去部4212は、オーバーラップ領域における画像データrMのうちの比較画像データrMEに対し、画像の低域周波数成分を画像データから除去して低域除去比較データhMEを出力する。   11, components that are the same as or correspond to the components shown in FIG. 6 are given the same reference numerals as those in FIG. The low-frequency removing unit 42b shown in FIG. 11 includes two overlapping low-frequency removing units 4211 and 4212, and the low-frequency removing unit of FIG. 6 includes one overlapping low-frequency removing unit 421. 42. Reference image data rMO and comparison image data rME among the image data rM in the overlap region are input to the overlap low-frequency removal units 4211 and 4212 shown in FIG. The overlap low-frequency removal unit 4211 removes the low-frequency component of the image from the image data and outputs the low-frequency removal reference data hMO for the reference image data rMO in the image data rM in the overlap region. The overlap low-frequency removal unit 4212 removes the low-frequency component of the image from the image data and outputs low-frequency removal comparison data hME for the comparison image data rME in the image data rM in the overlap region.

図11の低域除去部42bにおけるオーバーラップMO画像メモリ424とオーバーラップME画像メモリ425において、低域除去基準データhMOはオーバーラップMO画像メモリ424に、低域除去比較データhMEはオーバーラップME画像メモリ425にそれぞれ格納され、低域除去部42bからの出力として、低域周波数成分を除去した予め決められたライン数の低域除去基準データMOと低域除去比較データMEを読み出し、出力する。以上に説明した点を除き、図11に示される低域除去部42bは、図6に示される低域除去部42と同じである。   In the overlap MO image memory 424 and the overlap ME image memory 425 in the low band removal unit 42b of FIG. 11, the low band removal reference data hMO is stored in the overlap MO image memory 424, and the low band removal comparison data hME is the overlap ME image. The low band removal reference data MO and the low band removal comparison data ME having a predetermined number of lines from which the low band frequency components have been removed are read out and output as outputs from the low band removing unit 42b. Except for the points described above, the low-frequency removal unit 42b shown in FIG. 11 is the same as the low-frequency removal unit 42 shown in FIG.

画像処理部4内の類似度算出部43には、低域除去部42からの低域周波数成分を除去された低域除去画像データである低域除去基準データMOと低域除去比較データMEが送られる。低域除去比較データMEは、位置ずれ量dYの検索範囲“−y〜+y”内のラインによる低域除去比較データである。類似度算出部43では、低域除去基準データMOと低域除去比較データMEとを比較する処理を位置ずれ量dYが−yから+yまでの範囲内をとる複数の位置について行い、類似度である相関データD43を算出し、生成する。   The similarity calculation unit 43 in the image processing unit 4 includes low-frequency-removal reference data MO and low-frequency-removed comparison data ME that are low-frequency-removed image data from which the low-frequency components from the low-frequency remover 42 are removed. Sent. The low-frequency removal comparison data ME is low-frequency removal comparison data by lines in the search range “−y to + y” of the positional deviation amount dY. The similarity calculation unit 43 performs a process of comparing the low-frequency removal reference data MO with the low-frequency removal comparison data ME for a plurality of positions where the positional deviation amount dY falls within a range from −y to + y. Certain correlation data D43 is calculated and generated.

図12(a)及び(b)は、類似度算出部43の動作を説明するための図であり、類似度算出部43に検出基準ラインYを中心とした低域除去基準データMO(O,d)と低域除去比較データME(E,d)が入力される場合を示している。図12(a)において、類似度算出部43は、入力された低域除去基準データMO(O,d)に対し、まず、位置ずれ量dYが−yから+yまでの範囲内をとる低域除去比較データME(E,d)から低域除去基準データMO(O,d)と同じ大きさ(同じ副走査方向の幅bhライン)の複数の画像データME(E,d,dY)を抽出する。dYは、低域除去基準データMO(O,d)との副走査方向の位置ずれ量であり、探索範囲“−y〜+y”の範囲内の値をとる。低域除去基準データMO(O,d)の中心位置である検出基準ラインYと同じ位置にあるデータを画像データME(E,d,0)とし、1ライン分ずらしたデータをME(E,d,1)、さらに順に1ラインずつずらし、yライン分ずらしたデータを画像データME(E,d,y)とし、逆方向にyライン分ずらしたデータを、画像データME(E,d,−y)とする。Figure 12 (a) and (b) are diagrams for explaining the operation of the similarity calculation unit 43, low-frequency canceling reference data MO (O around the detection reference line Y m to similarity calculation unit 43 k , dr ) and low-frequency band removal comparison data ME ( Ek , dl ) are input. In FIG. 12A, the similarity calculation unit 43 first takes the positional deviation amount dY within the range from −y to + y with respect to the input low-frequency removal reference data MO (O k , dr ). reduction cancellation comparative data ME (E k, d l) from the low-frequency canceling reference data MO (O k, d r) a plurality of image data ME (E k of the same size (width bh line in the same sub-scanning direction) , D l , dY). dY is the amount of positional deviation in the sub-scanning direction with respect to the low-frequency removal reference data MO (O k , d r ), and takes a value within the search range “−y to + y”. Data at the same position as the detection reference line Y m that is the center position of the low-frequency removal reference data MO (O k , d r ) is taken as image data ME (E k , d l , 0) and is shifted by one line. Is ME (E k , d l , 1), and then sequentially shifted by one line, the data shifted by y lines is image data ME (E k , d l , y), and the data shifted by y lines in the reverse direction is , Image data ME (E k , d l , -y).

次に、類似度算出部43は、低域除去基準データMO(O,d)と低域除去比較データME(E,d)における画像データME(E,d,−y)〜ME(E,d,y)との間の類似度を算出し、相関データD43(O,E)を出力する。低域除去基準データMO(O,d)と低域除去比較データME(E,d,−y)〜ME(E,d,y)のそれぞれは、副走査方向の大きさが同じである。例えば、類似度算出部43は、低域除去基準データMO(O,d)と低域除去比較データME(E,d,−y)〜ME(E,d,y)のそれぞれとの画素毎の差分の絶対値の和、又は、画素毎の差分の二乗和を類似度として算出し、相関データD43(O,E,dY)とし出力する。同様に、類似度算出部43は、次の低域除去基準データMO(Ok+1,d)と低域除去比較データME(E,d)、低域除去基準データMO(Ok+1,d)と低域除去比較データME(Ek+1,d)、…の類似度を順次算出し、相関データD43(Ok+1,E,dY),D43(Ok+1,Ek+1,dY),…と生成する。Next, the similarity calculation unit 43 includes the image data ME (E k , d l , -y) in the low-frequency removal reference data MO (O k , d r ) and the low-frequency removal comparison data ME (E k , d l ). ) To ME (E k , d l , y) are calculated, and correlation data D43 (O k , E k ) is output. Each of the low-frequency removal reference data MO (O k , dr ) and the low-frequency removal comparison data ME (E k , d l , -y) to ME (E k , d l , y) is large in the sub-scanning direction. Are the same. For example, the similarity calculation unit 43 includes the low-frequency removal reference data MO (O k , d r ) and the low-frequency removal comparison data ME (E k , d l , −y) to ME (E k , d l , y). The sum of absolute values of differences for each pixel and the sum of squares of differences for each pixel is calculated as similarity, and output as correlation data D43 (O k , E k , dY). Similarly, the similarity calculation unit 43 includes the next low-frequency removal reference data MO (O k + 1 , d l ), low-frequency removal comparison data ME (E k , dr ), and low-frequency removal reference data MO (O k + 1 , d r ) and low-frequency band removal comparison data ME (E k + 1 , d l ),... are sequentially calculated, and correlation data D43 (O k + 1 , E k , dY), D43 (O k + 1 , E k + 1 , dY) , ... are generated.

なお、図12(a)において、検索範囲“−y〜+y”内の低域除去比較データME(E,d)から、副走査方向の位置ずれ量dYとして1ラインずつずらして画像データME(E,d,dY)をとり、類似度(相関データD43)を算出する場合を説明したが、類似度算出部43は、副走査方向の前後ラインの画像データから補間処理することで、ラインとラインの間の副走査方向の位置(サブ・ラインと記す)を求め、同様に低域除去基準データMOとの類似度を算出し、相関データD43を生成することもできる。In FIG. 12A, the image data is shifted by one line as the positional deviation amount dY in the sub-scanning direction from the low-frequency removal comparison data ME (E k , d l ) within the search range “−y to + y”. The case of calculating ME (E k , d l , dY) and calculating the similarity (correlation data D43) has been described, but the similarity calculation unit 43 performs interpolation processing from the image data of the previous and subsequent lines in the sub-scanning direction. Thus, the position in the sub-scanning direction between the lines (denoted as sub-line) is obtained, and similarly, the similarity with the low-frequency removal reference data MO is calculated, and the correlation data D43 can be generated.

図12(b)は、類似度算出部43において、検出基準ラインYを中心とした低域除去基準データMO(O,d)と低域除去比較データME(E,d)における画像データME(E,d,−y)〜ME(E,d,y)の類似度を算出したときの位置ずれ量dY(検索範囲“−y〜+y”)に対する相関データD43(O,E,dY)の値の例を示している。図12(b)において、破線が図8に対応する相関データD43(O,E,dY)であり、実線が図9に対応する相関データD43(O,E,dY)である。図8では、奇数番目に位置するラインセンサ21O,…,21O,…,21Oと偶数番目に位置するラインセンサ21E,…,21E,…,21Eが副走査方向(Y方向)で同じ位置を読取っているため、そのデータもずれていない。したがって、図12(b)の破線のようにdY=0の位置で類似度が高く(すなわち、非類似度が低く)なる。また、図9では、原稿60がガラス面26から上に離れているため、奇数番目に位置するラインセンサ21O,…,21O,…,21Oに対して偶数番目に位置するラインセンサ21E,…,21E,…,21Eの読取り画像が、画像の副走査方向の位置が下方向にずれ、正の値(dY=+a)の位置で、類似度が最も高く(すなわち、非類似度が最も低く)なる。FIG. 12B shows the similarity calculation unit 43 in which the low-frequency removal reference data MO (O k , d r ) centered on the detection reference line Y m and the low-frequency removal comparison data ME (E k , d l ). Correlation data for the positional deviation amount dY (search range “−y to + y”) when the similarity between the image data ME (E k , d l , −y) to ME (E k , d l , y) is calculated D43 (O k, E k, dY) shows an example of a value of. In FIG. 12B, the broken line is the correlation data D43 (O k , E k , dY) corresponding to FIG. 8, and the solid line is the correlation data D43 (O k , E k , dY) corresponding to FIG. . In Figure 8, the line sensor 21O 1 located odd, ..., 21O k, ..., the line sensor 21E 1 located to the even-numbered and 21O n, ..., 21E k, ..., 21E n sub-scanning direction (Y-direction ), Since the same position is read, the data is not shifted. Therefore, the similarity is high (that is, the dissimilarity is low) at the position of dY = 0 as shown by the broken line in FIG. In FIG. 9, since the document 60 is separated from the glass surface 26, the line sensor 21 </ b > E is positioned evenly with respect to the line sensors 21 </ b > O 1 ,..., 21 </ b > O k ,. 1 ,..., 21E k ,..., 21E n have the highest similarity at the position where the position of the image in the sub-scanning direction is shifted downward and a positive value (dY = + a) (ie, non- The similarity is the lowest).

類似度算出部43は、低域除去部42からの低域除去基準データMOと低域除去比較データMEから、位置ずれ量dYが−yから+yまでの範囲内をとる複数の位置について類似度である相関データD43を算出しているので、この相関データD43は、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響を除かれている。したがって、実施の形態1に係る画像処理装置によれば、画像データのパターン及びエッジ等の輪郭での変化情報による低域除去画像データから求めた類似度に基づく相関データD43を得ることができる。   The similarity calculation unit 43 calculates the similarity for a plurality of positions where the positional deviation amount dY falls within the range from −y to + y based on the low-frequency removal reference data MO and the low-frequency removal comparison data ME from the low-frequency removal unit 42. Since the correlation data D43 is calculated, the influence of the level difference caused by the difference in performance and reading conditions for each line sensor is excluded from the correlation data D43. Therefore, according to the image processing apparatus according to the first embodiment, it is possible to obtain the correlation data D43 based on the similarity obtained from the low-frequency-removed image data based on the change information in the contour of the image data pattern and the edge.

シフト量推定部44へは、類似度算出部43からの“−y〜+y”範囲内の複数のラインの位置ずれ量dYにおける相関データD43が入力される。シフト量推定部44は、複数のラインの相関データD43のうち類似度が最も高いずれデータに対応する位置ずれ量dYをシフト量データdybとして、結合処理部45へと出力する。   Correlation data D43 for the positional deviation amounts dY of a plurality of lines within the range of “−y to + y” from the similarity calculation unit 43 is input to the shift amount estimation unit 44. The shift amount estimation unit 44 outputs the positional deviation amount dY corresponding to the data with the highest similarity among the correlation data D43 of the plurality of lines as the shift amount data dyb to the combination processing unit 45.

言い換えれば、図12(b)において、破線のようにdY=0の位置で類似度が高く(すなわち、非類似度が低く)なる場合は、dY=0をシフト量データdybとし、また、実線が示すようなdY=+aの位置で類似度が最も高く(すなわち、非類似度が最も低く)なる場合は、dY=+aをシフト量データdybとする。   In other words, in FIG. 12B, when the similarity is high (ie, the dissimilarity is low) at the position of dY = 0 as shown by the broken line, dY = 0 is used as the shift amount data dyb, and the solid line When the similarity is the highest (ie, the dissimilarity is the lowest) at the position of dY = + a as shown in FIG. 6, dY = + a is set as the shift amount data dyb.

類似度算出部43からの相関データD43は、低域除去画像データから求めた類似度で算出されており、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響を除かれている。このため、シフト量推定部44で相関データD43のうち類似度が最も高いずれデータに対応する位置ずれ量dYを求めて副走査方向の位置ずれを検出する際に、ラインセンサ毎のレベル差の影響を抑えて、誤検出なく、精度よく副走査方向の値に相当するシフト量データdybを得ることができる。   The correlation data D43 from the similarity calculation unit 43 is calculated with the similarity obtained from the low-frequency-removed image data, and the influence of level differences caused by differences in performance and reading conditions for each line sensor is excluded. Therefore, when the shift amount estimation unit 44 obtains the positional deviation amount dY corresponding to the data with the highest similarity among the correlation data D43 and detects the positional deviation in the sub-scanning direction, the level difference for each line sensor is detected. The shift amount data dyb corresponding to the value in the sub-scanning direction can be obtained with high accuracy and without erroneous detection while suppressing the influence.

画像処理部4内の結合処理部45へは、シフト量推定部44からのシフト量データdybが入力される。結合処理部45は、シフト量データdybに基づいて画像データの読み出し位置RPを算出し、その読み出し位置に対応する画像データM45を読み出し、シフト量データdybに基づいて画像データをずらす処理を行い、画像データのオーバーラップ領域におけるデータを結合する。   The shift amount data dyb from the shift amount estimation unit 44 is input to the combination processing unit 45 in the image processing unit 4. The combination processing unit 45 calculates the read position RP of the image data based on the shift amount data dyb, reads the image data M45 corresponding to the read position, and performs a process of shifting the image data based on the shift amount data dyb, The data in the overlapping area of the image data is combined.

図13並びに図14(a)及び(b)は、結合処理部45の動作を説明するための図である。結合処理部45は、図13に示されるように、奇数番目に位置するラインセンサ21O,…,21O,…,21Oに対応する画像データDI(O)をシフトさせずに、偶数番目に位置するラインセンサ21E,…,21E,…,21Eに対応する画像データDI(E)を、シフト量データdyb分だけ副走査方向にシフトさせて、副走査方向の位置ずれを無くしてから、奇数番目の画像データと偶数番目の画像データとを結合して合成画像データを生成することができる。この処理の代わりに、結合処理部45は、図14(a)及び(b)に示されるように、奇数番目に位置するラインセンサ21O,…,21O,…,21Oに対応する画像データDI(O)(k=1,…k,…,n)と、偶数番目に位置するラインセンサ21E,…,21E,…,21Eに対応する画像データDI(E)(k=1,…k,…,n)との両方をシフトし、これら両方のシフトのシフト量の合計値がシフト量データdybと同じになるようにして、副走査方向の位置ずれを無くしてから、奇数番目の画像データと偶数番目の画像データとを結合して合成画像データを生成することができる。なお、図14(a)は、低域除去部42で基準ラインとして読み出した副走査方向(Y方向)の位置Yにおける、隣接するラインセンサに対応する画像データDI(O)とDI(E)との両方を互いに逆方向にシフト量dyb/2ずつラインYからシフトさせて、シフト量データdybのシフトを行う場合を示している。図14(b)は、低域除去部42で基準ラインとして読み出した副走査方向(Y方向)における、隣接するラインセンサに対応する画像データDI(O)とDI(E)との両方を互いに逆方向にシフト量dyb/2ずつラインYに向けてシフトさせて、シフト量データdybのシフトを行う場合を示している。FIG. 13 and FIGS. 14A and 14B are diagrams for explaining the operation of the combination processing unit 45. Coupling processor 45, as shown in FIG. 13, the line sensor 21O 1 located odd, ..., 21O k, ..., without shifting the image data DI (O k) corresponding to 21O n, the even The image data DI (E k ) corresponding to the line sensors 21E 1 ,..., 21E k ,..., 21E n positioned in the second position is shifted in the sub-scanning direction by the shift amount data dyb. Then, the combined image data can be generated by combining the odd-numbered image data and the even-numbered image data. Instead of this processing, binding processing unit 45, as shown in FIGS. 14 (a) and (b), the line sensor 21O 1 located odd, ..., 21O k, ..., an image corresponding to 21O n data DI (O k) (k = 1, ... k, ..., n) and the line sensor 21E 1 located even-numbered, ..., 21E k, ..., image data DI (E k) corresponding to 21E n ( k = 1,... k,..., n), and the total shift amount of both shifts is the same as the shift amount data dyb, so that the positional deviation in the sub-scanning direction is eliminated. Thus, the combined image data can be generated by combining the odd-numbered image data and the even-numbered image data. Incidentally, FIG. 14 (a), at the position Y m in the sub scanning direction read as a reference line in the low range removing section 42 (Y-direction), the image data DI corresponding to the adjacent line sensor and (O k) DI ( E k ) is shifted from the line Y m by a shift amount dyb / 2 in the opposite direction to each other, and the shift amount data dyb is shifted. FIG. 14B shows both image data DI (O k ) and DI (E k ) corresponding to adjacent line sensors in the sub-scanning direction (Y direction) read out as a reference line by the low-frequency removing unit 42. the in toward the shift amount dyb / 2 by line Y m is shifted in the opposite directions, shows a case where the shift of the shift amount data dyb.

言い換えれば、結合処理部45は、シフト量データdybに基づいて、画像データの読み出し位置RPを算出し、その読み出し位置に対応する画像データM45を画像メモリ41から読み出し、奇数番目に位置するラインセンサ21O,…,21O,…,21Oのデータと偶数番目に位置するラインセンサ21E,…,21E,…,21Eのデータが重複するオーバーラップ領域を結合して画像データD45を生成する。シフト量データdybは、低域除去画像データによる類似度(相関データD43)から求められているので、ラインセンサ毎の性能ばらつき及び読取り条件の違いにより生じるレベル差の影響を抑えて、誤検出なく、精度のよい副走査方向の位置ずれを示すデータとして得ている。よって、結合処理部45は、このシフト量データdybに基づいて画像データの読み出し位置RPを算出すれば、精度よく、正確に各ラインに対応した読み出し位置を求めることができる。In other words, the combination processing unit 45 calculates the read position RP of the image data based on the shift amount data dyb, reads the image data M45 corresponding to the read position from the image memory 41, and the line sensor positioned at the odd number. 21O 1, ..., 21O k, ..., 21O n data and the line sensor 21E 1 located even-numbered, ..., 21E k, ..., the image data D45 by combining the overlapping region data 21E n overlap Generate. Since the shift amount data dyb is obtained from the similarity (correlation data D43) based on the low-frequency-removed image data, it is possible to suppress the influence of the level difference caused by the performance variation for each line sensor and the difference in the reading condition, and without erroneous detection. It is obtained as accurate data indicating the positional deviation in the sub-scanning direction. Therefore, if the combination processing unit 45 calculates the reading position RP of the image data based on the shift amount data dyb, the combining processing unit 45 can accurately and accurately obtain the reading position corresponding to each line.

画像処理部4において、低域除去部42は、オーバーラップ領域における画像データrMに対し、低域周波数成分を画像データから除去して低域除去画像データhMを生成し、ある副走査方向(Y方向)の位置Yを基準ラインとして、奇数番目に位置するラインセンサ21O,…,21O,…,21Oに対応するオーバーラップ領域における低域除去画像データと、偶数番目に位置するラインセンサ21E,…,21E,…,21Eに対応するオーバーラップ領域における低域除去画像データを求めて、これらを予め決められたライン数の低域除去基準データMOと低域除去比較データMEとして出力する。類似度算出部43は、低域除去基準データMOと低域除去比較データMEとを比較して類似度データ(相関データ)D43を算出し、シフト量推定部44は、検出基準ラインYについて類似度が最も高い(相関の最も大きい)低域除去比較データの副走査方向の位置に対応する位置ずれ量をシフト量データdybとして算出し、結合処理部45は、シフト量データdybに基づいて画像データを読み出し、結合した画像データD45を出力する。画像処理部4は、このような一連の処理を順次繰り返す。In the image processing unit 4, the low-frequency removing unit 42 generates low-frequency-removed image data hM by removing low-frequency components from the image data for the image data rM in the overlap region, and generates a certain sub-scanning direction (Y as a reference line position Y m direction), the line sensor 21O 1 located odd, ..., 21O k, ..., a low-frequency removed image data in the overlap region corresponding to 21O n, a line which is located even number , 21E k ,..., 21E n corresponding to the sensors 21E 1 ,..., 21E n are obtained as low-frequency-removed image data. Output as ME. Similarity calculation unit 43 compares the low-frequency canceling reference data MO and the low frequency removal comparison data ME calculates similarity data (correlation data) D43, the shift amount estimation unit 44, the detection reference line Y m A shift amount corresponding to the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity (the highest correlation) is calculated as shift amount data dyb, and the combination processing unit 45 is based on the shift amount data dyb. The image data is read and the combined image data D45 is output. The image processing unit 4 sequentially repeats such a series of processes.

図15は、図4(c)における画像、図5(c)における画像、図8における画像、又は、図9における画像を結合して得られた合成画像を示す図である。図15に示されるように、実施の形態1に係る画像読取装置1においては、隣接する偶数番目に位置するラインセンサと奇数番目に位置するラインセンサで生成された2つの画像データの副走査方向(Y方向)の位置ずれを補正し、図4(b)及び図5(b)に示される原稿60と同じ画像の合成画像データを生成することができる。例えば、図5(c)及び図9の場合には、奇数番目に位置するラインセンサ21O,…,21O,…,21Oの画像データと偶数番目に位置するラインセンサ21E,…,21E,…,21Eの画像データとは、副走査方向(Y方向)にずれていたが、実施の形態1に係る画像読取装置1によれば、図5(b)に示される原稿60と同じ画像の画像データを出力することができる。FIG. 15 is a diagram illustrating a composite image obtained by combining the image in FIG. 4C, the image in FIG. 5C, the image in FIG. 8, or the image in FIG. 9. As shown in FIG. 15, in the image reading apparatus 1 according to the first embodiment, the sub-scanning direction of two image data generated by the adjacent even-numbered line sensors and odd-numbered line sensors. The composite image data of the same image as that of the original 60 shown in FIGS. 4B and 5B can be generated by correcting the positional deviation in the (Y direction). For example, in the case shown in FIG. 5 (c) and 9, the line sensor 21O 1 located odd, ..., 21O k, ..., the line sensor 21E 1 located to the image data and the even-numbered 21O n, ..., The image data of 21E k ,..., 21E n are shifted in the sub-scanning direction (Y direction). However, according to the image reading apparatus 1 according to the first embodiment, the document 60 shown in FIG. The image data of the same image can be output.

図15は、また、結合処理部45から出力される結合処理後の画像データD45を概念的に示す説明図でもある。実施の形態1に係る画像読取装置1によれば、誤検出なく、精度よく得られたシフト量データdybから読み出し位置を求め、シフト量データdybによる値分ずらした位置とその位置の周辺のラインの画像データを用いて画像データD45を生成するので、奇数番目に位置するラインセンサ21O,…,21O,…,21Oと偶数番目に位置するラインセンサ21E,…,21E,…,21Eの副走査方向のずれが修正され、重複して読取っていたオーバーラップ領域の画像が結合される。FIG. 15 is also an explanatory diagram conceptually showing the combined image data D45 output from the combining processing unit 45. According to the image reading apparatus 1 according to the first embodiment, the read position is obtained from the shift amount data dyb accurately obtained without erroneous detection, and the position shifted by the value by the shift amount data dyb and the lines around the position because generates image data D45 by using the image data of the line sensor 21O 1 located odd, ..., 21O k, ..., the line sensor 21E 1 located to the even-numbered and 21O n, ..., 21E k, ... , 21E n in the sub-scanning direction is corrected, and images of overlapping regions that have been read in duplicate are combined.

図16(a)及び(b)は、撮像部2を搬送中に、ガラス面26に対する原稿60の位置が変わる例を示す図である。副走査方向(Y方向)の位置Yでは、原稿60は、ガラス面26から浮いており、位置Yuでは、原稿60は、ガラス面26に密着している。この場合には、ラインセンサ毎の性能ばらつき及び読取り条件の違いにより生じるレベル差(レベルの変動)は、同じラインセンサによる画像データ内であっても、副走査方向の位置により生じる。撮像部2は、副走査方向(Y方向)の各位置において順次画像データを処理しているため、搬送中に原稿60の位置が変わったり、レベル値の変動があったりしたとしても、画像処理部4では、各位置において、オーバーラップ領域の画像データから低域周波数成分を除去した画像データにより位置ずれ量を算出しているため、精度よく位置ずれ量を求めて正しく画像を結合することができる。また、図8から図10で説明したように、奇数番目に位置するラインセンサ21O,…,21O,…,21Oと偶数番目に位置するラインセンサ21E,…,21E,…,21Eのうちの隣接する全てのラインセンサ間で、個別にずれ量を算出しているので、主走査方向(X方向)に原稿60のガラス面26に対する位置が変わったとしても、正しく画像を結合することができる。FIGS. 16A and 16B are diagrams illustrating an example in which the position of the document 60 with respect to the glass surface 26 changes during conveyance of the imaging unit 2. In the position Y m in the sub-scanning direction (Y-direction), the document 60 is floated from the glass surface 26, in the position Yu, document 60 is adhered to the glass surface 26. In this case, the level difference (level fluctuation) caused by the performance variation for each line sensor and the difference in the reading condition is caused by the position in the sub-scanning direction even in the image data by the same line sensor. Since the imaging unit 2 sequentially processes image data at each position in the sub-scanning direction (Y direction), even if the position of the document 60 changes during conveyance or the level value fluctuates, image processing is performed. Since the position shift amount is calculated from the image data obtained by removing the low frequency component from the overlap region image data at each position, the unit 4 can accurately calculate the position shift amount and correctly combine the images. it can. Moreover, as explained in FIGS. 8 to 10, the line sensor 21O 1 located odd, ..., 21O k, ..., the line sensor 21E 1 located to the even-numbered and 21O n, ..., 21E k, ..., Since deviation amounts are calculated individually between all adjacent line sensors of 21E n , even if the position of the document 60 relative to the glass surface 26 changes in the main scanning direction (X direction), an image is correctly displayed. Can be combined.

以上に説明したように、実施の形態1に係る画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法においては、低域除去部42で、オーバーラップ領域における画像データrMに対する処理、すなわち、低域周波数成分を画像データから除去して低域除去画像データhMを生成し、ある副走査方向(Y方向)の位置Yを基準ラインとして、低域除去画像データのうちの予め決められたライン数の低域除去基準データMOと低域除去比較データMEを出力する処理を行い、類似度算出部43で、低域除去基準データMOと低域除去比較データMEとを比較して複数の類似度(相関データ)D43を算出する処理を行い、シフト量推定部44で複数の類似度のうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置に対応する位置ずれ量をシフト量データdybとして算出する処理を行い、結合処理部45で、このシフト量データdybに基づいて分割画像(奇数番目の画像及び偶数番目の画像の少なくとも一方の画像)の副走査方向の位置を適切な位置にシフトさせて、隣り合う分割画像同士を結合させた画像データを生成している。As described above, in the image reading device 1, the image processing unit (image processing device) 4, and the image processing method according to the first embodiment, the low-frequency removing unit 42 performs processing on the image data rM in the overlap region. treatment, i.e., to remove low frequency components from the image data to generate low-frequency removed image data hM, the position Y m of a sub-scanning direction (Y direction) as a reference line, of the low-frequency removed image data A process of outputting the low-frequency removal reference data MO and the low-frequency removal comparison data ME of a predetermined number of lines is performed, and the similarity calculation unit 43 compares the low-frequency removal reference data MO with the low-frequency removal comparison data ME. Then, a process of calculating a plurality of similarities (correlation data) D43 is performed, and the shift amount estimation unit 44 positions the low-frequency removal comparison data having the highest similarity among the plurality of similarities in the sub-scanning direction. The shift amount data dyb is calculated as the shift amount data dyb, and the combined processing unit 45 divides the divided image (at least one of the odd-numbered image and the even-numbered image) based on the shift amount data dyb. Is shifted to an appropriate position in the sub-scanning direction to generate image data obtained by combining adjacent divided images.

したがって、実施の形態1に係る画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法においては、オーバーラップ領域における画像データのうちの、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データである低域除去基準データMOと検索範囲“−y〜+y”内にあるライン数に等しい数の低域除去比較データMEを求めることができる。よって、実施の形態1に係る画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法によれば、誤検出なく、精度のよい副走査方向の位置ずれを示すシフト量データdybを算出できるとともに、このシフト量データdybを用いて、奇数番目の画像データと偶数番目の画像データの副走査方向の位置ずれを補正してから、結合した画像データを生成することができ、被読取物に対応する高品質な合成画像データを生成することができる。   Therefore, in the image reading device 1, the image processing unit (image processing device) 4, and the image processing method according to the first embodiment, the difference in performance and reading conditions for each line sensor in the image data in the overlap region. Thus, the low frequency band removal reference data MO which is image data in which the influence of the level difference caused by the above is suppressed, and the low frequency band removal comparison data ME equal to the number of lines in the search range “−y to + y” can be obtained. Therefore, according to the image reading device 1, the image processing unit (image processing device) 4, and the image processing method according to the first embodiment, the shift amount data dyb indicating the positional deviation in the sub-scanning direction with high accuracy without erroneous detection. The shift amount data dyb can be used to correct misalignment between the odd-numbered image data and the even-numbered image data in the sub-scanning direction, and combined image data can be generated. High-quality composite image data corresponding to the read object can be generated.

また、実施の形態1に係る画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法によれば、低域除去部42における低域成分抽出範囲を副走査方向に並ぶ複数ラインの範囲として、副走査方向の低域周波数成分が除去された低域除去基準データMOと低域除去比較データMEとを生成しているので、低域周波数成分の抽出の精度を落とさず、ハードウェアの構成の簡素化、演算処理の容易化を実現でき、演算規模を小さくすることができる。   In addition, according to the image reading device 1, the image processing unit (image processing device) 4, and the image processing method according to the first embodiment, a plurality of lines in which the low-frequency component extraction ranges in the low-frequency removing unit 42 are arranged in the sub-scanning direction. Since the low-frequency-removal reference data MO and the low-frequency-removed comparison data ME from which the low-frequency component in the sub-scanning direction has been removed are generated as the range of The hardware configuration can be simplified, the arithmetic processing can be facilitated, and the arithmetic scale can be reduced.

なお、上記画像処理部4では、図8及び図9で説明したように、低域除去画像データである低域除去基準データMOは、ラインセンサ21Oに対応するデジタルデータDI(O)のオーバーラップ領域の画像データに対応し、低域除去比較データMEは、ラインセンサ21Eに対応するデジタルデータDI(E)のオーバーラップ領域の画像データに対応する低域除去画像データであるとしたが、本発明は、これに限定されない。例えば、画像処理部4は、低域除去画像データである低域除去基準データMOをラインセンサ21Eに対応するデジタルデータDI(E)のオーバーラップ領域の画像データに対応させ、低域除去比較データMEをラインセンサ21Oに対応するデジタルデータDI(O)のオーバーラップ領域の画像データに対応させ、低域除去画像データを求め、低域除去基準データMOと低域除去比較データMEとを比較して相関データD43を算出するよう構成してもよい。In the image processing unit 4, as described with reference to FIGS. 8 and 9, the low-frequency removal reference data MO, which is low-frequency removal image data, is digital data DI (O k ) corresponding to the line sensor 21O k . Corresponding to the image data of the overlap region, the low-frequency removal comparison data ME is low-frequency-removed image data corresponding to the image data of the overlap region of the digital data DI (E k ) corresponding to the line sensor 21E k. However, the present invention is not limited to this. For example, the image processing unit 4 associates the low-frequency removal reference data MO, which is low-frequency-removed image data, with the image data in the overlap region of the digital data DI (E k ) corresponding to the line sensor 21E k, and performs low-frequency removal. The comparison data ME is made to correspond to the image data of the overlap area of the digital data DI (O k ) corresponding to the line sensor 21O k to obtain the low-frequency removal image data, and the low-frequency removal reference data MO and the low-frequency removal comparison data ME And the correlation data D43 may be calculated.

また、画像処理部4は、ラインセンサ21O又は21Eによる画像データDI(O)又はDI(E)のオーバーラップ領域dを低域除去基準データとして用い、隣接するラインセンサのオーバーラップ領域dlを低域除去比較データとして用いてもよく、オーバーラップ領域における画像データに対し、低域周波数成分を画像データから除去して低域除去画像データhMを生成し、低域除去画像データのうちの隣接するラインセンサによって重複して読取られるオーバーラップ領域の画像データから予め決められたライン数の低域除去基準データMOと低域除去比較データMEとを得ることができれば、上記実施の形態1と同様の効果を奏する。The image processing unit 4, using overlap region d r of the image data DI by the line sensor 21O or 21E (O k) or DI (E k) as a low-frequency canceling reference data, the overlap area of the adjacent line sensors dl may be used as low-frequency removal comparison data, and low-frequency component is removed from the image data for the image data in the overlap region to generate low-frequency removal image data hM. If the low-frequency removal reference data MO and the low-frequency removal comparison data ME having a predetermined number of lines can be obtained from the image data of the overlap region that is redundantly read by the adjacent line sensors, the first embodiment described above Has the same effect as.

実施の形態2.
実施の形態1に係る画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法は、画像処理部4内の低域除去部42,42bを図6及び図11に示されるように構成し、オーバーラップ低域除去部421において、低域成分抽出部422で注目画素P0の近傍の画像データの低域周波数成分である低域成分adcを抽出し、減算部423において画像データから低域成分adcを減算することで、低域除去画像データhMを生成するよう構成されている。これに対し、実施の形態2に係る画像読取装置、画像処理装置、及び画像処理方法は、実施の形態1における低域除去部42及び42bに代えて、図17に示される低域除去部42cを採用している。これ以外の点について、実施の形態2は、実施の形態1と同じである。したがって、実施の形態2の説明においては、図1をも参照する。
Embodiment 2. FIG.
In the image reading device 1, the image processing unit (image processing device) 4, and the image processing method according to the first embodiment, the low-frequency removing units 42 and 42b in the image processing unit 4 are shown in FIGS. In the overlap low-frequency removing unit 421, the low-frequency component extracting unit 422 extracts the low-frequency component adc that is the low-frequency component of the image data in the vicinity of the target pixel P0, and the subtracting unit 423 extracts the low-frequency component adc from the image data. By subtracting the low-frequency component adc, the low-frequency-removed image data hM is generated. In contrast, the image reading apparatus, the image processing apparatus, and the image processing method according to the second embodiment are replaced with the low frequency removing unit 42c shown in FIG. 17 instead of the low frequency removing units 42 and 42b according to the first exemplary embodiment. Is adopted. In other respects, the second embodiment is the same as the first embodiment. Therefore, FIG. 1 is also referred to in the description of the second embodiment.

図17は、実施の形態2に係る画像読取装置1内の画像処理部4において、低域除去部42の代わりに用いられる低域除去部42cの構成を示すブロック図である。図17において、図1及び図6を参照して説明した構成要素と同一又は対応する構成要素には、図6に示される符号と同じ符号を付している。   FIG. 17 is a block diagram illustrating a configuration of a low-frequency removing unit 42c used in place of the low-frequency removing unit 42 in the image processing unit 4 in the image reading apparatus 1 according to the second embodiment. In FIG. 17, the same or corresponding components as those described with reference to FIGS. 1 and 6 are denoted by the same reference numerals as those shown in FIG.

図17において、実施の形態2に係る画像読取装置1の画像処理部4における低域除去部42cは、オーバーラップ低域除去部421cを備えており、オーバーラップ低域除去部421cは、低域周波数成分を除去し、高域周波数成分を抽出する高域成分抽出部426を備えている。その他のオーバーラップMO画像メモリ424と、オーバーラップME画像メモリ425の構成及び動作は、実施の形態1で示されるものと同じであり、その詳細な説明は省略する。   In FIG. 17, the low-frequency removing unit 42c in the image processing unit 4 of the image reading apparatus 1 according to the second embodiment includes an overlap low-frequency removing unit 421c, and the overlapping low-frequency removing unit 421c is a low-frequency unit. A high-frequency component extraction unit 426 is provided that removes frequency components and extracts high-frequency components. Other configurations and operations of the overlap MO image memory 424 and the overlap ME image memory 425 are the same as those described in the first embodiment, and a detailed description thereof will be omitted.

低域除去部42cにおけるオーバーラップ低域除去部421cでは、画像メモリ41内のオーバーラップ領域における画像データrM(基準画像データrMOと比較画像データrME)が入力され、オーバーラップ領域における画像データrMに対し、画像の低域周波数成分を画像データから除去して低域除去画像データhMを生成する。この動作は、実施の形態1における低域除去部42のオーバーラップ低域除去部421と同じである。図17において、オーバーラップ低域除去部421cへ入力されたオーバーラップ領域における画像データrMは、高域成分抽出部426へ入力される。高域成分抽出部426では、オーバーラップ領域の画像データrM内の注目画素P0を中心とする例えば、副走査方向9ラインの範囲(図7の低域成分抽出範囲b2)において、注目画素P0(又はそれに対応する位置)の近傍の画像データにおける副走査方向の高域周波数成分を抽出する。   In the overlap low-frequency removal unit 421c in the low-frequency removal unit 42c, image data rM (reference image data rMO and comparison image data rME) in the overlap region in the image memory 41 is input, and the image data rM in the overlap region is input. On the other hand, the low frequency component of the image is removed from the image data to generate the low frequency removed image data hM. This operation is the same as the overlap low-frequency removal unit 421 of the low-frequency removal unit 42 in the first embodiment. In FIG. 17, the image data rM in the overlap region input to the overlap low frequency removing unit 421c is input to the high frequency component extracting unit 426. In the high frequency component extraction unit 426, for example, in the range of 9 lines in the sub-scanning direction (low frequency component extraction range b2 in FIG. 7) centered on the target pixel P0 in the image data rM of the overlap region, the target pixel P0 ( Alternatively, a high frequency component in the sub-scanning direction is extracted from image data in the vicinity of the corresponding position).

高域成分抽出部426における画像データの高域周波数成分の抽出は、実施の形態1で図7に示す低域成分抽出範囲b2と同じ範囲に位置する画素から行えばよく、具体的には、帯域通過フィルタ(BPF)及び高域通過フィルタ(HPF)等により行い、ライン間の画素で副走査方向のBPF処理を行い、副走査方向の高域周波数成分を抽出する。この場合、BPF処理により除去される低域周波数成分は、ライン周波数の数ライン分の1(例えば、図7では1/9)として緩やかに変化する低域周波数成分を除き、それ以外の高域周波数成分を通過させるようなフィルタ係数を設定すればよい。   The extraction of the high frequency component of the image data in the high frequency component extraction unit 426 may be performed from pixels located in the same range as the low frequency component extraction range b2 shown in FIG. 7 in the first embodiment. A band-pass filter (BPF), a high-pass filter (HPF), and the like are performed, BPF processing in the sub-scanning direction is performed on pixels between lines, and a high-frequency component in the sub-scanning direction is extracted. In this case, the low frequency components removed by the BPF processing are the high frequency components other than the low frequency components except for the low frequency components that gently change as 1 / (for example, 1/9 in FIG. 7) of the line frequency. What is necessary is just to set the filter coefficient which allows a frequency component to pass.

なお、高域成分抽出部426で抽出した高域周波数成分に対し、予め決められた係数を乗算し、ゲイン調整等の変換を行うよう構成することもできる。また、高域周波数成分の抽出範囲は、図7に示される副走査方向9ラインの低域成分抽出範囲b2に限定されるものではなく、ラインセンサ間のレベル差につながる各ラインセンサで取得した画像データの値の変化、例えば、副走査方向に数ラインより多くのライン周期に亘り変化するような、比較的緩やかに変化する低域周波数成分を除く高域周波数成分を抽出できればよく、副走査方向と主走査方向の二次元方向で求めることもできる。なお、実施の形態2においては、実施の形態1と同様に、低域周波数成分除去の精度を落とすことはなく、ハードウェアの構成の簡素化、演算処理の容易化を実現でき、演算規模を小さくすることができる。   Note that the high frequency component extracted by the high frequency component extraction unit 426 may be multiplied by a predetermined coefficient to perform conversion such as gain adjustment. Further, the extraction range of the high frequency component is not limited to the low frequency component extraction range b2 of 9 lines in the sub-scanning direction shown in FIG. 7, but is acquired by each line sensor that leads to a level difference between the line sensors. It is only necessary to extract a change in the value of the image data, for example, a high-frequency component excluding a low-frequency component that changes relatively slowly, such as a change in a sub-scanning direction over several line cycles. It can also be obtained in the two-dimensional direction of the direction and the main scanning direction. In the second embodiment, as in the first embodiment, the accuracy of low frequency component removal is not reduced, the hardware configuration can be simplified, the arithmetic processing can be facilitated, and the calculation scale can be increased. Can be small.

高域成分抽出部426で抽出した高域周波数成分は、画像データrMから近傍にある画像の低域周波数成分を除去した低域除去画像データhMとして、オーバーラップ低域除去部421cから出力される。低域除去画像データhMは、高域周波数成分を抽出した画像データであるので、符号付きのパターン及びエッジ等の輪郭での変化情報を持つ値の画像データとなる。この低域除去画像データhMは、符号付きの値のままでも、又は、予め定められたオフセット値により正の値へ変換したデータとしてもよい。ただし、減算結果を絶対値化した値は、エッジなどの輪郭情報の有無を示す値となるため、この場合の低域除去画像データhMでは、符号値(変化する方向を示すことになる)を保持する。   The high-frequency component extracted by the high-frequency component extracting unit 426 is output from the overlap low-frequency removing unit 421c as low-frequency-removed image data hM obtained by removing the low-frequency component of the image in the vicinity from the image data rM. . Since the low-frequency-removed image data hM is image data obtained by extracting a high-frequency component, the low-frequency-removed image data hM is image data having a value having change information on a signed pattern and an edge or the like. The low-frequency-removed image data hM may be a signed value or may be data converted to a positive value by a predetermined offset value. However, since the value obtained by converting the subtraction result into an absolute value is a value indicating the presence / absence of contour information such as an edge, in this case, in the low-frequency-removed image data hM, a code value (indicating a changing direction) is used. Hold.

オーバーラップ低域除去部421cへ入力されたオーバーラップ領域の画像データrMは、オーバーラップ領域における画像データDIのうち基準画像データrMOと比較画像データrMEを含んでいる。このため、高域成分抽出部426により高域周波数成分を抽出したことによる低域除去画像データhMもまた、低域除去基準データとなる画像データrMOと低域除去比較データとなる画像データrMEから低域周波数成分を除去した低域除去基準データhMO及び低域除去比較データhMEとなる。   The overlap region image data rM input to the overlap low-frequency removal unit 421c includes reference image data rMO and comparison image data rME among the image data DI in the overlap region. For this reason, the low-frequency-removed image data hM obtained by extracting the high-frequency component by the high-frequency component extracting unit 426 is also obtained from the image data rMO serving as the low-frequency removal reference data and the image data rME serving as the low-frequency removal comparison data. The low band removal reference data hMO and the low band removal comparison data hME are obtained by removing the low band frequency component.

低域除去部42cにおけるオーバーラップMO画像メモリ424とオーバーラップME画像メモリ425において、低域除去基準データhMOはオーバーラップMO画像メモリ424に、低域除去比較データhMEはオーバーラップME画像メモリ425にそれぞれ格納され、低域除去部42cからの出力として、低域周波数成分を除去した予め決められたライン数の低域除去基準データMOと低域除去比較データMEが読み出され、出力される。上記以外の点において、低域除去部42cは、実施の形態1の図6に示されるものと同じである。   In the overlap MO image memory 424 and the overlap ME image memory 425 in the low band removal unit 42c, the low band removal reference data hMO is stored in the overlap MO image memory 424, and the low band removal comparison data hME is stored in the overlap ME image memory 425. The low-frequency removal reference data MO and the low-frequency removal comparison data ME having a predetermined number of lines from which the low-frequency components have been removed are read out and output as outputs from the low-frequency removal unit 42c. Except for the above, the low-frequency removal unit 42c is the same as that shown in FIG. 6 of the first embodiment.

また、画像処理部4は、図17に示される低域除去部42cの代わりに、図18の低域除去部42dを用いることもできる。図18に示される低域除去部42dにおいては、画像メモリ41内のオーバーラップ領域における画像データrMを基準データとなる画像データrMOと比較データとなる画像データrMEとして別々に読み出して、それぞれの画像データに対し図17のオーバーラップ低域除去部421cと同様の処理を行い、高域周波数成分を抽出したことによる低域除去基準データhMO及び低域除去比較データhMEを求める。図18において、図17に示される構成要素と同一又は対応する構成要素には、図17における符号と同じ符号を付す。図18に示される低域除去部42dは、2つのオーバーラップ低域除去部421c1及び421c2を備えている点において、1つのオーバーラップ低域除去部421cを備えている図17の低域除去部42cと相違する。図18に示されるオーバーラップ低域除去部421c1及び421c2には、オーバーラップ領域における画像データrMのうちの基準画像データrMO及び比較画像データrMEがそれぞれ入力される。オーバーラップ低域除去部421c1は、オーバーラップ領域における画像データrMのうちの基準画像データrMOに対し、画像の低域周波数成分を画像データから除去して低域除去基準データhMOを出力する。オーバーラップ低域除去部421c2は、オーバーラップ領域における画像データrMのうちの比較画像データrMEに対し、画像の低域周波数成分を画像データから除去して低域除去比較データhMEを出力する。   Further, the image processing unit 4 can use the low frequency removing unit 42d of FIG. 18 instead of the low frequency removing unit 42c shown in FIG. In the low-frequency removal unit 42d shown in FIG. 18, the image data rM in the overlap region in the image memory 41 is read out separately as image data rMO as reference data and image data rME as comparison data, and each image is read out. The same processing as that of the overlap low-frequency removal unit 421c in FIG. 17 is performed on the data, and low-frequency removal reference data hMO and low-frequency removal comparison data hME obtained by extracting high-frequency components are obtained. 18, components that are the same as or correspond to the components shown in FIG. 17 are given the same reference numerals as those in FIG. The low-frequency removing unit 42d shown in FIG. 18 includes two overlapping low-frequency removing units 421c1 and 421c2, and the low-frequency removing unit shown in FIG. 17 includes one overlapping low-frequency removing unit 421c. 42c. Reference image data rMO and comparison image data rME of the image data rM in the overlap region are input to the overlap low-frequency removal units 421c1 and 421c2 shown in FIG. The overlap low-frequency removal unit 421c1 removes the low-frequency component of the image from the image data and outputs the low-frequency removal reference data hMO with respect to the reference image data rMO in the image data rM in the overlap region. The overlap low-frequency removal unit 421c2 removes the low-frequency component of the image from the image data and outputs low-frequency removal comparison data hME for the comparison image data rME in the image data rM in the overlap region.

図18の低域除去部42dにおけるオーバーラップMO画像メモリ424とオーバーラップME画像メモリ425において、低域除去基準データhMOはオーバーラップMO画像メモリ424に、低域除去比較データhMEはオーバーラップME画像メモリ425にそれぞれ格納され、低域除去部42dからの出力として、低域周波数成分を除去した予め決められたライン数の低域除去基準データMOと低域除去比較データMEを読み出し、出力する。以上に説明した点を除き、図18に示される低域除去部42dは、図17に示される低域除去部42cと同じである。   In the overlap MO image memory 424 and the overlap ME image memory 425 in the low band removal unit 42d in FIG. 18, the low band removal reference data hMO is stored in the overlap MO image memory 424, and the low band removal comparison data hME is the overlap ME image. The low band removal reference data MO and the low band removal comparison data ME having a predetermined number of lines from which the low band frequency components have been removed are read out and output as outputs from the low band removing unit 42d. Except for the points described above, the low-frequency removal unit 42d shown in FIG. 18 is the same as the low-frequency removal unit 42c shown in FIG.

以上のように、実施の形態2に係る画像処理部4内の低域除去部42c及び42dによれば、オーバーラップ低域除去部421cにおいて、オーバーラップ領域における画像データrMから高域周波数成分を抽出することで、低域除去画像データhM(低域除去基準データhMO及び低域除去比較データhME)を生成し、低域除去画像データのうちの低域除去基準データMOと、位置ずれ量dYが−yから+yまでの範囲内の値をとる低域除去比較データMEとして出力することができ、重複して読取られた同じオーバーラップ領域の低域除去基準データMOと低域除去比較データMEを、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データとして得ることができる。   As described above, according to the low frequency removing units 42c and 42d in the image processing unit 4 according to the second embodiment, the overlap low frequency removing unit 421c extracts high frequency components from the image data rM in the overlap region. By extracting, low-frequency-removed image data hM (low-frequency-removed reference data hMO and low-frequency-removed comparison data hME) is generated, and the low-frequency-removed reference data MO in the low-frequency removed image data and the positional deviation amount dY. Can be output as low-frequency-removed comparison data ME that takes a value in the range from -y to + y, and low-frequency-removed reference data MO and low-frequency-removed comparative data ME of the same overlap area read in duplicate Can be obtained as image data in which the influence of the level difference caused by the difference in performance and reading conditions for each line sensor is suppressed.

また、オーバーラップ低域除去部421cにおける高域周波数成分抽出範囲を副走査方向に並ぶラインとしたので、副走査方向の低域周波数成分が除去された低域除去基準データMOと低域除去比較データMEとなり、低域周波数成分の抽出の精度を落とさず、ハードウェアの構成の簡素化、演算処理の容易化を実現でき、演算規模を小さくすることができる。   In addition, since the high frequency component extraction range in the overlap low frequency removing unit 421c is a line arranged in the sub-scanning direction, the low frequency removal reference data MO from which the low frequency component in the sub-scanning direction has been removed is compared with the low frequency removal comparison. It becomes the data ME, and the simplification of the hardware configuration and the simplification of the arithmetic processing can be realized without reducing the accuracy of the extraction of the low frequency components, and the arithmetic scale can be reduced.

したがって、実施の形態2に係る低域除去部42cによる画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法によれば、オーバーラップ領域における画像データのうちの、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データである低域除去基準データMOと検索範囲“−y〜+y”内にあるライン数に等しい数の低域除去比較データMEを求めることができる。このため、実施の形態2に係る低域除去部42cによる画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法によれば、誤検出なく、精度のよい副走査方向の位置ずれを示すシフト量データdybを算出できるとともに、誤検出なく、精度よく得られたシフト量データdybを位置ずれ量を示す値として得て、結合した画像データを生成することができるので、被読取物に対応する高品質な合成画像データを生成することができる。   Therefore, according to the image reading device 1, the image processing unit (image processing device) 4, and the image processing method by the low-frequency removing unit 42 c according to the second embodiment, each line sensor among the image data in the overlap region. The low-frequency-removal reference data MO, which is image data in which the influence of the level difference caused by the difference in performance and reading conditions is suppressed, and the number of low-frequency-removed comparison data equal to the number of lines in the search range “−y to + y” ME can be determined. Therefore, according to the image reading device 1, the image processing unit (image processing device) 4, and the image processing method by the low-frequency removing unit 42c according to the second embodiment, the position in the sub-scanning direction can be accurately detected without erroneous detection. Since the shift amount data dyb indicating the deviation can be calculated, and the shift amount data dyb obtained with high accuracy without any misdetection can be obtained as a value indicating the positional deviation amount, and combined image data can be generated. High-quality composite image data corresponding to an object can be generated.

実施の形態3.
実施の形態1及び実施の形態2に係る画像読取装置1の機能の一部は、ハードウェア構成で実現されてもよいし、あるいは、CPU(central processing unit)を含むマイクロプロセッサにより実行されるコンピュータプログラムで実現されてもよい。画像読取装置1の機能の一部がコンピュータプログラムで実現される場合には、マイクロプロセッサは、コンピュータ読取り可能な記憶媒体から、又は、インターネットなどの通信によって、当該コンピュータプログラムをロードし実行することによって当該機能の一部を実現することができる。
Embodiment 3 FIG.
A part of the functions of the image reading apparatus 1 according to the first embodiment and the second embodiment may be realized by a hardware configuration, or may be executed by a microprocessor including a CPU (central processing unit). It may be realized by a program. When a part of the functions of the image reading device 1 is realized by a computer program, the microprocessor loads and executes the computer program from a computer-readable storage medium or by communication such as the Internet. Part of the function can be realized.

図19は、実施の形態3に係る画像読取装置1bの機能の一部をコンピュータプログラムで実現する場合の構成を示す機能ブロック図である。図19に示されるように、画像読取装置1bは、撮像部2と、A/D変換部3と、演算装置5とを備える。演算装置5は、CPUを含むプロセッサ51、RAM(random access memory)52、不揮発性メモリ53、大容量記憶媒体54、及びバス55を備える。不揮発性メモリ53としては、例えば、フラッシュメモリを使用することができる。また、大容量記憶媒体54としては、例えば、ハードディスク(磁気ディスク)、光ディスク、又は、半導体記憶装置を使用することができる。   FIG. 19 is a functional block diagram showing a configuration when a part of the functions of the image reading apparatus 1b according to the third embodiment is realized by a computer program. As illustrated in FIG. 19, the image reading device 1 b includes an imaging unit 2, an A / D conversion unit 3, and an arithmetic device 5. The arithmetic device 5 includes a processor 51 including a CPU, a random access memory (RAM) 52, a nonvolatile memory 53, a mass storage medium 54, and a bus 55. As the non-volatile memory 53, for example, a flash memory can be used. Further, as the large-capacity storage medium 54, for example, a hard disk (magnetic disk), an optical disk, or a semiconductor storage device can be used.

A/D変換部3は、図1のA/D変換部3と同じ機能を有する。撮像部2が出力する電気信号SIは、A/D変換部3によってデジタルデータに変換され、プロセッサ51を介してRAM52に格納される。   The A / D conversion unit 3 has the same function as the A / D conversion unit 3 of FIG. The electrical signal SI output from the imaging unit 2 is converted into digital data by the A / D conversion unit 3 and stored in the RAM 52 via the processor 51.

プロセッサ51は、不揮発性メモリ53又は大容量記憶媒体54からコンピュータプログラムをロードし、実行することにより、図1に示される画像処理部4の機能を実現することができる。   The processor 51 can realize the functions of the image processing unit 4 shown in FIG. 1 by loading and executing a computer program from the nonvolatile memory 53 or the large-capacity storage medium 54.

図20は、実施の形態3の演算装置5による処理の一例を概略的に示すフローチャートである。図20に示されるように、プロセッサ51は、まず、画像データのうちのオーバーラップ領域におけるデータを読み出し、画素範囲における画像の低域周波数成分を画像データから除去し、低域周波数成分が除去された画像データのうちの、予め決められたライン数の低域除去基準データMOと低域除去比較データMEを抽出するオーバーラップ領域低域除去処理を実行する(ステップS1)。次に、プロセッサ51は、低域除去画像データである低域除去基準データMOと低域除去比較データMEとを比較する類似度算出処理を実行する(ステップS2)。その後、プロセッサ51は、シフト量推定処理を実行してシフト量データを求める(ステップS3)。最後に、プロセッサ51は、結合処理を実行する(ステップS4)。なお、演算装置5によるステップS1〜S4の処理は、実施の形態1における画像処理部4が行う処理と同じである。   FIG. 20 is a flowchart schematically illustrating an example of processing performed by the arithmetic device 5 according to the third embodiment. As shown in FIG. 20, the processor 51 first reads data in the overlap region of the image data, removes the low frequency component of the image in the pixel range from the image data, and removes the low frequency component. In the image data, an overlap region low-frequency removal process for extracting low-frequency removal reference data MO and low-frequency removal comparison data ME of a predetermined number of lines is executed (step S1). Next, the processor 51 executes a similarity calculation process for comparing the low-frequency removal reference data MO, which is low-frequency removal image data, with the low-frequency removal comparison data ME (step S2). Thereafter, the processor 51 executes shift amount estimation processing to obtain shift amount data (step S3). Finally, the processor 51 executes a combination process (step S4). Note that the processing in steps S1 to S4 by the arithmetic device 5 is the same as the processing performed by the image processing unit 4 in the first embodiment.

以上に説明したように、実施の形態3に係る画像読取装置1bにおいては、オーバーラップ領域における画像データに対する処理として、低域周波数成分を画像データから除去して予め決められたライン数の低域除去基準データMOと低域除去比較データMEとを得て、類似度を算出し、算出された複数の類似度のうちから最も高い類似度が得られた低域除去比較データの副走査方向の位置からシフト量データを算出しており、このシフト量データdybに基づいて分割画像の副走査方向の位置をシフトさせて、結合した画像データを生成している。よって、実施の形態3に係る画像読取装置1bにおいては、オーバーラップ領域における画像データに対する処理として、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データである低域除去基準データMOと検索範囲“−y〜+y”内にあるライン数に等しい数の低域除去比較データMEを求めることができる。このため、実施の形態4によれば、誤検出なく、精度のよい副走査方向の位置ずれを示すシフト量データdybを算出できるとともに、誤検出なく、精度よく得られたシフト量データdybを位置ずれ量を示す値として得て、得られたシフト量データに基づいて画像メモリ41から画像データを読み出し、読み出された画像データを結合した画像データを生成することができる。このため、実施の形態3によれば、正確に画像データを結合して被読取物に対応する高品質な合成画像データを生成することができる。   As described above, in the image reading apparatus 1b according to the third embodiment, as a process for the image data in the overlap region, the low frequency component having a predetermined number of lines is removed by removing the low frequency components from the image data. The removal reference data MO and the low-frequency removal comparison data ME are obtained, the similarity is calculated, and the low-frequency removal comparison data in which the highest similarity is obtained among the calculated similarities in the sub-scanning direction is obtained. Shift amount data is calculated from the position, and the position of the divided image in the sub-scanning direction is shifted based on the shift amount data dyb to generate combined image data. Therefore, in the image reading apparatus 1b according to the third embodiment, the processing for the image data in the overlap region is image data in which the influence of the level difference caused by the difference in performance and reading conditions for each line sensor is suppressed. The number of low-frequency band removal comparison data ME equal to the number of lines in the band-removal reference data MO and the search range “−y to + y” can be obtained. For this reason, according to the fourth embodiment, it is possible to calculate the shift amount data dyb indicating the positional deviation in the sub-scanning direction with high accuracy without erroneous detection, and the position of the shift amount data dyb obtained with high accuracy without erroneous detection. It can be obtained as a value indicating the shift amount, read out the image data from the image memory 41 based on the obtained shift amount data, and generate image data by combining the read image data. Therefore, according to the third embodiment, it is possible to accurately combine image data and generate high-quality composite image data corresponding to an object to be read.

実施の形態4.
実施の形態1においては、図4(a)に示されるように、撮像部2の長手方向の一方の端部(例えば、左端)から数えて奇数番目に位置するラインセンサ21O,…,21O,…,21Oの光軸27Oと偶数番目に位置するラインセンサ21E,…,21E,…,21Eの光軸27Eとが交差する場合を説明した。実施の形態4においては、撮像部2の長手方向の一方の端部(例えば、図21(a)及び(b)が描かれている紙面に垂直な方向における手前側)から数えて奇数番目に位置するラインセンサ21O,…,21O,…,21O(すなわち、ラインセンサ21O)の光軸28Oと偶数番目に位置するラインセンサ21E,…,21E,…,21E(すなわち、ラインセンサ21E)の光軸28Eとが交差せず、平行である場合について説明する。実施の形態4に係る画像読取装置は、光軸28Oと光軸28Eが互いに平行である点を除き、実施の形態1に係る画像読取装置1と実質的に同じである。したがって、実施の形態4の説明においては、図1をも参照する。
Embodiment 4 FIG.
In the first embodiment, as shown in FIG. 4A, the line sensors 21O 1 ,..., 21O located at odd numbers from one end (for example, the left end) in the longitudinal direction of the imaging unit 2 are positioned. k, ..., the line sensor 21E 1 located to the even-numbered and the optical axis 27O of 21O n, ..., 21E k, ..., and the optical axis 27E of 21E n has been described a case where intersecting. In the fourth embodiment, an odd number is counted from one end of the imaging unit 2 in the longitudinal direction (for example, the front side in the direction perpendicular to the paper surface on which FIGS. 21A and 21B are drawn). line sensor 21O 1 located, ..., 21O k, ..., 21O n ( i.e., the line sensor 21O) line sensor 21E 1 located to the even-numbered and the optical axis 28O of, ..., 21E k, ..., 21E n ( i.e., The case where the optical axis 28E of the line sensor 21E) does not intersect and is parallel will be described. The image reading apparatus according to the fourth embodiment is substantially the same as the image reading apparatus 1 according to the first embodiment except that the optical axis 28O and the optical axis 28E are parallel to each other. Therefore, FIG. 1 is also referred to in the description of the fourth embodiment.

図21(a)及び(b)は、実施の形態4に係る画像読取装置の撮像部2の奇数番目に位置するラインセンサ21O,…,21O,…,21Oの光軸28Oと偶数番目に位置するラインセンサ21E,…,21E,…,21Eの光軸28Eとが平行である場合の、被読取物としての原稿60とラインセンサとの位置関係を示す概略的な側面図である。図21(a)は、原稿60が原稿台載置面であるガラス面26に密着している場合を示し、図21(b)は、原稿60がガラス面26から少し浮いて離れている場合を示す。Figure 21 (a) and (b), the line sensor 21O 1 positioned to the odd-numbered image pickup section 2 of the image reading apparatus according to the fourth embodiment, ..., 21O k, ..., the optical axis 28O and even 21O n position the line sensor 21E 1, ..., 21E k to th, ..., when the optical axis 28E of 21E n are parallel, schematic side showing the positional relationship between the document 60 and the line sensor as the read object FIG. FIG. 21A shows a case where the document 60 is in close contact with the glass surface 26 which is the document table mounting surface, and FIG. 21B shows a case where the document 60 is slightly lifted away from the glass surface 26. Indicates.

実施の形態4に係る画像読取装置おいては、図21(a)に示されるように原稿60がガラス面26に密着している場合及び図21(b)に示されるように原稿60がガラス面26から離れている場合のいずれの場合であっても、奇数番目に位置するラインセンサ21O,…,21O,…,21Oによる原稿60の読取画像はほとんど変化せず、同様に、偶数番目に位置するラインセンサ21E,…,21E,…,21Eによる原稿60の読取画像はほとんど変化しない。また、副走査方向(Y方向)に撮像部2が搬送される場合、奇数番目に位置するラインセンサ21O,…,21O,…,21Oは、偶数番目に位置するラインセンサ21E,…,21E,…,21Eに比べて、同じ位置の画像を時間的に遅れて取得するが、光軸28Oと光軸28Eとが平行であるので、読取る副走査方向の位置のずれはほぼ一定量YLとして求めることができる。ただし、ほぼ一定量YLには微小な位置ずれが加わる場合がある。微小な位置ずれとしては、ラインセンサの取り付け誤差等による光軸28O又は光軸28Eの位置ずれと搬送速度の時間的なゆらぎ(すなわち、速度変動)による位置ずれとを含む微小位置ずれbtを含む。In the image reading apparatus according to the fourth embodiment, when the document 60 is in close contact with the glass surface 26 as shown in FIG. 21A and when the document 60 is glass as shown in FIG. in any case when you are away from the surface 26, the line sensor 21O 1 located odd, ..., 21O k, ..., the read image of the document 60 by 21O n hardly changes, similarly, line sensor 21E 1 located even-numbered, ..., 21E k, ..., the read image of the document 60 by 21E n is hardly changed. Also, when the imaging unit 2 is conveyed in the sub-scanning direction (Y-direction), the line sensor 21O 1 located odd, ..., 21O k, ..., 21O n is the line sensor 21E 1 located even number, ..., 21E k, ..., compared to 21E n, is to acquire an image of the same position temporally delayed, since the optical axis 28O and the optical axis 28E are parallel, the positional deviation in the sub-scanning direction to read the It can be determined as a substantially constant amount YL. However, a slight positional shift may be added to the substantially constant amount YL. The minute positional deviation includes a minute positional deviation bt including a positional deviation of the optical axis 28O or the optical axis 28E due to an attachment error of the line sensor or the like and a positional deviation due to a temporal fluctuation (that is, speed fluctuation) of the conveyance speed. .

また、実施の形態1と同様に、ラインセンサ毎に、性能のばらつき及び照明分布などの読取り条件の違いがあるため、ラインセンサ21Oが生成する画像データDI(O)と、ラインセンサ21Eが生成する画像データDI(E)との間に、ラインセンサ毎に読取った画像データのレベル差(明暗の差、画素データの値の差)が生じる場合がある。Similarly to the first embodiment, since there is a difference in reading conditions such as performance variation and illumination distribution for each line sensor, the image data DI (O k ) generated by the line sensor 21O and the line sensor 21E There may be a difference in level of image data read for each line sensor (difference in brightness and difference in pixel data) between the generated image data DI (E k ).

図22は、原稿を読取った際の偶数番目に位置するラインセンサ21O,21Ok+1に対応する画像データDI(O),DI(Ok+1)と奇数番目に位置するラインセンサ21E,21Ek+1に対応する画像データDI(E),DI(Ek+1)とを示している。それぞれは、副走査方向の位置(ライン)が、一定量YLに微小位置ずれbt分を加算した量(すなわち、YL+bt)ずれている。FIG. 22 shows image data DI (O k ) and DI (O k + 1 ) corresponding to the even-numbered line sensors 21O k and 21O k + 1 when the document is read, and the odd-numbered line sensors 21E k and 21E. image data DI corresponding to k + 1 (E k), shows the DI (E k + 1). In each case, the position (line) in the sub-scanning direction is shifted by an amount obtained by adding a minute position shift bt to a certain amount YL (that is, YL + bt).

このため、画像処理部4では、画像メモリ41への書込み時に奇数番目に位置するラインセンサ21O,…,21O,…,21Oによる読取画像、又は、偶数番目に位置するラインセンサ21E,…,21E,…,21Eによる読取画像のいずれか一方、又は、両方を、副走査方向にほぼ一定量YL分ずらす処理を行う。これにより、図23に示されるように、画像メモリ41に格納される画像データは、副走査方向の位置(ライン)がbtだけずれて画像メモリ41に格納される。Therefore, the image processing unit 4, the line sensor 21O 1 located odd when writing to the image memory 41, ..., 21O k, ..., the image reading by 21O n, or line sensor 21E 1 located even number ,..., 21E k ,..., 21E n , one or both of the scanned images are shifted by a substantially constant amount YL in the sub-scanning direction. Accordingly, as shown in FIG. 23, the image data stored in the image memory 41 is stored in the image memory 41 with the position (line) in the sub-scanning direction shifted by bt.

なお、実施の形態4における上記説明では、画像メモリ41への画像データの書込み時に、奇数番目の読取画像又は偶数番目の読取画像を副走査方向に一定量YL分ずらす処理を行う(書込まれる画像データに処理を行う)場合を説明した。しかし、低域除去部42及び結合処理部45において画像データを読み出す際に、奇数番目の読取画像又は偶数番目の読取画像を副走査方向に一定量YL分を、読み出し位置にオフセット分として加えて、位置を求める処理を行う(読み出された画像データに処理を行う)ように構成してもよい。   In the above description of the fourth embodiment, when the image data is written to the image memory 41, a process of shifting the odd-numbered read image or the even-numbered read image by a certain amount YL in the sub-scanning direction is performed (written). A case where image data is processed) has been described. However, when the image data is read out by the low-frequency removing unit 42 and the combination processing unit 45, a certain amount YL of the odd-numbered read image or even-numbered read image is added in the sub-scanning direction as an offset to the reading position. Alternatively, the position obtaining process may be performed (the read image data is processed).

画像処理部4は、副走査方向の微小位置ずれbtを求め、画像を結合するために、オーバーラップ領域における画像データに対して次の処理を行う。すなわち、画像処理部4は、オーバーラップ領域における画像データから低域周波数成分を除去して予め決められたライン数の低域除去基準データMOと低域除去比較データMEとを得て、得られた低域除去基準データと低域除去比較データとを比較して類似度を算出し、算出された類似度のうちの最も高い類似度が得られた低域除去比較データの副走査方向の位置からシフト量データを算出し、算出されたシフト量データにより画像メモリ41から画像データを読み出し、読み出された画像データを結合処理する。このような処理を行う構成、及びこのような処理動作は、上記実施の形態1のものと同じである。   The image processing unit 4 calculates the minute positional deviation bt in the sub-scanning direction, and performs the following processing on the image data in the overlap region in order to combine the images. That is, the image processing unit 4 obtains the low-frequency-removal reference data MO and the low-frequency-removed comparison data ME having a predetermined number of lines by removing low-frequency components from the image data in the overlap region. The similarity is calculated by comparing the low-pass removal reference data and the low-pass removal comparison data, and the position in the sub-scanning direction of the low-pass removal comparison data from which the highest similarity is obtained among the calculated similarities Shift amount data is calculated from the image data, image data is read from the image memory 41 based on the calculated shift amount data, and the read image data is combined. The configuration for performing such processing and such processing operation are the same as those in the first embodiment.

以上に説明したように、実施の形態4に係る画像読取装置においては、撮像部2による撮像時に、原稿60若しくは撮像部2のいずれか一方、又は、両方を副走査方向に移動する際の搬送機による搬送速度に時間的なゆらぎ(すなわち、速度変動)がある場合であっても、実施の形態1の場合と同様に、オーバーラップ領域における画像データに対しての処理を行うことができる。すなわち、実施の形態4に係る画像読取装置においては、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データである低域除去基準データMOと低域除去比較データMEを求めることができ、誤検出なく、精度のよい副走査方向の位置ずれを示すシフト量データdybを算出することができるとともに、誤検出なく、精度よく得られたシフト量データdybを位置ずれ量を示す値として得て、算出されたシフト量データにより画像メモリ41から画像データを読み出し、読み出された画像データを結合した画像データを生成することができる。このため、実施の形態4によれば、正確に画像データを結合して被読取物に対応する高品質な合成画像データを生成することができる。   As described above, in the image reading apparatus according to the fourth embodiment, at the time of imaging by the imaging unit 2, conveyance when moving either one or both of the document 60 and the imaging unit 2 in the sub-scanning direction. Even in the case where there is a temporal fluctuation (that is, speed fluctuation) in the conveyance speed by the machine, the processing on the image data in the overlap region can be performed as in the case of the first embodiment. That is, in the image reading apparatus according to the fourth embodiment, the low-frequency removal reference data MO and the low-frequency removal comparison data that are image data in which the influence of the level difference caused by the difference in performance and reading conditions for each line sensor is suppressed. The shift amount data dyb indicating the positional deviation in the sub-scanning direction can be calculated accurately without misdetection, and the shift amount data dyb obtained accurately without misdetection can be obtained. It can be obtained as a value indicating the amount, and the image data can be read from the image memory 41 based on the calculated shift amount data, and image data obtained by combining the read image data can be generated. Therefore, according to the fourth embodiment, it is possible to generate high-quality composite image data corresponding to an object to be read by accurately combining image data.

本発明は、複写機、スキャナ、及びファクシミリ等の画像読取装置に適用することができる。また、本発明が適用されたプログラムは、複写機、スキャナ、及びファクシミリ等の画像読取装置と通信可能なパーソナルコンピュータなどの情報処理装置に適用することができる。   The present invention can be applied to image reading apparatuses such as copying machines, scanners, and facsimiles. The program to which the present invention is applied can be applied to an information processing apparatus such as a personal computer that can communicate with an image reading apparatus such as a copying machine, a scanner, and a facsimile.

1 画像読取装置、 2 撮像部、 3 A/D変換部、 4 画像処理部(画像処理装置)、 5 演算装置、 20 センサ基板、 21O,21O,…,21O,…,21O 奇数番目に位置するラインセンサ、 21E,21E,…,21E,…,21E 偶数番目に位置するラインセンサ、 sr ラインセンサの右端の領域、 sl ラインセンサの左端の領域、 A1,1,…,Ak,k,Ak,k+1,Ak+1,k+1,…,An,n オーバーラップ領域、 25 照明光源、 26R 赤色光用の光電変換素子、 26G 緑赤色光用の光電変換素子、 26B 青色光用の光電変換素子、 27O,28O 奇数番目に位置するラインセンサの光軸、 27E,28E 偶数番目に位置するラインセンサの光軸、 41 画像メモリ、 42,42b,42c,42d 低域除去部、 43 類似度算出部、 44 シフト量推定部、 45 結合処理部、 51 プロセッサ、 52 RAM、 53 不揮発性メモリ、 54 大容量記憶装置、 60 原稿、 421,4211,4212,421c,421c1,421c2 オーバーラップ低域除去部、 422 低域成分抽出部、 423 減算部、 426 高域成分抽出部、 424 オーバーラップMO画像メモリ、 425 オーバーラップME画像メモリ、 426 高域成分抽出部、 SI 電気信号、 DI,DI(O),DI(E) デジタルデータ(画像データ)、 rM,rMO,rME 画像データ、 hM,hMO,hME 低域除去画像データ、 MO 低域除去基準データ、 ME 低域除去比較データ、 D43 相関データ、 dyb シフト量データ、 RP 読み出し位置、 M45 画像データ、 D45 画像データ、 Dy 撮像部の搬送方向。1 image reading apparatus, second imaging unit, 3 A / D conversion unit, 4 an image processing section (image processing apparatus), 5 calculation unit, 20 sensor substrate, 21O, 21O 1, ..., 21O k, ..., 21O n odd 21E, 21E 1 ,..., 21E k ,..., 21E n even-numbered line sensors, sr line sensor right end region, sl line sensor left end region, A 1,1,. , A k, k , A k, k + 1 , A k + 1, k + 1 ,..., An, n overlap region, 25 illumination light source, 26R photoelectric conversion element for red light, 26G photoelectric conversion element for green red light, 26B Photoelectric conversion elements for blue light, 27O, 28O optical axes of odd-numbered line sensors, 27E, 28E optical axes of even-numbered line sensors, 41 image memory, 42, 42b, 42c, 42d Low frequency elimination unit, 43 Similarity calculation unit, 44 Shift amount estimation unit, 45 Coupling processing unit, 51 Processor, 52 RAM, 53 Non-volatile memory, 54 Mass storage device, 60 Document, 421, 4211 , 4212, 421c, 421c1, 421c2 overlap low-frequency removal unit, 422 low-frequency component extraction unit, 423 subtraction unit, 426 high-frequency component extraction unit, 424 overlap MO image memory, 425 overlap ME image memory, 426 high frequency Component extraction unit, SI electrical signal, DI, DI (O k ), DI (E k ) Digital data (image data), rM, rMO, rME image data, hM, hMO, hME Low frequency removal image data, MO low frequency Removal reference data, ME low frequency removal comparison data, D43 correlation data, dyb shift amount Over data, RP read position, M45 image data, D45 image data, the transport direction of Dy imaging unit.

Claims (8)

主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部によって生成された画像データを処理する画像処理装置において、
前記複数のラインセンサからの出力に基づく画像データを格納する画像メモリと、
前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去部と、
前記低域除去部で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出部と、
前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定部と、
前記シフト量推定部によって算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理部と
を備え
前記低域除去部は、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成する
ことを特徴とする画像処理装置。
A plurality of line sensors arranged in the main scanning direction have at least two rows at different positions in the sub-scanning direction, and overlap regions where the ends of adjacent line sensors in different rows overlap within the same range in the main scanning direction In an image processing apparatus that processes image data generated by an imaging unit arranged to have
An image memory for storing image data based on outputs from the plurality of line sensors;
A frequency lower than a predetermined frequency for image data in the overlap region of the image data stored in the image memory from image data in a pixel range including the target pixel and peripheral pixels of the target pixel A low-frequency removal reference data at a predetermined position in a sub-scanning direction in the overlap region of the image data from which the low-frequency component is removed, and the low-frequency removal reference A low-frequency removal unit for obtaining low-frequency removal comparison data based on image data from which the low-frequency components in the region overlapping the overlap region of the data are removed;
A process of comparing the low-frequency removal reference data obtained by the low-frequency removal unit with the low-frequency removal comparison data is performed at a plurality of positions at which the position of the low-frequency removal comparison data is moved in the sub-scanning direction. A similarity calculator that calculates a plurality of similarities between the low-frequency removal reference data and the plurality of low-frequency removal comparison data,
Shift based on the difference between the position in the sub-scanning direction of the low-frequency removal reference data and the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity among the plurality of low-frequency removal comparison data A shift amount estimation unit for calculating amount data;
Determining a position in the sub-scanning direction of image data read from the image memory based on the shift amount data calculated by the shift amount estimating unit, reading out the image data at the determined position from the image memory, and A combination processing unit that generates composite image data by combining image data read by adjacent line sensors in different columns ;
The low-frequency removal unit is configured to output image data at a plurality of positions in the sub-scanning direction at the same position in the main scanning direction as the target pixel from image data in the pixel range of the image data read from the image memory. Based on the above, the low frequency component in the sub-scanning direction is removed, and the low frequency removal reference data from which the low frequency component in the sub-scanning direction is removed and the low frequency removal comparison data are generated. Image processing device.
前記低域除去部は、前記副走査方向の低域周波数成分を、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データの平均を算出して得るThe low-frequency removing unit obtains a low-frequency component in the sub-scanning direction by calculating an average of image data at a plurality of positions in the sub-scanning direction at the same position in the main scanning direction as the target pixel.
ことを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1.
前記低域除去部は、
前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから前記低域周波数成分を除去した低域除去画像データを生成するオーバーラップ低域除去部を備えており、
前記低域除去画像データのうち、前記オーバーラップ領域における副走査方向の予め決められた位置における画像データを前記低域除去基準データとして出力し、
前記オーバーラップ領域において、前記低域除去基準データの副走査方向の位置と同じ位置及びその前後の副走査方向の位置における前記低域除去画像データから選択された予め決められたライン数の副走査方向の位置におけるデータを前記低域除去比較データとして出力する
ことを特徴とする請求項1又は2に記載の画像処理装置。
The low-frequency removing unit is
An overlap low-frequency removal unit that generates low-frequency-removed image data obtained by removing the low-frequency component from the image data in the pixel range of the image data read from the image memory;
Among the low-frequency removal image data, output image data at a predetermined position in the sub-scanning direction in the overlap region as the low-frequency removal reference data,
In the overlap region, a sub-scan with a predetermined number of lines selected from the low-frequency-removed image data at the same position as the position in the sub-scanning direction of the low-frequency removal reference data and the position in the sub-scanning direction before and after that position. the image processing apparatus according to claim 1 or 2, and outputs the data in the direction of the position as the low-frequency removal comparative data.
前記オーバーラップ低域除去部は、
前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから前記低域周波数成分を抽出する低域成分抽出部と、
前記低域成分抽出部により抽出された前記低域周波数成分を、前記画像メモリから読み出された前記注目画素の画像データから減算する減算部とを備え、
前記減算部で得られた前記低域周波数成分が減算された画像データを前記低域除去画像データとする
ことを特徴とする請求項に記載の画像処理装置。
The overlap low-frequency removal unit is
A low frequency component extraction unit that extracts the low frequency component from the image data in the pixel range of the image data read from the image memory;
A subtracting unit that subtracts the low frequency component extracted by the low frequency component extracting unit from the image data of the target pixel read from the image memory;
The image processing apparatus according to claim 3 , wherein the image data obtained by subtracting the low frequency component obtained by the subtracting unit is used as the low frequency removal image data.
前記オーバーラップ低域除去部は、
前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから高域周波数成分を抽出する高域成分抽出部を備えており、
前記抽出された高域周波数成分を、前記低域除去画像データとする
ことを特徴とする請求項に記載の画像処理装置。
The overlap low-frequency removal unit is
A high frequency component extraction unit that extracts high frequency components from image data in the pixel range of the image data read from the image memory;
The image processing apparatus according to claim 3 , wherein the extracted high frequency component is the low frequency removal image data.
主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部によって生成された画像データを処理する画像処理方法において、
前記複数のラインセンサからの出力に基づく画像データを画像メモリに格納する格納ステップと、
前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去ステップと、
前記低域除去ステップで求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出ステップと、
前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定ステップと、
前記シフト量推定ステップで算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理ステップと
を備え
前記低域除去ステップでは、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成する
ことを特徴とする画像処理方法。
A plurality of line sensors arranged in the main scanning direction have at least two rows at different positions in the sub-scanning direction, and overlap regions where the ends of adjacent line sensors in different rows overlap within the same range in the main scanning direction In an image processing method for processing image data generated by an imaging unit arranged to have,
A storage step of storing image data based on outputs from the plurality of line sensors in an image memory;
A frequency lower than a predetermined frequency for image data in the overlap region of the image data stored in the image memory from image data in a pixel range including the target pixel and peripheral pixels of the target pixel A low-frequency removal reference data at a predetermined position in a sub-scanning direction in the overlap region of the image data from which the low-frequency component is removed, and the low-frequency removal reference A low-frequency removal step for obtaining low-frequency removal comparison data based on image data in which the low-frequency component in a region overlapping the overlap region of data is removed;
A process of comparing the low-frequency removal reference data obtained in the low-frequency removal step with the low-frequency removal comparison data is a plurality of positions at a plurality of positions where the position of the low-frequency removal comparison data is moved in the sub-scanning direction. A similarity calculation step for calculating a plurality of similarities between the low-frequency removal reference data and the plurality of low-frequency removal comparison data,
Shift based on the difference between the position in the sub-scanning direction of the low-frequency removal reference data and the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity among the plurality of low-frequency removal comparison data A shift amount estimation step for calculating amount data;
Determining a position in the sub-scanning direction of image data read from the image memory based on the shift amount data calculated in the shift amount estimating step, reading out the image data at the determined position from the image memory, and A combined processing step of generating composite image data by combining image data read by adjacent line sensors in different columns ;
In the low frequency band removing step, image data at a plurality of positions in the sub-scanning direction at the same position in the main scanning direction as the target pixel is derived from the image data in the pixel range of the image data read from the image memory. Based on the above, the low frequency component in the sub-scanning direction is removed, and the low frequency removal reference data from which the low frequency component in the sub-scanning direction is removed and the low frequency removal comparison data are generated. Image processing method.
主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部と、
前記複数のラインセンサからの出力に基づく画像データを格納する画像メモリと、
前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去部と、
前記低域除去部で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出部と、
前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定部と、
前記シフト量推定部によって算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理部と
を備え
前記低域除去部は、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成する
ことを特徴とする画像読取装置。
A plurality of line sensors arranged in the main scanning direction have at least two rows at different positions in the sub-scanning direction, and overlap regions where the ends of adjacent line sensors in different rows overlap within the same range in the main scanning direction An imaging unit arranged to have,
An image memory for storing image data based on outputs from the plurality of line sensors;
A frequency lower than a predetermined frequency for image data in the overlap region of the image data stored in the image memory from image data in a pixel range including the target pixel and peripheral pixels of the target pixel A low-frequency removal reference data at a predetermined position in a sub-scanning direction in the overlap region of the image data from which the low-frequency component is removed, and the low-frequency removal reference A low-frequency removal unit for obtaining low-frequency removal comparison data based on image data from which the low-frequency components in the region overlapping the overlap region of the data are removed;
A process of comparing the low-frequency removal reference data obtained by the low-frequency removal unit with the low-frequency removal comparison data is performed at a plurality of positions at which the position of the low-frequency removal comparison data is moved in the sub-scanning direction. A similarity calculator that calculates a plurality of similarities between the low-frequency removal reference data and the plurality of low-frequency removal comparison data,
Shift based on the difference between the position in the sub-scanning direction of the low-frequency removal reference data and the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity among the plurality of low-frequency removal comparison data A shift amount estimation unit for calculating amount data;
Determining a position in the sub-scanning direction of image data read from the image memory based on the shift amount data calculated by the shift amount estimating unit, reading out the image data at the determined position from the image memory, and A combination processing unit that generates composite image data by combining image data read by adjacent line sensors in different columns ;
The low-frequency removal unit is configured to output image data at a plurality of positions in the sub-scanning direction at the same position in the main scanning direction as the target pixel from image data in the pixel range of the image data read from the image memory. Based on the above, the low frequency component in the sub-scanning direction is removed, and the low frequency removal reference data from which the low frequency component in the sub-scanning direction is removed and the low frequency removal comparison data are generated. Image reading device.
主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部によって生成された画像データの処理をコンピュータに実行させるためのプログラムであって、
前記複数のラインセンサからの出力に基づく画像データを画像メモリに格納する格納処理と、
前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去処理であって、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成する低周波除去処理と、
前記低域除去処理で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出処理と、
前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定処理と、
前記シフト量推定処理で算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理と
をコンピュータに実行させるプログラム。
A plurality of line sensors arranged in the main scanning direction have at least two rows at different positions in the sub-scanning direction, and overlap regions where the ends of adjacent line sensors in different rows overlap within the same range in the main scanning direction A program for causing a computer to execute processing of image data generated by an imaging unit arranged to have,
A storage process for storing image data based on outputs from the plurality of line sensors in an image memory;
A frequency lower than a predetermined frequency for image data in the overlap region of the image data stored in the image memory from image data in a pixel range including the target pixel and peripheral pixels of the target pixel A low-frequency removal reference data at a predetermined position in a sub-scanning direction in the overlap region of the image data from which the low-frequency component is removed, and the low-frequency removal reference Image data read out from the image memory, wherein the image data read out from the image memory is a low-frequency removal processing for obtaining low-frequency removal comparison data based on image data from which the low-frequency components are removed in a region overlapping the overlap region of data From the image data in the pixel range in the sub-scanning direction at the same position in the main scanning direction as the target pixel. The low-frequency component in the sub-scanning direction is removed based on the image data at several positions, and the low-frequency removal reference data and the low-frequency removal comparison data from which the low-frequency component in the sub-scanning direction is removed are generated. Low frequency removal processing to
A process of comparing the low-frequency removal reference data obtained in the low-frequency removal processing with the low-frequency removal comparison data is performed at a plurality of positions at a plurality of positions where the position of the low-frequency removal comparison data is moved in the sub-scanning direction. A similarity calculation process for performing a plurality of similarities between the low-frequency removal reference data and the plurality of low-frequency removal comparison data,
Shift based on the difference between the position in the sub-scanning direction of the low-frequency removal reference data and the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity among the plurality of low-frequency removal comparison data Shift amount estimation processing for calculating amount data;
Determining a position in the sub-scanning direction of the image data read from the image memory based on the shift amount data calculated in the shift amount estimation process, reading out the image data at the determined position from the image memory, and A program that causes a computer to execute combining processing for generating composite image data by combining image data read by adjacent line sensors in different columns.
JP2016546342A 2014-09-03 2015-05-14 Image processing apparatus, image processing method, image reading apparatus, and program Active JP6246379B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014178821 2014-09-03
JP2014178821 2014-09-03
PCT/JP2015/063877 WO2016035387A1 (en) 2014-09-03 2015-05-14 Image processing device, image processing method, image reading device, and program

Publications (2)

Publication Number Publication Date
JPWO2016035387A1 JPWO2016035387A1 (en) 2017-04-27
JP6246379B2 true JP6246379B2 (en) 2017-12-13

Family

ID=55439461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016546342A Active JP6246379B2 (en) 2014-09-03 2015-05-14 Image processing apparatus, image processing method, image reading apparatus, and program

Country Status (2)

Country Link
JP (1) JP6246379B2 (en)
WO (1) WO2016035387A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9707101B2 (en) 2015-02-03 2017-07-18 Rcm Enterprise Llc Bio-mechanical prosthetic finger with Y-shaped rocker
JP6637071B2 (en) 2015-02-03 2020-01-29 アールシーエム エンタープライズ, エルエルシーRcm Enterprise, Llc Biomechanical artificial finger with H-shaped rocker
WO2016187133A1 (en) 2015-05-15 2016-11-24 RCM Enterprise, LLC Bidirectional biomechanical prosthetic full finger configured for abduction and adduction with mcp pivot and multiple-finger ring

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000134537A (en) * 1998-10-28 2000-05-12 Ricoh Co Ltd Image input device and its method
JP2004139219A (en) * 2002-10-16 2004-05-13 Seiko Instruments Inc Image processing method and image processor
JP5821563B2 (en) * 2011-11-21 2015-11-24 三菱電機株式会社 Image reading apparatus, image reading method, and MTF correction parameter determination method
JP2014022806A (en) * 2012-07-13 2014-02-03 Sharp Corp Image pickup device and image pickup device control method

Also Published As

Publication number Publication date
WO2016035387A1 (en) 2016-03-10
JPWO2016035387A1 (en) 2017-04-27

Similar Documents

Publication Publication Date Title
US10326908B2 (en) Image reading apparatus and image reading method
WO2013145554A1 (en) Image processing apparatus and image processing method
US20150071564A1 (en) Image processing device, endoscope apparatus, isolated point noise correction method, and information storage device
US20130265295A1 (en) Pixel information management apparatus and image capture apparatus using the same
JP6246379B2 (en) Image processing apparatus, image processing method, image reading apparatus, and program
US20100183237A1 (en) Device and method for interpolating image, and image scanner
JP6422428B2 (en) Image processing apparatus, image processing method, image reading apparatus, and program
JP5821563B2 (en) Image reading apparatus, image reading method, and MTF correction parameter determination method
JP2016200703A (en) Focus detection device, control method therefor, image capturing device, program, and storage medium
KR102232524B1 (en) Image generating apparatus and method for generating image
JP5224976B2 (en) Image correction apparatus, image correction method, program, and recording medium
JP6058115B2 (en) Image processing apparatus, image processing method, image reading apparatus, and program
JP5002670B2 (en) Image processing apparatus and image reading apparatus
JP2013005176A (en) Image reading device, image formation device and line image sensor control method
JP2009224829A (en) Image reading apparatus
JP5590911B2 (en) Image reading apparatus and method
JPWO2019225410A1 (en) Light receiving unit
JP2015226127A (en) Image reading apparatus, image connecting method and program
JP2017158182A (en) Image reading apparatus
JP2009098815A (en) Image input device, authentication device, and electronic apparatus
JP2009141583A (en) Imaging apparatus
JPWO2018198680A1 (en) Image reader
JP2023141731A (en) Image processing apparatus, image processing method, and computer program
JP5901559B2 (en) Image processing device
JP4568610B2 (en) Signal correction apparatus, signal correction method, and signal correction program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171114

R150 Certificate of patent or registration of utility model

Ref document number: 6246379

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250