JP6544233B2 - Calibration method of image reading apparatus and image reading apparatus - Google Patents

Calibration method of image reading apparatus and image reading apparatus Download PDF

Info

Publication number
JP6544233B2
JP6544233B2 JP2015256072A JP2015256072A JP6544233B2 JP 6544233 B2 JP6544233 B2 JP 6544233B2 JP 2015256072 A JP2015256072 A JP 2015256072A JP 2015256072 A JP2015256072 A JP 2015256072A JP 6544233 B2 JP6544233 B2 JP 6544233B2
Authority
JP
Japan
Prior art keywords
sensor chip
document
sensor
amount
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015256072A
Other languages
Japanese (ja)
Other versions
JP2017120969A (en
Inventor
青木 透
青木  透
善隆 豊田
善隆 豊田
的場 成浩
成浩 的場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2015256072A priority Critical patent/JP6544233B2/en
Publication of JP2017120969A publication Critical patent/JP2017120969A/en
Application granted granted Critical
Publication of JP6544233B2 publication Critical patent/JP6544233B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

この発明は、複数のセンサチップが直線状に配列されたラインセンサを用いて原稿や紙葉など読取対象物を撮像する画像読取装置に関する。   The present invention relates to an image reading apparatus which picks up an object to be read such as a document or a sheet using a line sensor in which a plurality of sensor chips are linearly arranged.

複写機、スキャナ、ファクシミリ及び紙幣読み取り装置等に適用される画像読取装置として、読取対象物である紙葉類を複数の撮像素子を直線状に配列されたラインセンサ(一次元撮像素子ともいう)で走査し、紙葉類に対応する画像データを生成するものがある。このときラインセンサは複数の撮像素子が直線状に配列された方向を主走査方向として主走査方向のラインを走査し、主走査方向と垂直方向となる副走査方向に読取対象物を搬送するなどしてずらして新たな走査を行ないつなぎ合わせることで2次元の画像データを生成する。   A line sensor (also referred to as a one-dimensional imaging element) in which a plurality of imaging elements are linearly arranged as an image reading apparatus applied to a copying machine, a scanner, a facsimile, a bill reading apparatus, etc. Scan to generate image data corresponding to a sheet. At this time, the line sensor scans a line in the main scanning direction with the direction in which the plurality of imaging elements are linearly arranged as the main scanning direction, and conveys the object to be read in the subscanning direction perpendicular to the main scanning direction Then, two-dimensional image data is generated by shifting and connecting new scans.

ラインセンサは、主走査方向に直線状に配列された複数の撮像素子を有するセンサチップから構成されており、複数個のセンサチップをさらに主走査方向に配列した構成となっている。   The line sensor is composed of a sensor chip having a plurality of imaging elements arranged linearly in the main scanning direction, and has a configuration in which a plurality of sensor chips are further arranged in the main scanning direction.

センサチップは半導体製造技術で製造されるため、センサチップ上の撮像素子間の間隔は比較的等間隔であるが、複数個のセンサチップをさらに主走査方向に配列したラインセンサは、センサチップを機械的に並べる工程で製造されるため、ラインセンサ上のセンサチップ間の間隔は、ばらつく傾向にある。また、センサチップ間の間隔は撮像素子間の間隔とは異なっている場合が多く、センサチップ毎に読取った画像データを主走査方向に並べただけでは、画像データ上のセンサチップの境界部分が不連続になるという問題点がある。   Since the sensor chip is manufactured by semiconductor manufacturing technology, the intervals between the imaging devices on the sensor chip are relatively equal, but a line sensor in which a plurality of sensor chips are further arranged in the main scanning direction is a sensor chip. The spacing between sensor chips on the line sensor tends to vary because it is manufactured in a mechanical alignment process. In addition, the spacing between sensor chips is often different from the spacing between imaging elements, and simply arranging the image data read for each sensor chip in the main scanning direction, the boundary portion of the sensor chip on the image data is There is a problem that it becomes discontinuous.

そこで、センサチップ間の間隔が撮像素子間の間隔よりも大きいという条件のもとで、画像データがセンサチップの境界部分で不連続にならないように、補間処理で境界部分に画素を挿入するという方法がある(例えば、特許文献1参照)。   Therefore, under the condition that the distance between sensor chips is larger than the distance between image sensors, pixels are inserted in the boundary portion by interpolation processing so that the image data does not become discontinuous at the boundary portion of the sensor chip. There is a method (see, for example, Patent Document 1).

特開2003−101724号公報(第5−7頁、第3図)JP 2003-101724 A (pages 5-7, FIG. 3)

特許文献1の方法を実現するためには、撮像素子間の間隔およびセンサチップ間の間隔が既知である必要がある。しかし、センサチップは機械的に取り付けられるため、取り付け時に誤差が生じ、必ずしも直線状でない場合があり、かつセンサチップ間の間隔が必ずしも等間隔でない場合がある。特許文献1のラインセンサの構成では、センサチップ間に撮像素子が無いため、ラインセンサで読み取った画像データからセンサチップ間の間隔を算出することができず、センサチップ間の間隔を算出するためにはセンサチップの位置関係について直接計測する等の手段を用いる必要がある。   In order to realize the method of Patent Document 1, it is necessary to know the distance between the imaging devices and the distance between the sensor chips. However, since the sensor chips are mechanically attached, errors may occur at the time of attachment, which may not always be linear, and the intervals between the sensor chips may not necessarily be equal. In the configuration of the line sensor of Patent Document 1, since there is no imaging element between sensor chips, the distance between sensor chips can not be calculated from the image data read by the line sensor, and the distance between sensor chips is calculated. For this purpose, it is necessary to use means such as direct measurement of the positional relationship of the sensor chip.

この発明は、上述のような課題を解決するためになされたもので、センサチップの位置関係に設計位置と誤差が生じている場合であってもセンサチップの位置関係について一つ一つ直接計測することなく校正して、センサチップの境界部分で不連続にならない画像データを出力するという所期の目的を果たす画像読取装置を提供することを目的とする。   The present invention has been made to solve the problems as described above, and even if there is a design position and an error in the positional relationship of the sensor chip, direct measurement of the positional relationship of the sensor chip one by one It is an object of the present invention to provide an image reading apparatus which fulfills the intended purpose of outputting image data which does not become discontinuous at the boundary portion of a sensor chip by performing calibration without correction.

この発明に係る画像読取装置のキャリブレーション方法においては、複数の撮像素子を主走査方向に設けたセンサチップを前記主走査方向に配列し、前記センサチップに対向した読取対象物を撮像するラインセンサと、合成情報に基づいて前記センサチップごとの撮像画像について拡大または縮小を行なうとともに、合成位置を調整して合成することで合成画像データを生成する画像合成部とを備える画像読取装置のキャリブレーション方法であって、予め決められた基準位置を前記合成情報として設定し、千鳥状に配置された点列と前記主走査方向に沿った直線とが描写されたキャリブレーションパターンを有するキャリブレーション原稿を前記読取対象物として、前記キャリブレーション原稿から前記ラインセンサまでの原稿距離について複数の距離設定で前記合成画像データを取得し、それぞれの前記原稿距離において得られた前記センサチップごとの撮像画像と前記原稿距離との関係から、前記センサチップごとの副走査方向ずれ量、センサチップ間ごとのオーバーラップ量のオフセット量、及び前記センサチップごとの読取対象物方向の高さオフセット量を算出し、得られた前記センサチップの副走査方向ずれ量と、前記センサチップごとの前記オーバーラップ量のオフセット量及び前記センサチップごとの読取対象物方向の高さオフセット量とを前記合成情報として設定することを特徴とするものである。
In the calibration method of the image reading apparatus according to the present invention, a line sensor which arranges in the main scanning direction a sensor chip in which a plurality of imaging elements are provided in the main scanning direction and picks up an object to be read facing the sensor chip. And calibration of an image reading apparatus including an image combining unit that generates combined image data by performing enlargement or reduction on a captured image of each of the sensor chips based on combining information and adjusting and combining the combining position. A method of setting a calibration document having a calibration pattern in which a predetermined reference position is set as the composite information, and a row of dots arranged in a zigzag form and a straight line along the main scanning direction are drawn. As the reading object, the document distance from the calibration document to the line sensor is Acquires the synthesized image data by a plurality of distance setting, the relationship of the captured image for each of the sensor chips obtained in each of the original distance and the original distance, the sub-scanning direction shift amount for each of the sensor chip, the sensor offset of the amount of overlap between every chip, and the calculated height offset of the object to be read direction for each sensor chip, and the sub-scanning direction shift amount of the resulting the sensor chip, each between before Symbol sensor chip The offset amount of the overlap amount and the height offset amount in the direction of the object to be read of each of the sensor chips are set as the combined information.

この発明は、千鳥状に配置された点列と前記主走査方向に沿った直線とが描写されたキャリブレーションパターンを有する原稿を前記読取対象物として、得られた合成画像データから、センサチップの副走査方向ずれ量、オーバーラップ量のオフセット量、及びセンサチップごとの読取対象物方向の高さオフセット量を算出して合成情報として設定するため、センサチップが設けられた位置が設計位置と誤差が生じている場合であっても、一つ一つ直接計測することなく校正して、センサチップの境界部分で不連続にならない画像データを出力するという所期の目的を果たす画像読取装置を提供することが可能になる。   According to the present invention, a sensor chip is obtained from composite image data obtained using, as the reading object, a document having a calibration pattern in which point rows arranged in a staggered manner and straight lines along the main scanning direction are drawn. The position where the sensor chip is provided is the design position and the error, because the offset amount of the sub scanning direction, the offset amount of the overlap amount, and the height offset amount of the reading object direction for each sensor chip are calculated and set as composite information. Provides an image reading device that achieves the intended purpose of outputting image data that does not become discontinuous at the boundary of the sensor chip by performing calibration without directly measuring each one even if It will be possible to

実施の形態1にかかる画像読取装置1の概略構成を示す機能ブロック図である。FIG. 1 is a functional block diagram showing a schematic configuration of an image reading apparatus 1 according to a first embodiment. 撮像部11の概略構成を示す図である。FIG. 2 is a diagram showing a schematic configuration of an imaging unit 11; キャリブレーション用原稿の図柄を示す図である。It is a figure which shows the design of the document for calibration. キャリブレーション用原稿を読取った画像データの例を示す図である。FIG. 6 is a view showing an example of image data obtained by reading a calibration document. キャリブレーション用原稿を読取った画像データにオーバーラップ領域を表示した図である。FIG. 6 is a view showing an overlap area on image data obtained by reading a calibration document. 実施の形態1に係るキャリブレーション方法の処理手順を示す図である。FIG. 7 is a diagram showing the processing procedure of the calibration method according to the first embodiment. 原稿距離と各センサチップで取得した画像データ中の点列間隔との関係を示す図である。It is a figure which shows the relationship between a document distance and the point sequence space | interval in the image data acquired with each sensor chip. 原稿距離と各センサチップでの点列間隔との近似式を示す図である。It is a figure which shows the approximation formula of the document distance and the point sequence space | interval in each sensor chip. 原稿距離と各センサチップで取得した画像データ中のオーバーラップ量との関係を示す図である。FIG. 6 is a diagram showing a relationship between a document distance and an overlap amount in image data acquired by each sensor chip. 原稿距離と各センサチップでのオーバーラップ量との近似式を示す図である。It is a figure which shows the approximation formula of the original distance and the overlap amount in each sensor chip. 実施の形態1に係る倍率算出方法の処理手順を示す図である。FIG. 7 is a diagram showing a processing procedure of a magnification calculation method according to Embodiment 1. 校正部を備えた画像読取装置を示す図である。FIG. 2 is a view showing an image reading apparatus provided with a calibration unit.

実施の形態1.
図1は、実施の形態1にかかる画像読取装置1の概略構成を示す機能ブロック図である。画像読取装置1は、撮像部11、A/D変換部12、メモリ13、及び画像合成部14を備える。また、画像読取装置1を校正するためにキャリブレーション時に用いる校正装置2は、点列間隔計測部21、オーバーラップ量推定部22、及び算出部23を備える。
Embodiment 1
FIG. 1 is a functional block diagram showing a schematic configuration of the image reading apparatus 1 according to the first embodiment. The image reading apparatus 1 includes an imaging unit 11, an A / D conversion unit 12, a memory 13, and an image combining unit 14. The calibration device 2 used at the time of calibration to calibrate the image reading device 1 includes a point train interval measurement unit 21, an overlap amount estimation unit 22, and a calculation unit 23.

撮像部11は、光学的に読取対象物を走査することによって画像信号SIを生成するラインセンサである。撮像部11は、M個(Mは2以上の整数)の撮像素子を直線状に配列したセンサチップを、N個(Nは2以上の整数)配列して設けられている。ここで、撮像素子及びセンサチップの配列方向を主走査方向と呼ぶ。   The imaging unit 11 is a line sensor that generates an image signal SI by optically scanning an object to be read. The imaging unit 11 is provided with N (N is an integer of 2 or more) sensor chips in which M (M is an integer of 2 or more) imaging elements are linearly arranged. Here, the arrangement direction of the imaging element and the sensor chip is referred to as a main scanning direction.

図2は、撮像部11の概略構成を示す図である。図2では、基板上にセンサチップA、センサチップB、及びセンサチップCが主走査方向に配列して設けられている。つまり図2ではセンサチップを3個配列しているのでNは3として図示している。   FIG. 2 is a view showing a schematic configuration of the imaging unit 11. In FIG. 2, the sensor chip A, the sensor chip B, and the sensor chip C are arranged in the main scanning direction on the substrate. That is, since three sensor chips are arrayed in FIG. 2, N is illustrated as three.

また、それぞれのセンサチップにはM個の撮像素子が主走査方向に配列して設けられている(図示せず)。センサチップは半導体製造技術で製造されるものが一般的であって、センサチップ上の撮像素子の配置ずれは小さい。ただし、基板上にセンサチップA、センサチップB、及びセンサチップCを配列する際は、センサチップを機械的に並べる工程で製造されるため、センサチップごとの位置は設計で決められた基準位置に対して主走査方向、副走査方向、及び高さ方向にばらつく傾向にあり、センサチップ上の撮像素子の配置ずれよりもずれ幅は大きい。   Further, M sensor elements are arranged in the main scanning direction on each sensor chip (not shown). The sensor chip is generally manufactured by semiconductor manufacturing technology, and the displacement of the imaging device on the sensor chip is small. However, when the sensor chip A, the sensor chip B, and the sensor chip C are arranged on the substrate, the sensor chip is manufactured in the process of mechanically arranging the sensor chips, so the position for each sensor chip is the reference position determined by design. On the other hand, the deviation width in the main scanning direction, the sub scanning direction, and the height direction tends to vary, and the deviation width is larger than the arrangement deviation of the imaging element on the sensor chip.

図2では、センサチップAに対向した位置にレンズAを設けている。同様に、センサチップBに対向した位置にレンズBを設け、センサチップCに対向した位置にレンズCを設けている。それぞれのレンズはセンサチップが撮像する画角を拡げるような構造をもつ。これにより、それぞれのセンサチップにレンズを介して対向した位置の読取対象物を走査したときに、それぞれのセンサチップの読取り範囲を拡張することができるので、隣り合うセンサチップ間に対応する位置の読取対象物について画像データの欠落を無くすことができる。またこのレンズはセンサチップと一体の構成にして設けることで、センサチップとレンズとの距離は製造工程でのばらつきを抑えることができる。また、レンズと絞りから構成された光学系(セル)としてセンサチップと一体に構成してもよい。   In FIG. 2, the lens A is provided at a position facing the sensor chip A. Similarly, the lens B is provided at a position facing the sensor chip B, and the lens C is provided at a position facing the sensor chip C. Each lens has a structure that widens the angle of view taken by the sensor chip. As a result, when the object to be read at a position opposite to each other is scanned via the lens, the reading range of each sensor chip can be expanded. It is possible to eliminate the loss of image data of the object to be read. Further, by providing this lens in an integral structure with the sensor chip, the distance between the sensor chip and the lens can suppress variations in the manufacturing process. In addition, it may be integrated with the sensor chip as an optical system (cell) composed of a lens and a stop.

図1に戻って説明する。A/D変換部12は、撮像部11が光学的に走査して得られた画像信号SIをデジタルの画像データDIに変換する。   Referring back to FIG. The A / D converter 12 converts the image signal SI obtained by the optical scanning of the imaging unit 11 into digital image data DI.

メモリ13は、画像データDIを格納する。   The memory 13 stores image data DI.

画像合成部14は、合成情報D13に基づき、N個の撮像画像について拡大または縮小を行なうとともに、合成位置を調整して合成することで合成画像データDoutを生成する。合成情報D13には、センサチップごとの副走査方向ずれ量、オーバーラップ量のオフセット量、及びセンサチップごとの読取対象物方向の高さオフセット量の情報又はそれに基づく調整量が含まれている。合成情報D13に基づいて調整することで、N個の撮像画像について主走査方向の幅が揃い、また画像の重複部分がなくなる合成画像データが得られる。   The image combining unit 14 enlarges or reduces the N captured images based on the combining information D13, and adjusts the combining position to combine to generate combined image data Dout. The composite information D13 includes information on the sub-scanning direction shift amount for each sensor chip, the offset amount of the overlap amount, and the height offset amount of the reading object direction for each sensor chip, or the adjustment amount based thereon. By adjusting based on the composite information D13, composite image data can be obtained in which the widths in the main scanning direction are uniform for the N captured images and the overlapping part of the images is eliminated.

ここで、複数個のセンサチップを主走査方向に配列する工程において設計との誤差がなければ既定の原稿位置に対するセンサチップごとの副走査方向ずれ量、オーバーラップ量のオフセット量、及びセンサチップごとの読取対象物方向の高さオフセット量は設計に基づいた基準位置での値となり合成情報D13は確定させることができる。本発明では、複数個のセンサチップを主走査方向に配列する工程以降に校正を行なうキャリブレーションをすることで、その画像読取装置にとって設計に基づいて決められたものよりも適した合成情報D13に設定することができる。   Here, if there is no error with the design in the process of arranging a plurality of sensor chips in the main scanning direction, the amount of deviation in the subscanning direction for each sensor chip with respect to the predetermined document position, the offset amount of overlap amount, and each sensor chip The height offset amount in the direction of the object to be read is a value at the reference position based on the design, and the composite information D13 can be determined. In the present invention, by performing calibration after the step of arranging a plurality of sensor chips in the main scanning direction, the combined information D13 is more suitable for the image reading apparatus than the one determined based on the design. It can be set.

画像合成部14は、合成情報D13について、外部から入力されるものとしてもよいし、設計に基づいた基準位置での合成情報D13を初期情報として書き換え可能なデータとして保持するものとしても構わない。   The image combining unit 14 may be externally input with respect to the combined information D13, or may store the combined information D13 at the reference position based on the design as rewritable data as initial information.

次に本実施の形態にかかる画像読取装置のキャリブレーション方法について説明する。   Next, a calibration method of the image reading apparatus according to the present embodiment will be described.

図3は、キャリブレーションモードのときに使用するキャリブレーションパターンを有する原稿(キャリブレーション用原稿)の図柄である。キャリブレーション用原稿は主走査方向に伸びた直線と、主走査方向に等間隔に千鳥状に配置された点列から構成される。直線は副走査方向のズレを検出するために使用する。また点列は主走査方向のオーバーラップ量を検出するために使用する。図3では直線が2本としているが、直線は1本以上であれば何本でもかまわない。また図3では点列が4段の構成としているが、点列は2段以上であれば何段でもかまわない。   FIG. 3 is a design of an original (calibration original) having a calibration pattern used in the calibration mode. The calibration document is composed of a straight line extending in the main scanning direction and a series of points arranged in a zigzag at equal intervals in the main scanning direction. The straight line is used to detect a shift in the sub scanning direction. The point sequence is used to detect the amount of overlap in the main scanning direction. Although two straight lines are shown in FIG. 3, any number of straight lines may be used as long as it is one or more. Further, although in FIG. 3 the point sequence is configured to have four stages, any number of stages may be used as long as the number of point sequences is two or more.

キャリブレーションは、読取対象物として用いるキャリブレーション用原稿とラインセンサとの距離を指定した距離だけ離れた位置に配置して画像データを取得する。指定した距離を2種類以上の距離に対して実施し、取得した2種類以上の画像データを解析することで実現する。   In calibration, the image data is acquired by arranging the distance between the calibration document used as a reading object and the line sensor at a specified distance. The specified distance is implemented for two or more types of distances, and this is realized by analyzing the acquired two or more types of image data.

図4は、読取装置1がキャリブレーション用原稿の画像データを取得した画像データの例を示す。図4は、各センサチップが主走査方向、副走査方向及び高さ方向にずれている状態での例を示している。図4のように、ラインセンサ上に配置されている各センサチップが副走査方向にずれて配列されている場合、キャリブレーション用原稿の主走査方向に伸びた直線は、図4に示すようにセンサチップ毎にずれて合成された画像データとなる。また、ラインセンサ上に配置されている各センサチップが主走査方向にずれて配置されている場合、キャリブレーション用原稿のオーバーラップ領域の幅は、設計に基づくオーバーラップ領域の幅と異なる幅になる。また、ラインセンサ上に配置されている各センサチップが高さ方向にずれて配置されている場合、キャリブレーション用原稿の点列部分の間隔は、設計に基づく点列部分の間隔と異なる間隔になる。   FIG. 4 shows an example of image data obtained by the reading device 1 acquiring image data of a calibration document. FIG. 4 shows an example in which each sensor chip is deviated in the main scanning direction, the sub scanning direction, and the height direction. As shown in FIG. 4, when the sensor chips arranged on the line sensor are arranged offset in the sub scanning direction, the straight line extended in the main scanning direction of the calibration document is as shown in FIG. It becomes image data which has been shifted and synthesized for each sensor chip. In addition, when each sensor chip disposed on the line sensor is displaced in the main scanning direction, the width of the overlap area of the calibration document is different from the width of the overlap area based on the design. Become. In addition, when each sensor chip disposed on the line sensor is offset in the height direction, the distance between the point row portions of the calibration document is different from the distance between the point row portions based on the design. Become.

図5は、図4の画像データとずれ量の関係について示す図である。図5では、左からセンサチップA、センサチップB、センサチップC、センサチップD、及びセンサチップEと配列されたときの画像データを示す。ここでT(kはN個のセンサチップのうちのいずれかのセンサチップを表す変数)は、センサチップkでの点列の間隔の平均値を示す。OVは、センサチップ間の主走査方向のオーバーラップ量を示し、センサチップAとセンサチップBとの間の主走査方向のオーバーラップ量をOVABと示す。 FIG. 5 is a view showing the relationship between the image data of FIG. 4 and the deviation amount. FIG. 5 shows image data when arrayed with the sensor chip A, the sensor chip B, the sensor chip C, the sensor chip D, and the sensor chip E from the left. Here, T k (k is a variable representing any one of the N sensor chips) indicates an average value of the distance between point sequences on the sensor chip k. OV indicates the amount of overlap in the main scanning direction between the sensor chips, and the amount of overlap in the main scanning direction between the sensor chip A and the sensor chip B is denoted as OV AB .

図5のように、上述したキャリブレーション用原稿を用いて画像読取装置からの合成画像データDoutから、主走査方向に伸びた直線のずれた量、センサチップごとの点列の間隔、及びセンサチップ間ごとのオーバーラップ量を計測することができる。
As shown in FIG. 5, from the composite image data Dout from the image reading apparatus using the above-described calibration document, the amount of deviation of a straight line extending in the main scanning direction, the distance between point arrays for each sensor chip, and the sensor chip The amount of overlap can be measured.

図1における、校正装置2の点列間隔計測部21は、画像読取装置1から出力された画像合成データDoutから、センサチップごとの点列の間隔を計測する。計測は1点のみの計測として簡略化することもできる。複数の点列の間隔を計測して算出部23でその平均を算出して該当するセンサチップの点列の間隔の平均値Tとする方が1点のみの計測よりも妥当性の高い計測値を取得することができる。 The point train interval measurement unit 21 of the calibration device 2 in FIG. 1 measures the interval of point trains for each sensor chip from the image combination data Dout output from the image reading device 1. Measurement can be simplified as measurement of only one point. A measurement that measures the interval between multiple point sequences and calculates the average by the calculation unit 23 and uses it as the average value T k of the intervals between the point arrays of the corresponding sensor chip is more appropriate than the measurement of only one point You can get the value.

オーバーラップ量推定部22は、画像読取装置1から出力された画像合成データDoutから、センサチップ間のオーバーラップ量を推定する。   The overlap amount estimation unit 22 estimates an overlap amount between sensor chips from the image combination data Dout output from the image reading device 1.

オーバーラップ量推定部22は、N個のセンサチップによって生成された画像データについて、隣りあったセンサチップ間で読取範囲が重複している領域(以下、オーバーラップ領域ともいう)の類似度を算出し、オーバーラップ量を推定し出力する。類似度は、隣りあったセンサチップのそれぞれの画像データから類似の程度を示す指標である。   The overlap amount estimation unit 22 calculates the similarity of an area (hereinafter also referred to as an overlap area) in which reading ranges overlap between adjacent sensor chips for image data generated by N sensor chips. And estimate and output the overlap amount. The similarity is an index indicating the degree of similarity from the image data of each adjacent sensor chip.

ここで、センサチップ及びレンズが基準位置に配置されて指定した原稿距離であった場合のオーバーラップ領域の幅は設計に基づく既知情報であるので、オーバーラップ量推定部22で推定されたオーバーラップ量と設計に基づく基準位置でのオーバーラップ量とを比較することでセンサチップ間での主走査方向のズレ量を得ることができる。ここで、原稿距離とは、センサチップもしくはそのセンサチップと一体になって設けられたレンズと、読取対象物との距離を示す。   Here, since the width of the overlap area when the sensor chip and the lens are disposed at the reference position and the specified document distance is known information based on the design, the overlap estimated by the overlap amount estimation unit 22 is The amount of deviation in the main scanning direction between sensor chips can be obtained by comparing the amount with the amount of overlap at the reference position based on the design. Here, the document distance indicates the distance between the sensor chip or a lens provided integrally with the sensor chip and the object to be read.

算出部23は、点列間隔計測部21の計測結果とオーバーラップ量推定部22の推定結果と計測したときの原稿距離の設定値とから、センサチップの副走査方向ずれ量、センサチップごとのオーバーラップオフセット量、及びセンサチップごとの読取対象物方向の高さオフセット量を算出する。   The calculating unit 23 determines the amount of deviation in the sub-scanning direction of the sensor chip and each sensor chip from the measurement result of the point train interval measurement unit 21, the estimation result of the overlap amount estimation unit 22 and the setting value of the document distance when measured. The overlap offset amount and the height offset amount in the reading object direction for each sensor chip are calculated.

次にキャリブレーションモードでのキャリブレーション方法の処理手順について説明する。図6は、本実施の形態に係るキャリブレーション方法の処理手順である。   Next, the processing procedure of the calibration method in the calibration mode will be described. FIG. 6 is a processing procedure of the calibration method according to the present embodiment.

ステップ1では、キャリブレーション用原稿とラインセンサとの間の距離を指定した距離に設定する。指定した距離は、キャリブレーション用に2種類以上の設定距離のうちいずれか1つを設定する。   In step 1, the distance between the calibration document and the line sensor is set to the specified distance. As the designated distance, one of two or more types of set distances is set for calibration.

ステップ2では、画像読取装置1を動作させて、配置した原稿距離におけるキャリブレーション用原稿の画像データを取得する。   In step 2, the image reading apparatus 1 is operated to acquire image data of a calibration document at the distance of the document placed.

ステップ3では、キャリブレーション用原稿の画像データに対して、センサチップ毎に点列の主走査方向の間隔を計測する。センサチップ毎に点が複数あり点の間隔も複数計測されるが、代表値を当該センサチップに対する点列の間隔とする。全ての点の間隔の平均値を代表値としてもかまわないし、全ての点の間隔の中央値を代表値としてもかまわない。これらの計測は例えば合成画像データDoutを出力して画像読取装置1の外部(校正装置2)で計測を行なう。このように、製造工程でのキャリブレーションとして外部で計測を行なうことで、画像読取装置1自体に合成画像データDoutから点列の主走査方向の間隔を計測する計測部を設ける必要がなく製品コストを抑えることができる。合成画像データDoutから点列の主走査方向の間隔を計測する計測部を画像読取装置1に備えても所期の目的を達成することができる。   In step 3, with respect to the image data of the calibration document, the interval in the main scanning direction of the point sequence is measured for each sensor chip. Although there are a plurality of points for each sensor chip and a plurality of intervals are also measured, the representative value is taken as the interval of the point sequence to the sensor chip. The average value of the intervals of all the points may be used as the representative value, or the median of the intervals of all the points may be used as the representative value. For these measurements, for example, the composite image data Dout is output and measurement is performed outside the image reading device 1 (the calibration device 2). As described above, by performing measurement externally as calibration in the manufacturing process, it is not necessary to provide the image reading device 1 itself with a measurement unit for measuring the interval in the main scanning direction of the point sequence from the composite image data Dout. Can be reduced. Even if the image reading device 1 is provided with a measurement unit that measures the interval in the main scanning direction of the point sequence from the composite image data Dout, the intended purpose can be achieved.

ステップ4では、キャリブレーション用原稿を走査した時の画像データに対して、センサチップ間の境界付近の画像データを重ね合わせてズレが無くなる位置を探索し、センサチップの副走査方向ズレ量およびオーバーラップ量を算出する。ステップ4の処理はオーバーラップ量推定部22で実施される。   In step 4, the image data in the vicinity of the boundary between the sensor chips is superimposed on the image data when the calibration document is scanned to search for a position where the deviation disappears, and the amount of deviation in the subscanning direction of the sensor chip Calculate the lap amount. The process of step 4 is performed by the overlap amount estimation unit 22.

ステップ5では、キャリブレーション用の設定距離のうち全ての設定距離に対してステップ1からステップ4までの処理を実施したかを確認する。全ての設定距離に対して実施していない場合には、ステップ1に戻り、残りの設定距離についての処理を実施する。全ての設定距離に対して実施した場合にはステップ6に進む。   In step 5, it is checked whether the processing from step 1 to step 4 has been performed for all set distances among the set distances for calibration. If not performed for all the set distances, the process returns to step 1 and the process for the remaining set distances is performed. If all set distances have been set, the process proceeds to step 6.

ステップ6では、センサチップ毎の副走査方向のズレ量を算出する。ステップ5までで、全てのセンサチップおよび全ての設定距離について副走査方向ズレ量を算出してきた。ステップ6では、同一のセンサチップについて、全ての設定距離での副走査方向ズレ量の代表値を、当該センサチップの副走査方向ズレ量とする。全ての設定距離での副走査方向ズレ量の平均値を代表値としてもかまわないし、全ての設定距離での副走査方向ズレ量の中央値を代表値としてもかまわない。   In step 6, the amount of deviation in the sub-scanning direction for each sensor chip is calculated. Up to step 5, the amount of deviation in the sub-scanning direction has been calculated for all sensor chips and all set distances. In step 6, for the same sensor chip, a representative value of the amount of deviation in the sub-scanning direction at all set distances is taken as the amount of deviation in the sub-scanning direction of the sensor chip. The average value of the sub-scanning direction shift amounts at all set distances may be used as a representative value, or the median of the sub-scanning direction shift amounts at all set distances may be used as a representative value.

ステップ7では、点列の間隔と原稿距離との関係を算出する。ステップ5までで、全てのセンサチップについて設定距離毎に点列の間隔を算出してきた。設定距離毎に全てのセンサチップの点列の間隔の平均値を算出する。   In step 7, the relationship between the distance between the point sequences and the document distance is calculated. Up to step 5, the interval of point trains has been calculated for each set distance for all sensor chips. The average value of the intervals of point sequences of all the sensor chips is calculated for each set distance.

図7は、点列の間隔と原稿距離との関係を示す図である。キャリブレーション用原稿にある点列パターンの間隔に対して、センサチップとキャリブレーション用原稿との距離である原稿距離が離れれば離れるほど、そのセンサチップで撮像された画像データでみられる点列の間隔は狭くなる。   FIG. 7 is a view showing the relationship between the distance between point sequences and the document distance. The longer the document distance, which is the distance between the sensor chip and the calibration document, from the interval of the point sequence pattern on the calibration document, the longer the point sequence seen in the image data captured by the sensor chip. The distance becomes narrower.

図8は、原稿距離とセンサチップで撮像された画像データでみられる点列の間隔との関係を示す図である。横軸は原稿距離を示し、縦軸は各センサチップで撮像された画像データでみられる点列の間隔を示す。また、原稿距離をキャリブレーション用の設定距離としてP、P、及びPの3点についてセンサチップAの画像データから取得した点列の間隔の平均値Tを白抜き四角で示し、センサチップBの画像データから取得した点列の間隔の平均値Tを×マークで示し、センサチップCの画像データから取得した点列の間隔の平均値Tを白抜き丸で示した。このように、点列の間隔と原稿距離との関係は一次式で近似することができる。 FIG. 8 is a diagram showing the relationship between the document distance and the distance between point sequences found in image data captured by the sensor chip. The horizontal axis indicates the document distance, and the vertical axis indicates the distance between point sequences observed in the image data captured by each sensor chip. Also, an average value T A of the sensor chip acquired sequence of points apart from the image data A for three points P 1, P 2, and P 3 the original distance as set distance for calibration indicated by open squares, represents an average value T B of the sensor chip image data of the acquired sequence of points from the interval of B in × mark was the mean value T C of the spacing of the point sequence obtained from the image data of the sensor chip C in open circles. Thus, the relationship between the distance between the point sequences and the document distance can be approximated by a linear expression.

センサチップAと原稿との距離Pで取得した点列の間隔の平均値をT、センサチップBと原稿との距離Pで取得した点列の間隔の平均値をT、センサチップCと原稿との距離Pで取得した点列の間隔の平均値をTのように各原稿距離における点列の間隔の平均値を算出する。センサチップkと原稿との距離(原稿距離)PTとセンサチップkでの点列の間隔の平均値Tとの関係を式(1)に示す第1の一次式で近似することができる。ここでkはN個のセンサチップのうちのいずれかのセンサチップを表す変数として示す。 Sensor chip A and the average value T A spacing sequence of points acquired by the distance P A between the document, the sensor chip B and the average value T B of the distance P column spacing points obtained in B with the original, the sensor chip the average value of C and the sequence of points obtained by the distance P C between the original spacing as from T C calculates an average value of interval point sequences in each original distance. The relationship between the distance PT k between the sensor chip k and the document (original document distance) and the average value T k of the intervals of the point sequence in the sensor chip k can be approximated by the first linear expression shown in equation (1) . Here, k is shown as a variable representing any one of the N sensor chips.

Figure 0006544233
ここでは、原稿距離PTの単位は[mm]とし、Tの単位は画素数とする。KEITは近似一次式の傾き[mm/画素]であり、OFTは近似一次式の切片[mm]である。
Figure 0006544233
Here, the unit of the document distance PT k is [mm], and the unit of T k is the number of pixels. KEIT k is the inclination [mm / pixel] of the approximate linear expression, and OFT k is the intercept [mm] of the approximate linear expression.

ステップ8では、原稿距離と倍率の関係を算出する。本実施の形態の撮像部11は、標準的に使用する原稿距離と、その時の解像度が設計に基づいて決められている。原稿上の点列の間隔は全て等間隔であり、その間隔はS[mm]である。標準的な原稿距離をP[mm]とし、そのときの解像度をQ[dpi:dots per inch]とすると、1インチを25.4[mm]として換算しセンサチップkでの点列の間隔の平均値T[画素]に対する倍率R[倍]は式(2)で算出される。 In step 8, the relationship between the document distance and the magnification is calculated. In the imaging unit 11 of the present embodiment, the document distance to be used normally and the resolution at that time are determined based on the design. The intervals of the point sequence on the document are all equally spaced, and the interval is S [mm]. Assuming that the standard document distance is P 0 [mm] and the resolution at that time is Q 0 [dpi: dots per inch], 1 inch is converted to 25.4 [mm] and the point array of the sensor chip k is converted. A scaling factor R k [times] with respect to the average value T k [pixel] of the interval is calculated by equation (2).

Figure 0006544233
Figure 0006544233

式(1)と式(2)から原稿距離と倍率の関係は式(3)で表される。   From the equations (1) and (2), the relation between the document distance and the magnification is expressed by the equation (3).

Figure 0006544233
Figure 0006544233

ステップ9では、オーバーラップ量と原稿距離の関係を算出する。ステップ5までで、全てのセンサチップ間について設定距離毎に主走査方向のオーバーラップ量を算出してきた。設定距離毎に全てのセンサチップ間のオーバーラップ量の平均値を算出する。   In step 9, the relationship between the overlap amount and the document distance is calculated. Up to step 5, the overlap amount in the main scanning direction has been calculated for each set distance between all the sensor chips. The average value of the amount of overlap between all the sensor chips is calculated for each set distance.

図9は、オーバーラップ量と原稿距離との関係を示す図である。キャリブレーション用原稿にある点列パターンの間隔に対して、センサチップとキャリブレーション用原稿との距離である原稿距離が離れれば離れるほど、そのセンサチップで撮像された画像データでみられるオーバーラップ量の間隔は広くなる。   FIG. 9 is a diagram showing the relationship between the overlap amount and the document distance. As the document distance, which is the distance between the sensor chip and the calibration document, increases with respect to the interval of the point sequence pattern on the calibration document, the overlap amount seen in the image data captured by the sensor chip increases The distance between

図10は、原稿距離とセンサチップで撮像された画像データでみられるオーバーラップ量との関係を示す図である。横軸は原稿距離を示し、縦軸は各センサチップで撮像された画像データでみられるオーバーラップ量を示す。また、キャリブレーション用の設定距離としてP、P、及びPの3点についてセンサチップAの画像データから取得したオーバーラップ量の平均値OVを白抜き四角で示し、センサチップBの画像データから取得したオーバーラップ量の平均値OVを×マークで示し、センサチップCの画像データから取得したオーバーラップ量の平均値OVを白抜き丸で示した。このように、点列の間隔と原稿距離との関係は一次式で近似することができる。 FIG. 10 is a diagram showing the relationship between the document distance and the overlap amount found in the image data captured by the sensor chip. The horizontal axis indicates the document distance, and the vertical axis indicates the overlap amount found in the image data captured by each sensor chip. Further, as a set distance for calibration P 1, P 2, and the three points P 3 indicates the mean value OV A overlap amount acquired from the image data of the sensor chip A in open squares, the sensor chip B the average value OV B overlap amount acquired from the image data shown in × marks, exhibited a mean value OV C overlap amount acquired from the image data of the sensor chip C in open circles. Thus, the relationship between the distance between the point sequences and the document distance can be approximated by a linear expression.

センサチップAと原稿との距離Pで取得したオーバーラップ量の平均値をOV、センサチップBと原稿との距離Pで取得したオーバーラップ量の平均値をOV、センサチップCと原稿との距離Pで取得したオーバーラップ量の平均値をOVのように各原稿距離におけるオーバーラップ量の平均値を算出する。するとセンサチップkと原稿との距離(原稿距離)PVとセンサチップkでのオーバーラップ量の平均値OVとの関係を式(4)に示す第2の一次式で近似することができる。ここでkはN個のセンサチップのうちのいずれかのセンサチップを表す変数として示す。 Sensor chip A and the average value OV A overlap amount obtained by the distance P A between the document, the sensor chip B and the average value of the obtained overlap amount by the distance P B between the original OV B, and the sensor chip C the average value of the overlap amount obtained by the distance P C between the document and calculates the average value of the overlap amount in each document distances as OV C. Then, the relationship between the distance PV k between the sensor chip k and the document (document distance) and the average value OV k of the overlap amounts at the sensor chip k can be approximated by the second linear expression shown in equation (4) . Here, k is shown as a variable representing any one of the N sensor chips.

Figure 0006544233
Figure 0006544233

ここでは、OVの単位は画素数とする。KEIVは近似一次式の傾き[mm/画素]であり、OFVは近似一次式の切片[mm]である。 Here, the unit of OV k is the number of pixels. KEIV k is the inclination [mm / pixel] of the approximate linear expression, and OFV k is the intercept [mm] of the approximate linear expression.

ここで、式(1)と式(4)とからセンサチップkの原稿距離PVにPTを代入することで以下の式(5)の関係式が成り立つ。また、式(5)を満たす、つまり原稿距離PV=PTであるときのOVを、センサチップkにおいて本来あるべきオーバーラップ量OVJとする。 Here, the relational expression of the following equation (5) is established by substituting PT k into the document distance PV k of the sensor chip k from the equations (1) and (4). Further, OV k which satisfies the equation (5), that is, when the document distance PV k = PT k is set as an overlap amount OVJ k which should be originally present in the sensor chip k.

Figure 0006544233
Figure 0006544233

ステップ11では、センサチップ毎の本来あるべきオーバーラップ量OVJから、センサチップ間の本来あるべきオーバーラップ量OVIを算出する。センサチップAとセンサチップBとの間の本来あるべきオーバーラップ量OVIABの算出式は式(6)に示すとおりである。 In step 11, the overlap amount OVj k is inherent to every sensor chip, to calculate the original is overlap amount OVI should between the sensor chip. The calculation formula of the overlap amount OVI AB that should originally exist between the sensor chip A and the sensor chip B is as shown in the equation (6).

Figure 0006544233
Figure 0006544233

ステップ12ではオーバーラップ量のオフセット量OFOV[画素]を算出する。センサチップAとセンサチップBとの間のオーバーラップ量のオフセット量OFOVABの算出式は式(7)に示すとおりである。 In step 12, the offset amount OFOV [pixel] of the overlap amount is calculated. The calculation formula of the offset amount OFOV AB of the overlap amount between the sensor chip A and the sensor chip B is as shown in the equation (7).

Figure 0006544233
Figure 0006544233

ステップ13ではセンサチップ毎の高さのオフセットOFPを算出する。算出式を式(8)に示す。なおOFPの単位はミリメートルである。 In step 13, the offset OFP k of the height for each sensor chip is calculated. The calculation formula is shown in Formula (8). The unit of OFP k is millimeter.

Figure 0006544233
Figure 0006544233

ここで、Pはi番目に設定した設定距離を表しており、Tkiはi番目に設定した設定距離に設定したときのセンサチップkでの原稿距離Pにおけるセンサチップkの点列の間隔を表している。AVG()はキャリブレーション用に設定する全ての設定について平均値をとる関数である。 Here, P i represents the i-th set distance, and T ki is the point sequence of the sensor chip k at the document distance P k at the sensor chip k when it is set to the i-th set distance. It represents an interval. AVG () is a function that takes an average value for all settings set for calibration.

このようにして、ステップ6でセンサチップ毎の副走査方向のズレ量を算出し、ステップ12でセンサチップ間毎のオーバーラップ量のオフセット量を算出し、ステップ13でセンサチップ毎の高さのオフセット量を算出する。   Thus, in step 6, the amount of deviation in the sub-scanning direction for each sensor chip is calculated, and in step 12, the amount of offset for the amount of overlap between sensor chips is calculated. Calculate the offset amount.

次に、倍率算出手順について説明する。図11は、本実施の形態にかかるキャリブレーション結果を用いた倍率算出手順を示すフロー図である。   Next, the magnification calculation procedure will be described. FIG. 11 is a flow chart showing a magnification calculation procedure using the calibration result according to the present embodiment.

ステップ101では画像読取装置1に対して未知の原稿距離に原稿を配置する。   At step 101, the document is placed at an unknown document distance with respect to the image reading apparatus 1.

ステップ102では画像データを取得する。   At step 102, image data is acquired.

ステップ103ではオーバーラップ量推定部22を用いて、センサチップ間の境界付近の画像データを重ね合わせてズレが無くなる位置を探索し、合成位置(副走査方向ズレ量およびオーバーラップ量)を算出する。   In step 103, using the overlap amount estimation unit 22, image data near the boundary between the sensor chips are superimposed to search for a position at which the shift disappears, and a composite position (sub-scanning direction shift amount and overlap amount) is calculated. .

ステップ104ではステップ103で算出したオーバーラップ量に対して、キャリブレーションで算出したオーバーラップ量のオフセット量を外部から入力し、減算する。処理内容を式(9)に示す。このように処理することでセンサチップ毎の主走査方向のズレが補正される。なおステップ104の処理は画像読取装置1の切替部53で実行される。   In step 104, with respect to the overlap amount calculated in step 103, the offset amount of the overlap amount calculated in calibration is externally input and subtracted. The processing content is shown in equation (9). By this processing, the deviation in the main scanning direction for each sensor chip is corrected. The processing of step 104 is executed by the switching unit 53 of the image reading device 1.

Figure 0006544233
Figure 0006544233

ここで、OVIABは、センサチップAとセンサチップBとの間におけるオフセット量を減算したオーバーラップ量を示す。OVABは、センサチップAとセンサチップBとの間におけるステップ103で算出したオーバーラップ量を示す。OFOVABは、センサチップAとセンサチップBとの間におけるキャリブレーションで算出したオーバーラップ量のオフセット量を示す。 Here, OVI AB shows overlap amount obtained by subtracting the offset amount between the sensor chip A and the sensor chip B. OV AB indicates the overlap amount calculated in step 103 between the sensor chip A and the sensor chip B. OFOV AB indicates the offset amount of the overlap amount calculated by calibration between the sensor chip A and the sensor chip B.

ステップ105では、センサチップ毎のオーバーラップ量OVJに変換する。ラインセンサにセンサチップがAからZまでアルファベット順に配列されているものとした場合、センサチップBのオーバーラップ量OVJは、式(9)で算出したセンサチップBと隣り合ったセンサチップA及びCとのそれぞれのオーバーラップ量OVIABとオーバーラップ量OVIBCとの平均から求める。配列の両端であるセンサチップA及びセンサチップZについては、式(9)で算出した隣り合ったセンサチップとのオーバーラップ量、つまりセンサチップAにおいてはセンサチップAとセンサチップBとの間におけるOVIABとし、センサチップZにおいてはセンサチップZとセンサチップYとの間におけるOVIYZとする。変換式を式(10)に示す。 In step 105, the overlap amount OVJ for each sensor chip is converted. Assuming that sensor chips are arranged in alphabetical order from A to Z in the line sensor, the overlap amount OVJ B of the sensor chip B is the sensor chip A adjacent to the sensor chip B calculated by the equation (9) and It is obtained from the average of each overlap amount OVI AB with C and the overlap amount OVI BC . For the sensor chip A and the sensor chip Z which are both ends of the array, the overlap amount with the adjacent sensor chip calculated by the equation (9), that is, in the sensor chip A, between the sensor chip A and the sensor chip B. and OVI AB, in the sensor chip Z and OVI YZ between the sensor chip Z and the sensor chip Y. The conversion equation is shown in equation (10).

Figure 0006544233
Figure 0006544233

ステップ106ではセンサチップ毎のオーバーラップ量OVJからセンサチップ毎の原稿距離Pを算出する。算出式を式(11)に示す。式(11)中のKEIVおよびOFVはキャリブレーション時に算出したセンサチップkにおけるパラメータであり、画像読取装置1の外から渡される。 In step 106, the document distance P for each sensor chip is calculated from the overlap amount OVJ for each sensor chip. The calculation formula is shown in formula (11). In the equation (11), KEIV k and OFV k are parameters in the sensor chip k calculated at the time of calibration, and are passed from the outside of the image reader 1.

Figure 0006544233
Figure 0006544233

ステップ107では、ステップ106で算出した原稿距離Pから高さのオフセット量OFPを減算することで真の原稿距離PIを算出する。算出式を式(12)に示す。 In step 107, the true document distance PI k is calculated by subtracting the height offset amount OFP k from the document distance P k calculated in step 106. The calculation formula is shown in formula (12).

Figure 0006544233
Figure 0006544233

ステップ108では真の原稿距離PIから原稿の倍率Rを算出する。キャリブレーション時のステップ108で算出した式(3)に従って真の原稿距離PIから原稿の倍率Rを算出する。 In step 108, the magnification R k of the document is calculated from the true document distance PI k . The magnification R k of the document is calculated from the true document distance PI k according to the equation (3) calculated in step 108 at the time of calibration.

このようにして算出した倍率Rは画像合成部14に渡されて、画像の結合前の拡大または縮小で用いられる。 The magnification R k calculated in this manner is passed to the image combining unit 14 and used in enlargement or reduction before combining the images.

以上に説明した実施の形態に係るキャリブレーション手順とすることで、物理的に計測しないで撮像部11のセンサチップ毎の副走査方向ズレ量、センサチップ間毎のオーバーラップ量のオフセット量、およびセンサチップ毎の高さのオフセット量を把握することができる。これらの量を把握することで、未知の原稿距離に配置された原稿を読み取った場合でも、前述の倍率算出手順で原稿の倍率を算出することが可能となり、画像データに対して適切な倍率での拡大/縮小処理を実施することができる。   By using the calibration procedure according to the embodiment described above, the amount of deviation in the sub-scanning direction for each sensor chip of the imaging unit 11, the amount of offset for the amount of overlap between sensor chips, and physical measurement The offset amount of height for each sensor chip can be grasped. By grasping these amounts, even when the document placed at an unknown document distance is read, it becomes possible to calculate the magnification of the document according to the above-mentioned magnification calculation procedure, and with the appropriate magnification for the image data Can be carried out.

図12は、図1に示した本実施の形態に係るキャリブレーション手順に用いる点列間隔計測部21、オーバーラップ量推定部22、及び算出部23について、画像読取装置1に点列間隔計測部15、オーバーラップ量推定部16、及び算出部17を構成した図を示す。点列間隔計測部15と点列間隔計測部21とは作用は同じである。同様に、オーバーラップ量推定部16とオーバーラップ量推定部22とは作用は同じであり、算出部17と算出部23とは作用は同じである。図12のように、画像読取装置1に点列間隔計測部15、オーバーラップ量推定部16、及び算出部17を備えることで、画像読取装置1の所有者が直接キャリブレーションを行なうことができるという効果を奏する。なお、点列間隔計測部15及びオーバーラップ量推定部16の入力をメモリ13からの出力としているが、キャリブレーションモード時として合成情報D13を設定した上での画像合成データDoutを用いる方法と所期の目的を達成し得ることはいうまでもない。   FIG. 12 shows the point sequence interval measurement unit of the image reading device 1 with respect to the point sequence interval measurement unit 21, overlap amount estimation unit 22, and calculation unit 23 used in the calibration procedure according to the present embodiment shown in FIG. FIG. 15 shows a diagram in which an overlap amount estimation unit 16 and a calculation unit 17 are configured. The point sequence interval measurement unit 15 and the point sequence interval measurement unit 21 have the same action. Similarly, the overlap amount estimation unit 16 and the overlap amount estimation unit 22 have the same operation, and the calculation unit 17 and the calculation unit 23 have the same operation. As shown in FIG. 12, the image reading apparatus 1 includes the point sequence interval measuring unit 15, the overlap amount estimating unit 16, and the calculating unit 17 so that the owner of the image reading apparatus 1 can directly perform calibration. It plays an effect. Although the input from the point train interval measurement unit 15 and the overlap amount estimation unit 16 is the output from the memory 13, the method and place using the image combination data Dout after setting the combination information D13 as in the calibration mode It goes without saying that the purpose of the period can be achieved.

1 画像読取装置
11 撮像部
12 A/D変換部
13 メモリ
14 合成情報生成部
2 校正装置
21 点列間隔計測部
22 オーバーラップ量推定部
23 算出部
Reference Signs List 1 image reading device 11 imaging unit 12 A / D conversion unit 13 memory 14 composite information generation unit 2 calibration device 21 point train interval measurement unit 22 overlap amount estimation unit 23 calculation unit

Claims (3)

複数の撮像素子を主走査方向に設けたセンサチップを前記主走査方向に配列し、前記センサチップに対向した読取対象物を撮像するラインセンサと、
合成情報に基づいて前記センサチップごとの撮像画像について拡大または縮小を行なうとともに、合成位置を調整して合成することで合成画像データを生成する画像合成部とを備える画像読取装置のキャリブレーション方法であって、
予め決められた基準位置を前記合成情報として設定し、千鳥状に配置された点列と前記主走査方向に沿った直線とが描写されたキャリブレーションパターンを有するキャリブレーション原稿を前記読取対象物として、前記キャリブレーション原稿から前記ラインセンサまでの原稿距離について複数の距離設定で前記合成画像データを取得し、
それぞれの前記原稿距離において得られた前記センサチップごとの撮像画像と前記原稿距離との関係から、前記センサチップごとの副走査方向ずれ量、センサチップ間ごとのオーバーラップ量のオフセット量、及び前記センサチップごとの読取対象物方向の高さオフセット量を算出し、
得られた前記センサチップの副走査方向ずれ量と、前記センサチップごとの前記オーバーラップ量のオフセット量及び前記センサチップごとの読取対象物方向の高さオフセット量とを前記合成情報として設定することを特徴とする画像読取装置のキャリブレーション方法。
A line sensor that arranges in the main scanning direction a sensor chip in which a plurality of imaging elements are provided in the main scanning direction, and picks up an object to be read facing the sensor chip;
A calibration method of an image reading apparatus, comprising: an image combining unit that generates combined image data by performing enlargement or reduction on a captured image for each of the sensor chips based on combining information and adjusting and combining the combining position. There,
A calibration document having a calibration pattern in which a predetermined reference position is set as the composite information, and a point sequence arranged in a zigzag form and a straight line along the main scanning direction are described as the reading object Acquiring the composite image data by setting a plurality of distances for the document distance from the calibration document to the line sensor;
From the relationship between the captured image of each of the sensor chips obtained for each of the document distances and the document distance, the sub-scanning direction shift amount for each of the sensor chips , the offset amount of the overlap amount for each of the sensor chips , and Calculate the height offset amount in the reading object direction for each sensor chip,
Setting the sub-scanning direction shift amount of the resulting the sensor chip, and a pre-Symbol offset amount of the amount of overlap between every sensor chip and the height offset of the object to be read direction for each of the sensor chip as the combined information And a calibration method of the image reading apparatus.
前記キャリブレーション原稿と前記ラインセンサとの原稿距離について距離設定を行なうステップと、
前記原稿距離において得られた前記合成画像データから、前記合成画像データでの直線のずれ量に基づいて前記センサチップごとの副走査方向ずれ量を算出するステップと、
それぞれの前記原稿距離において得られた前記センサチップの画像データから前記センサチップごとの前記点列の間隔と前記原稿距離との関係を第1の一次式で近似するステップと、
前記第1の一次式と前記キャリブレーション原稿の前記点列の間隔とから、前記センサチップにおける前記原稿距離と前記画像データの倍率との関係を算出するステップと、
前記センサチップごとに、主走査方向の前記オーバーラップ量と前記原稿距離との関係を第2の一次式で近似するステップと、
前記原稿距離と前記第2の一次式とから、前記センサチップ間ごとに本来あるべきオーバーラップ量を算出するステップと、
主走査方向の前記オーバーラップ量と前記本来あるべきオーバーラップ量とから、前記センサチップ間ごとにオーバーラップ量のオフセット量を算出するステップと、
前記原稿距離と前記第1の一次式とから、前記センサチップごとの読取対象物方向の高さオフセット量を算出するステップとを備える
ことを特徴とする請求項1に記載の画像読取装置のキャリブレーション方法。
Setting a distance for the document distance between the calibration document and the line sensor;
Calculating a sub-scanning direction shift amount for each of the sensor chips based on the shift amount of a straight line in the composite image data from the composite image data obtained at the document distance;
Approximating the relationship between the distance between the point sequence of each sensor chip and the document distance from the image data of the sensor chip obtained at each of the document distances by a first linear expression;
Calculating a relation between the document distance and the magnification of the image data in the sensor chip from the first linear expression and the interval of the point sequence of the calibration document;
Approximating the relationship between the overlap amount in the main scanning direction and the document distance for each of the sensor chips with a second linear expression;
Calculating an overlap amount that should originally exist for each of the sensor chips from the document distance and the second linear expression;
Calculating an offset amount of the overlap amount between the sensor chips from the overlap amount in the main scanning direction and the overlap amount to be originally present;
2. The calibration of the image reading apparatus according to claim 1, further comprising the step of: calculating a height offset amount in the reading object direction for each of the sensor chips from the document distance and the first linear expression. Method.
複数の撮像素子を主走査方向に設けたセンサチップを前記主走査方向に配列し、前記センサチップに対向した読取対象物を撮像するラインセンサと、
合成情報に基づいて前記センサチップごとの撮像画像について拡大または縮小を行なうとともに、合成位置を調整して合成することで合成画像データを生成する画像合成部と、
キャリブレーションモードのときに、予め決められた基準位置を前記合成情報として設定し、千鳥状に配置された点列と前記主走査方向に沿った直線とが描写されたキャリブレーションパターンを有するキャリブレーション原稿を前記読取対象物として、前記キャリブレーション原稿から前記ラインセンサまでの原稿距離について複数の距離設定を行なう
設定部と、
それぞれの前記原稿距離において得られた前記センサチップごとの撮像画像と前記原稿距離との関係から、前記センサチップごとの副走査方向ずれ量、センサチップ間ごとのオーバーラップ量のオフセット量、及び前記センサチップごとの読取対象物方向の高さオフセット量を算出する算出部とを備え、
前記設定部は、得られた前記センサチップの副走査方向ずれ量と、前記センサチップごとの前記オーバーラップ量のオフセット量及び前記センサチップごとの読取対象物方向の高さオフセット量とを前記合成情報として設定することを特徴とする画像読取装置。
A line sensor that arranges in the main scanning direction a sensor chip in which a plurality of imaging elements are provided in the main scanning direction, and picks up an object to be read facing the sensor chip;
An image combining unit configured to generate combined image data by performing enlargement or reduction on a captured image of each of the sensor chips based on combining information, adjusting a combining position, and combining;
In the calibration mode, a calibration having a calibration pattern in which a predetermined reference position is set as the composite information, and a row of dots arranged in a staggered manner and a straight line along the main scanning direction are depicted A setting unit configured to set a plurality of distances for the document distance from the calibration document to the line sensor, using the document as the reading object;
From the relationship between the captured image of each of the sensor chips obtained for each of the document distances and the document distance, the sub-scanning direction shift amount for each of the sensor chips , the offset amount of the overlap amount for each of the sensor chips , and A calculation unit for calculating the height offset amount in the direction of the object to be read of each sensor chip;
The setting unit has a sub-scan direction displacement amount of the resulting sensor chip, and a pre-Symbol offset amount of the amount of overlap between every sensor chip and the height offset of the object to be read direction for each of the sensor chips An image reading apparatus set as the composite information.
JP2015256072A 2015-12-28 2015-12-28 Calibration method of image reading apparatus and image reading apparatus Expired - Fee Related JP6544233B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015256072A JP6544233B2 (en) 2015-12-28 2015-12-28 Calibration method of image reading apparatus and image reading apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015256072A JP6544233B2 (en) 2015-12-28 2015-12-28 Calibration method of image reading apparatus and image reading apparatus

Publications (2)

Publication Number Publication Date
JP2017120969A JP2017120969A (en) 2017-07-06
JP6544233B2 true JP6544233B2 (en) 2019-07-17

Family

ID=59272356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015256072A Expired - Fee Related JP6544233B2 (en) 2015-12-28 2015-12-28 Calibration method of image reading apparatus and image reading apparatus

Country Status (1)

Country Link
JP (1) JP6544233B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6064568A (en) * 1983-09-19 1985-04-13 Canon Inc Picture reader
JP2857000B2 (en) * 1992-11-10 1999-02-10 大日本スクリーン製造株式会社 Reading area connection device for image reading device
JP2003291325A (en) * 2002-03-29 2003-10-14 Olympus Optical Co Ltd Image recorder
JP5224976B2 (en) * 2008-08-29 2013-07-03 三菱電機株式会社 Image correction apparatus, image correction method, program, and recording medium
JP2011023789A (en) * 2009-07-13 2011-02-03 Ricoh Co Ltd Image reader, and image-forming device
JP5821563B2 (en) * 2011-11-21 2015-11-24 三菱電機株式会社 Image reading apparatus, image reading method, and MTF correction parameter determination method
JP2014060557A (en) * 2012-09-17 2014-04-03 Ricoh Co Ltd Image forming apparatus and image forming method

Also Published As

Publication number Publication date
JP2017120969A (en) 2017-07-06

Similar Documents

Publication Publication Date Title
US9300829B2 (en) Image reading apparatus and correction method thereof
US7692832B2 (en) Method for correcting scanner non-uniformity
US20100008580A1 (en) Image processing apparatus and image processing method
US8320715B2 (en) Device and method for interpolating image, and image scanner
EP2622836B1 (en) Two-dimensional calibration of image sensor alignment in optical scanners
KR20060049187A (en) Methods and systems for correcting color distortions
JP6377768B2 (en) Spectral image acquisition device
JP5821563B2 (en) Image reading apparatus, image reading method, and MTF correction parameter determination method
JP6544233B2 (en) Calibration method of image reading apparatus and image reading apparatus
JP2008028542A (en) Image processor and image reader
JP6520931B2 (en) Color measuring device and color measuring method
JP6246379B2 (en) Image processing apparatus, image processing method, image reading apparatus, and program
JP6422428B2 (en) Image processing apparatus, image processing method, image reading apparatus, and program
JP6073674B2 (en) Image processing apparatus and image forming apparatus
JP2011151548A (en) Method for calibrating flat bed scanner
JP6058115B2 (en) Image processing apparatus, image processing method, image reading apparatus, and program
US20040120017A1 (en) Method and apparatus for compensating for assembly and alignment errors in sensor assemblies
US6834928B2 (en) Determination of media advancement based on one pixel-wide media images
JPH118734A (en) Image reader
JP2004032223A (en) Device and method for measuring image deviation and computer readable recording medium storing program for executing it
JP2002314769A (en) Image reader
CN116309063A (en) Correction information generation method, image stitching method and device and image acquisition system
JP2011010003A (en) Misalignment detector, and image reader
JP2006332962A (en) Image input device and image evaluating device using the image input device
JP2002374392A (en) Device and method for measuring image position deviation and storage medium with stored program based on the same method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R151 Written notification of patent or utility model registration

Ref document number: 6544233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees