JP6544233B2 - Calibration method of image reading apparatus and image reading apparatus - Google Patents
Calibration method of image reading apparatus and image reading apparatus Download PDFInfo
- Publication number
- JP6544233B2 JP6544233B2 JP2015256072A JP2015256072A JP6544233B2 JP 6544233 B2 JP6544233 B2 JP 6544233B2 JP 2015256072 A JP2015256072 A JP 2015256072A JP 2015256072 A JP2015256072 A JP 2015256072A JP 6544233 B2 JP6544233 B2 JP 6544233B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor chip
- document
- sensor
- amount
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Input (AREA)
- Facsimile Scanning Arrangements (AREA)
- Editing Of Facsimile Originals (AREA)
Description
この発明は、複数のセンサチップが直線状に配列されたラインセンサを用いて原稿や紙葉など読取対象物を撮像する画像読取装置に関する。 The present invention relates to an image reading apparatus which picks up an object to be read such as a document or a sheet using a line sensor in which a plurality of sensor chips are linearly arranged.
複写機、スキャナ、ファクシミリ及び紙幣読み取り装置等に適用される画像読取装置として、読取対象物である紙葉類を複数の撮像素子を直線状に配列されたラインセンサ(一次元撮像素子ともいう)で走査し、紙葉類に対応する画像データを生成するものがある。このときラインセンサは複数の撮像素子が直線状に配列された方向を主走査方向として主走査方向のラインを走査し、主走査方向と垂直方向となる副走査方向に読取対象物を搬送するなどしてずらして新たな走査を行ないつなぎ合わせることで2次元の画像データを生成する。 A line sensor (also referred to as a one-dimensional imaging element) in which a plurality of imaging elements are linearly arranged as an image reading apparatus applied to a copying machine, a scanner, a facsimile, a bill reading apparatus, etc. Scan to generate image data corresponding to a sheet. At this time, the line sensor scans a line in the main scanning direction with the direction in which the plurality of imaging elements are linearly arranged as the main scanning direction, and conveys the object to be read in the subscanning direction perpendicular to the main scanning direction Then, two-dimensional image data is generated by shifting and connecting new scans.
ラインセンサは、主走査方向に直線状に配列された複数の撮像素子を有するセンサチップから構成されており、複数個のセンサチップをさらに主走査方向に配列した構成となっている。 The line sensor is composed of a sensor chip having a plurality of imaging elements arranged linearly in the main scanning direction, and has a configuration in which a plurality of sensor chips are further arranged in the main scanning direction.
センサチップは半導体製造技術で製造されるため、センサチップ上の撮像素子間の間隔は比較的等間隔であるが、複数個のセンサチップをさらに主走査方向に配列したラインセンサは、センサチップを機械的に並べる工程で製造されるため、ラインセンサ上のセンサチップ間の間隔は、ばらつく傾向にある。また、センサチップ間の間隔は撮像素子間の間隔とは異なっている場合が多く、センサチップ毎に読取った画像データを主走査方向に並べただけでは、画像データ上のセンサチップの境界部分が不連続になるという問題点がある。 Since the sensor chip is manufactured by semiconductor manufacturing technology, the intervals between the imaging devices on the sensor chip are relatively equal, but a line sensor in which a plurality of sensor chips are further arranged in the main scanning direction is a sensor chip. The spacing between sensor chips on the line sensor tends to vary because it is manufactured in a mechanical alignment process. In addition, the spacing between sensor chips is often different from the spacing between imaging elements, and simply arranging the image data read for each sensor chip in the main scanning direction, the boundary portion of the sensor chip on the image data is There is a problem that it becomes discontinuous.
そこで、センサチップ間の間隔が撮像素子間の間隔よりも大きいという条件のもとで、画像データがセンサチップの境界部分で不連続にならないように、補間処理で境界部分に画素を挿入するという方法がある(例えば、特許文献1参照)。 Therefore, under the condition that the distance between sensor chips is larger than the distance between image sensors, pixels are inserted in the boundary portion by interpolation processing so that the image data does not become discontinuous at the boundary portion of the sensor chip. There is a method (see, for example, Patent Document 1).
特許文献1の方法を実現するためには、撮像素子間の間隔およびセンサチップ間の間隔が既知である必要がある。しかし、センサチップは機械的に取り付けられるため、取り付け時に誤差が生じ、必ずしも直線状でない場合があり、かつセンサチップ間の間隔が必ずしも等間隔でない場合がある。特許文献1のラインセンサの構成では、センサチップ間に撮像素子が無いため、ラインセンサで読み取った画像データからセンサチップ間の間隔を算出することができず、センサチップ間の間隔を算出するためにはセンサチップの位置関係について直接計測する等の手段を用いる必要がある。
In order to realize the method of
この発明は、上述のような課題を解決するためになされたもので、センサチップの位置関係に設計位置と誤差が生じている場合であってもセンサチップの位置関係について一つ一つ直接計測することなく校正して、センサチップの境界部分で不連続にならない画像データを出力するという所期の目的を果たす画像読取装置を提供することを目的とする。 The present invention has been made to solve the problems as described above, and even if there is a design position and an error in the positional relationship of the sensor chip, direct measurement of the positional relationship of the sensor chip one by one It is an object of the present invention to provide an image reading apparatus which fulfills the intended purpose of outputting image data which does not become discontinuous at the boundary portion of a sensor chip by performing calibration without correction.
この発明に係る画像読取装置のキャリブレーション方法においては、複数の撮像素子を主走査方向に設けたセンサチップを前記主走査方向に配列し、前記センサチップに対向した読取対象物を撮像するラインセンサと、合成情報に基づいて前記センサチップごとの撮像画像について拡大または縮小を行なうとともに、合成位置を調整して合成することで合成画像データを生成する画像合成部とを備える画像読取装置のキャリブレーション方法であって、予め決められた基準位置を前記合成情報として設定し、千鳥状に配置された点列と前記主走査方向に沿った直線とが描写されたキャリブレーションパターンを有するキャリブレーション原稿を前記読取対象物として、前記キャリブレーション原稿から前記ラインセンサまでの原稿距離について複数の距離設定で前記合成画像データを取得し、それぞれの前記原稿距離において得られた前記センサチップごとの撮像画像と前記原稿距離との関係から、前記センサチップごとの副走査方向ずれ量、センサチップ間ごとのオーバーラップ量のオフセット量、及び前記センサチップごとの読取対象物方向の高さオフセット量を算出し、得られた前記センサチップの副走査方向ずれ量と、前記センサチップ間ごとの前記オーバーラップ量のオフセット量及び前記センサチップごとの読取対象物方向の高さオフセット量とを前記合成情報として設定することを特徴とするものである。
In the calibration method of the image reading apparatus according to the present invention, a line sensor which arranges in the main scanning direction a sensor chip in which a plurality of imaging elements are provided in the main scanning direction and picks up an object to be read facing the sensor chip. And calibration of an image reading apparatus including an image combining unit that generates combined image data by performing enlargement or reduction on a captured image of each of the sensor chips based on combining information and adjusting and combining the combining position. A method of setting a calibration document having a calibration pattern in which a predetermined reference position is set as the composite information, and a row of dots arranged in a zigzag form and a straight line along the main scanning direction are drawn. As the reading object, the document distance from the calibration document to the line sensor is Acquires the synthesized image data by a plurality of distance setting, the relationship of the captured image for each of the sensor chips obtained in each of the original distance and the original distance, the sub-scanning direction shift amount for each of the sensor chip, the sensor offset of the amount of overlap between every chip, and the calculated height offset of the object to be read direction for each sensor chip, and the sub-scanning direction shift amount of the resulting the sensor chip, each between before Symbol sensor chip The offset amount of the overlap amount and the height offset amount in the direction of the object to be read of each of the sensor chips are set as the combined information.
この発明は、千鳥状に配置された点列と前記主走査方向に沿った直線とが描写されたキャリブレーションパターンを有する原稿を前記読取対象物として、得られた合成画像データから、センサチップの副走査方向ずれ量、オーバーラップ量のオフセット量、及びセンサチップごとの読取対象物方向の高さオフセット量を算出して合成情報として設定するため、センサチップが設けられた位置が設計位置と誤差が生じている場合であっても、一つ一つ直接計測することなく校正して、センサチップの境界部分で不連続にならない画像データを出力するという所期の目的を果たす画像読取装置を提供することが可能になる。 According to the present invention, a sensor chip is obtained from composite image data obtained using, as the reading object, a document having a calibration pattern in which point rows arranged in a staggered manner and straight lines along the main scanning direction are drawn. The position where the sensor chip is provided is the design position and the error, because the offset amount of the sub scanning direction, the offset amount of the overlap amount, and the height offset amount of the reading object direction for each sensor chip are calculated and set as composite information. Provides an image reading device that achieves the intended purpose of outputting image data that does not become discontinuous at the boundary of the sensor chip by performing calibration without directly measuring each one even if It will be possible to
実施の形態1.
図1は、実施の形態1にかかる画像読取装置1の概略構成を示す機能ブロック図である。画像読取装置1は、撮像部11、A/D変換部12、メモリ13、及び画像合成部14を備える。また、画像読取装置1を校正するためにキャリブレーション時に用いる校正装置2は、点列間隔計測部21、オーバーラップ量推定部22、及び算出部23を備える。
FIG. 1 is a functional block diagram showing a schematic configuration of the
撮像部11は、光学的に読取対象物を走査することによって画像信号SIを生成するラインセンサである。撮像部11は、M個(Mは2以上の整数)の撮像素子を直線状に配列したセンサチップを、N個(Nは2以上の整数)配列して設けられている。ここで、撮像素子及びセンサチップの配列方向を主走査方向と呼ぶ。
The
図2は、撮像部11の概略構成を示す図である。図2では、基板上にセンサチップA、センサチップB、及びセンサチップCが主走査方向に配列して設けられている。つまり図2ではセンサチップを3個配列しているのでNは3として図示している。
FIG. 2 is a view showing a schematic configuration of the
また、それぞれのセンサチップにはM個の撮像素子が主走査方向に配列して設けられている(図示せず)。センサチップは半導体製造技術で製造されるものが一般的であって、センサチップ上の撮像素子の配置ずれは小さい。ただし、基板上にセンサチップA、センサチップB、及びセンサチップCを配列する際は、センサチップを機械的に並べる工程で製造されるため、センサチップごとの位置は設計で決められた基準位置に対して主走査方向、副走査方向、及び高さ方向にばらつく傾向にあり、センサチップ上の撮像素子の配置ずれよりもずれ幅は大きい。 Further, M sensor elements are arranged in the main scanning direction on each sensor chip (not shown). The sensor chip is generally manufactured by semiconductor manufacturing technology, and the displacement of the imaging device on the sensor chip is small. However, when the sensor chip A, the sensor chip B, and the sensor chip C are arranged on the substrate, the sensor chip is manufactured in the process of mechanically arranging the sensor chips, so the position for each sensor chip is the reference position determined by design. On the other hand, the deviation width in the main scanning direction, the sub scanning direction, and the height direction tends to vary, and the deviation width is larger than the arrangement deviation of the imaging element on the sensor chip.
図2では、センサチップAに対向した位置にレンズAを設けている。同様に、センサチップBに対向した位置にレンズBを設け、センサチップCに対向した位置にレンズCを設けている。それぞれのレンズはセンサチップが撮像する画角を拡げるような構造をもつ。これにより、それぞれのセンサチップにレンズを介して対向した位置の読取対象物を走査したときに、それぞれのセンサチップの読取り範囲を拡張することができるので、隣り合うセンサチップ間に対応する位置の読取対象物について画像データの欠落を無くすことができる。またこのレンズはセンサチップと一体の構成にして設けることで、センサチップとレンズとの距離は製造工程でのばらつきを抑えることができる。また、レンズと絞りから構成された光学系(セル)としてセンサチップと一体に構成してもよい。 In FIG. 2, the lens A is provided at a position facing the sensor chip A. Similarly, the lens B is provided at a position facing the sensor chip B, and the lens C is provided at a position facing the sensor chip C. Each lens has a structure that widens the angle of view taken by the sensor chip. As a result, when the object to be read at a position opposite to each other is scanned via the lens, the reading range of each sensor chip can be expanded. It is possible to eliminate the loss of image data of the object to be read. Further, by providing this lens in an integral structure with the sensor chip, the distance between the sensor chip and the lens can suppress variations in the manufacturing process. In addition, it may be integrated with the sensor chip as an optical system (cell) composed of a lens and a stop.
図1に戻って説明する。A/D変換部12は、撮像部11が光学的に走査して得られた画像信号SIをデジタルの画像データDIに変換する。
Referring back to FIG. The A /
メモリ13は、画像データDIを格納する。
The
画像合成部14は、合成情報D13に基づき、N個の撮像画像について拡大または縮小を行なうとともに、合成位置を調整して合成することで合成画像データDoutを生成する。合成情報D13には、センサチップごとの副走査方向ずれ量、オーバーラップ量のオフセット量、及びセンサチップごとの読取対象物方向の高さオフセット量の情報又はそれに基づく調整量が含まれている。合成情報D13に基づいて調整することで、N個の撮像画像について主走査方向の幅が揃い、また画像の重複部分がなくなる合成画像データが得られる。
The
ここで、複数個のセンサチップを主走査方向に配列する工程において設計との誤差がなければ既定の原稿位置に対するセンサチップごとの副走査方向ずれ量、オーバーラップ量のオフセット量、及びセンサチップごとの読取対象物方向の高さオフセット量は設計に基づいた基準位置での値となり合成情報D13は確定させることができる。本発明では、複数個のセンサチップを主走査方向に配列する工程以降に校正を行なうキャリブレーションをすることで、その画像読取装置にとって設計に基づいて決められたものよりも適した合成情報D13に設定することができる。 Here, if there is no error with the design in the process of arranging a plurality of sensor chips in the main scanning direction, the amount of deviation in the subscanning direction for each sensor chip with respect to the predetermined document position, the offset amount of overlap amount, and each sensor chip The height offset amount in the direction of the object to be read is a value at the reference position based on the design, and the composite information D13 can be determined. In the present invention, by performing calibration after the step of arranging a plurality of sensor chips in the main scanning direction, the combined information D13 is more suitable for the image reading apparatus than the one determined based on the design. It can be set.
画像合成部14は、合成情報D13について、外部から入力されるものとしてもよいし、設計に基づいた基準位置での合成情報D13を初期情報として書き換え可能なデータとして保持するものとしても構わない。
The
次に本実施の形態にかかる画像読取装置のキャリブレーション方法について説明する。 Next, a calibration method of the image reading apparatus according to the present embodiment will be described.
図3は、キャリブレーションモードのときに使用するキャリブレーションパターンを有する原稿(キャリブレーション用原稿)の図柄である。キャリブレーション用原稿は主走査方向に伸びた直線と、主走査方向に等間隔に千鳥状に配置された点列から構成される。直線は副走査方向のズレを検出するために使用する。また点列は主走査方向のオーバーラップ量を検出するために使用する。図3では直線が2本としているが、直線は1本以上であれば何本でもかまわない。また図3では点列が4段の構成としているが、点列は2段以上であれば何段でもかまわない。 FIG. 3 is a design of an original (calibration original) having a calibration pattern used in the calibration mode. The calibration document is composed of a straight line extending in the main scanning direction and a series of points arranged in a zigzag at equal intervals in the main scanning direction. The straight line is used to detect a shift in the sub scanning direction. The point sequence is used to detect the amount of overlap in the main scanning direction. Although two straight lines are shown in FIG. 3, any number of straight lines may be used as long as it is one or more. Further, although in FIG. 3 the point sequence is configured to have four stages, any number of stages may be used as long as the number of point sequences is two or more.
キャリブレーションは、読取対象物として用いるキャリブレーション用原稿とラインセンサとの距離を指定した距離だけ離れた位置に配置して画像データを取得する。指定した距離を2種類以上の距離に対して実施し、取得した2種類以上の画像データを解析することで実現する。 In calibration, the image data is acquired by arranging the distance between the calibration document used as a reading object and the line sensor at a specified distance. The specified distance is implemented for two or more types of distances, and this is realized by analyzing the acquired two or more types of image data.
図4は、読取装置1がキャリブレーション用原稿の画像データを取得した画像データの例を示す。図4は、各センサチップが主走査方向、副走査方向及び高さ方向にずれている状態での例を示している。図4のように、ラインセンサ上に配置されている各センサチップが副走査方向にずれて配列されている場合、キャリブレーション用原稿の主走査方向に伸びた直線は、図4に示すようにセンサチップ毎にずれて合成された画像データとなる。また、ラインセンサ上に配置されている各センサチップが主走査方向にずれて配置されている場合、キャリブレーション用原稿のオーバーラップ領域の幅は、設計に基づくオーバーラップ領域の幅と異なる幅になる。また、ラインセンサ上に配置されている各センサチップが高さ方向にずれて配置されている場合、キャリブレーション用原稿の点列部分の間隔は、設計に基づく点列部分の間隔と異なる間隔になる。
FIG. 4 shows an example of image data obtained by the
図5は、図4の画像データとずれ量の関係について示す図である。図5では、左からセンサチップA、センサチップB、センサチップC、センサチップD、及びセンサチップEと配列されたときの画像データを示す。ここでTk(kはN個のセンサチップのうちのいずれかのセンサチップを表す変数)は、センサチップkでの点列の間隔の平均値を示す。OVは、センサチップ間の主走査方向のオーバーラップ量を示し、センサチップAとセンサチップBとの間の主走査方向のオーバーラップ量をOVABと示す。 FIG. 5 is a view showing the relationship between the image data of FIG. 4 and the deviation amount. FIG. 5 shows image data when arrayed with the sensor chip A, the sensor chip B, the sensor chip C, the sensor chip D, and the sensor chip E from the left. Here, T k (k is a variable representing any one of the N sensor chips) indicates an average value of the distance between point sequences on the sensor chip k. OV indicates the amount of overlap in the main scanning direction between the sensor chips, and the amount of overlap in the main scanning direction between the sensor chip A and the sensor chip B is denoted as OV AB .
図5のように、上述したキャリブレーション用原稿を用いて画像読取装置からの合成画像データDoutから、主走査方向に伸びた直線のずれた量、センサチップごとの点列の間隔、及びセンサチップ間ごとのオーバーラップ量を計測することができる。
As shown in FIG. 5, from the composite image data Dout from the image reading apparatus using the above-described calibration document, the amount of deviation of a straight line extending in the main scanning direction, the distance between point arrays for each sensor chip, and the sensor chip The amount of overlap can be measured.
図1における、校正装置2の点列間隔計測部21は、画像読取装置1から出力された画像合成データDoutから、センサチップごとの点列の間隔を計測する。計測は1点のみの計測として簡略化することもできる。複数の点列の間隔を計測して算出部23でその平均を算出して該当するセンサチップの点列の間隔の平均値Tkとする方が1点のみの計測よりも妥当性の高い計測値を取得することができる。
The point train
オーバーラップ量推定部22は、画像読取装置1から出力された画像合成データDoutから、センサチップ間のオーバーラップ量を推定する。
The overlap
オーバーラップ量推定部22は、N個のセンサチップによって生成された画像データについて、隣りあったセンサチップ間で読取範囲が重複している領域(以下、オーバーラップ領域ともいう)の類似度を算出し、オーバーラップ量を推定し出力する。類似度は、隣りあったセンサチップのそれぞれの画像データから類似の程度を示す指標である。
The overlap
ここで、センサチップ及びレンズが基準位置に配置されて指定した原稿距離であった場合のオーバーラップ領域の幅は設計に基づく既知情報であるので、オーバーラップ量推定部22で推定されたオーバーラップ量と設計に基づく基準位置でのオーバーラップ量とを比較することでセンサチップ間での主走査方向のズレ量を得ることができる。ここで、原稿距離とは、センサチップもしくはそのセンサチップと一体になって設けられたレンズと、読取対象物との距離を示す。
Here, since the width of the overlap area when the sensor chip and the lens are disposed at the reference position and the specified document distance is known information based on the design, the overlap estimated by the overlap
算出部23は、点列間隔計測部21の計測結果とオーバーラップ量推定部22の推定結果と計測したときの原稿距離の設定値とから、センサチップの副走査方向ずれ量、センサチップごとのオーバーラップオフセット量、及びセンサチップごとの読取対象物方向の高さオフセット量を算出する。
The calculating
次にキャリブレーションモードでのキャリブレーション方法の処理手順について説明する。図6は、本実施の形態に係るキャリブレーション方法の処理手順である。 Next, the processing procedure of the calibration method in the calibration mode will be described. FIG. 6 is a processing procedure of the calibration method according to the present embodiment.
ステップ1では、キャリブレーション用原稿とラインセンサとの間の距離を指定した距離に設定する。指定した距離は、キャリブレーション用に2種類以上の設定距離のうちいずれか1つを設定する。
In
ステップ2では、画像読取装置1を動作させて、配置した原稿距離におけるキャリブレーション用原稿の画像データを取得する。
In
ステップ3では、キャリブレーション用原稿の画像データに対して、センサチップ毎に点列の主走査方向の間隔を計測する。センサチップ毎に点が複数あり点の間隔も複数計測されるが、代表値を当該センサチップに対する点列の間隔とする。全ての点の間隔の平均値を代表値としてもかまわないし、全ての点の間隔の中央値を代表値としてもかまわない。これらの計測は例えば合成画像データDoutを出力して画像読取装置1の外部(校正装置2)で計測を行なう。このように、製造工程でのキャリブレーションとして外部で計測を行なうことで、画像読取装置1自体に合成画像データDoutから点列の主走査方向の間隔を計測する計測部を設ける必要がなく製品コストを抑えることができる。合成画像データDoutから点列の主走査方向の間隔を計測する計測部を画像読取装置1に備えても所期の目的を達成することができる。
In step 3, with respect to the image data of the calibration document, the interval in the main scanning direction of the point sequence is measured for each sensor chip. Although there are a plurality of points for each sensor chip and a plurality of intervals are also measured, the representative value is taken as the interval of the point sequence to the sensor chip. The average value of the intervals of all the points may be used as the representative value, or the median of the intervals of all the points may be used as the representative value. For these measurements, for example, the composite image data Dout is output and measurement is performed outside the image reading device 1 (the calibration device 2). As described above, by performing measurement externally as calibration in the manufacturing process, it is not necessary to provide the
ステップ4では、キャリブレーション用原稿を走査した時の画像データに対して、センサチップ間の境界付近の画像データを重ね合わせてズレが無くなる位置を探索し、センサチップの副走査方向ズレ量およびオーバーラップ量を算出する。ステップ4の処理はオーバーラップ量推定部22で実施される。
In step 4, the image data in the vicinity of the boundary between the sensor chips is superimposed on the image data when the calibration document is scanned to search for a position where the deviation disappears, and the amount of deviation in the subscanning direction of the sensor chip Calculate the lap amount. The process of step 4 is performed by the overlap
ステップ5では、キャリブレーション用の設定距離のうち全ての設定距離に対してステップ1からステップ4までの処理を実施したかを確認する。全ての設定距離に対して実施していない場合には、ステップ1に戻り、残りの設定距離についての処理を実施する。全ての設定距離に対して実施した場合にはステップ6に進む。
In step 5, it is checked whether the processing from
ステップ6では、センサチップ毎の副走査方向のズレ量を算出する。ステップ5までで、全てのセンサチップおよび全ての設定距離について副走査方向ズレ量を算出してきた。ステップ6では、同一のセンサチップについて、全ての設定距離での副走査方向ズレ量の代表値を、当該センサチップの副走査方向ズレ量とする。全ての設定距離での副走査方向ズレ量の平均値を代表値としてもかまわないし、全ての設定距離での副走査方向ズレ量の中央値を代表値としてもかまわない。 In step 6, the amount of deviation in the sub-scanning direction for each sensor chip is calculated. Up to step 5, the amount of deviation in the sub-scanning direction has been calculated for all sensor chips and all set distances. In step 6, for the same sensor chip, a representative value of the amount of deviation in the sub-scanning direction at all set distances is taken as the amount of deviation in the sub-scanning direction of the sensor chip. The average value of the sub-scanning direction shift amounts at all set distances may be used as a representative value, or the median of the sub-scanning direction shift amounts at all set distances may be used as a representative value.
ステップ7では、点列の間隔と原稿距離との関係を算出する。ステップ5までで、全てのセンサチップについて設定距離毎に点列の間隔を算出してきた。設定距離毎に全てのセンサチップの点列の間隔の平均値を算出する。 In step 7, the relationship between the distance between the point sequences and the document distance is calculated. Up to step 5, the interval of point trains has been calculated for each set distance for all sensor chips. The average value of the intervals of point sequences of all the sensor chips is calculated for each set distance.
図7は、点列の間隔と原稿距離との関係を示す図である。キャリブレーション用原稿にある点列パターンの間隔に対して、センサチップとキャリブレーション用原稿との距離である原稿距離が離れれば離れるほど、そのセンサチップで撮像された画像データでみられる点列の間隔は狭くなる。 FIG. 7 is a view showing the relationship between the distance between point sequences and the document distance. The longer the document distance, which is the distance between the sensor chip and the calibration document, from the interval of the point sequence pattern on the calibration document, the longer the point sequence seen in the image data captured by the sensor chip. The distance becomes narrower.
図8は、原稿距離とセンサチップで撮像された画像データでみられる点列の間隔との関係を示す図である。横軸は原稿距離を示し、縦軸は各センサチップで撮像された画像データでみられる点列の間隔を示す。また、原稿距離をキャリブレーション用の設定距離としてP1、P2、及びP3の3点についてセンサチップAの画像データから取得した点列の間隔の平均値TAを白抜き四角で示し、センサチップBの画像データから取得した点列の間隔の平均値TBを×マークで示し、センサチップCの画像データから取得した点列の間隔の平均値TCを白抜き丸で示した。このように、点列の間隔と原稿距離との関係は一次式で近似することができる。 FIG. 8 is a diagram showing the relationship between the document distance and the distance between point sequences found in image data captured by the sensor chip. The horizontal axis indicates the document distance, and the vertical axis indicates the distance between point sequences observed in the image data captured by each sensor chip. Also, an average value T A of the sensor chip acquired sequence of points apart from the image data A for three points P 1, P 2, and P 3 the original distance as set distance for calibration indicated by open squares, represents an average value T B of the sensor chip image data of the acquired sequence of points from the interval of B in × mark was the mean value T C of the spacing of the point sequence obtained from the image data of the sensor chip C in open circles. Thus, the relationship between the distance between the point sequences and the document distance can be approximated by a linear expression.
センサチップAと原稿との距離PAで取得した点列の間隔の平均値をTA、センサチップBと原稿との距離PBで取得した点列の間隔の平均値をTB、センサチップCと原稿との距離PCで取得した点列の間隔の平均値をTCのように各原稿距離における点列の間隔の平均値を算出する。センサチップkと原稿との距離(原稿距離)PTkとセンサチップkでの点列の間隔の平均値Tkとの関係を式(1)に示す第1の一次式で近似することができる。ここでkはN個のセンサチップのうちのいずれかのセンサチップを表す変数として示す。 Sensor chip A and the average value T A spacing sequence of points acquired by the distance P A between the document, the sensor chip B and the average value T B of the distance P column spacing points obtained in B with the original, the sensor chip the average value of C and the sequence of points obtained by the distance P C between the original spacing as from T C calculates an average value of interval point sequences in each original distance. The relationship between the distance PT k between the sensor chip k and the document (original document distance) and the average value T k of the intervals of the point sequence in the sensor chip k can be approximated by the first linear expression shown in equation (1) . Here, k is shown as a variable representing any one of the N sensor chips.
ステップ8では、原稿距離と倍率の関係を算出する。本実施の形態の撮像部11は、標準的に使用する原稿距離と、その時の解像度が設計に基づいて決められている。原稿上の点列の間隔は全て等間隔であり、その間隔はS[mm]である。標準的な原稿距離をP0[mm]とし、そのときの解像度をQ0[dpi:dots per inch]とすると、1インチを25.4[mm]として換算しセンサチップkでの点列の間隔の平均値Tk[画素]に対する倍率Rk[倍]は式(2)で算出される。
In step 8, the relationship between the document distance and the magnification is calculated. In the
式(1)と式(2)から原稿距離と倍率の関係は式(3)で表される。 From the equations (1) and (2), the relation between the document distance and the magnification is expressed by the equation (3).
ステップ9では、オーバーラップ量と原稿距離の関係を算出する。ステップ5までで、全てのセンサチップ間について設定距離毎に主走査方向のオーバーラップ量を算出してきた。設定距離毎に全てのセンサチップ間のオーバーラップ量の平均値を算出する。 In step 9, the relationship between the overlap amount and the document distance is calculated. Up to step 5, the overlap amount in the main scanning direction has been calculated for each set distance between all the sensor chips. The average value of the amount of overlap between all the sensor chips is calculated for each set distance.
図9は、オーバーラップ量と原稿距離との関係を示す図である。キャリブレーション用原稿にある点列パターンの間隔に対して、センサチップとキャリブレーション用原稿との距離である原稿距離が離れれば離れるほど、そのセンサチップで撮像された画像データでみられるオーバーラップ量の間隔は広くなる。 FIG. 9 is a diagram showing the relationship between the overlap amount and the document distance. As the document distance, which is the distance between the sensor chip and the calibration document, increases with respect to the interval of the point sequence pattern on the calibration document, the overlap amount seen in the image data captured by the sensor chip increases The distance between
図10は、原稿距離とセンサチップで撮像された画像データでみられるオーバーラップ量との関係を示す図である。横軸は原稿距離を示し、縦軸は各センサチップで撮像された画像データでみられるオーバーラップ量を示す。また、キャリブレーション用の設定距離としてP1、P2、及びP3の3点についてセンサチップAの画像データから取得したオーバーラップ量の平均値OVAを白抜き四角で示し、センサチップBの画像データから取得したオーバーラップ量の平均値OVBを×マークで示し、センサチップCの画像データから取得したオーバーラップ量の平均値OVCを白抜き丸で示した。このように、点列の間隔と原稿距離との関係は一次式で近似することができる。 FIG. 10 is a diagram showing the relationship between the document distance and the overlap amount found in the image data captured by the sensor chip. The horizontal axis indicates the document distance, and the vertical axis indicates the overlap amount found in the image data captured by each sensor chip. Further, as a set distance for calibration P 1, P 2, and the three points P 3 indicates the mean value OV A overlap amount acquired from the image data of the sensor chip A in open squares, the sensor chip B the average value OV B overlap amount acquired from the image data shown in × marks, exhibited a mean value OV C overlap amount acquired from the image data of the sensor chip C in open circles. Thus, the relationship between the distance between the point sequences and the document distance can be approximated by a linear expression.
センサチップAと原稿との距離PAで取得したオーバーラップ量の平均値をOVA、センサチップBと原稿との距離PBで取得したオーバーラップ量の平均値をOVB、センサチップCと原稿との距離PCで取得したオーバーラップ量の平均値をOVCのように各原稿距離におけるオーバーラップ量の平均値を算出する。するとセンサチップkと原稿との距離(原稿距離)PVkとセンサチップkでのオーバーラップ量の平均値OVkとの関係を式(4)に示す第2の一次式で近似することができる。ここでkはN個のセンサチップのうちのいずれかのセンサチップを表す変数として示す。 Sensor chip A and the average value OV A overlap amount obtained by the distance P A between the document, the sensor chip B and the average value of the obtained overlap amount by the distance P B between the original OV B, and the sensor chip C the average value of the overlap amount obtained by the distance P C between the document and calculates the average value of the overlap amount in each document distances as OV C. Then, the relationship between the distance PV k between the sensor chip k and the document (document distance) and the average value OV k of the overlap amounts at the sensor chip k can be approximated by the second linear expression shown in equation (4) . Here, k is shown as a variable representing any one of the N sensor chips.
ここでは、OVkの単位は画素数とする。KEIVkは近似一次式の傾き[mm/画素]であり、OFVkは近似一次式の切片[mm]である。 Here, the unit of OV k is the number of pixels. KEIV k is the inclination [mm / pixel] of the approximate linear expression, and OFV k is the intercept [mm] of the approximate linear expression.
ここで、式(1)と式(4)とからセンサチップkの原稿距離PVkにPTkを代入することで以下の式(5)の関係式が成り立つ。また、式(5)を満たす、つまり原稿距離PVk=PTkであるときのOVkを、センサチップkにおいて本来あるべきオーバーラップ量OVJkとする。 Here, the relational expression of the following equation (5) is established by substituting PT k into the document distance PV k of the sensor chip k from the equations (1) and (4). Further, OV k which satisfies the equation (5), that is, when the document distance PV k = PT k is set as an overlap amount OVJ k which should be originally present in the sensor chip k.
ステップ11では、センサチップ毎の本来あるべきオーバーラップ量OVJkから、センサチップ間の本来あるべきオーバーラップ量OVIを算出する。センサチップAとセンサチップBとの間の本来あるべきオーバーラップ量OVIABの算出式は式(6)に示すとおりである。
In
ステップ12ではオーバーラップ量のオフセット量OFOV[画素]を算出する。センサチップAとセンサチップBとの間のオーバーラップ量のオフセット量OFOVABの算出式は式(7)に示すとおりである。
In
ステップ13ではセンサチップ毎の高さのオフセットOFPkを算出する。算出式を式(8)に示す。なおOFPkの単位はミリメートルである。
In
ここで、Piはi番目に設定した設定距離を表しており、Tkiはi番目に設定した設定距離に設定したときのセンサチップkでの原稿距離Pkにおけるセンサチップkの点列の間隔を表している。AVG()はキャリブレーション用に設定する全ての設定について平均値をとる関数である。 Here, P i represents the i-th set distance, and T ki is the point sequence of the sensor chip k at the document distance P k at the sensor chip k when it is set to the i-th set distance. It represents an interval. AVG () is a function that takes an average value for all settings set for calibration.
このようにして、ステップ6でセンサチップ毎の副走査方向のズレ量を算出し、ステップ12でセンサチップ間毎のオーバーラップ量のオフセット量を算出し、ステップ13でセンサチップ毎の高さのオフセット量を算出する。
Thus, in step 6, the amount of deviation in the sub-scanning direction for each sensor chip is calculated, and in
次に、倍率算出手順について説明する。図11は、本実施の形態にかかるキャリブレーション結果を用いた倍率算出手順を示すフロー図である。 Next, the magnification calculation procedure will be described. FIG. 11 is a flow chart showing a magnification calculation procedure using the calibration result according to the present embodiment.
ステップ101では画像読取装置1に対して未知の原稿距離に原稿を配置する。
At step 101, the document is placed at an unknown document distance with respect to the
ステップ102では画像データを取得する。 At step 102, image data is acquired.
ステップ103ではオーバーラップ量推定部22を用いて、センサチップ間の境界付近の画像データを重ね合わせてズレが無くなる位置を探索し、合成位置(副走査方向ズレ量およびオーバーラップ量)を算出する。
In step 103, using the overlap
ステップ104ではステップ103で算出したオーバーラップ量に対して、キャリブレーションで算出したオーバーラップ量のオフセット量を外部から入力し、減算する。処理内容を式(9)に示す。このように処理することでセンサチップ毎の主走査方向のズレが補正される。なおステップ104の処理は画像読取装置1の切替部53で実行される。
In step 104, with respect to the overlap amount calculated in step 103, the offset amount of the overlap amount calculated in calibration is externally input and subtracted. The processing content is shown in equation (9). By this processing, the deviation in the main scanning direction for each sensor chip is corrected. The processing of step 104 is executed by the switching unit 53 of the
ここで、OVIABは、センサチップAとセンサチップBとの間におけるオフセット量を減算したオーバーラップ量を示す。OVABは、センサチップAとセンサチップBとの間におけるステップ103で算出したオーバーラップ量を示す。OFOVABは、センサチップAとセンサチップBとの間におけるキャリブレーションで算出したオーバーラップ量のオフセット量を示す。 Here, OVI AB shows overlap amount obtained by subtracting the offset amount between the sensor chip A and the sensor chip B. OV AB indicates the overlap amount calculated in step 103 between the sensor chip A and the sensor chip B. OFOV AB indicates the offset amount of the overlap amount calculated by calibration between the sensor chip A and the sensor chip B.
ステップ105では、センサチップ毎のオーバーラップ量OVJに変換する。ラインセンサにセンサチップがAからZまでアルファベット順に配列されているものとした場合、センサチップBのオーバーラップ量OVJBは、式(9)で算出したセンサチップBと隣り合ったセンサチップA及びCとのそれぞれのオーバーラップ量OVIABとオーバーラップ量OVIBCとの平均から求める。配列の両端であるセンサチップA及びセンサチップZについては、式(9)で算出した隣り合ったセンサチップとのオーバーラップ量、つまりセンサチップAにおいてはセンサチップAとセンサチップBとの間におけるOVIABとし、センサチップZにおいてはセンサチップZとセンサチップYとの間におけるOVIYZとする。変換式を式(10)に示す。 In step 105, the overlap amount OVJ for each sensor chip is converted. Assuming that sensor chips are arranged in alphabetical order from A to Z in the line sensor, the overlap amount OVJ B of the sensor chip B is the sensor chip A adjacent to the sensor chip B calculated by the equation (9) and It is obtained from the average of each overlap amount OVI AB with C and the overlap amount OVI BC . For the sensor chip A and the sensor chip Z which are both ends of the array, the overlap amount with the adjacent sensor chip calculated by the equation (9), that is, in the sensor chip A, between the sensor chip A and the sensor chip B. and OVI AB, in the sensor chip Z and OVI YZ between the sensor chip Z and the sensor chip Y. The conversion equation is shown in equation (10).
ステップ106ではセンサチップ毎のオーバーラップ量OVJからセンサチップ毎の原稿距離Pを算出する。算出式を式(11)に示す。式(11)中のKEIVkおよびOFVkはキャリブレーション時に算出したセンサチップkにおけるパラメータであり、画像読取装置1の外から渡される。
In step 106, the document distance P for each sensor chip is calculated from the overlap amount OVJ for each sensor chip. The calculation formula is shown in formula (11). In the equation (11), KEIV k and OFV k are parameters in the sensor chip k calculated at the time of calibration, and are passed from the outside of the
ステップ107では、ステップ106で算出した原稿距離Pkから高さのオフセット量OFPkを減算することで真の原稿距離PIkを算出する。算出式を式(12)に示す。 In step 107, the true document distance PI k is calculated by subtracting the height offset amount OFP k from the document distance P k calculated in step 106. The calculation formula is shown in formula (12).
ステップ108では真の原稿距離PIkから原稿の倍率Rkを算出する。キャリブレーション時のステップ108で算出した式(3)に従って真の原稿距離PIkから原稿の倍率Rkを算出する。 In step 108, the magnification R k of the document is calculated from the true document distance PI k . The magnification R k of the document is calculated from the true document distance PI k according to the equation (3) calculated in step 108 at the time of calibration.
このようにして算出した倍率Rkは画像合成部14に渡されて、画像の結合前の拡大または縮小で用いられる。
The magnification R k calculated in this manner is passed to the
以上に説明した実施の形態に係るキャリブレーション手順とすることで、物理的に計測しないで撮像部11のセンサチップ毎の副走査方向ズレ量、センサチップ間毎のオーバーラップ量のオフセット量、およびセンサチップ毎の高さのオフセット量を把握することができる。これらの量を把握することで、未知の原稿距離に配置された原稿を読み取った場合でも、前述の倍率算出手順で原稿の倍率を算出することが可能となり、画像データに対して適切な倍率での拡大/縮小処理を実施することができる。
By using the calibration procedure according to the embodiment described above, the amount of deviation in the sub-scanning direction for each sensor chip of the
図12は、図1に示した本実施の形態に係るキャリブレーション手順に用いる点列間隔計測部21、オーバーラップ量推定部22、及び算出部23について、画像読取装置1に点列間隔計測部15、オーバーラップ量推定部16、及び算出部17を構成した図を示す。点列間隔計測部15と点列間隔計測部21とは作用は同じである。同様に、オーバーラップ量推定部16とオーバーラップ量推定部22とは作用は同じであり、算出部17と算出部23とは作用は同じである。図12のように、画像読取装置1に点列間隔計測部15、オーバーラップ量推定部16、及び算出部17を備えることで、画像読取装置1の所有者が直接キャリブレーションを行なうことができるという効果を奏する。なお、点列間隔計測部15及びオーバーラップ量推定部16の入力をメモリ13からの出力としているが、キャリブレーションモード時として合成情報D13を設定した上での画像合成データDoutを用いる方法と所期の目的を達成し得ることはいうまでもない。
FIG. 12 shows the point sequence interval measurement unit of the
1 画像読取装置
11 撮像部
12 A/D変換部
13 メモリ
14 合成情報生成部
2 校正装置
21 点列間隔計測部
22 オーバーラップ量推定部
23 算出部
Claims (3)
合成情報に基づいて前記センサチップごとの撮像画像について拡大または縮小を行なうとともに、合成位置を調整して合成することで合成画像データを生成する画像合成部とを備える画像読取装置のキャリブレーション方法であって、
予め決められた基準位置を前記合成情報として設定し、千鳥状に配置された点列と前記主走査方向に沿った直線とが描写されたキャリブレーションパターンを有するキャリブレーション原稿を前記読取対象物として、前記キャリブレーション原稿から前記ラインセンサまでの原稿距離について複数の距離設定で前記合成画像データを取得し、
それぞれの前記原稿距離において得られた前記センサチップごとの撮像画像と前記原稿距離との関係から、前記センサチップごとの副走査方向ずれ量、センサチップ間ごとのオーバーラップ量のオフセット量、及び前記センサチップごとの読取対象物方向の高さオフセット量を算出し、
得られた前記センサチップの副走査方向ずれ量と、前記センサチップ間ごとの前記オーバーラップ量のオフセット量及び前記センサチップごとの読取対象物方向の高さオフセット量とを前記合成情報として設定することを特徴とする画像読取装置のキャリブレーション方法。 A line sensor that arranges in the main scanning direction a sensor chip in which a plurality of imaging elements are provided in the main scanning direction, and picks up an object to be read facing the sensor chip;
A calibration method of an image reading apparatus, comprising: an image combining unit that generates combined image data by performing enlargement or reduction on a captured image for each of the sensor chips based on combining information and adjusting and combining the combining position. There,
A calibration document having a calibration pattern in which a predetermined reference position is set as the composite information, and a point sequence arranged in a zigzag form and a straight line along the main scanning direction are described as the reading object Acquiring the composite image data by setting a plurality of distances for the document distance from the calibration document to the line sensor;
From the relationship between the captured image of each of the sensor chips obtained for each of the document distances and the document distance, the sub-scanning direction shift amount for each of the sensor chips , the offset amount of the overlap amount for each of the sensor chips , and Calculate the height offset amount in the reading object direction for each sensor chip,
Setting the sub-scanning direction shift amount of the resulting the sensor chip, and a pre-Symbol offset amount of the amount of overlap between every sensor chip and the height offset of the object to be read direction for each of the sensor chip as the combined information And a calibration method of the image reading apparatus.
前記原稿距離において得られた前記合成画像データから、前記合成画像データでの直線のずれ量に基づいて前記センサチップごとの副走査方向ずれ量を算出するステップと、
それぞれの前記原稿距離において得られた前記センサチップの画像データから前記センサチップごとの前記点列の間隔と前記原稿距離との関係を第1の一次式で近似するステップと、
前記第1の一次式と前記キャリブレーション原稿の前記点列の間隔とから、前記センサチップにおける前記原稿距離と前記画像データの倍率との関係を算出するステップと、
前記センサチップごとに、主走査方向の前記オーバーラップ量と前記原稿距離との関係を第2の一次式で近似するステップと、
前記原稿距離と前記第2の一次式とから、前記センサチップ間ごとに本来あるべきオーバーラップ量を算出するステップと、
主走査方向の前記オーバーラップ量と前記本来あるべきオーバーラップ量とから、前記センサチップ間ごとにオーバーラップ量のオフセット量を算出するステップと、
前記原稿距離と前記第1の一次式とから、前記センサチップごとの読取対象物方向の高さオフセット量を算出するステップとを備える
ことを特徴とする請求項1に記載の画像読取装置のキャリブレーション方法。 Setting a distance for the document distance between the calibration document and the line sensor;
Calculating a sub-scanning direction shift amount for each of the sensor chips based on the shift amount of a straight line in the composite image data from the composite image data obtained at the document distance;
Approximating the relationship between the distance between the point sequence of each sensor chip and the document distance from the image data of the sensor chip obtained at each of the document distances by a first linear expression;
Calculating a relation between the document distance and the magnification of the image data in the sensor chip from the first linear expression and the interval of the point sequence of the calibration document;
Approximating the relationship between the overlap amount in the main scanning direction and the document distance for each of the sensor chips with a second linear expression;
Calculating an overlap amount that should originally exist for each of the sensor chips from the document distance and the second linear expression;
Calculating an offset amount of the overlap amount between the sensor chips from the overlap amount in the main scanning direction and the overlap amount to be originally present;
2. The calibration of the image reading apparatus according to claim 1, further comprising the step of: calculating a height offset amount in the reading object direction for each of the sensor chips from the document distance and the first linear expression. Method.
合成情報に基づいて前記センサチップごとの撮像画像について拡大または縮小を行なうとともに、合成位置を調整して合成することで合成画像データを生成する画像合成部と、
キャリブレーションモードのときに、予め決められた基準位置を前記合成情報として設定し、千鳥状に配置された点列と前記主走査方向に沿った直線とが描写されたキャリブレーションパターンを有するキャリブレーション原稿を前記読取対象物として、前記キャリブレーション原稿から前記ラインセンサまでの原稿距離について複数の距離設定を行なう
設定部と、
それぞれの前記原稿距離において得られた前記センサチップごとの撮像画像と前記原稿距離との関係から、前記センサチップごとの副走査方向ずれ量、センサチップ間ごとのオーバーラップ量のオフセット量、及び前記センサチップごとの読取対象物方向の高さオフセット量を算出する算出部とを備え、
前記設定部は、得られた前記センサチップの副走査方向ずれ量と、前記センサチップ間ごとの前記オーバーラップ量のオフセット量及び前記センサチップごとの読取対象物方向の高さオフセット量とを前記合成情報として設定することを特徴とする画像読取装置。 A line sensor that arranges in the main scanning direction a sensor chip in which a plurality of imaging elements are provided in the main scanning direction, and picks up an object to be read facing the sensor chip;
An image combining unit configured to generate combined image data by performing enlargement or reduction on a captured image of each of the sensor chips based on combining information, adjusting a combining position, and combining;
In the calibration mode, a calibration having a calibration pattern in which a predetermined reference position is set as the composite information, and a row of dots arranged in a staggered manner and a straight line along the main scanning direction are depicted A setting unit configured to set a plurality of distances for the document distance from the calibration document to the line sensor, using the document as the reading object;
From the relationship between the captured image of each of the sensor chips obtained for each of the document distances and the document distance, the sub-scanning direction shift amount for each of the sensor chips , the offset amount of the overlap amount for each of the sensor chips , and A calculation unit for calculating the height offset amount in the direction of the object to be read of each sensor chip;
The setting unit has a sub-scan direction displacement amount of the resulting sensor chip, and a pre-Symbol offset amount of the amount of overlap between every sensor chip and the height offset of the object to be read direction for each of the sensor chips An image reading apparatus set as the composite information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015256072A JP6544233B2 (en) | 2015-12-28 | 2015-12-28 | Calibration method of image reading apparatus and image reading apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015256072A JP6544233B2 (en) | 2015-12-28 | 2015-12-28 | Calibration method of image reading apparatus and image reading apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017120969A JP2017120969A (en) | 2017-07-06 |
JP6544233B2 true JP6544233B2 (en) | 2019-07-17 |
Family
ID=59272356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015256072A Expired - Fee Related JP6544233B2 (en) | 2015-12-28 | 2015-12-28 | Calibration method of image reading apparatus and image reading apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6544233B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6064568A (en) * | 1983-09-19 | 1985-04-13 | Canon Inc | Picture reader |
JP2857000B2 (en) * | 1992-11-10 | 1999-02-10 | 大日本スクリーン製造株式会社 | Reading area connection device for image reading device |
JP2003291325A (en) * | 2002-03-29 | 2003-10-14 | Olympus Optical Co Ltd | Image recorder |
JP5224976B2 (en) * | 2008-08-29 | 2013-07-03 | 三菱電機株式会社 | Image correction apparatus, image correction method, program, and recording medium |
JP2011023789A (en) * | 2009-07-13 | 2011-02-03 | Ricoh Co Ltd | Image reader, and image-forming device |
JP5821563B2 (en) * | 2011-11-21 | 2015-11-24 | 三菱電機株式会社 | Image reading apparatus, image reading method, and MTF correction parameter determination method |
JP2014060557A (en) * | 2012-09-17 | 2014-04-03 | Ricoh Co Ltd | Image forming apparatus and image forming method |
-
2015
- 2015-12-28 JP JP2015256072A patent/JP6544233B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017120969A (en) | 2017-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9300829B2 (en) | Image reading apparatus and correction method thereof | |
US7692832B2 (en) | Method for correcting scanner non-uniformity | |
US20100008580A1 (en) | Image processing apparatus and image processing method | |
US8320715B2 (en) | Device and method for interpolating image, and image scanner | |
EP2622836B1 (en) | Two-dimensional calibration of image sensor alignment in optical scanners | |
KR20060049187A (en) | Methods and systems for correcting color distortions | |
JP6377768B2 (en) | Spectral image acquisition device | |
JP5821563B2 (en) | Image reading apparatus, image reading method, and MTF correction parameter determination method | |
JP6544233B2 (en) | Calibration method of image reading apparatus and image reading apparatus | |
JP2008028542A (en) | Image processor and image reader | |
JP6520931B2 (en) | Color measuring device and color measuring method | |
JP6246379B2 (en) | Image processing apparatus, image processing method, image reading apparatus, and program | |
JP6422428B2 (en) | Image processing apparatus, image processing method, image reading apparatus, and program | |
JP6073674B2 (en) | Image processing apparatus and image forming apparatus | |
JP2011151548A (en) | Method for calibrating flat bed scanner | |
JP6058115B2 (en) | Image processing apparatus, image processing method, image reading apparatus, and program | |
US20040120017A1 (en) | Method and apparatus for compensating for assembly and alignment errors in sensor assemblies | |
US6834928B2 (en) | Determination of media advancement based on one pixel-wide media images | |
JPH118734A (en) | Image reader | |
JP2004032223A (en) | Device and method for measuring image deviation and computer readable recording medium storing program for executing it | |
JP2002314769A (en) | Image reader | |
CN116309063A (en) | Correction information generation method, image stitching method and device and image acquisition system | |
JP2011010003A (en) | Misalignment detector, and image reader | |
JP2006332962A (en) | Image input device and image evaluating device using the image input device | |
JP2002374392A (en) | Device and method for measuring image position deviation and storage medium with stored program based on the same method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180723 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190423 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190603 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6544233 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |