JP6439395B2 - Image reading apparatus, image forming apparatus, and image reading method - Google Patents

Image reading apparatus, image forming apparatus, and image reading method Download PDF

Info

Publication number
JP6439395B2
JP6439395B2 JP2014227538A JP2014227538A JP6439395B2 JP 6439395 B2 JP6439395 B2 JP 6439395B2 JP 2014227538 A JP2014227538 A JP 2014227538A JP 2014227538 A JP2014227538 A JP 2014227538A JP 6439395 B2 JP6439395 B2 JP 6439395B2
Authority
JP
Japan
Prior art keywords
pixel
data
optical path
image
path length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014227538A
Other languages
Japanese (ja)
Other versions
JP2016092697A (en
Inventor
恵太 井上
恵太 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014227538A priority Critical patent/JP6439395B2/en
Publication of JP2016092697A publication Critical patent/JP2016092697A/en
Application granted granted Critical
Publication of JP6439395B2 publication Critical patent/JP6439395B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像読取装置、画像形成装置及び画像読取方法に関する。   The present invention relates to an image reading apparatus, an image forming apparatus, and an image reading method.

CCDやCMOSイメージセンサ等を用いた画像読取装置では、使用するレンズの収差特性により、画像が歪曲するディストーションという現象が生じる。ディストーションは、主にエリアセンサを用いたデジタルカメラ等の撮像装置において、理想結像位置に対して広がる、又は狭まる歪みで目立つものとなる。また、ディストーションは、レンズの製造誤差、及び個体差などによって生じるものであり、レンズ毎にディストーション量は異なる。これらのディストーションを補正するために、レンズ個体毎にディストーション量を測定し、メモリに保存したディストーション量を参照することによって補正を行う方法などが知られている。   In an image reading apparatus using a CCD, a CMOS image sensor, or the like, a phenomenon called distortion occurs in which an image is distorted due to the aberration characteristics of a lens used. Distortion is conspicuous in a distortion that spreads or narrows with respect to an ideal imaging position in an imaging apparatus such as a digital camera that mainly uses an area sensor. Further, distortion is caused by a manufacturing error of the lens, individual differences, and the like, and the amount of distortion differs for each lens. In order to correct these distortions, a method is known in which the amount of distortion is measured for each individual lens and correction is performed by referring to the amount of distortion stored in a memory.

特許文献1には、フラットベット読取りの際に原稿の浮き部分の濃度値と倍率を補正する画像読取装置が開示されている。特許文献1に記載の画像読取装置は、1ライン毎に主走査方向のエッジ検出を行って原稿の浮き部分を検出し、原稿の浮き情報に応じた濃度補正、及び倍率補正を行うものである。   Patent Document 1 discloses an image reading apparatus that corrects the density value and magnification of a floating portion of a document when reading a flat bed. The image reading apparatus described in Patent Document 1 performs edge detection in the main scanning direction for each line to detect a floating portion of a document, and performs density correction and magnification correction according to the document floating information. .

しかしながら、特許文献1に記載の画像読取装置では、原稿の読取り距離が変化する場合に、レンズの歪曲収差による画像データの光学歪み量を補正(ディストーション補正)することができない、という問題があった。   However, the image reading apparatus described in Patent Document 1 has a problem in that the optical distortion amount of image data due to lens distortion cannot be corrected (distortion correction) when the reading distance of the document changes. .

本発明は、上記に鑑みてなされたものであって、被写体の読取り距離が変化しても、画像データを適切に補正することができる画像読取装置、画像形成装置及び画像読取方法を提供することを目的とする。   The present invention has been made in view of the above, and provides an image reading apparatus, an image forming apparatus, and an image reading method capable of appropriately correcting image data even if a subject reading distance changes. With the goal.

上述した課題を解決し、目的を達成するために、本発明に係る画像読取装置は、レンズを介して被写体からの反射光を光電変換して前記被写体の画像データを読み取るイメージセンサと、前記被写体から前記イメージセンサまでの間の光路長情報と、前記レンズに入射する前記反射光の入射角度データと前記レンズから出射する出射角度データとが対応付いた入出射角情報と、を予め記憶する記憶部と、前記イメージセンサにより読み取った1ラインの前記被写体の画像データの各画素の主走査方向の画素位置を検出する画素位置検出部と、前記画像データと、検出した前記各画素の画素位置データとを用いて、前記画像データの両端部画素の主走査方向の両端部画素位置を検出するエッジ検出部と、前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の前記画素位置と、前記光路長情報と、前記入出射角情報とを用いて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する補正部と、を備え、前記光路長情報は、前記レンズと前記イメージセンサとの間の第1光路長であり、前記補正部は、前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の主走査方向の画素位置と、前記第1光路長とから算出される出射角度データを用いて、前記入出射角情報を参照して第1入射角度データを特定し、特定した前記第1入射角度データと前記第1光路長とから算出される理想画素位置と、前記両端部画素位置及び前記画素位置との画素ずれ量に基づいて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する、ことを特徴とする。 In order to solve the above-described problems and achieve the object, an image reading apparatus according to the present invention includes an image sensor that photoelectrically converts reflected light from a subject via a lens and reads image data of the subject, and the subject A memory that stores in advance optical path length information from the image sensor to the image sensor, and incident / exit angle information in which incident angle data of the reflected light incident on the lens and emission angle data emitted from the lens correspond to each other A pixel position detection unit that detects a pixel position in the main scanning direction of each pixel of the image data of the subject of one line read by the image sensor, the image data, and pixel position data of the detected pixel An edge detection unit for detecting pixel positions at both ends in the main scanning direction of the pixels at both ends of the image data, and the pixel positions at both ends and the pixels at both ends A correction unit that corrects an optical distortion amount of the image data due to distortion of the lens, using the pixel position of each pixel between the positions, the optical path length information, and the incident / exit angle information; The optical path length information is a first optical path length between the lens and the image sensor, and the correction unit is configured to detect each pixel between the both end pixel positions and the both end pixel positions. Using the emission angle data calculated from the pixel position in the main scanning direction and the first optical path length, the first incident angle data is identified by referring to the incident / exit angle information, and the identified first incident angle The optical distortion amount of the image data due to the distortion aberration of the lens is corrected based on the ideal pixel position calculated from the data and the first optical path length, and the pixel shift amount between the pixel positions on both ends and the pixel position. to, be characterized in that .

本発明によれば、被写体の読取り距離が変化しても、画像データを適切に補正することができる、という効果を奏する。   According to the present invention, there is an effect that image data can be corrected appropriately even if the reading distance of the subject changes.

図1は、本実施形態に係る画像形成装置の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of an image forming apparatus according to the present embodiment. 図2は、本実施形態に係る画像読取装置及びADFの構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of the image reading apparatus and the ADF according to the present embodiment. 図3は、本実施形態に係る画像読取装置の機能の要部を示す機能ブロック図である。FIG. 3 is a functional block diagram showing the main part of the functions of the image reading apparatus according to this embodiment. 図4は、従来の画像読取装置のディストーション補正について説明する図である。FIG. 4 is a diagram for explaining distortion correction of a conventional image reading apparatus. 図5は、原稿読み取り時に原稿浮きがある場合を説明する図である。FIG. 5 is a diagram for explaining a case where a document is lifted when a document is read. 図6は、原稿読み取り時に原稿浮きがある場合を説明する図である。FIG. 6 is a diagram for explaining a case where there is a document floating when the document is read. 図7は、原稿読み取り時に原稿浮きがある場合を説明する図である。FIG. 7 is a diagram for explaining a case where the document is lifted when the document is read. 図8は、原稿読み取り時に原稿浮きがある場合を説明する図である。FIG. 8 is a diagram for explaining a case where the document is lifted when the document is read. 図9は、ラインセンサにおける歪曲収差を示す図である。FIG. 9 is a diagram illustrating distortion aberration in the line sensor. 図10は、理想レンズにおける入射角度に対する出射角度を示す入出射角特性を説明する図である。FIG. 10 is a diagram for explaining the incident / exit angle characteristics indicating the exit angle with respect to the incident angle in the ideal lens. 図11は、理想レンズの入出射特性におけるイメージセンサ上の結像位置を示す図である。FIG. 11 is a diagram showing the imaging position on the image sensor in the input / output characteristics of the ideal lens. 図12は、実際のレンズにおける入射角度に対する出射角度を示す入出射角特性を説明する図である。FIG. 12 is a diagram for explaining an incident / exit angle characteristic indicating an exit angle with respect to an incident angle in an actual lens. 図13は、実際のレンズの入出射特性におけるイメージセンサ上の結像位置を示す図である。FIG. 13 is a diagram illustrating the imaging position on the image sensor in the actual input / output characteristics of the lens. 図14は、実際のレンズにおける所定の入射角度に対する出射角度を示す入出射角特性を説明する図である。FIG. 14 is a diagram for explaining an incident / exit angle characteristic indicating an exit angle with respect to a predetermined incident angle in an actual lens. 図15は、入出射角特性の補間方法を説明する図である。FIG. 15 is a diagram for explaining an interpolation method of the incident / exit angle characteristics. 図16は、レンズの入出射角と入出射角特性を説明する図である。FIG. 16 is a diagram illustrating the incident / exit angle and the incident / exit angle characteristic of the lens. 図17は、画像補正部の機能構成の一例を示すブロック図である。FIG. 17 is a block diagram illustrating an example of a functional configuration of the image correction unit. 図18は、原稿のエッジ検出について説明する図である。FIG. 18 is a diagram illustrating document edge detection. 図19は、原稿のエッジ検出について説明する図である。FIG. 19 is a diagram for explaining edge detection of a document. 図20は、原稿のエッジ検出について説明する図である。FIG. 20 is a diagram for explaining edge detection of a document. 図21は、画素ずれの補正のための画素移動について説明する図である。FIG. 21 is a diagram illustrating pixel movement for correcting pixel shift. 図22は、倍率補正について説明する図である。FIG. 22 is a diagram for explaining the magnification correction. 図23は、本実施形態の画像読取装置の処理動作の一例について説明するフローチャート図である。FIG. 23 is a flowchart for explaining an example of the processing operation of the image reading apparatus according to the present embodiment.

以下、添付図面を参照しながら、本発明に係る画像読取装置、画像形成装置及び画像読取方法の一実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。また、各実施形態は、内容を矛盾させない範囲で、適宜組み合わせることができる。また、以下では、本発明に係る画像形成装置を、複合機(MFP:Multifunction Peripheral)に適用した場合を例に挙げて説明するが、これに限定されるものではない。なお、複合機とは、印刷機能(プリンタ機能)、複写機能(コピー機能)、スキャナ機能、及びファックス機能のうち少なくとも2つの機能を有する装置である。   Hereinafter, an embodiment of an image reading apparatus, an image forming apparatus, and an image reading method according to the present invention will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by the following embodiment. Moreover, each embodiment can be combined suitably as long as the content is not contradicted. In the following description, an example in which the image forming apparatus according to the present invention is applied to a multifunction peripheral (MFP) will be described. However, the present invention is not limited to this. Note that a multifunction peripheral is a device having at least two functions of a print function (printer function), a copy function (copy function), a scanner function, and a fax function.

最初に、図1を用いて、画像形成装置300の構成例について説明する。図1は、本実施形態に係る画像形成装置300の構成の一例を示す図である。図1に示すように、画像形成装置300は、給紙部303及び画像形成装置本体(画像形成部)304を有し、上部に画像読取装置100及び自動原稿給送装置(ADF)200が搭載されたデジタル複合機である。なお、画像読取装置100は、ADF200が一体となって単体の画像読取装置となるように構成されてもよい。   First, a configuration example of the image forming apparatus 300 will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a configuration of an image forming apparatus 300 according to the present embodiment. As shown in FIG. 1, the image forming apparatus 300 includes a paper feeding unit 303 and an image forming apparatus main body (image forming unit) 304, and an image reading apparatus 100 and an automatic document feeder (ADF) 200 are mounted on the upper part. Is a digital multi-function machine. Note that the image reading apparatus 100 may be configured such that the ADF 200 is integrated into a single image reading apparatus.

画像形成装置本体304内には、タンデム方式の作像部305と、給紙部303から搬送路307を介して供給される記録紙(記録媒体)を作像部305に搬送するレジストローラ308と、光書き込み装置309と、定着搬送部310と、両面トレイ311とが設けられている。   In the image forming apparatus main body 304, a tandem image forming unit 305, a registration roller 308 that conveys recording paper (recording medium) supplied from the paper supply unit 303 via the conveyance path 307 to the image forming unit 305, and An optical writing device 309, a fixing conveyance unit 310, and a double-sided tray 311 are provided.

作像部305には、Y,M,C,Kの4色のトナーに対応して4本の感光体ドラム312が並設されている。各感光体ドラム312の回りには、帯電器、現像器306、転写器、クリーナ、及び除電器を含む作像要素が配置されている。   In the image forming unit 305, four photosensitive drums 312 are arranged side by side corresponding to toners of four colors Y, M, C, and K. Around each photosensitive drum 312, image forming elements including a charger, a developing unit 306, a transfer unit, a cleaner, and a static eliminator are arranged.

また、転写器と感光体ドラム312との間には両者のニップに挟持された状態で駆動ローラと従動ローラとの間に張架された中間転写ベルト313が配置されている。   In addition, an intermediate transfer belt 313 stretched between the driving roller and the driven roller is disposed between the transfer unit and the photosensitive drum 312 while being sandwiched between the two nips.

このように構成されたタンデム方式の画像形成装置300は、Y,M,C,Kの色毎に各色に対応する感光体ドラム312に光書き込みを行い、現像器306で各色のトナー毎に現像し、中間転写ベルト313上に例えばY,M,C,Kの順に1次転写を行う。   The tandem image forming apparatus 300 configured as described above performs optical writing on the photosensitive drum 312 corresponding to each color for each of Y, M, C, and K colors, and develops each toner of each color by the developing unit 306. Then, primary transfer is performed on the intermediate transfer belt 313 in the order of, for example, Y, M, C, and K.

そして、画像形成装置300は、1次転写により4色重畳されたフルカラーの画像を記録紙に2次転写した後、定着して排紙することによりフルカラーの画像を記録紙上に形成する。また、画像形成装置300は、画像読取装置100が読取った画像を記録紙上に形成する。   Then, the image forming apparatus 300 forms a full-color image on the recording paper by secondarily transferring the full-color image superimposed on the four colors by the primary transfer onto the recording paper, and then fixing and discharging. The image forming apparatus 300 forms an image read by the image reading apparatus 100 on a recording sheet.

図2は、画像読取装置100及びADF200の構成の一例を示す図である。図2に示すように、画像読取装置100は、デジタル複写機、デジタル複合機、ファクシミリ装置等の画像形成装置に搭載されるスキャナ装置である。そして、画像読取装置100は、光源102からの照射光によって被写体(読取対象)である原稿を照明し、その原稿からの反射光を光電変換するCMOSのイメージセンサ109で受光した信号に処理を行い、原稿の画像データを読み取る。以下では、「被写体」を「原稿」とも表記する。   FIG. 2 is a diagram illustrating an example of the configuration of the image reading apparatus 100 and the ADF 200. As shown in FIG. 2, the image reading apparatus 100 is a scanner device mounted on an image forming apparatus such as a digital copying machine, a digital multifunction peripheral, or a facsimile machine. The image reading apparatus 100 illuminates a document that is a subject (reading object) with irradiation light from the light source 102 and processes a signal received by a CMOS image sensor 109 that photoelectrically converts reflected light from the document. Read the image data of the document. Hereinafter, “subject” is also referred to as “original”.

具体的には、画像読取装置100は、図2に示すように、原稿(被写体)を載置するコンタクトガラス101と、原稿露光用の光源102及び第1反射ミラー103を具備する第1キャリッジ106と、第2反射ミラー104及び第3反射ミラー105を具備する第2キャリッジ107とを有する。また、画像読取装置100は、RGBのカラーセンサであるイメージセンサ109と、イメージセンサ109に結像するためのレンズユニット(レンズ)108と、読取り光学系等による各種の歪みを補正するためなどに用いる基準白板(白基準板)110と、シートスルー読取り用のスリット111も備えている。イメージセンサ109は、レンズユニット108を介して被写体からの反射光を光電変換して被写体の画像データを読み取るものである。以下、「レンズユニット」を「レンズ」とも表記する。   Specifically, as shown in FIG. 2, the image reading apparatus 100 includes a contact glass 101 on which a document (subject) is placed, a light source 102 for document exposure, and a first carriage 106 including a first reflection mirror 103. And a second carriage 107 having a second reflecting mirror 104 and a third reflecting mirror 105. The image reading apparatus 100 also corrects various distortions caused by an image sensor 109, which is an RGB color sensor, a lens unit (lens) 108 for forming an image on the image sensor 109, a reading optical system, and the like. A reference white plate (white reference plate) 110 to be used and a slit 111 for reading through a sheet are also provided. The image sensor 109 photoelectrically converts reflected light from the subject via the lens unit 108 and reads image data of the subject. Hereinafter, “lens unit” is also referred to as “lens”.

画像読取装置100は、上部にADF200が搭載されており、このADF200をコンタクトガラス101に対して開閉できるように、図示しないヒンジ等を介した連結がなされている。   The image reading apparatus 100 has an ADF 200 mounted thereon, and is connected via a hinge (not shown) or the like so that the ADF 200 can be opened and closed with respect to the contact glass 101.

ADF200は、複数枚の原稿からなる原稿束を載置可能な原稿載置台としての原稿トレイ201を備えている。また、ADF200は、原稿トレイ201に載置された原稿束から原稿を1枚ずつ分離してスリット111へ向けて自動給送する給送ローラ202を含む分離・給送手段も備えている。   The ADF 200 includes a document tray 201 as a document placing table on which a document bundle composed of a plurality of documents can be placed. The ADF 200 also includes separation / feeding means including a feeding roller 202 that separates documents one by one from a bundle of documents placed on the document tray 201 and automatically feeds them toward the slit 111.

さらに、スリット111の原稿搬送方向上流側には、ガイド部材112が設けられている。ガイド部材112は、スリット111に対する汚れやゴミの付着を防止するために、原稿搬送読取時にスリット111へ原稿を接触させないようにしている。   Further, a guide member 112 is provided on the upstream side of the slit 111 in the document conveying direction. The guide member 112 prevents the document from coming into contact with the slit 111 during document conveyance reading in order to prevent dirt and dust from adhering to the slit 111.

そして、画像読取装置100は、固定された原稿の画像面をスキャン(走査)して原稿の画像を読み取るフラットベッド読み取りモード(以下、圧板読取と記載)時には、第1キャリッジ106及び第2キャリッジ107により、図示しないステッピングモータによって矢示A方向(副走査方向)に原稿を走査する。このとき、コンタクトガラス101からイメージセンサ109までの光路長を一定に維持するために、第2キャリッジ107は第1キャリッジ106の1/2の速度で移動する。   The image reading apparatus 100 scans the image surface of a fixed document and scans the image of the document in a flat bed reading mode (hereinafter referred to as “pressure plate reading”). Thus, the document is scanned in the direction of arrow A (sub-scanning direction) by a stepping motor (not shown). At this time, the second carriage 107 moves at a speed half that of the first carriage 106 in order to keep the optical path length from the contact glass 101 to the image sensor 109 constant.

同時に、コンタクトガラス101上にセットされた原稿の下面である画像面が第1キャリッジ106の光源102によって照明(露光)される。すると、その画像面からの反射光像が第1キャリッジ106の第1反射ミラー103、第2キャリッジ107の第2反射ミラー104及び第3反射ミラー105、並びにレンズユニット108経由でイメージセンサ109へ順次送られて結像される。   At the same time, the image surface which is the lower surface of the document set on the contact glass 101 is illuminated (exposed) by the light source 102 of the first carriage 106. Then, the reflected light image from the image plane is sequentially sent to the image sensor 109 via the first reflecting mirror 103 of the first carriage 106, the second reflecting mirror 104 and the third reflecting mirror 105 of the second carriage 107, and the lens unit 108. Sent and imaged.

そして、イメージセンサ109の光電変換により信号が出力され、出力された信号はデジタル信号に変換される。このように、原稿の画像が読み取られ、デジタルの画像データが得られる。   Then, a signal is output by photoelectric conversion of the image sensor 109, and the output signal is converted into a digital signal. In this way, the image of the document is read, and digital image data is obtained.

一方、原稿を自動給送して原稿の画像を読み取るシートスルー読み取りモード(以下、原稿搬送読取と記載)時には、第1キャリッジ106及び第2キャリッジ107が、スリット111の下側へ移動する。その後、原稿トレイ201に載置された原稿が給送ローラ202によって矢示B方向(副走査方向)へ自動給送され、スリット111の位置において原稿が走査される。   On the other hand, in a sheet-through reading mode (hereinafter referred to as “document feed reading”) in which an original is automatically fed and an image of the original is read, the first carriage 106 and the second carriage 107 move below the slit 111. Thereafter, the document placed on the document tray 201 is automatically fed in the arrow B direction (sub-scanning direction) by the feeding roller 202, and the document is scanned at the position of the slit 111.

このとき、搬送される原稿の下面(画像面)が第1キャリッジ106の光源102によって照明される。そのため、その画像面からの反射光像が第1キャリッジ106の第1反射ミラー103、第2キャリッジ107の第2反射ミラー104及び第3反射ミラー105、並びにレンズユニット108経由でイメージセンサ109へ順次送られて結像される。そして、イメージセンサ109の光電変換により信号が出力され、出力された信号はデジタル信号に変換される。このように、原稿の画像が読み取られ、デジタルの画像データが得られる。画像の読み取りが完了した原稿は、図示しない排出口に排出される。   At this time, the lower surface (image surface) of the conveyed document is illuminated by the light source 102 of the first carriage 106. Therefore, the reflected light image from the image plane is sequentially sent to the image sensor 109 via the first reflecting mirror 103 of the first carriage 106, the second reflecting mirror 104 and the third reflecting mirror 105 of the second carriage 107, and the lens unit 108. Sent and imaged. Then, a signal is output by photoelectric conversion of the image sensor 109, and the output signal is converted into a digital signal. In this way, the image of the document is read, and digital image data is obtained. The document whose image has been read is discharged to a discharge port (not shown).

図3は、画像読取装置100が有する機能の要部を示す機能ブロック図である。光源102は、照射光を原稿に対して照射する。イメージセンサ109は、原稿からの反射光を光電変換し、デジタル画像信号として出力する。なお、イメージセンサ109は、内部に図示しない複数の受光素子が主走査方向に配列されたラインセンサである。イメージセンサ109は、各画素に相当する各受光素子が、光源102からの反射光を電気信号に変換し、図示しない増幅器やA/D変換器によってデジタル画素データを得る。また、イメージセンサ109は、各受光素子からのパラレルデータであるデジタル画素データをシリアルデータに変換し、同期信号生成部500からの画素同期信号、ライン同期信号に同期して、ライン毎にデジタル画素データを画像補正部502に対して伝送する。   FIG. 3 is a functional block diagram illustrating a main part of the functions of the image reading apparatus 100. The light source 102 irradiates the original with irradiation light. The image sensor 109 photoelectrically converts reflected light from the document and outputs it as a digital image signal. The image sensor 109 is a line sensor in which a plurality of light receiving elements (not shown) are arranged in the main scanning direction. In the image sensor 109, each light receiving element corresponding to each pixel converts reflected light from the light source 102 into an electric signal, and obtains digital pixel data by an amplifier or an A / D converter (not shown). Further, the image sensor 109 converts digital pixel data, which is parallel data from each light receiving element, into serial data, and synchronizes with the pixel synchronization signal and line synchronization signal from the synchronization signal generation unit 500 to perform digital pixel for each line. Data is transmitted to the image correction unit 502.

メモリ(記憶部)501は、予め画像読取装置100の製造工程等において測定されたレンズユニット108の離散的な主走査方向のレンズユニット108に入射する被写体からの反射光の入射角度に対する出射角度を示す入出射角特性(入出射角情報)データが格納されている。以下、「メモリ」を「記憶部」とも表記し、「入出射角特性」を「入出射角情報」とも表記する。メモリ501が格納している入出射角特性(入出射角情報)は、レンズユニット108の個体毎に異なる特性を持っており、例えば、製造されたレンズユニット108を光学シミュレーションで測定したり、例えば、製造メーカから離散的な入射角度に対する出射角度の値を提供して貰ったりする等で得ることができる。メモリ501には、レンズユニット108毎に紐付けされた入出射角特性(入出射角情報)データが格納されている。さらに、メモリ501は、予め画像読取装置100の設計段階等における光路長情報であるレンズユニット108とイメージセンサ109との間の第1光路長(レンズ−センサ長データ)、及び被写体(原稿)とレンズユニット108との間の第2光路長(原稿−レンズ長データ)の情報が格納されている。メモリ501は、レンズユニット108の入出射角情報(レンズの入出射角特性データ)及び光路長情報(光路長データ)を、同期信号生成部500からの画素同期信号、ライン同期信号に同期して、ライン毎に画像補正部502に対して伝送する。記憶部501は、被写体からイメージセンサ109までの間の光路長情報と、レンズ108に入射する反射光の入射角度データとレンズ108から出射する出射角度データとが対応付いた入出射角情報と、を予め記憶する。記憶部501は、レンズ108に対して、予め設定された入射角度データと出射角度データとが対応付いた、複数の入出射角情報(入出射角特性データ)を予め記憶する。なお、入出射角情報及び光路長情報の詳細については後述する。   The memory (storage unit) 501 indicates the emission angle with respect to the incident angle of the reflected light from the subject incident on the lens unit 108 in the discrete main scanning direction of the lens unit 108 measured in advance in the manufacturing process of the image reading apparatus 100 or the like. The shown incident / exit angle characteristic (incident / exit angle information) data is stored. Hereinafter, “memory” is also referred to as “storage unit”, and “input / output angle characteristics” are also referred to as “input / output angle information”. The incident / exit angle characteristics (incident / exit angle information) stored in the memory 501 have different characteristics for each individual lens unit 108. For example, the manufactured lens unit 108 can be measured by optical simulation, It can be obtained by providing the output angle value with respect to the discrete incident angle from the manufacturer. The memory 501 stores input / output angle characteristic (input / output angle information) data associated with each lens unit 108. Furthermore, the memory 501 stores in advance a first optical path length (lens-sensor length data) between the lens unit 108 and the image sensor 109, which is optical path length information at the design stage of the image reading apparatus 100, and a subject (original). Information on the second optical path length (document-lens length data) between the lens unit 108 is stored. The memory 501 synchronizes the incident / exit angle information (lens incident / exit angle characteristic data) and optical path length information (optical path length data) of the lens unit 108 in synchronization with the pixel synchronization signal and the line synchronization signal from the synchronization signal generation unit 500. The data is transmitted to the image correction unit 502 for each line. The storage unit 501 includes optical path length information from the subject to the image sensor 109, incident angle data on which incident angle data of reflected light incident on the lens 108 and emission angle data emitted from the lens 108 are associated, and Is stored in advance. The storage unit 501 stores in advance a plurality of pieces of incident / exit angle information (incident / exit angle characteristic data) in which incident angle data and emission angle data set in advance are associated with the lens 108. Details of the incident / exit angle information and the optical path length information will be described later.

画像補正部502は、メモリ501が格納しているレンズユニット108の入出射角情報及び光路長情報を受入れ、レンズユニット108の入出射角情報、光路長情報を用いて、原稿読み取り時に原稿浮きが生じた場合でも最適なディストーション補正を行う。なお、画像補正部502は、メモリ501に格納されていない出射角度に対する入射角度の値をメモリ501に格納された、当該出射角度データ近傍の2以上の出射角度データを用いて補間により算出する。画像補正部502は、イメージセンサ109から受入れた主走査方向の全画素(デジタル画像データ)の主走査方向の画素ずれを補正し、後段に転送する。なお、画像補正部502の詳細については後述する。   The image correction unit 502 accepts the incident / exit angle information and optical path length information of the lens unit 108 stored in the memory 501, and uses the incident / exit angle information and optical path length information of the lens unit 108 to lift the original when reading the original. Even if it occurs, optimal distortion correction is performed. Note that the image correction unit 502 calculates an incident angle value with respect to an exit angle not stored in the memory 501 by interpolation using two or more exit angle data in the vicinity of the exit angle data stored in the memory 501. The image correction unit 502 corrects the pixel shift in the main scanning direction of all pixels (digital image data) in the main scanning direction received from the image sensor 109, and transfers the corrected pixel to the subsequent stage. Details of the image correction unit 502 will be described later.

原稿サイズ検出部(被写体サイズ検出部)503は、読み取る被写体(原稿)の主走査方向の長さを検出する。原稿サイズ検出部503は、例えば、被写体を読み取る時に被写体の主走査方向の両端部をセンサ等で検出して被写体のサイズ情報を取得する。原稿サイズ検出部503は、取得した被写体(原稿)のサイズ情報を画像補正部502に対して伝送する。なお、「原稿サイズ検出部」は、請求項の「被写体サイズ検出部」に対応する。   A document size detection unit (subject size detection unit) 503 detects the length of the subject (original) to be read in the main scanning direction. For example, when reading the subject, the document size detection unit 503 detects both ends of the subject in the main scanning direction with a sensor or the like, and acquires the size information of the subject. The document size detection unit 503 transmits the acquired size information of the subject (document) to the image correction unit 502. The “document size detection unit” corresponds to the “subject size detection unit” in the claims.

ここで、図4を用いて、従来の画像読取装置の画像補正部について説明する。まず、図示しない従来の画像読取装置が有する機能の要部を示す機能ブロック図は、上記の図3で示した本実施形態の画像読取装置100の原稿サイズ検出部503を備えない構成である。図4は、従来の画像読取装置のディストーション補正について説明する図である。図4において、縦軸は画素のずれ量を表し、横軸は主走査方向の画素を表している。また、色の3原色であるR(Red)/G(Green)/B(Blue)各色について示している。   Here, an image correction unit of a conventional image reading apparatus will be described with reference to FIG. First, a functional block diagram showing a main part of functions of a conventional image reading apparatus (not shown) is a configuration that does not include the document size detection unit 503 of the image reading apparatus 100 of the present embodiment shown in FIG. FIG. 4 is a diagram for explaining distortion correction of a conventional image reading apparatus. In FIG. 4, the vertical axis represents the amount of pixel shift, and the horizontal axis represents the pixel in the main scanning direction. In addition, R (Red) / G (Green) / B (Blue), which are the three primary colors, are shown.

従来の画像読取装置は、製造工程において、専用の原稿(例えば、主走査に縦線が複数本あり、縦線の間隔が測定されているもの)を、図2を用いて説明した圧板読取で読み取ることで、主走査方向全画素における、理想結像位置からのずれ量をR(Red)/G(Green)/B(Blue)各色で求めておく。   In the conventional image reading apparatus, a dedicated original (for example, one having a plurality of vertical lines in the main scan and the interval between the vertical lines being measured) is read by the pressure plate reading described with reference to FIG. By reading, the amount of deviation from the ideal image formation position in all pixels in the main scanning direction is obtained for each color of R (Red) / G (Green) / B (Blue).

上記のずれ量のうち、複数の主走査方向の画素位置と、その画素位置に対応する画素ずれ量のディストーションデータを予め画像読取装置内のメモリに保存する。図4の例では、所定の「□印」の画素ずれ量データを17画素×3個(R/G/B各色)をメモリに保存していることを示している。これは、主走査方向の全画素に対するディストーションデータを保存した場合、メモリ容量が膨大となってしまう為である。   Among the shift amounts, a plurality of pixel positions in the main scanning direction and distortion data of the pixel shift amounts corresponding to the pixel positions are stored in advance in a memory in the image reading apparatus. In the example of FIG. 4, pixel deviation amount data of predetermined “□” is stored in the memory as 17 pixels × 3 (each R / G / B color). This is because when the distortion data for all the pixels in the main scanning direction is stored, the memory capacity becomes enormous.

そして、従来の画像補正部は、画像読取装置のシステム側の制御により、上記の保存されたディストーションデータを用いて、保存されていない主走査方向の画素位置のディストーションデータを補間により求める。   The conventional image correction unit obtains distortion data of pixel positions in the main scanning direction that are not stored by interpolation using the stored distortion data under the control of the system side of the image reading apparatus.

上記により、主走査方向の全画素のディストーションデータが求まるので、従来の画像補正部は、各主走査入力画素に対して、画素位置に対応したずれ量分だけ、画素位置をずらすことで、出力画像は理想位置で再現できる。図4の例では、R/G/B各色を主走査1画素毎に理想位置、つまり、ずれ量が0になるように移動させて補正するため、歪曲収差の結像の広がりや狭まりを補正すると同時に、倍率色収差による色ずれも補正できる。   As described above, the distortion data of all the pixels in the main scanning direction can be obtained. Therefore, the conventional image correction unit outputs each main scanning input pixel by shifting the pixel position by the shift amount corresponding to the pixel position. Images can be reproduced at ideal positions. In the example of FIG. 4, each R / G / B color is corrected by moving it to an ideal position for each pixel of the main scanning, that is, the deviation amount becomes 0, so that the spread and narrowing of the distortion aberration image is corrected. At the same time, it is possible to correct a color shift caused by lateral chromatic aberration.

しかしながら、従来の画像補正部が用いる、図4の例で示したディストーションずれ量データは、予め圧板読取で専用原稿を読取って得た、理想結像位置(理想画素位置)からのずれ量であり、圧板読取時に原稿全面がコンタクトガラスに接していることが前提である。   However, the distortion shift amount data shown in the example of FIG. 4 used by the conventional image correction unit is a shift amount from the ideal image formation position (ideal pixel position) obtained by reading a dedicated document in advance by pressure plate reading. The premise is that the entire surface of the document is in contact with the contact glass when the pressure plate is read.

図5〜図8は、原稿読み取り時に原稿浮きがある場合を説明する図である。図5に示すように、原稿圧板読取の場合に、例えば、本や折り目のついた原稿を読取る際には、副走査中心付近で原稿がコンタクトガラス101から浮いてしまう箇所がある。また、原稿搬送読取の場合には、ガイド部材112を設置して、原稿を浮かして読取る方式時においても、厳密には1スキャン内で原稿読取りの高さが一定ではなく、原稿副走査方向の前後端で一度スリット111へ原稿が接する部分があること、メカニカル構成や原稿搬送速度、紙種など、様々なばらつき要因により、原稿読取り距離に変動が生じる。   FIG. 5 to FIG. 8 are diagrams for explaining a case where the document is lifted when the document is read. As shown in FIG. 5, in the case of reading a document pressure plate, for example, when reading a book or a creased document, there is a place where the document floats from the contact glass 101 near the sub-scanning center. Further, in the case of document transport reading, even when the guide member 112 is installed and the document is lifted and read, strictly speaking, the height of the document reading is not constant within one scan, and the document scanning direction is the same. The document reading distance fluctuates due to various factors such as the presence of a portion where the document once contacts the slit 111 at the front and rear ends, the mechanical configuration, the document conveyance speed, and the paper type.

上記のように、原稿読み取り時に原稿浮きがある場合、図6に示すように、レンズから原稿までの距離が長くなるため、その結果、イメージセンサ面での結像位置は縮む方向に倍率誤差が生じることになる。図6においては、原稿浮きがない場合の原稿読取位置とイメージセンサ面での結像位置を実線で示し、原稿浮きがある場合の原稿読取位置とメージセンサ面での結像位置を点線で示している。図7は、圧板読取時の読取画像の一例を示素図であり、図8は、原稿搬送読取時の読取画像の一例を示す図である。図7の例は、図5で示した、本を読み取った場合であり、副走査方向の真ん中辺りで原稿がコンタクトガラス101から浮いてしまう箇所では倍率が小さくなっていることを示している。また、図8の例は、図5で示した、ガイド部材112を設置して、原稿を浮かして読取る場合であり、副走査方向の両端部はコンタクトガラス101に接しているが、両端部に対して真ん中部分で原稿がコンタクトガラス101から浮いてしまう箇所では倍率が小さくなっていることを示している。このように、原稿読み取り時に原稿浮きが生じている読取画像は、倍率誤差が発生すると共に、レンズの収差特性上、ディストーションのずれ量にも変化が生じることになる。   As described above, when the document is lifted when the document is read, the distance from the lens to the document becomes long as shown in FIG. 6, and as a result, the image formation position on the image sensor surface has a magnification error in the shrinking direction. Will occur. In FIG. 6, the original reading position and the image formation position on the image sensor surface when there is no original lifting are indicated by solid lines, and the original reading position and the image formation position on the image sensor surface when there is original floating are indicated by dotted lines. Yes. FIG. 7 is a schematic diagram illustrating an example of a read image at the time of reading a pressure plate, and FIG. 8 is a diagram illustrating an example of a read image at the time of document conveyance reading. The example of FIG. 7 is a case where the book shown in FIG. 5 is read, and shows that the magnification is small at a position where the document is lifted from the contact glass 101 in the middle of the sub-scanning direction. Further, the example of FIG. 8 is a case where the guide member 112 shown in FIG. 5 is installed and the original is floated and read. Both ends in the sub-scanning direction are in contact with the contact glass 101, but both ends are in contact with each other. On the other hand, it is shown that the magnification is small at a position where the document floats from the contact glass 101 in the middle portion. As described above, in the read image in which the document is lifted at the time of reading the document, a magnification error occurs, and a distortion shift amount also changes due to the aberration characteristics of the lens.

図9は、ラインセンサにおける歪曲収差を示す図である。図9(a)は画像読取装置に対する入力画像であり、図9(b)、(c)は画像読取装置が読取った結果である出力画像(第1例、第2例)である。   FIG. 9 is a diagram illustrating distortion aberration in the line sensor. FIG. 9A shows an input image to the image reading apparatus, and FIGS. 9B and 9C show output images (first example and second example) obtained by reading by the image reading apparatus.

まず、図2を用いて説明したように、画像読取装置100では、原稿画像面を光源102で照明(露光)し、その反射光がレンズユニット108を介し、イメージセンサ109の光電変換素子へと入力される。   First, as described with reference to FIG. 2, in the image reading apparatus 100, the original image surface is illuminated (exposed) with the light source 102, and the reflected light passes through the lens unit 108 to the photoelectric conversion element of the image sensor 109. Entered.

ラインセンサを用いた画像読取装置100においては、レンズユニット108の特性により、レンズユニット108が球面であるため、図9(a)に示した理想結像位置に対して、図9(b)に示した主走査方向の間隔(位置)が狭まる歪み、又は図9(c)に示した主走査方向の間隔(位置)が広がる歪みが発生する場合がある。これが歪曲収差(ディストーション)である。また、イメージセンサ109にカラーセンサを用いた場合、屈折率が光の波長により異なるため、R/G/B各色間で色ずれが起きてしまい、画像の滲みが発生する倍率色収差が発生してしまう。また、収差は焦点距離に依存し、焦点距離が長いレンズユニット108ほど、収差影響は少なくなり、焦点距離が短い小型レンズユニットほど、収差影響が大きくなる。また、レンズの製造バラつき等の影響により、レンズ個体毎にディストーション量は異なる。   In the image reading apparatus 100 using the line sensor, the lens unit 108 has a spherical surface due to the characteristics of the lens unit 108. Therefore, the ideal imaging position shown in FIG. There may be a distortion in which the interval (position) in the main scanning direction shown in FIG. 9 is narrowed or a distortion in which the interval (position) in the main scanning direction shown in FIG. This is distortion. In addition, when a color sensor is used as the image sensor 109, since the refractive index varies depending on the wavelength of light, color misregistration occurs between R / G / B colors, and chromatic aberration of magnification that causes image blurring occurs. End up. In addition, the aberration depends on the focal length, and the influence of the aberration is reduced as the lens unit 108 has a longer focal distance, and the influence of the aberration increases as the lens unit 108 has a shorter focal distance. In addition, the amount of distortion varies from lens to lens due to the effects of lens manufacturing variation.

次に、図10〜図13を用いて、ディストーション補正について説明する。図10は、理想レンズにおける入射角度に対する出射角度を示す入出射角特性を説明する図である。図11は、理想レンズの入出射特性におけるイメージセンサ上の結像位置を示す図である。図12は、実際のレンズにおける入射角度に対する出射角度を示す入出射角特性を説明する図である。図13は、実際のレンズの入出射特性におけるイメージセンサ上の結像位置を示す図である。   Next, distortion correction will be described with reference to FIGS. FIG. 10 is a diagram for explaining the incident / exit angle characteristics indicating the exit angle with respect to the incident angle in the ideal lens. FIG. 11 is a diagram showing the imaging position on the image sensor in the input / output characteristics of the ideal lens. FIG. 12 is a diagram for explaining an incident / exit angle characteristic indicating an exit angle with respect to an incident angle in an actual lens. FIG. 13 is a diagram illustrating the imaging position on the image sensor in the actual input / output characteristics of the lens.

図5〜図8を用いて説明したように、原稿読み取り時に原稿浮きがある場合は、倍率誤差を補正するだけでは、ディストーションのずれ量は補正できない。例えば、R/G/B各色において、図10で示すような理想レンズの入出射角特性をもったレンズの場合は、原稿の主走査方向の端部位置での原稿浮きがない場合の入射角度をωi、出射角度をωoで示し、原稿浮きがある場合の入射角度をθi、出射角度をθoで示し、原稿の主走査方向の任意位置での原稿浮きがない場合の入射角度をωi’、出射角度をωo’で示し、原稿浮きがある場合の入射角度をθi’、出射角度をθo’で示す。理想レンズは、すべての場合で入射角度=出射角度の入出射角特性を持つので歪曲収差が起こらない。理想レンズの場合は、図11で示すように、原稿の主走査方向の端部位置での原稿浮きがない場合(端部結像位置)と、原稿浮きがある場合の結像位置(結像位置)を、それぞれB、bで示し、原稿の主走査方向の任意位置での原稿浮きがない場合(端部結像位置)と、原稿浮きがある場合の結像位置(結像位置)を、それぞれC、cで示したとき、下記式(1)の関係が成り立つ。   As described with reference to FIG. 5 to FIG. 8, when there is a document floating at the time of document reading, the distortion shift amount cannot be corrected only by correcting the magnification error. For example, in the case of a lens having the ideal lens entrance / exit angle characteristics as shown in FIG. 10 for each color of R / G / B, the incident angle when there is no document lift at the end position in the main scanning direction of the document. Is denoted by ωi, the exit angle is denoted by ωo, the incident angle when the document is lifted is denoted by θi, the exit angle is denoted by θo, and the incident angle when the document is not lifted at an arbitrary position in the main scanning direction of the document is denoted by ωi ′, The outgoing angle is indicated by ωo ′, the incident angle when the document is lifted is indicated by θi ′, and the outgoing angle is indicated by θo ′. In all cases, the ideal lens has an incident / exit angle characteristic of incident angle = exit angle, so that distortion does not occur. In the case of an ideal lens, as shown in FIG. 11, when there is no document lift at the end position in the main scanning direction of the document (end image formation position), and when there is document lift (image formation position (image formation) Position) is indicated by B and b, respectively, and the image formation position (image formation position) when there is no document lift at the arbitrary position in the main scanning direction of the document (edge image formation position) and when there is document lift , C and c respectively, the relationship of the following formula (1) is established.

(B−b)/B=(C−c)/C ・・・ 式(1)   (B−b) / B = (C−c) / C (1)

上記式(1)は、原稿の主走査方向の端部位置での原稿浮きによる倍率誤差と、原稿の主走査方向の任意位置での原稿浮きによる倍率誤差が同じということを示している。これにより、入射角度=出射角度が成り立つ理想レンズでは、原稿浮きがある場合でも、主走査方向の任意のどの位置であっても、同一の倍率誤差となるため、倍率補正を行うだけで正確にディストーション補正、及び倍率補正を行うことができる。なお、図11においては、原稿浮きがない場合の原稿読取位置とイメージセンサ面での結像位置を実線で示し、原稿浮きがある場合の原稿読取位置とメージセンサ面での結像位置を点線で示している。   The above equation (1) indicates that the magnification error due to the document floating at the end position in the main scanning direction of the document is the same as the magnification error due to the document floating at an arbitrary position in the main scanning direction of the document. As a result, an ideal lens with an incident angle = an outgoing angle has the same magnification error at any position in the main scanning direction even when the document is lifted. Distortion correction and magnification correction can be performed. In FIG. 11, the original reading position when the original is not lifted and the imaging position on the image sensor surface are indicated by solid lines, and the original reading position when the original is lifted and the imaging position on the image sensor surface are indicated by dotted lines. Show.

しかし、実際に使用するレンズでは、レンズ毎の個体ばらつきにより、入射角度=出射角度となる理想レンズは存在しない。例えば、図12に示すようなレンズ入出射角特性をもったレンズの場合は、原稿の主走査方向の端部位置での原稿浮きがない場合の入射角度ωiに対する出射角度ωo、原稿浮きがある場合の入射角度θiに対する出射角度θo、原稿の主走査方向の任意位置での原稿浮きがない場合の入射角度ωi’に対する出射角度ωo’、原稿浮きがある場合の入射角度θi’に対する出射角度θo’が、それぞれ変化するために原稿読み取り時に原稿浮きがある場合、原稿の主走査方向の端部位置、及び原稿の主走査方向の任意位置において、図11で示した、理想結像位置b、cから、図13で示す端部結像位置b’、結像位置c’へ画素がずれる倍率誤差が局所的に変化してしまうことで、式(1)の関係は成り立たなくなる。これが、図4で示したような、歪曲収差による歪みの原因である。また、図12では入出射角特性データは1本のみしか示していないが、R/G/B各色で入出射角特性がずれることで倍率色収差による色ずれも発生する。よって、図4を用いて説明したディストーション補正方法では、原稿読み取り時に原稿浮きがある場合には対応できないことになる。なお、図13においては、図11で示した原稿浮きがない場合のイメージセンサ面での端部結像位置B’及び結像位置C’と、原稿浮きがある場合のイメージセンサ面での端部結像位置b’及び結像位置c’とを併せて示している。また、図13においては、原稿浮きがない場合の原稿読取位置とイメージセンサ面での結像位置を実線で示し、原稿浮きがある場合の原稿読取位置とメージセンサ面での結像位置を点線で示している。   However, in an actual lens to be used, there is no ideal lens in which the incident angle = the outgoing angle because of individual variations among the lenses. For example, in the case of a lens having a lens entrance / exit angle characteristic as shown in FIG. 12, there is an exit angle ωo with respect to the incident angle ωi and document lift when there is no document lift at the end position in the main scanning direction of the document. The exit angle θo with respect to the incident angle θi in this case, the exit angle ωo ′ with respect to the incident angle ωi ′ when the document is not lifted at an arbitrary position in the main scanning direction of the document, and the exit angle θo with respect to the incident angle θi ′ with the document lifted When the document floats when reading the document because 'changes respectively, the ideal imaging position b shown in FIG. 11 at the end position in the main scanning direction of the document and the arbitrary position in the main scanning direction of the document. Since the magnification error in which the pixel is shifted from c to the edge imaging position b ′ and the imaging position c ′ shown in FIG. 13 locally changes, the relationship of Expression (1) does not hold. This is the cause of distortion due to distortion as shown in FIG. In FIG. 12, only one incident / exit angle characteristic data is shown. However, color deviation due to lateral chromatic aberration also occurs due to the deviation of the incident / exit angle characteristic for each color of R / G / B. Therefore, the distortion correction method described with reference to FIG. 4 cannot cope with a case where the document is lifted when the document is read. In FIG. 13, the edge image forming position B ′ and the image forming position C ′ on the image sensor surface when there is no document floating shown in FIG. 11 and the edge on the image sensor surface when there is document floating are shown. A partial imaging position b ′ and an imaging position c ′ are also shown. In FIG. 13, the original reading position and the image formation position on the image sensor surface when there is no original lifting are indicated by solid lines, and the original reading position and the image formation position on the image sensor surface when there is original lifting are indicated by dotted lines. Show.

そこで、本実施形態におけるディストーション補正では、画像読取装置100の製造工程等において予め得られるレンズユニット108の入出射角特性データを用いて、原稿読み取り時に原稿浮きがある場合でも最適なディストーション補正を行うものである。   Therefore, in the distortion correction according to the present embodiment, the optimum distortion correction is performed even when the document is lifted at the time of reading the document, using the incident / exit angle characteristic data of the lens unit 108 obtained in advance in the manufacturing process of the image reading apparatus 100 or the like. Is.

最初に、図14〜図16を用いて本実施形態における画像補正の概要について説明する。図14は、実際のレンズにおける所定の入射角度に対する出射角度を示す入出射角特性を説明する図である。図15は、入出射角特性の補間方法を説明する図である。図16は、レンズの入出射角と入出射角特性を説明する図である。図14及び図15においては、実際のレンズ(歪曲収差のあるレンズ)の入出射角度(横軸)に対する出射角度(縦軸)を示す入出射特性を、「黒□印」で示している。なお、図16においては、図6を用いて説明した原稿の半面とその結像位置のみを示している。また、入出射角特性も0°〜90°のみを示している。以下の説明では図示していない原稿のもう一方の半面側も同様の方法でディストーション補正を行うものとする。   First, an outline of image correction in the present embodiment will be described with reference to FIGS. FIG. 14 is a diagram for explaining an incident / exit angle characteristic indicating an exit angle with respect to a predetermined incident angle in an actual lens. FIG. 15 is a diagram for explaining an interpolation method of the incident / exit angle characteristics. FIG. 16 is a diagram illustrating the incident / exit angle and the incident / exit angle characteristic of the lens. In FIG. 14 and FIG. 15, the input / output characteristics indicating the output angle (vertical axis) with respect to the input / output angle (horizontal axis) of the actual lens (lens with distortion) are indicated by “black squares”. In FIG. 16, only the half surface of the document described with reference to FIG. 6 and its imaging position are shown. In addition, the incident / exit angle characteristics also show only 0 ° to 90 °. In the following description, it is assumed that distortion correction is performed on the other half side of the document (not shown) in the same manner.

図10〜図13を用いて説明したように、実際に使用するレンズでは倍率が変化するとディストーションのずれ量も主走査方向で非線形に変化する。図16に示すような実際のレンズは個体毎に異なる入出射特性を持っており、例えば、製造されたレンズユニット108を光学シミュレーションで測定したり、例えば、製造メーカから離散的な入射角度に対する出射角度の値を提供して貰ったりする等で得ることができる。   As described with reference to FIGS. 10 to 13, in the lens actually used, when the magnification changes, the distortion shift amount also changes nonlinearly in the main scanning direction. The actual lens as shown in FIG. 16 has different entrance / exit characteristics for each individual. For example, the manufactured lens unit 108 is measured by optical simulation, or, for example, the exit from a manufacturer for a discrete incident angle is obtained. It can be obtained, for example, by providing a value of the angle.

このようにして得られたレンズユニット108の入出射角特性(入出射角情報)データを予め記憶部501に記憶する。図14の例では、「黒□印」で示した所定の入射角度データに対する出射角度データの入出射角特性(入出射角情報)データ10点を予め記憶していることを示している。レンズユニット108の入出射角特性(入出射角情報)はレンズ個体毎に異なる為、レンズに紐付けされた入出射角特性値が記憶されることになる。   The storage unit 501 stores the incident / exit angle characteristic (incident / exit angle information) data of the lens unit 108 thus obtained in advance. In the example of FIG. 14, 10 points of incident / exit angle characteristic (incident / exit angle information) data of the exit angle data with respect to the predetermined incident angle data indicated by “black square” are stored in advance. Since the incident / exit angle characteristics (incident / exit angle information) of the lens unit 108 are different for each lens, the incident / exit angle characteristic value associated with the lens is stored.

また、図16に示すように、予め画像読取装置100の設計段階等における光路長情報であるレンズユニット108とイメージセンサ109との間の第1光路長(レンズ−センサ長データ)、及び被写体(原稿)とレンズユニット108との間の第2光路長(原稿−レンズ長データ)の情報を予め記憶部501に記憶する。   Also, as shown in FIG. 16, the first optical path length (lens-sensor length data) between the lens unit 108 and the image sensor 109, which is optical path length information in the design stage of the image reading apparatus 100, and the subject ( Information on the second optical path length (document-lens length data) between the document and the lens unit 108 is stored in the storage unit 501 in advance.

また、図15に示すように、「黒□印」で示した所定の入射角度データに対する出射角度データの入出射角特性データ10点以外の任意の入出射角特性データは、記憶部501に記憶された、当該入出射角特性データの近傍の2以上の入出射角特性(入出射角情報)データを用いて補間により算出する。補間には、例えば演算が容易な線形補間が用いられる。なお、補間方法は線形補間に限ることはなく任意である。なお、図14及び図15に示した例では、入出射角特性データが1本であり、単色(RGBいずれか)を想定した記載となっている。画像読取装置100は、RGBのカラーセンサであるイメージセンサ109に対し、R/G/B各色それぞれの入出射角特性データを記憶し、後述する入出射角特性補間部409で補間した入出射角特性データを算出している。   Further, as shown in FIG. 15, arbitrary incident / exit angle characteristic data other than ten incident / exit angle characteristic data of the output angle data with respect to the predetermined incident angle data indicated by “black square” is stored in the storage unit 501. It is calculated by interpolation using two or more incident / exit angle characteristic (input / exit angle information) data in the vicinity of the incident / exit angle characteristic data. For the interpolation, for example, linear interpolation that is easy to calculate is used. The interpolation method is not limited to linear interpolation and is arbitrary. In the example shown in FIG. 14 and FIG. 15, there is one incident / exit angle characteristic data, and it is described assuming a single color (either RGB). The image reading apparatus 100 stores input / output angle characteristic data of each color of R / G / B for the image sensor 109 which is an RGB color sensor, and is input / output angles interpolated by an input / output angle characteristic interpolation unit 409 described later. Characteristic data is calculated.

次に、原稿読み取りを行った際、まず、エッジ検出を行う。エッジ検出についての詳細は後述する。原稿読み取り時に原稿浮きがない場合は、後述するエッジ検出によって図16に示したイメージセンサの結像位置(原稿浮きなし)であるB’の位置が求まる。そして、B’が求まると、メモリ(記憶部)501に記憶されているレンズ−センサ長(第1光路長)=Zより、後述する下記式(2)を用いて、出射角ωo(原稿浮きなし)が求まる。   Next, when the original is read, edge detection is first performed. Details of edge detection will be described later. If the document does not float when the document is read, the position B ′, which is the image formation position of the image sensor (no document lift) shown in FIG. When B ′ is obtained, the lens-sensor length (first optical path length) = Z stored in the memory (storage unit) 501 is used to calculate the exit angle ωo (document floating) using the following formula (2). None).

また、原稿読み取り時に原稿浮きがある場合でも下記式(2)を用いて求めることができる。例えば、エッジ検出によって、結像位置がb’(原稿浮きあり)であるとした場合、出射角θoは、θo=tan−1(b’/Z)により算出される。 Further, even when the original is lifted at the time of reading the original, it can be obtained by using the following formula (2). For example, when the imaging position is b ′ (with document lift) by edge detection, the emission angle θo is calculated by θo = tan −1 (b ′ / Z).

よって、原稿読み取り時に原稿浮きがある場合/ない場合、に関わらず、下記式(2)を用いて出射角が求まる。   Therefore, the exit angle can be obtained using the following equation (2) regardless of whether or not the document is lifted during document reading.

以下の説明では、結像位置(原稿浮きなし)であるB’、出射角ωoを用いて説明を行う。下記式(2)から出射角ωoが求まると、図15の補間された入出射角特性データから、原稿端部Dの入射角度ωiが求まる。レンズ−センサ長(第1光路長)=Zは予めメモリ(記憶部)501に記憶されているため、理想結像位置B(入射角=出射角の入出射角特性の場合の結像位置)を、後述する下記式(3)を用いて、求めることができる。   In the following description, the description will be made using B ′, which is the image forming position (no document lift), and the emission angle ωo. When the emission angle ωo is obtained from the following equation (2), the incident angle ωi of the document end D is obtained from the interpolated incident / exit angle characteristic data in FIG. Since lens-sensor length (first optical path length) = Z is stored in advance in the memory (storage unit) 501, the ideal image formation position B (incidence angle = image formation position in the case of the incident / exit angle characteristics of the output angle) Can be determined using the following equation (3).

これにより、実際に原稿を読取ってイメージセンサに結像された結像位置(原稿浮きなし)B’と、理想結像位置Bが得られる。得られたB’とBとの差であるB−B’が、ディストーションの画素ずれとして画像に現れるので、B−B’の差のずれを補正する。つまり、実際の結像位置(原稿浮きなし)B’を理想結像位置Bとなるように置き換える。なお、読み取り画像端部Dの理想結像位置Beは、後述する倍率補正で使用する。   As a result, an image formation position (no document lift) B ′ and an ideal image formation position B obtained by actually reading the original and forming an image on the image sensor are obtained. Since B-B ', which is the difference between B' and B obtained, appears in the image as a distortion pixel shift, the shift in the difference between B-B 'is corrected. That is, the actual image forming position (no document lift) B ′ is replaced with the ideal image forming position B. Note that the ideal imaging position Be of the read image end D is used in magnification correction described later.

また、その他の主走査方向の任意位置の結像位置においても、結像位置(原稿浮きなし)B’を理想結像位置Bとの差のずれ量をずらしていく(画素移動させる)ことで、主走査方向の任意位置でのディストーションを補正することができる。   Further, at other image forming positions in the main scanning direction, the image forming position (no document lift) B ′ is shifted (pixels moved) by shifting the difference amount from the ideal image forming position B. The distortion at an arbitrary position in the main scanning direction can be corrected.

上記の結像位置(原稿浮きなし)B’は、主走査方向の画素数分の距離だけ変化する為、下記式(2)、(3)を用いて算出される理想結像位置Bの値もB’の値に応じて変化する。よって、下記式(2)、(3)を用いることにより、原稿読み取り時に原稿浮きがある場合/ない場合、に関わらず、主走査方向すべての点でディストーションによるずれ量を補正することができる。なお、上記の主走査方向すべての点でディストーションによるずれ量の補正はR/G/Bの各色で行う。   Since the above-described image formation position (no document lift) B ′ changes by a distance corresponding to the number of pixels in the main scanning direction, the value of the ideal image formation position B calculated using the following equations (2) and (3) Also changes according to the value of B ′. Therefore, by using the following formulas (2) and (3), it is possible to correct the shift amount due to distortion at all points in the main scanning direction regardless of whether or not the document is lifted when reading the document. Note that the correction of the shift amount due to distortion is performed for each color of R / G / B at all points in the main scanning direction.

ただし、原稿読み取り時に原稿浮きがある場合には、上述したディストーション補正は行われているが、図12及び図13を用いて説明したように、主走査方向全体で画像が縮んでしまう。従って、本実施形態では原稿読み取り時に原稿浮きがある場合にも対応できるように、ディストーション補正後に倍率補正を行うようにする。   However, when the document is lifted when the document is read, the above-described distortion correction is performed, but as described with reference to FIGS. 12 and 13, the image is shrunk in the entire main scanning direction. Therefore, in this embodiment, the magnification correction is performed after the distortion correction so as to cope with the case where the document is lifted when the document is read.

倍率補正を行う際には、例えば、原稿読み取り時に原稿浮きがない場合の理想結像位置を把握する必要がある。そのため、図3を用いて説明した原稿サイズ検出部503によって得られた原稿サイズ情報(原稿の主走査方向の長さ)から、原稿中心Cからの距離Aが求まる。また、原稿−レンズ長(第2光路長)=Yは、予めメモリ(記憶部)501に記憶されているため、後述する下記式(4)、(5)を用いて、原稿読み取り時に原稿浮きがない場合の、原稿端部Dの理想結像位置であるBeを求めることができる。   When performing magnification correction, for example, it is necessary to grasp the ideal image formation position when there is no document floating when reading a document. Therefore, the distance A from the document center C is obtained from the document size information (length in the main scanning direction of the document) obtained by the document size detection unit 503 described with reference to FIG. Since the document-lens length (second optical path length) = Y is stored in advance in the memory (storage unit) 501, the document floats when the document is read using the following formulas (4) and (5). When there is no image, Be, which is the ideal image forming position of the document edge D, can be obtained.

下記式(4)、(5)から算出されたBeと、後述するエッジ検出を行って、下記式(3)を用いて算出された画像端部の理想結像位置Bとの比率から、後述する図22と同様にして倍率誤差を算出し、算出した倍率誤差データを用いて主走査方向の任意の位置の画素ずれ量を求めることができるため、倍率補正を行うことができる。なお、図16の例では、原稿読み取り時に原稿浮きがない場合は、Be=B、倍率誤差=0となるが、原稿浮きがある場合は、Be≠Bであるため倍率補正を行う必要がある。   From the ratio between Be calculated from the following formulas (4) and (5) and edge ideal detection position B calculated using the following formula (3) after performing edge detection described later, Since the magnification error is calculated in the same manner as in FIG. 22 and the pixel shift amount at an arbitrary position in the main scanning direction can be obtained using the calculated magnification error data, magnification correction can be performed. In the example of FIG. 16, Be = B and magnification error = 0 when the document does not float when the document is read. However, if there is document floating, Be ≠ B, and it is necessary to correct the magnification. .

なお、図16においては、原稿浮きがない場合の原稿読取位置とイメージセンサ面での結像位置を実線で示し、原稿浮きがある場合の原稿読取位置とメージセンサ面での結像位置を点線で示している。また、原稿浮きがない場合の原稿読取位置の入射角度をωi、出射角度をωoで示し、原稿浮きがある場合の原稿読取位置の入射角度をθi、出射角度をθoで示している。また、原稿浮きがない場合の原稿端部Dのイメージセンサ面での結像位置はBeで示している。以上の説明が、本実施形態における画像補正の概要である。   In FIG. 16, the original reading position and the image formation position on the image sensor surface when the original is not lifted are indicated by solid lines, and the original reading position and the image formation position on the image sensor surface when the original is lifted are indicated by dotted lines. Show. Further, the incident angle at the document reading position when there is no document floating is indicated by ωi, the emission angle is indicated by ωo, the incident angle at the document reading position when there is document floating is indicated by θi, and the emission angle is indicated by θo. Further, the image forming position on the image sensor surface of the document edge D when there is no document lift is indicated by Be. The above description is the outline of the image correction in the present embodiment.

図17は、画像補正部502の機能構成の一例を示すブロック図である。まず、図3を用いて説明したように、画像補正部502に入力されるデータとして、イメージセンサ109から入力されるデジタル画像データと、メモリ501から入力されるレンズユニット108の入出射角特性データ及び光路長データ(原稿−レンズ長データ、レンズ−センサ長データ)と、原稿サイズ検出部503から入力される原稿サイズデータと、同期信号生成部500から入力される画素同期信号及びライン同期信号がある。また、出力されるデータとして、補正部405で補正(ディストーション補正及び倍率誤差補正)された出力画像データが出力される。   FIG. 17 is a block diagram illustrating an example of a functional configuration of the image correction unit 502. First, as described with reference to FIG. 3, digital image data input from the image sensor 109 and input / output angle characteristic data of the lens unit 108 input from the memory 501 as data input to the image correction unit 502. And optical path length data (document-lens length data, lens-sensor length data), document size data input from the document size detection unit 503, and pixel synchronization signal and line synchronization signal input from the synchronization signal generation unit 500. is there. As output data, output image data corrected by the correction unit 405 (distortion correction and magnification error correction) is output.

画像補正部502は、画素位置検出部400と、エッジ検出部401と、出射角算出部402と、入射角出力部403と、理想画素位置算出部404と、補正部405と、入射角算出部406と、原稿端部画素位置算出部407と、倍率誤差算出部408と、入出射角特性補間部409とを有する。上記各部については、これらの一部又は全部がソフトウェア(プログラム)であってもよいし、ハードウェア回路であってもよい。また、上記各部のうちの一部が画像読取装置100に搭載される形態であってもよい。   The image correction unit 502 includes a pixel position detection unit 400, an edge detection unit 401, an emission angle calculation unit 402, an incident angle output unit 403, an ideal pixel position calculation unit 404, a correction unit 405, and an incident angle calculation unit. 406, a document edge pixel position calculation unit 407, a magnification error calculation unit 408, and an incident / exit angle characteristic interpolation unit 409. About each said part, all or some of these may be software (program), and may be a hardware circuit. Moreover, a form in which some of the above-described units are mounted on the image reading apparatus 100 may be employed.

最初に、画像補正部502に入力されたデジタル画像データは、画素位置検出部400、エッジ検出部401、補正部405へと入力される。   First, digital image data input to the image correction unit 502 is input to the pixel position detection unit 400, the edge detection unit 401, and the correction unit 405.

画素位置検出部400は、イメージセンサ109により読み取った1ラインの被写体の画像データの各画素の主走査方向の画素位置を検出する。画素位置検出部400は、内部のカウンタで、入力されたデジタル画素データの主走査方向の各画素データに対して画素同期信号よりカウントを行って、各画素の画素位置(イメージセンサ上の結像位置)データを出力する。なお、主走査方向の1ラインの各画素位置の読取りが終了すると、ライン同期信号に同期して、カウントの値をリセットすることで、主走査方向の1ラインの画素位置データを得ることができる。主走査方向の全ての画素位置データは、エッジ検出部401、及び補正部405へと出力される。また、主走査方向の全ての画素位置データは、エッジ検出部401を介して出射角算出部402へ出力される。   The pixel position detection unit 400 detects the pixel position in the main scanning direction of each pixel of one line of subject image data read by the image sensor 109. The pixel position detection unit 400 uses an internal counter to count each pixel data in the main scanning direction of the input digital pixel data based on the pixel synchronization signal, and to detect the pixel position of each pixel (image formation on the image sensor). Position) Output data. When the reading of each pixel position on one line in the main scanning direction is completed, the pixel position data on one line in the main scanning direction can be obtained by resetting the count value in synchronization with the line synchronization signal. . All pixel position data in the main scanning direction is output to the edge detection unit 401 and the correction unit 405. Further, all pixel position data in the main scanning direction is output to the emission angle calculation unit 402 via the edge detection unit 401.

エッジ検出部401は、画像データと、検出した各画素の主走査方向の画素位置データとを用いて、画像データの両端部画素の主走査方向の両端部画素位置(端部画素位置)を検出する。また、エッジ検出部401は、被写体の読み取り動作中に両端部画素位置(端部画素位置)を検出する。また、エッジ検出部401は、読み取った画像データの主走査方向の読み取り濃度レベルが、予め設定された、上限閾値と下限閾値と、の間にある画素位置を両端部画素位置(端部画素位置)として検出する。また、エッジ検出部401は、副走査方向の予め設定した複数ライン毎に、画像データの主走査方向の読み取り濃度レベルを平均した値を用いて両端部画素位置(端部画素位置)を検出する。また、エッジ検出部401は、画素位置検出部400から入力された画素位置データと画像データとから、後述するエッジ検出方法により、読み取った画像データの両端部画素位置(端部画素位置)を検出する。そして、検出した両端部画素位置データは、後段にある倍率誤差算出部408へ出力する両端部理想画素位置データの情報として用いる。また、両端部画素位置の間にある各画素の画素位置データは出射角算出部402へ出力される。   The edge detection unit 401 uses the image data and pixel position data in the main scanning direction of each detected pixel to detect both end pixel positions (end pixel positions) in the main scanning direction of both end pixels of the image data. To do. The edge detection unit 401 detects both end pixel positions (end pixel positions) during a subject reading operation. In addition, the edge detection unit 401 determines the pixel position between the upper limit threshold and the lower limit threshold in which the read density level of the read image data in the main scanning direction is set in advance as the both end pixel positions (end pixel positions). ) To detect. The edge detection unit 401 detects both end pixel positions (end pixel positions) using a value obtained by averaging the read density levels of the image data in the main scanning direction for each of a plurality of preset lines in the sub-scanning direction. . The edge detection unit 401 detects both end pixel positions (end pixel positions) of the read image data from the pixel position data and the image data input from the pixel position detection unit 400 by an edge detection method described later. To do. The detected both-end pixel position data is used as information on both-end ideal pixel position data to be output to the magnification error calculation unit 408 in the subsequent stage. Further, pixel position data of each pixel between both end pixel positions is output to the emission angle calculation unit 402.

ここで、図18〜図20を用いて、本実施形態のエッジ検出方法について説明する。図18〜図20は、原稿のエッジ検出について説明する図である。   Here, the edge detection method of this embodiment is demonstrated using FIGS. 18-20. 18 to 20 are diagrams for explaining edge detection of a document.

図14〜図16を用いて説明した画像補正(ディストーション補正)を行うためには、主走査方向の原稿幅を副走査1ライン毎に求めるためにエッジ検出を用いる。エッジ検出では、図18に示すように画像の主走査方向の読取レベルをモニタし、原稿のエッジ部分を検出する。原稿のエッジ部分には、原稿と背景部材の間に影が生じるため、影の変動レベルが検出できるよう、予め読取レベル閾値を設けておく。図18の例では、読取レベルが閾値以下になる原稿の最左端x1と、原稿の最右端x2の主走査方向の画素位置より、読み取り原稿の主走査方向の原稿幅を求めることができる。なお、読取レベル閾値の値は任意に設定することができる。   In order to perform the image correction (distortion correction) described with reference to FIGS. 14 to 16, edge detection is used to obtain the document width in the main scanning direction for each sub-scanning line. In edge detection, as shown in FIG. 18, the reading level of the image in the main scanning direction is monitored to detect the edge portion of the document. Since a shadow is generated between the document and the background member at the edge portion of the document, a reading level threshold is provided in advance so that the variation level of the shadow can be detected. In the example of FIG. 18, the document width in the main scanning direction of the read document can be obtained from the pixel position in the main scanning direction of the leftmost end x1 of the document whose reading level is equal to or less than the threshold and the rightmost end x2 of the document. Note that the value of the reading level threshold can be set arbitrarily.

ここで、例えば、ゴミが背景部材やコンタクトガラス上に付着している場合について説明する。例えば、図19に示すように原稿領域外の右端にゴミがある場合である。このときの読取レベルは、上記で予め設定した閾値以下になる。この場合、原稿の最右端x2は本来のエッジより右側に検出されてしまい、誤った原稿幅となってしまう。従って、誤検出を考慮したうえで、上限と下限の読取レベル閾値を予め設定しておくことで、下限閾値を下回る場合においてはエッジを検出させないことで、エッジ検出精度の向上を図ることができる。この際、読取レベル閾値上限と下限との間の画素で誤検出しないように、主走査方向の画素数にも閾値を設けておく必要がある。例えば、読取レベル閾値上限と下限との間に連続して画素がある場合には、原稿のエッジとみなすことが出来るので、例えば、主走査方向の画素数閾値を2画素以上とすることで、ゴミ部分を誤検出せずに原稿のエッジ検出を行うことができる。   Here, for example, a case where dust is attached to the background member or the contact glass will be described. For example, as shown in FIG. 19, there is a case where dust is present at the right end outside the document area. The reading level at this time is equal to or less than the threshold set in advance above. In this case, the rightmost end x2 of the document is detected on the right side of the original edge, resulting in an incorrect document width. Accordingly, in consideration of erroneous detection, by setting the upper and lower reading level threshold values in advance, the edge detection accuracy can be improved by not detecting an edge when the threshold value is lower than the lower limit threshold value. . At this time, it is necessary to provide a threshold for the number of pixels in the main scanning direction so as not to erroneously detect pixels between the upper limit and the lower limit of the reading level threshold. For example, if there are continuous pixels between the upper limit and the lower limit of the reading level threshold value, it can be regarded as an edge of the document. For example, by setting the threshold number of pixels in the main scanning direction to 2 pixels or more, Document edge detection can be performed without erroneously detecting a dust portion.

ただし、図20で示すように、例えば、原稿の読取レベルが低い原稿の場合は、原稿のエッジ部を跨ったあとも、読取レベル閾値の下限を下回ってしまい、上述のエッジ検出方法では対応できない。従って、上述したゴミを誤検出しない場合の主走査方向の画素数閾値にも上限を設けることによって読取レベルが低い原稿の場合でも対応することが可能となる。図18〜図20の例では、上記の読取レベル閾値下限以下で、かつ、主走査方向の画素数閾値2画素以上〜4画素未満となった場合に、閾値内ではゴミと判断して誤検出しない。また、主走査方向の画素数閾値範囲外であれば、原稿のエッジとみなすことで、例えば、図19の例のような原稿にも対応することが可能である。なお、上述した各閾値は任意に設定できる。   However, as shown in FIG. 20, for example, in the case of a document with a low document reading level, even after straddling the edge portion of the document, it falls below the lower limit of the reading level threshold, and the above-described edge detection method cannot cope. . Accordingly, by setting an upper limit on the threshold value of the number of pixels in the main scanning direction when the above-described dust is not erroneously detected, it is possible to cope with a document with a low reading level. In the examples of FIGS. 18 to 20, when the reading level threshold is lower than the lower limit and the pixel count threshold in the main scanning direction is 2 pixels or more and less than 4 pixels, it is determined as dust within the threshold and erroneously detected. do not do. Further, if it is outside the threshold range of the number of pixels in the main scanning direction, it is possible to deal with a document such as the example of FIG. In addition, each threshold value mentioned above can be set arbitrarily.

また、上記の説明では、主走査方向の1ライン毎にエッジ検出を行う前提で説明したが、これに限ることはなく、例えば、副走査方向の数ライン毎のブロックに分けて、エッジ検出を行ってもよい。なお、副走査方向の複数ライン毎のブロックに分けてエッジ検出をすることで、原稿全体の1スキャンの読取速度の向上や、上記の図18〜図20で説明したゴミ検知精度の向上を行うことができる。すなわち、例えば、図19の例で説明したゴミ検知では、閾値の上限下限の間にゴミの読取レベルが入っている場合には、検知できないことになるが、副走査方向の複数ライン毎のブロックで読取レベルを平均化することでゴミの影響を平滑化できることになる。   In the above description, the edge detection is performed for each line in the main scanning direction. However, the present invention is not limited to this. For example, the edge detection is performed by dividing the block into blocks of several lines in the sub scanning direction. You may go. Note that edge detection is performed by dividing into blocks for each of a plurality of lines in the sub-scanning direction, thereby improving the reading speed of one scan of the entire document and improving the dust detection accuracy described with reference to FIGS. be able to. That is, for example, in the dust detection described in the example of FIG. 19, if the dust reading level is between the upper and lower limits of the threshold, it cannot be detected, but the block for each of the plurality of lines in the sub-scanning direction Thus, the influence of dust can be smoothed by averaging the reading level.

図17に戻って説明を続ける。出射角算出部402は、画素位置検出部400から入力された画素位置データと、光路長データである、レンズユニット108とイメージセンサとの間の第1光路長データとを用いて、主走査方向の各画素の画素位置データに対する出射角データを下記式(2)により算出する。   Returning to FIG. 17, the description will be continued. The emission angle calculation unit 402 uses the pixel position data input from the pixel position detection unit 400 and the first optical path length data between the lens unit 108 and the image sensor, which is optical path length data, in the main scanning direction. The emission angle data for the pixel position data of each pixel is calculated by the following equation (2).

ωo=tan−1(B’/Z) ・・・ 式(2) ωo = tan −1 (B ′ / Z) (2)

上記式(2)で算出された主走査方向の各画素の画素位置データに対する出射角データは、後段の入射角出力部403へ出力される。   The emission angle data for the pixel position data of each pixel in the main scanning direction calculated by the above equation (2) is output to the incident angle output unit 403 at the subsequent stage.

入射角出力部403は、出射角算出部402から入力された出射角データを用いて、記憶部(メモリ)501に記憶された入出射角特性データを参照して、出射角データに対応する入射角データ(第1入射角データ)を特定する。なお、図15を用いて説明したように、記憶部501に出射角度データに対応する入出射角特性データ(入射角データ)がない場合、後述する入出射角特性補間部409により、記憶部501に記憶された、当該出射角度データ近傍の2以上の出射角度データを用いて線形補間により算出した入出射角特性データを参照して出射角データに対応する入射角データ(第1入射角データ)を特定する。入射角出力部403は、特定した入射角データ(第1入射角データ)を後段の理想画素位置算出部404へ出力する。   The incident angle output unit 403 refers to the incident / exit angle characteristic data stored in the storage unit (memory) 501 using the output angle data input from the output angle calculation unit 402, and corresponds to the incident angle data. Angle data (first incident angle data) is specified. As described with reference to FIG. 15, when there is no incident / exit angle characteristic data (incident angle data) corresponding to the emission angle data in the storage unit 501, the input / output angle characteristic interpolation unit 409, which will be described later, stores the storage unit 501. The incident angle data corresponding to the emission angle data (first incident angle data) with reference to the incident / exit angle characteristic data calculated by linear interpolation using two or more emission angle data in the vicinity of the emission angle data stored in Is identified. The incident angle output unit 403 outputs the specified incident angle data (first incident angle data) to the ideal pixel position calculation unit 404 at the subsequent stage.

理想画素位置算出部404は、入射角出力部403から入力された入射角データ(第1入射角データ)と、光路長データであるレンズユニット108とイメージセンサとの間の第1光路長を用いて、主走査方向の各画素の画素位置データに対応する理想画素位置データを下記式(3)により算出する。   The ideal pixel position calculation unit 404 uses the incident angle data (first incident angle data) input from the incident angle output unit 403 and the first optical path length between the lens unit 108 and the image sensor, which is optical path length data. Thus, ideal pixel position data corresponding to the pixel position data of each pixel in the main scanning direction is calculated by the following equation (3).

B=Z×tanωi ・・・ 式(3)   B = Z × tan ωi (3)

上記式(3)で算出された主走査方向の各画素の画素位置データに対応する理想画素位置データは、後段の補正部405へ出力される。ただし、画像データの両端部画素に対応する主走査方向の両端部理想画素位置データは、補正部405、及び倍率誤差算出部408へも出力される。   The ideal pixel position data corresponding to the pixel position data of each pixel in the main scanning direction calculated by the above equation (3) is output to the correction unit 405 at the subsequent stage. However, both-end ideal pixel position data in the main scanning direction corresponding to both-end pixels of the image data is also output to the correction unit 405 and the magnification error calculation unit 408.

補正部405は、両端部画素位置及び両端部画素位置の間にある各画素の主走査方向の画素位置と、光路長情報と、入出射角情報とを用いて、レンズ108の歪曲収差による画像データの光学歪み量を補正する。具体的には、補正部405は、両端部画素位置及び両端部画素位置の間にある各画素の主走査方向の画素位置と、第1光路長(レンズ108とイメージセンサとの間)とから算出される出射角度データを用いて、入出射角情報を参照して第1入射角度データを特定し、特定した第1入射角度データと第1光路長とから算出される理想画素位置と、両端部画素位置及び画素位置との画素ずれ量に基づいて、レンズ108の歪曲収差による画像データの光学歪み量を補正する。また、補正部405は、画素位置検出部400から入力された画素位置データと、それに対応する画素データを理想画素位置算出部404で算出された理想画素位置データに置き換える。これにより、ディストーション(歪曲収差)による画素ずれを補正する。   The correction unit 405 uses the pixel position in the main scanning direction of each pixel between the both end pixel positions and the both end pixel positions, the optical path length information, and the incident / exit angle information to generate an image due to distortion aberration of the lens 108. Correct the amount of optical distortion in the data. Specifically, the correcting unit 405 determines from the pixel position in the main scanning direction of each pixel between the both end pixel positions and the both end pixel positions and the first optical path length (between the lens 108 and the image sensor). Using the calculated emission angle data, the first incident angle data is identified by referring to the incident / exit angle information, the ideal pixel position calculated from the identified first incident angle data and the first optical path length, and both ends Based on the partial pixel position and the pixel shift amount from the pixel position, the optical distortion amount of the image data due to the distortion aberration of the lens 108 is corrected. The correction unit 405 replaces the pixel position data input from the pixel position detection unit 400 and the corresponding pixel data with the ideal pixel position data calculated by the ideal pixel position calculation unit 404. Thereby, pixel shift due to distortion (distortion aberration) is corrected.

補正部405は、被写体の主走査方向の長さと、第2光路長(被写体(原稿)とレンズユニット108との間)と、第1光路長(レンズ108とイメージセンサとの間)とを用いて、第2光路長の変動(原稿読み取り時の原稿浮き)による倍率誤差を補正する。具体的には、補正部405は、被写体の主走査方向の長さと第2光路長(被写体(原稿)とレンズユニット108との間)とから第2入射角度データを算出し、算出された第2入射角度データと第1光路長(レンズ108とイメージセンサとの間)とから算出される被写体端部画素位置と、前記両端部画素の前記理想画素位置との画素ずれ量に基づいて、第2光路長の変動(原稿読み取り時の原稿浮き)による倍率誤差を補正する。また、補正部405は、画素ずれを補正した画素位置に対して、後述する倍率誤差算出部408で算出された倍率誤差データを用いて、倍率補正を行う。このように、補正部405では、ディストーション(歪曲収差)による画素ずれの補正、及び原稿浮きによる倍率誤差の補正を行った後に出力画素データを出力する。なお、原稿浮きによる倍率補正の詳細については後述する。   The correction unit 405 uses the length of the subject in the main scanning direction, the second optical path length (between the subject (original) and the lens unit 108), and the first optical path length (between the lens 108 and the image sensor). Thus, the magnification error due to the variation in the second optical path length (document floating at the time of document reading) is corrected. Specifically, the correction unit 405 calculates the second incident angle data from the length of the subject in the main scanning direction and the second optical path length (between the subject (document) and the lens unit 108), and calculates the calculated first incident angle data. Based on the pixel shift amount between the subject end pixel position calculated from the two incident angle data and the first optical path length (between the lens 108 and the image sensor) and the ideal pixel position of the both end pixels, (2) A magnification error due to a change in optical path length (original floating at the time of original reading) is corrected. In addition, the correction unit 405 performs magnification correction on the pixel position where the pixel shift is corrected, using magnification error data calculated by a magnification error calculation unit 408 described later. As described above, the correction unit 405 outputs the output pixel data after correcting the pixel shift due to distortion (distortion aberration) and correcting the magnification error due to the document floating. The details of the magnification correction by document floating will be described later.

ここで、図21を用いて、補正部405における画素ずれの補正について説明する。図21は、画素ずれの補正のための画素移動について説明する図である。なお、図21のイメージセンサの主走査方向は、図16を用いて説明したイメージセンサを横向きに示し、主走査方向が横軸となるように示したものである。また、図16の例では、各画素の結像位置を原稿中心Cからの距離で示したが、図21では画素単位で示し、各画素の画素位置0〜nとして記載する。なお、図21の右側には光学中心の画素位置をCで示してある。   Here, correction of pixel shift in the correction unit 405 will be described with reference to FIG. FIG. 21 is a diagram illustrating pixel movement for correcting pixel shift. The main scanning direction of the image sensor in FIG. 21 is such that the image sensor described with reference to FIG. 16 is shown horizontally and the main scanning direction is the horizontal axis. In the example of FIG. 16, the image formation position of each pixel is indicated by the distance from the document center C. However, in FIG. Note that the pixel position at the optical center is indicated by C on the right side of FIG.

以下、補正部405における画素移動の流れについて説明する。最初に、(a)上述したエッジ検出を行って、原稿端部の読取画素位置がb’画素目であると仮定する。次に、(b)上記式(2)、(3)を用いて、(a)での原稿端部の読取画素位置b’に対応する理想画素位置がb画素目と算出される。次に、(c)原稿端部の読取画素位置b’画素目を、理想画素位置b画素目へ画素移動させる。これにより、画素位置のディストーションによるずれ量を補正する。次に、(d)原稿サイズ検出部503で得られた原稿サイズ情報から、上記式(4)、(5)を用いて、端部理想画素位置Bが算出される。次に、(e)上記式(6)、(7)、(8)を用いて、倍率誤差を算出し、再び、理想画素位置b画素目を、端部理想画素位置B画素目へ画素移動させる。これにより、倍率補正にも対応することができる。   Hereinafter, the flow of pixel movement in the correction unit 405 will be described. First, (a) the edge detection described above is performed, and it is assumed that the read pixel position of the document edge is the b'th pixel. Next, (b) using the above equations (2) and (3), the ideal pixel position corresponding to the read pixel position b 'at the document edge in (a) is calculated as the b-th pixel. Next, (c) the pixel position b ′ at the document edge is moved to the ideal pixel position b pixel. Thereby, the shift amount due to the distortion of the pixel position is corrected. Next, (d) the edge ideal pixel position B is calculated from the document size information obtained by the document size detection unit 503 using the above equations (4) and (5). Next, (e) the magnification error is calculated using the above formulas (6), (7), and (8), and the pixel shift is performed again from the ideal pixel position b pixel to the end ideal pixel position B pixel. Let Thereby, it can respond also to magnification correction.

その他の各画素の画素位置においても、ディストーション補正を行うため、(a)に再び戻り、b’+1画素目に関しても上記(a)〜(e)と同様の処理を行う。ただし、上記式(6)、(7)、(8)を用いて、倍率誤差の算出は、原稿端部のみで行うため、その他の各画素におけるディストーション補正については(d)の処理は不要である。上記で説明した流れで、ディストーション補正、及び倍率補正を行うようにする。ただし、図7及び図8で説明したように、原稿読み取り時の原稿浮きは、副走査方向で局所的に生じるため、副走査方向の1ライン毎にエッジ検出を行うようにする。   In order to perform distortion correction also at the pixel positions of other pixels, the process returns to (a) again, and the same processing as (a) to (e) is performed for the b ′ + 1 pixel. However, since the magnification error is calculated only at the document edge using the above formulas (6), (7), and (8), the processing of (d) is not necessary for distortion correction in other pixels. is there. In the flow described above, distortion correction and magnification correction are performed. However, as described with reference to FIGS. 7 and 8, since the document floating at the time of document reading occurs locally in the sub-scanning direction, edge detection is performed for each line in the sub-scanning direction.

図17に戻って説明を続ける。図3を用いて説明した原稿サイズ検出部503で得られた原稿サイズデータ(被写体の主走査方向の長さ)は、入射角算出部406へ入力される。   Returning to FIG. 17, the description will be continued. The document size data (the length of the subject in the main scanning direction) obtained by the document size detection unit 503 described with reference to FIG. 3 is input to the incident angle calculation unit 406.

入射角算出部406は、原稿サイズ検出部503から入力された原稿サイズデータ(被写体の主走査方向の長さ)と、光路長データである被写体(原稿)とレンズユニット108との間の第2光路長データとを用いて、原稿サイズデータ(被写体の主走査方向の長さ)に対応する入射角データ(第2入射角データ)を下記式(4)により算出する。   The incident angle calculation unit 406 includes document size data (the length of the subject in the main scanning direction) input from the document size detection unit 503, and the second between the subject (document) that is optical path length data and the lens unit 108. Using the optical path length data, incident angle data (second incident angle data) corresponding to the document size data (the length of the subject in the main scanning direction) is calculated by the following equation (4).

ωi=tan−1(A/Y) ・・・ 式(4) ωi = tan −1 (A / Y) (4)

上記式(4)で算出された原稿サイズデータ(被写体の主走査方向の長さ)に対応する入射角データ(第2入射角データ)は、後段の原稿端部画素位置算出部407へ出力される。   Incident angle data (second incident angle data) corresponding to the document size data (the length of the subject in the main scanning direction) calculated by the above equation (4) is output to the document edge pixel position calculation unit 407 in the subsequent stage. The

原稿(被写体)端部画素位置算出部407は、入射角算出部406から入力された入射角データ(第2入射角データ)と、レンズユニット108とイメージセンサとの間の第1光路長データとを用いて、被写体の主走査方向の原稿(被写体)端部画素位置データを下記式(5)により算出する。   The document (subject) end pixel position calculation unit 407 includes incident angle data (second incident angle data) input from the incident angle calculation unit 406, and first optical path length data between the lens unit 108 and the image sensor. Is used to calculate the document (subject) edge pixel position data in the main scanning direction of the subject by the following equation (5).

Be=Z×tanωi ・・・ 式(5)   Be = Z × tan ωi (5)

上記式(5)で算出された被写体の主走査方向の原稿(被写体)端部画素位置データは、後段の倍率誤差算出部408へ出力される。   The document (subject) end pixel position data in the main scanning direction of the subject calculated by the above equation (5) is output to the subsequent magnification error calculation unit 408.

倍率誤差算出部408は、原稿(被写体)端部画素位置算出部407から入力された原稿(被写体)端部画素位置データと、理想画素位置算出部404から入力された両端部理想画素位置データとを用いて、倍率誤差データ(画素ずれ量)を下記式(6)、(7)、(8)により算出する。   The magnification error calculation unit 408 includes document (subject) end pixel position data input from the document (subject) end pixel position calculation unit 407, and both end ideal pixel position data input from the ideal pixel position calculation unit 404. , Magnification error data (pixel shift amount) is calculated by the following formulas (6), (7), and (8).

X’=(C・X)×(倍率誤差[%]/100) ・・・ 式(6)
倍率誤差(左半面)[%]={(C−x1)−(C−x1’)}/(C−x1)×100[%] ・・・ 式(7)
倍率誤差(右半面)[%]={(C−x2)−(C−x2’)}/(C−x2)×100[%] ・・・ 式(8)
X ′ = (C · X) × (magnification error [%] / 100) (6)
Magnification error (left half) [%] = {(C−x1) − (C−x1 ′)} / (C−x1) × 100 [%] (7)
Magnification error (right half surface) [%] = {(C−x2) − (C−x2 ′)} / (C−x2) × 100 [%] (8)

上記式(6)〜(8)で算出された倍率誤差データは、補正部405へ出力される。   The magnification error data calculated by the above formulas (6) to (8) is output to the correction unit 405.

ここで、図22を用いて、補正部405における倍率補正について説明する。図22は、倍率補正について説明する図である。   Here, the magnification correction in the correction unit 405 will be described with reference to FIG. FIG. 22 is a diagram for explaining the magnification correction.

図10〜図13を用いて説明したように、原稿全体を読み取る1スキャン内で局所的な原稿浮きがある場合には倍率誤差が生じる。図22の例では、副走査方向の真ん中辺りに原稿浮きがある場合を示している。本実施形態の倍率補正では、まず、図18〜図20を用いて説明したように、原稿の両端部のエッジ検出を行う。エッジ検出は、主走査方向の読取レベル(濃度レベル)の分布の副走査方向の平均を求め、例えば、主走査方向の一番左、及び一番右で読取レベル(濃度レベル)が所定の閾値を超えたところをエッジ(両端部)とする。図22の例では、x1とx2がそれぞれ左右のエッジ部分であることを示している。このように、主走査方向の1ライン毎にエッジ検出を行って、原稿浮きにより倍率が変わっている箇所は、図22の例では、原稿中心Cから左半面は端部x1’がx1となるように拡大し、原稿中心Cから右半面は端部x2’がx2となるように拡大することで倍率補正を行う。   As described with reference to FIGS. 10 to 13, a magnification error occurs when there is local document floating within one scan for reading the entire document. In the example of FIG. 22, there is shown a case where there is a document floating around the middle in the sub-scanning direction. In the magnification correction according to this embodiment, first, as described with reference to FIGS. In edge detection, the average of the distribution of the reading level (density level) in the main scanning direction is obtained in the sub-scanning direction. For example, the reading level (density level) is a predetermined threshold at the leftmost and rightmost in the main scanning direction The point beyond (2) is the edge (both ends). In the example of FIG. 22, x1 and x2 indicate left and right edge portions, respectively. As described above, the edge detection is performed for each line in the main scanning direction and the magnification is changed due to the floating of the original, in the example of FIG. 22, the left half from the original center C has the end x1 ′ as x1. The magnification is corrected by enlarging the right half from the document center C so that the end x2 ′ is x2.

原稿浮きによる画素ずれ量をX’、主走査方向の画素位置をX、光学中心の画素位置をCとした場合、画素ずれ量をX’は上記式(6)で表される。よって、X画素位置にX+X’画素位置の画素を移動させることで倍率補正を行うことになる。   When the pixel shift amount due to the document floating is X ′, the pixel position in the main scanning direction is X, and the pixel position of the optical center is C, the pixel shift amount X ′ is expressed by the above equation (6). Therefore, magnification correction is performed by moving the pixel at the X + X ′ pixel position to the X pixel position.

また、上記式(6)の倍率誤差は、上記のエッジ検出により求めることができ、例えば図22において、原稿浮きがない場合のエッジ位置(両端部)をx1、x2、及び、原稿浮きが生じている場合のエッジ位置(両端部)をx1’、x2’とした場合、原稿中心Cから左半面と右半面の倍率誤差は上記式(7)、(8)で表される。図22の例では、画像左半面の倍率誤差を上記式(7)で算出し、画像右半面の倍率誤差を上記式(8)で算出して、得られた倍率誤差データを用いて倍率補正を行う。さらに、主走査方向の1ライン毎に両端部のエッジ検出を行うことで、原稿全体を読み取る1スキャン内で局所的に原稿浮きが生じている場合でも、副走査方向全域で倍率補正を行うことが可能である。   Further, the magnification error of the above equation (6) can be obtained by the above-described edge detection. For example, in FIG. 22, the edge positions (both ends) when there is no document lift are x1, x2, and document lift occurs. When the edge positions (both ends) are x1 ′ and x2 ′, the magnification error between the left half surface and the right half surface from the document center C is expressed by the above equations (7) and (8). In the example of FIG. 22, the magnification error of the left half of the image is calculated by the above equation (7), the magnification error of the right half of the image is calculated by the above equation (8), and the magnification correction is performed using the obtained magnification error data. I do. Furthermore, by performing edge detection at both ends for each line in the main scanning direction, magnification correction is performed in the entire sub-scanning direction even when the original is lifted locally within one scan for reading the entire original. Is possible.

図17に戻って説明を続ける。入出射角特性補間部409は、予め記憶部501に記憶した所定の入射角度データに対する出射角度データの入出射角特性(入出射角情報)データ10点以外の任意の入出射角特性(入出射角情報)データについて、記憶部501に記憶された、当該入出射角特性(入出射角情報)データの近傍の2以上の入出射角情報(入出射角情報)データを用いて補間により算出する。入出射角特性補間部409は、記憶部501に出射角度データに対応する入出射角情報(入出射角特性データ)がない場合、記憶部501に記憶された、当該出射角度データ近傍の2以上の出射角度データを用いて補間により入出射角度情報(入出射角特性データ)を算出する。補間には、例えば演算が容易な線形補間が用いられる。また、入出射角特性補間部409は、記憶部501に記憶されていない入出射角情報(入出射角特性データ)を、記憶部501に記憶された、当該入出射角情報(入出射角特性データ)の近傍の2以上の入出射角情報(入出射角特性データ)を用いて線形補間により算出する。なお、補間方法は線形補間に限ることはなく任意である。なお、「入出射角特性補間部」は、請求項の「補間部」に対応する。   Returning to FIG. 17, the description will be continued. The incident / exit angle characteristic interpolating unit 409 is an arbitrary incident / exit angle characteristic (input / exit angle) other than 10 points of incident / exit angle characteristic (incident / exit angle information) data of the emission angle data with respect to predetermined incident angle data stored in the storage unit 501 in advance. (Angle information) data is calculated by interpolation using two or more incident / exit angle information (input / exit angle information) data in the vicinity of the incident / exit angle characteristic (incident / exit angle information) data stored in the storage unit 501. . When the storage unit 501 does not have the incident / exit angle information (incident / exit angle characteristic data) corresponding to the emission angle data, the incident / exit angle characteristic interpolation unit 409 stores two or more near the emission angle data stored in the storage unit 501. The incident / exit angle information (incident / exit angle characteristic data) is calculated by interpolation using the output angle data. For the interpolation, for example, linear interpolation that is easy to calculate is used. Further, the incident / exit angle characteristic interpolation unit 409 receives the incident / exit angle information (incident / exit angle characteristic data) not stored in the storage unit 501 and stores the incident / exit angle information (input / output angle characteristic) stored in the storage unit 501. It is calculated by linear interpolation using two or more incident / exit angle information (incident / exit angle characteristic data) in the vicinity of (data). The interpolation method is not limited to linear interpolation and is arbitrary. The “incident / exit angle characteristic interpolation unit” corresponds to the “interpolation unit” in the claims.

次に、図23を用いて、本実施形態の画像読取装置100の処理動作の一例について説明する。図23は、本実施形態の画像読取装置の処理動作の一例について説明するフローチャート図である。   Next, an example of the processing operation of the image reading apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 23 is a flowchart for explaining an example of the processing operation of the image reading apparatus according to the present embodiment.

最初に、画像読取装置100は、予め被写体(原稿)からイメージセンサ109までの間の光路長情報(レンズユニット108とイメージセンサとの間の第1光路長データ、被写体(原稿)とレンズユニット108との間の第2光路長データ)と、レンズ108に入射する反射光の入射角度データと、レンズ108から出射する出射角度データとが対応付いた入出射角情報(入出射角特性データ)とを記憶する(ステップS1)。次に、画像読取装置100は、光源102からの照射光によって被写体(読取対象)である原稿を照明し、その原稿からの反射光を光電変換するCMOSのイメージセンサ109で受光した信号に処理を行い、原稿の画像データを読み取る(ステップS2)。   First, the image reading apparatus 100 preliminarily includes optical path length information from the subject (document) to the image sensor 109 (first optical path length data between the lens unit 108 and the image sensor, subject (document) and the lens unit 108. Second incident optical path length data), incident angle data of reflected light incident on the lens 108, and incident angle data (entrance / exit angle characteristic data) associated with the emission angle data emitted from the lens 108; Is stored (step S1). Next, the image reading apparatus 100 illuminates a document that is a subject (reading target) with irradiation light from the light source 102, and processes a signal received by a CMOS image sensor 109 that photoelectrically converts reflected light from the document. The document image data is read (step S2).

次に、画像読取装置100は、イメージセンサ109により読み取った1ラインの被写体(原稿)の画像データの各画素の主走査方向の画素位置を検出する(ステップS3)。次に、画像読取装置100は、画像データと記画像データの各画素の主走査方向の画素位置データとを用いて、画像データの両端部画素の主走査方向の両端部画素位置(エッジ)を検出する(ステップS4)。次に、画像読取装置100は、両端部画素位置及び両端部画素位置の間にある各画素の主走査方向の画素位置と、光路長情報と、入出射角情報とを用いて、レンズ108の歪曲収差による画像データの光学歪み量を補正(ディストーション補正)する(ステップS5)。   Next, the image reading apparatus 100 detects the pixel position in the main scanning direction of each pixel of the image data of one line of the subject (original) read by the image sensor 109 (step S3). Next, the image reading apparatus 100 uses the image data and pixel position data in the main scanning direction of each pixel of the image data to determine both end pixel positions (edges) in the main scanning direction of both end pixels of the image data. It detects (step S4). Next, the image reading apparatus 100 uses the pixel position in the main scanning direction of each pixel between the both end pixel positions and the both end pixel positions, the optical path length information, and the incident / exit angle information. The amount of optical distortion of the image data due to distortion is corrected (distortion correction) (step S5).

次に、画像読取装置100は、被写体(原稿)の主走査方向の長さと、被写体(原稿)とレンズ108との間の第2光路長と、レンズ108とイメージセンサ109との間の第1光路長とを用いて、第2光路長の変動(原稿読み取り時の原稿浮き)による倍率誤差を補正する(ステップS6)。次に、画像読取装置100は、ディストーション(歪曲収差)による画素ずれの補正、及び原稿浮きによる倍率誤差の補正を行った後の出力画素データを出力(ステップS7)して処理を終了する。   Next, the image reading apparatus 100 includes the length of the subject (original) in the main scanning direction, the second optical path length between the subject (original) and the lens 108, and the first between the lens 108 and the image sensor 109. Using the optical path length, the magnification error due to the fluctuation of the second optical path length (original floating at the time of original reading) is corrected (step S6). Next, the image reading apparatus 100 outputs the output pixel data after correcting the pixel shift due to distortion (distortion aberration) and correcting the magnification error due to the document floating (step S7), and ends the process.

以上、説明したように、本実施形態の画像読取装置100によれば、被写体の読取り距離が変化しても、画像データを適切に補正することができる、という有利な効果を達成できる。   As described above, according to the image reading apparatus 100 of the present embodiment, it is possible to achieve the advantageous effect that the image data can be appropriately corrected even if the reading distance of the subject changes.

以上、本発明に係る実施形態について説明したが、本発明は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Although the embodiments according to the present invention have been described above, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

また、上述した実施形態の画像読取装置100で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでフロッピー(登録商標)ディスク、CD(Compact Disk)、CD−R(Compact Disk−Recordable)、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disk)、SDメモリカード(SD memory card)、USBメモリ(Universal Serial Bus memory)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   The program executed by the image reading apparatus 100 of the above-described embodiment is a file in an installable format or an executable format, and is a floppy (registered trademark) disk, a CD (Compact Disk), a CD-R (Compact Disk- (Recordable), CD-ROM (Compact Disc Read Only Memory), DVD (Digital Versatile Disk), SD memory card (SD memory card), USB memory (Universal Serial Bus memory), etc. It may be configured to be provided, or may be configured to be provided or distributed via a network such as the Internet. Various programs may be provided by being incorporated in advance in a ROM or the like.

100 画像読取装置
101 コンタクトガラス
102 光源
103 第1反射ミラー
104 第2反射ミラー
105 第3反射ミラー
106 第1キャリッジ
107 第2キャリッジ
108 レンズユニット(レンズ)
109 イメージセンサ
110 基準白板(白基準板)
111 スリット
112 ガイド部材
200 ADF
201 原稿トレイ
202 給送ローラ
300 画像形成装置
303 給紙部
304 画像形成装置本体(画像形成部)
305 作像部
306 現像器
307 搬送路
308 レジストローラ
309 光書き込み装置
310 定着搬送部
311 両面トレイ
312 感光体ドラム
313 中間転写ベルト
400 画素位置検出部
401 エッジ検出部
402 出射角算出部
403 入射角出力部
404 理想画素位置算出部
405 補正部
406 入射角算出部
407 原稿端部画素位置算出部
408 倍率誤差算出部
409 入出射角特性補間部
500 同期信号生成部
501 メモリ(記憶部)
502 画像補正部
503 原稿サイズ検出部
DESCRIPTION OF SYMBOLS 100 Image reader 101 Contact glass 102 Light source 103 1st reflective mirror 104 2nd reflective mirror 105 3rd reflective mirror 106 1st carriage 107 2nd carriage 108 Lens unit (lens)
109 Image sensor 110 Reference white plate (white reference plate)
111 Slit 112 Guide member 200 ADF
201 Document tray 202 Feed roller 300 Image forming apparatus 303 Paper feed unit 304 Image forming apparatus main body (image forming unit)
305 Image forming unit 306 Developing unit 307 Conveying path 308 Registration roller 309 Optical writing device 310 Fixing and conveying unit 311 Duplex tray 312 Photosensitive drum 313 Intermediate transfer belt 400 Pixel position detecting unit 401 Edge detecting unit 402 Emission angle calculating unit 403 Incident angle output Unit 404 ideal pixel position calculation unit 405 correction unit 406 incident angle calculation unit 407 document edge pixel position calculation unit 408 magnification error calculation unit 409 input / output angle characteristic interpolation unit 500 synchronization signal generation unit 501 memory (storage unit)
502 Image correction unit 503 Document size detection unit

特開平10−289302号公報JP-A-10-289302

Claims (13)

レンズを介して被写体からの反射光を光電変換して前記被写体の画像データを読み取るイメージセンサと、
前記被写体から前記イメージセンサまでの間の光路長情報と、前記レンズに入射する前記反射光の入射角度データと前記レンズから出射する出射角度データとが対応付いた入出射角情報と、を予め記憶する記憶部と、
前記イメージセンサにより読み取った1ラインの前記被写体の画像データの各画素の主走査方向の画素位置を検出する画素位置検出部と、
前記画像データと、検出した前記各画素の画素位置データとを用いて、前記画像データの両端部画素の主走査方向の両端部画素位置を検出するエッジ検出部と、
前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の前記画素位置と、前記光路長情報と、前記入出射角情報とを用いて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する補正部と、
を備え
前記光路長情報は、前記レンズと前記イメージセンサとの間の第1光路長であり、
前記補正部は、前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の主走査方向の画素位置と、前記第1光路長とから算出される出射角度データを用いて、前記入出射角情報を参照して第1入射角度データを特定し、特定した前記第1入射角度データと前記第1光路長とから算出される理想画素位置と、前記両端部画素位置及び前記画素位置との画素ずれ量に基づいて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する、
ことを特徴とする画像読取装置。
An image sensor that photoelectrically converts reflected light from a subject through a lens and reads image data of the subject;
Optical path length information from the subject to the image sensor, and incident / emission angle information in which incident angle data of the reflected light incident on the lens and emission angle data emitted from the lens correspond to each other are stored in advance. A storage unit to
A pixel position detection unit that detects a pixel position in the main scanning direction of each pixel of the image data of the subject of one line read by the image sensor;
Using the image data and the detected pixel position data of each pixel, an edge detection unit that detects pixel positions in both ends of the image data in the main scanning direction;
Using the pixel position of each pixel between the both-end pixel positions and the both-end pixel positions, the optical path length information, and the incident / exit angle information, the image data of the lens due to distortion aberration of the lens is used. A correction unit for correcting the amount of optical distortion;
Equipped with a,
The optical path length information is a first optical path length between the lens and the image sensor,
The correction unit uses the emission angle data calculated from the pixel position in the main scanning direction of each pixel between the both-end pixel positions and the both-end pixel positions and the first optical path length. The first incident angle data is identified with reference to the written exit angle information, the ideal pixel position calculated from the identified first incident angle data and the first optical path length, the both end pixel positions, and the pixel positions Correcting the amount of optical distortion of the image data due to the distortion of the lens based on the amount of pixel deviation with
An image reading apparatus.
レンズを介して被写体からの反射光を光電変換して前記被写体の画像データを読み取るイメージセンサと、An image sensor that photoelectrically converts reflected light from a subject through a lens and reads image data of the subject;
前記被写体から前記イメージセンサまでの間の光路長情報と、前記レンズに入射する前記反射光の入射角度データと前記レンズから出射する出射角度データとが対応付いた入出射角情報と、を予め記憶する記憶部と、Optical path length information from the subject to the image sensor, and incident / emission angle information in which incident angle data of the reflected light incident on the lens and emission angle data emitted from the lens correspond to each other are stored in advance. A storage unit to
前記イメージセンサにより読み取った1ラインの前記被写体の画像データの各画素の主走査方向の画素位置を検出する画素位置検出部と、A pixel position detection unit that detects a pixel position in the main scanning direction of each pixel of the image data of the subject of one line read by the image sensor;
前記画像データと、検出した前記各画素の画素位置データとを用いて、前記画像データの両端部画素の主走査方向の両端部画素位置を検出するエッジ検出部と、Using the image data and the detected pixel position data of each pixel, an edge detection unit that detects pixel positions in both ends of the image data in the main scanning direction;
前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の前記画素位置と、前記光路長情報と、前記入出射角情報とを用いて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する補正部と、Using the pixel position of each pixel between the both end pixel positions and the both end pixel positions, the optical path length information, and the incident / exit angle information, the image data of the image data due to distortion aberration of the lens A correction unit for correcting the amount of optical distortion;
読み取る前記被写体の主走査方向の長さを検出する被写体サイズ検出部と、A subject size detector for detecting the length of the subject to be read in the main scanning direction;
を備え、With
前記光路長情報は、前記レンズと前記イメージセンサとの間の第1光路長と、前記被写体と前記レンズとの間の第2光路長と、であり、The optical path length information is a first optical path length between the lens and the image sensor, and a second optical path length between the subject and the lens,
前記補正部は、前記被写体の主走査方向の長さと、前記第2光路長と、前記第1光路長とを用いて、第2光路長の変動による倍率誤差を補正する、The correction unit corrects a magnification error due to a variation in the second optical path length using the length of the subject in the main scanning direction, the second optical path length, and the first optical path length;
ことを特徴とする画像読取装置。An image reading apparatus.
前記記憶部に前記出射角度データに対応する前記入出射角情報がない場合、前記記憶部に記憶された2以上の出射角度データを用いた線形補間により当該出射角度データに対応する前記入出射角情報を算出する補間部をさらに備える、
ことを特徴とする請求項1に記載の画像読取装置。
If there is no previous entry exit angle information corresponding to the emission angle data in the storage unit, enter exit angle before that corresponds to the emission angle data by linear interpolation using two or more emission angle data stored in the storage unit further comprising an interpolation unit for calculating the information,
The image reading apparatus according to claim 1.
読み取る前記被写体の主走査方向の長さを検出する被写体サイズ検出部をさらに備え、
前記光路長情報は、前記被写体と前記レンズとの間の第2光路長であり、
前記補正部は、前記被写体の主走査方向の長さと、前記第2光路長と、前記第1光路長とを用いて、第2光路長の変動による倍率誤差を補正する、
ことを特徴とする請求項に記載の画像読取装置。
A subject size detector that detects the length of the subject to be read in the main scanning direction;
The optical path length information is a second optical path length between the subject and the lens,
The correction unit corrects a magnification error due to a variation in the second optical path length using the length of the subject in the main scanning direction, the second optical path length, and the first optical path length;
The image reading apparatus according to claim 1 .
前記補正部は、前記被写体の主走査方向の長さと前記第2光路長とから第2入射角度データを算出し、算出された前記第2入射角度データと前記第1光路長とから算出される被写体端部画素位置と、前記各画素の画素位置と前記第1光路長とから算出される出射角度データを用いて特定した第1入射角度データと前記第1光路長とから算出される前記両端部画素の理想画素位置との画素ずれ量に基づいて、前記第2光路長の変動による倍率誤差を補正する、
ことを特徴とする請求項2または4に記載の画像読取装置。
The correction unit calculates second incident angle data from the length of the subject in the main scanning direction and the second optical path length, and calculates from the calculated second incident angle data and the first optical path length. The both ends calculated from the first incident angle data and the first optical path length specified using the emission angle data calculated from the subject end pixel position, the pixel position of each pixel and the first optical path length parts based on the pixel shift amount of the ideal pixel position of the pixel to correct the magnification error due to variations in the second optical path length,
The image reading apparatus according to claim 2 , wherein the image reading apparatus is an image reading apparatus.
前記補間部は、前記記憶部に記憶されていない入出射角情報を、前記記憶部に記憶された2以上の入出射角情報を用いて線形補間により算出する、
ことを特徴とする請求項3に記載の画像読取装置。
The interpolation unit calculates incident / exit angle information not stored in the storage unit by linear interpolation using two or more input / output angle information stored in the storage unit,
The image reading apparatus according to claim 3.
前記記憶部は、前記レンズに対して、予め設定された入射角度データと出射角度データとが対応付いた、複数の入出射角情報を予め記憶する、
ことを特徴とする請求項1または2に記載の画像読取装置。
The storage unit stores in advance a plurality of pieces of incident / exit angle information in which incident angle data and exit angle data set in advance are associated with the lens.
The image reading apparatus according to claim 1 or 2, characterized in that.
前記エッジ検出部は、前記被写体の読み取り動作中に前記両端部画素位置を検出する、
ことを特徴とする請求項1または2に記載の画像読取装置。
The edge detection unit detects the pixel positions on both ends during the reading operation of the subject;
The image reading apparatus according to claim 1 or 2, characterized in that.
前記エッジ検出部は、読み取った前記画像データの主走査方向の読み取り濃度レベルが、予め設定された、上限閾値と下限閾値と、の間にある画素位置を前記両端部画素位置として検出する、
ことを特徴とする請求項1または2に記載の画像読取装置。
The edge detection unit detects a pixel position between a predetermined upper limit threshold and a lower limit threshold as a reading pixel level in the main scanning direction of the read image data as the both end pixel positions;
The image reading apparatus according to claim 1 or 2, characterized in that.
前記エッジ検出部は、副走査方向の予め設定した複数ライン毎に、前記画像データの主走査方向の読み取り濃度レベルを平均した値を用いて前記両端部画素位置を検出する、
ことを特徴とする請求項9に記載の画像読取装置。
The edge detection unit detects the pixel positions at both ends using a value obtained by averaging the read density levels in the main scanning direction of the image data for each of a plurality of preset lines in the sub-scanning direction.
The image reading apparatus according to claim 9.
請求項1から10の何れか1項に記載の画像読取装置を備える、ことを特徴とする画像形成装置。   An image forming apparatus comprising the image reading apparatus according to claim 1. レンズを介して被写体からの反射光を光電変換するイメージセンサと、前記被写体から前記イメージセンサまでの間の光路長情報と、前記レンズに入射する前記反射光の入射角度データと前記レンズから出射する出射角度データとが対応付いた入出射角情報とを記憶する記憶部と、を備える画像読取装置の画像読取方法であって、
前記イメージセンサにより読み取った1ラインの前記被写体の画像データの各画素の主走査方向の画素位置を検出する画素位置検出ステップと、
前記画像データと、検出した前記各画素の画素位置データとを用いて、前記画像データの両端部画素の主走査方向の両端部画素位置を検出するエッジ検出ステップと、
前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の前記画素位置と、前記光路長情報と、前記入出射角情報とを用いて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する補正ステップと、を含
前記光路長情報は、前記レンズと前記イメージセンサとの間の第1光路長であり、
前記補正ステップは、前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の主走査方向の画素位置と、前記第1光路長とから算出される出射角度データを用いて、前記入出射角情報を参照して第1入射角度データを特定し、特定した前記第1入射角度データと前記第1光路長とから算出される理想画素位置と、前記両端部画素位置及び前記画素位置との画素ずれ量に基づいて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する、
ことを特徴とする画像読取方法。
An image sensor that photoelectrically converts reflected light from a subject through a lens, optical path length information from the subject to the image sensor, incident angle data of the reflected light that is incident on the lens, and emitted from the lens An image reading method of an image reading apparatus comprising: a storage unit that stores incident / exit angle information associated with emission angle data,
A pixel position detecting step of detecting a pixel position in the main scanning direction of each pixel of the image data of the subject of one line read by the image sensor;
An edge detection step of detecting both end pixel positions in the main scanning direction of both end pixels of the image data using the image data and pixel position data of the detected pixels.
Using the pixel position of each pixel between the both-end pixel positions and the both-end pixel positions, the optical path length information, and the incident / exit angle information, the image data of the lens due to distortion aberration of the lens is used. and a correction step of correcting the optical distortion amount, only including,
The optical path length information is a first optical path length between the lens and the image sensor,
The correction step uses the emission angle data calculated from the pixel position in the main scanning direction of each pixel between the both end pixel positions and the both end pixel positions, and the first optical path length. The first incident angle data is identified with reference to the written exit angle information, the ideal pixel position calculated from the identified first incident angle data and the first optical path length, the both end pixel positions, and the pixel positions Correcting the amount of optical distortion of the image data due to the distortion of the lens based on the amount of pixel deviation with
An image reading method.
レンズを介して被写体からの反射光を光電変換するイメージセンサと、前記被写体から前記イメージセンサまでの間の光路長情報と、前記レンズに入射する前記反射光の入射角度データと前記レンズから出射する出射角度データとが対応付いた入出射角情報とを記憶する記憶部と、を備える画像読取装置の画像読取方法であって、An image sensor that photoelectrically converts reflected light from a subject through a lens, optical path length information from the subject to the image sensor, incident angle data of the reflected light that is incident on the lens, and emitted from the lens An image reading method of an image reading apparatus comprising: a storage unit that stores incident / exit angle information associated with emission angle data,
前記イメージセンサにより読み取った1ラインの前記被写体の画像データの各画素の主走査方向の画素位置を検出する画素位置検出ステップと、A pixel position detecting step of detecting a pixel position in the main scanning direction of each pixel of the image data of the subject of one line read by the image sensor;
前記画像データと、検出した前記各画素の画素位置データとを用いて、前記画像データの両端部画素の主走査方向の両端部画素位置を検出するエッジ検出ステップと、An edge detection step of detecting both end pixel positions in the main scanning direction of both end pixels of the image data using the image data and pixel position data of the detected pixels.
前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の前記画素位置と、前記光路長情報と、前記入出射角情報とを用いて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する補正ステップと、Using the pixel position of each pixel between the both end pixel positions and the both end pixel positions, the optical path length information, and the incident / exit angle information, the image data of the image data due to distortion aberration of the lens A correction step for correcting the amount of optical distortion;
読み取る前記被写体の主走査方向の長さを検出する被写体サイズ検出ステップと、を含み、A subject size detection step of detecting a length of the subject to be read in the main scanning direction,
前記光路長情報は、前記レンズと前記イメージセンサとの間の第1光路長と、前記被写体と前記レンズとの間の第2光路長と、であり、The optical path length information is a first optical path length between the lens and the image sensor, and a second optical path length between the subject and the lens,
前記補正部は、前記被写体の主走査方向の長さと、前記第2光路長と、前記第1光路長とを用いて、第2光路長の変動による倍率誤差を補正する、The correction unit corrects a magnification error due to a variation in the second optical path length using the length of the subject in the main scanning direction, the second optical path length, and the first optical path length;
ことを特徴とする画像読取方法。An image reading method.
JP2014227538A 2014-11-07 2014-11-07 Image reading apparatus, image forming apparatus, and image reading method Active JP6439395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014227538A JP6439395B2 (en) 2014-11-07 2014-11-07 Image reading apparatus, image forming apparatus, and image reading method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014227538A JP6439395B2 (en) 2014-11-07 2014-11-07 Image reading apparatus, image forming apparatus, and image reading method

Publications (2)

Publication Number Publication Date
JP2016092697A JP2016092697A (en) 2016-05-23
JP6439395B2 true JP6439395B2 (en) 2018-12-19

Family

ID=56019082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014227538A Active JP6439395B2 (en) 2014-11-07 2014-11-07 Image reading apparatus, image forming apparatus, and image reading method

Country Status (1)

Country Link
JP (1) JP6439395B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022143027A (en) * 2021-03-17 2022-10-03 株式会社リコー Image reading device, image forming apparatus, and image reading method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09224129A (en) * 1996-02-16 1997-08-26 Nec Corp Image input device
JPH10177331A (en) * 1996-12-18 1998-06-30 Ricoh Co Ltd Original position detecting device
JP2000004349A (en) * 1998-06-16 2000-01-07 Fuji Photo Film Co Ltd Image processor
JP3618056B2 (en) * 1999-02-23 2005-02-09 理想科学工業株式会社 Image processing device
JP2003189169A (en) * 2001-09-27 2003-07-04 Fuji Photo Film Co Ltd Image processing apparatus
JP5458570B2 (en) * 2008-12-25 2014-04-02 株式会社ニコン Optical device, optical device manufacturing method, optical device adjustment method, and imaging device

Also Published As

Publication number Publication date
JP2016092697A (en) 2016-05-23

Similar Documents

Publication Publication Date Title
JP6822096B2 (en) Photoelectric conversion device, photoelectric conversion method and image forming device
JP7131415B2 (en) TILT DETECTION DEVICE, READING DEVICE, IMAGE PROCESSING DEVICE, AND TILT DETECTION METHOD
US11546535B2 (en) Abnormal-pixel detecting device, image forming apparatus, and method of detecting abnormal pixel
US11115561B2 (en) Inclination detecting device, reading device, image processing apparatus, and method of detecting inclination
JP7211238B2 (en) Edge detection device, tilt correction device, reading device, image processing device, and edge detection method
JP5652063B2 (en) Image reading apparatus, image forming apparatus, and shading correction method
JP5481436B2 (en) Image reading apparatus and image forming apparatus
JP4609289B2 (en) Image reading apparatus and image forming apparatus
JP5481435B2 (en) Image reading apparatus and image forming apparatus
JP6439395B2 (en) Image reading apparatus, image forming apparatus, and image reading method
US20130063795A1 (en) Image reading apparatus and foreign matter detection method
JP4591532B2 (en) Image reading apparatus and image reading method
JP7383923B2 (en) Reading device, image forming device and correction method
JP7181047B2 (en) Document reading device and image forming device provided with the same
JP4364076B2 (en) Image reading apparatus and image forming apparatus
JP2006311293A (en) Image processor
JP4849144B2 (en) Image reading apparatus and streak noise correction method
JP6848421B2 (en) Photoelectric conversion device, photoelectric conversion method and image forming device
JP2011259430A (en) Image reader and image reading abnormality detecting method
JP2011259008A (en) Image reading device, image processing device, image reading method and program
JP6287630B2 (en) Image reading apparatus, image forming apparatus, and image reading method
JP6880936B2 (en) Image reader, image forming device, and control method
JP6885076B2 (en) Image reader, image forming device, image processing device, and image processing method
JP6805521B2 (en) Image reading device, correction method of scanned image in the device, and correction program of scanned image
JP2006020030A (en) Image reading apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181105

R151 Written notification of patent or utility model registration

Ref document number: 6439395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151