JP6838348B2 - Image reader and image reading method - Google Patents

Image reader and image reading method Download PDF

Info

Publication number
JP6838348B2
JP6838348B2 JP2016206968A JP2016206968A JP6838348B2 JP 6838348 B2 JP6838348 B2 JP 6838348B2 JP 2016206968 A JP2016206968 A JP 2016206968A JP 2016206968 A JP2016206968 A JP 2016206968A JP 6838348 B2 JP6838348 B2 JP 6838348B2
Authority
JP
Japan
Prior art keywords
unit
poles
shading data
gradation
amplitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016206968A
Other languages
Japanese (ja)
Other versions
JP2018067879A (en
Inventor
山口 智広
智広 山口
智雄 山中
智雄 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016206968A priority Critical patent/JP6838348B2/en
Publication of JP2018067879A publication Critical patent/JP2018067879A/en
Application granted granted Critical
Publication of JP6838348B2 publication Critical patent/JP6838348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本技術は、読取対象からの画像情報を生成する画像読取装置よび画像読取方法に関するものである。 The present technology relates to an image reading device and an image reading method for generating image information from a reading target.

任意の読取対象から光学的に画像情報を読み取る画像読取装置が広く普及している。このような画像読取装置は、複写機、ファクシミリ、複合機といった画像形成装置の一部分として実装されることも多い。 An image reading device that optically reads image information from an arbitrary reading target is widely used. Such an image reader is often implemented as part of an image forming apparatus such as a copier, a facsimile, or a multifunction device.

画像読取装置が読取対象から光学的に画像情報を読み取る典型的な構成の1つとして、ラインセンサーを用いた構成が採用される。 As one of the typical configurations in which the image reader optically reads the image information from the reading target, a configuration using a line sensor is adopted.

一例として原稿を搬送させながら、その表面をCIS(Contact Image Sensor:密着型イメージセンサ)にて読み取る画像読取装置が提案されている。この種の画像読取装置では、画像読取装置に固定されているCISに対して原稿が搬送されることで、CISにより原稿の読取(スキャン)が実行される。 As an example, an image reader has been proposed in which a document is conveyed and its surface is read by a CIS (Contact Image Sensor). In this type of image reading device, the document is conveyed to the CIS fixed to the image reading device, and the document is read (scanned) by the CIS.

CISの読取における画像を補正するために、CISに対向させてシェーディング板(対向板)を設けることが行なわれている。 In order to correct the image in reading the CIS, a shading plate (opposing plate) is provided so as to face the CIS.

ここで、シェーディング板とは、原稿に向けて光を照射する光源を点灯させたときの照度の不均一、もしくは、当該原稿で反射する光を受光する撮像素子の感度の不均一等によって生じる画像の濃度レベルのむらを補正(シェーディング補正)するために画像の濃度レベルの基準として用いる白い板のことである。 Here, the shading plate is an image caused by non-uniform illuminance when a light source that irradiates light toward a document is turned on, or non-uniform sensitivity of an image sensor that receives light reflected by the document. It is a white plate used as a reference for the density level of an image to correct the unevenness of the density level (shading correction).

しかしながら、シェーディング板は、紙粉など舞い易い原稿搬送経路内に設けられているために付着物(ごみ)が付着し易い。 However, since the shading plate is provided in the document transport path where paper dust and the like are likely to fly, deposits (dust) are likely to adhere.

シェーディング板に紙粉やトナーなどの付着物(ごみ)が付着した場合、CISの読取結果が低くなり、シェーディング補正では同画素を明るくするシェーディング補正が働く結果、出力画像に白筋が発生してしまう可能性がある。 If deposits (dust) such as paper dust and toner adhere to the shading board, the CIS reading result will be low, and the shading correction will work to brighten the same pixels, resulting in white streaks in the output image. There is a possibility that it will end up.

この白筋を防止するために、特開2008−187531号公報においては、予め保持しておいたごみ付着前の初期シェーディングデータと原稿読取前のシェーディングデータとの差分からごみを検出して除去する方式が提案されている。 In order to prevent this white streak, in Japanese Patent Application Laid-Open No. 2008-187531, dust is detected and removed from the difference between the initial shading data before dust adhesion and the shading data before scanning the original, which are held in advance. A method has been proposed.

特開2008−187531号公報Japanese Unexamined Patent Publication No. 2008-187531

しかしながら、上記方式では、初期データを保持するためのメモリが必要であるとともに、初期値と比較する場合には、CISの経時変化によるレベル変動に対応することができず、付着物の検出精度が低下する可能性がある。 However, in the above method, a memory for holding the initial data is required, and when compared with the initial value, it is not possible to cope with the level fluctuation due to the change of CIS with time, and the detection accuracy of the deposit is improved. May decrease.

本技術は、上記の課題を解決するためになされたものであって、簡易な構成で精度の高い付着物の検出が可能な画像読取装置および画像読取方法を提供する。 The present technology has been made to solve the above problems, and provides an image reading device and an image reading method capable of detecting deposits with high accuracy with a simple configuration.

ある局面に従う画像読取装置は、白色部材と、白色部材あるいは原稿からの反射した反射光をレンズにより集光することにより画像を読み取る読取部と、シェーディング補正を実行する画像処理部とを備える。画像処理部は、読取部により読み取った白色部材のシェーディングデータを取得する取得部と、取得部で取得したシェーディングデータに基づいてシェーディングデータの近似式を算出する近似式算出部と、近似式算出部で算出した近似式と、シェーディングデータとに基づいて付着物を検出する判定部とを含む。 An image reading device according to a certain aspect includes a white member, a reading unit that reads an image by condensing the reflected light reflected from the white member or the original with a lens, and an image processing unit that executes shading correction. The image processing unit includes an acquisition unit that acquires shading data of the white member read by the reading unit, an approximation formula calculation unit that calculates an approximation formula of shading data based on the shading data acquired by the acquisition unit, and an approximation formula calculation unit. Includes the approximate expression calculated in 1 and the determination unit for detecting deposits based on the shading data.

好ましくは、近似式算出部は、シェーディングデータの複数の変極点を検出する変極点検出部と、変極点検出部で検出された複数の変極点に基づいて周期および振幅を算出する周期振幅算出部と、周期振幅算出部の算出結果に基づいて正弦波の近似式を算出する正弦波算出部とを含む。 Preferably, the approximate expression calculation unit includes a polarization point detection unit that detects a plurality of polarization points of the shading data, and a periodic amplitude calculation unit that calculates the period and amplitude based on the plurality of polarization points detected by the polarization point detection unit. And a sine wave calculation unit that calculates an approximate expression of a sine wave based on the calculation result of the periodic amplitude calculation unit.

好ましくは、変極点検出部は、複数の変極点の画素と階調をそれぞれ検出し、周期振幅算出部は、複数の変極点の隣接する画素間の距離に基づいて周期を算出し、複数の変極点のピーク階調とボトム階調との階調差に基づいて振幅を算出する。 Preferably, the depolarizing point detecting unit detects the pixels and the gradation of the plurality of depolarizing points, respectively, and the periodic amplitude calculating unit calculates the period based on the distance between the adjacent pixels of the plurality of depolarizing points, and a plurality of. The amplitude is calculated based on the gradation difference between the peak gradation and the bottom gradation of the pole change point.

好ましくは、周期振幅算出部は、複数の変極点のうち隣接する画素間の距離が所定値以上となる変極点がある場合には当該変極点を除外して周期を算出する。 Preferably, the periodic amplitude calculation unit calculates the period by excluding the variable poles when the distance between the adjacent pixels is equal to or larger than a predetermined value among the plurality of variable poles.

好ましくは、周期振幅算出部は、複数の変極点のうちピーク階調とボトム階調との階調差が所定値以上となる変極点がある場合には当該変極点を除外して振幅を算出する。 Preferably, the periodic amplitude calculation unit calculates the amplitude by excluding the poles when there is a pole whose gradation difference between the peak gradation and the bottom gradation is equal to or more than a predetermined value among the plurality of poles. To do.

好ましくは、正弦波算出部は、複数の変極点のピーク階調とボトム階調との中間値を加算して正弦波の近似式を算出する。 Preferably, the sine wave calculation unit calculates an approximate expression of the sine wave by adding the intermediate values between the peak gradation and the bottom gradation of the plurality of poles.

好ましくは、画像処理部は、判定部の検出結果に基づいて付着物を検出した範囲を設定するエリア設定部をさらに含む。 Preferably, the image processing unit further includes an area setting unit that sets a range in which deposits are detected based on the detection result of the determination unit.

好ましくは、エリア設定部は、付着物を検出した変極点に隣接するピーク階調を有する変極点間の範囲を付着物を検出した範囲に設定する。 Preferably, the area setting unit sets the range between the poles having a peak gradation adjacent to the pole where the deposit is detected to the range where the deposit is detected.

好ましくは、エリア設定部は、隣接するピーク階調を有する変極点が連続性のあるピーク階調を有する変極点であるか否かを判断し、連続性のあるピーク階調を有する変極点間の範囲を付着物を検出した範囲に設定する。 Preferably, the area setting unit determines whether or not the poles having adjacent peak gradations are the poles having continuous peak gradations, and between the poles having continuous peak gradations. Set the range of to the range where deposits are detected.

ある局面に従う画像読取方法であって、白色部材からの反射した反射光をレンズにより集光することによりシェーディングデータを取得するステップと、取得したシェーディングデータに基づいてシェーディングデータの近似式を算出するステップと、算出した近似式と、シェーディングデータとに基づいて付着物を検出するステップとを備える。 An image reading method according to a certain aspect, in which a step of acquiring shading data by condensing the reflected light reflected from a white member with a lens and a step of calculating an approximate expression of shading data based on the acquired shading data. And a step of detecting deposits based on the calculated approximate expression and the shading data.

実施形態1に従う画像読取装置を含む画像形成装置の外観構成例を示す模式図である。It is a schematic diagram which shows the appearance configuration example of the image forming apparatus which includes the image reading apparatus according to Embodiment 1. FIG. 実施形態1に従う画像読取装置4の断面構成例を示す模式図である。It is a schematic diagram which shows the cross-sectional configuration example of the image reading apparatus 4 according to Embodiment 1. 実施形態1に基づくシェーディング補正の概要について説明する図である。It is a figure explaining the outline of the shading correction based on Embodiment 1. 実施形態1に基づく画像読取装置4の機能構成を説明するブロック図である。It is a block diagram explaining the functional structure of the image reading apparatus 4 based on Embodiment 1. 実施形態1に基づく画像処理部100における付着物の判定処理を説明するフロー図である。It is a flow figure explaining the determination process of the deposit in the image processing unit 100 based on Embodiment 1. 実施形態1に基づくシェーディングデータの近似式の算出について説明する図である。It is a figure explaining the calculation of the approximate expression of shading data based on Embodiment 1. 実施形態1に基づくごみの検出を説明する図である。It is a figure explaining the detection of dust based on Embodiment 1. 実施形態2に基づく画像読取装置4の機能構成を説明するブロック図である。It is a block diagram explaining the functional structure of the image reading apparatus 4 based on Embodiment 2. 実施形態2に基づくエリア拡張部112の拡張方式を説明する図である。It is a figure explaining the expansion method of the area expansion part 112 based on Embodiment 2. 実施形態2に基づくごみ判定領域の具体例(その1)を説明する図である。It is a figure explaining the specific example (the 1) of the waste determination area based on Embodiment 2. 実施形態2に基づくごみ判定領域の具体例(その2)を説明する図である。It is a figure explaining the specific example (the 2) of the garbage determination area based on Embodiment 2.

本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 Embodiments of the present invention will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are designated by the same reference numerals and the description thereof will not be repeated.

(実施形態1)
<A.装置構成>
次に、実施形態1に従う画像読取装置および画像読取装置を含む画像形成装置の装置構成について説明する。以下では、典型例として、画像読取装置を含む複合機(MFP:Multi-Functional Peripheral)として実装される画像形成装置1について説明する。特にこれに限定されることなく、画像読取装置を含む複写機またはファクシミリとして実装してもよいし、画像読取装置を単一の装置として実装してもよい。
(Embodiment 1)
<A. Device configuration>
Next, an apparatus configuration of an image reader and an image forming apparatus including the image reader according to the first embodiment will be described. Hereinafter, as a typical example, an image forming apparatus 1 mounted as a multi-function peripheral (MFP) including an image reading apparatus will be described. The present invention is not particularly limited to this, and the image reading device may be mounted as a copying machine or a facsimile including an image reading device, or the image reading device may be mounted as a single device.

(a1:画像形成装置)
図1は、実施形態1に従う画像読取装置を含む画像形成装置の外観構成例を示す模式図である。
(A1: Image forming apparatus)
FIG. 1 is a schematic view showing an example of external configuration of an image forming apparatus including an image reading apparatus according to the first embodiment.

図1を参照して、実施形態1に従う画像形成装置1は、コピー機能、スキャナ機能、プリンター機能、ファックス機能といった複数の機能を有しており、LAN(Local Area Network)や電話回線などのネットワークを介してのデータを送受信できる。すなわち、画像形成装置1は、スキャナ機能またはコピー機能として、読取対象から読み取った画像情報(画像データ)をネットワーク経由で他のコンピュータに出力することができ、プリンター機能またはファックス機能として、ネットワーク経由で他のコンピュータから画像情報(画像データ)を取得し、当該画像データに基づく印刷、または、FAXの送信ができる。 With reference to FIG. 1, the image forming apparatus 1 according to the first embodiment has a plurality of functions such as a copy function, a scanner function, a printer function, and a fax function, and is a network such as a LAN (Local Area Network) or a telephone line. Data can be sent and received via. That is, the image forming apparatus 1 can output the image information (image data) read from the reading target to another computer via the network as a scanner function or a copy function, and can output the image information (image data) read from the reading target to another computer via the network, and as a printer function or a fax function, via the network. Image information (image data) can be acquired from another computer, and printing or FAX transmission based on the image data can be performed.

画像読取装置を画像形成装置に実装した場合において、画像形成装置の画像形成部(プリントエンジン)については、どのような方式を採用してもよい。例えば、電子写真方式(モノクロ方式またはカラー方式)、インクジェット方式、感熱方式、熱転写方式などが挙げられる。図1には、典型例として、電子写真方式を採用した画像形成装置1を示す。 When the image reader is mounted on the image forming apparatus, any method may be adopted for the image forming portion (print engine) of the image forming apparatus. For example, an electrophotographic method (monochrome method or color method), an inkjet method, a heat-sensitive method, a heat transfer method, and the like can be mentioned. FIG. 1 shows an image forming apparatus 1 adopting an electrophotographic method as a typical example.

画像形成装置1は、画像形成部5と、画像形成部5の下部に配置された給紙部6と、画像形成部5の上部に配置された画像読取装置4とからなる。 The image forming apparatus 1 includes an image forming unit 5, a paper feeding unit 6 arranged below the image forming unit 5, and an image reading device 4 arranged above the image forming unit 5.

画像読取装置4は、読取対象から画像情報を読み取って画像データなどを出力するものであり、主として、読取本体部2および自動原稿搬送部3からなる。ユーザは、1枚の原稿を読取本体部2に直接配置して画像情報を読み取らせることもでき、あるいは、1または複数枚の原稿を自動原稿搬送部3に配置して画像情報を連続的に読み取らせることもできる。この連続読取動作において、読取本体部2と自動原稿搬送部3とは同期して作動することで、自動原稿搬送部3に配置された原稿を1枚ずつから読取本体部2に向けて搬送し、読取本体部2は原稿が所定の位置を通過する際に画像情報を読み取って、画像データを生成する。 The image reading device 4 reads image information from a scanning target and outputs image data or the like, and mainly includes a reading main body unit 2 and an automatic document transporting unit 3. The user can also arrange one original directly on the scanning main body 2 to read the image information, or arrange one or more originals on the automatic document conveying unit 3 to continuously read the image information. It can also be read. In this continuous scanning operation, the scanning main body 2 and the automatic document transporting unit 3 operate in synchronization with each other to transport the documents arranged in the automatic document transporting unit 3 one by one toward the scanning main body 2. , The scanning main body 2 reads image information when the document passes a predetermined position and generates image data.

給紙部6は、記録媒体である紙を収容するとともに、画像形成部5での画像形成動作に対応させて、収納している記録媒体を1枚ずつ画像形成部5に供給する。 The paper feeding unit 6 stores paper, which is a recording medium, and supplies the stored recording media to the image forming unit 5 one by one in correspondence with the image forming operation in the image forming unit 5.

画像形成部5は、画像読取装置4により読み取られた画像データ、ネットワーク経由で取得した画像データ、直接入力された画像データなどに基づいて、給紙部6から供給される記録媒体上に画像を形成する。このように、画像形成部5は、任意の画像データを記録媒体上に印刷する。一つの典型例として、画像形成部5は、画像読取装置4により読み取られた画像情報に基づいて画像を形成する。画像形成部5により画像が形成された記録媒体は、画像形成部5と読取本体部2との間にある排紙部7に出力される。 The image forming unit 5 outputs an image on the recording medium supplied from the paper feeding unit 6 based on the image data read by the image reading device 4, the image data acquired via the network, the directly input image data, and the like. Form. In this way, the image forming unit 5 prints arbitrary image data on the recording medium. As one typical example, the image forming unit 5 forms an image based on the image information read by the image reading device 4. The recording medium on which the image is formed by the image forming unit 5 is output to the paper ejection unit 7 between the image forming unit 5 and the reading main body unit 2.

画像形成装置1の正面側(ユーザが操作する側)には、複数のキーまたはボタンを有する操作パネル8が設けられている。操作パネル8は、ユーザからの操作指示などを受け付け、その受付けた操作指示を画像形成部5などへ出力する。 An operation panel 8 having a plurality of keys or buttons is provided on the front side (the side operated by the user) of the image forming apparatus 1. The operation panel 8 receives an operation instruction from the user and outputs the received operation instruction to the image forming unit 5 or the like.

(a2:画像読取装置)
次に、図1に示す画像読取装置4の装置構成について、より詳細に説明する。
(A2: Image reader)
Next, the device configuration of the image reading device 4 shown in FIG. 1 will be described in more detail.

図2は、実施形態1に従う画像読取装置4の断面構成例を示す模式図である。
図2に示す画像読取装置4の構成例では、原稿の両面から画像情報を読み取ることができる。具体的には、自動原稿搬送部3は、1または複数枚の原稿70が配置される給紙トレイ31を有している。給紙トレイ31に配置された原稿70は、ピックアップローラ32および給紙ローラー対33にて、最上層のものから1枚ずつ原稿搬送路30に送り出される。原稿搬送路30において、原稿70は、中間ローラー対34によりレジストローラ対35まで搬送される。レジストローラ対35は、斜行補正ローラーとして機能し、搬送された原稿70を本来の姿勢に補正するとともに、原稿70を所定のタイミングで第1搬送ローラー対36に向けて送り出す。原稿70は、第1搬送ローラー対36によって、読取本体部2の搬送読取面であるスリットガラス21上に送り出されるとともに、読取ローラー42によって、スリットガラス21上を通過する。
FIG. 2 is a schematic view showing a cross-sectional configuration example of the image reading device 4 according to the first embodiment.
In the configuration example of the image reading device 4 shown in FIG. 2, image information can be read from both sides of the document. Specifically, the automatic document transport unit 3 has a paper feed tray 31 on which one or a plurality of documents 70 are arranged. The documents 70 arranged in the paper feed tray 31 are sent out one by one from the top layer to the document transport path 30 by the pickup roller 32 and the paper feed roller pair 33. In the document transport path 30, the document 70 is transported to the resist roller pair 35 by the intermediate roller pair 34. The resist roller pair 35 functions as a skew correction roller, corrects the conveyed document 70 to its original posture, and feeds the document 70 toward the first transfer roller pair 36 at a predetermined timing. The document 70 is sent out onto the slit glass 21 which is the transport reading surface of the reading main body 2 by the first transport roller pair 36, and passes over the slit glass 21 by the reading roller 42.

原稿70がスリットガラス21上を通過する際に、スリットガラス21の下方に位置する第1読取部22が、原稿70における下向きの面(表面)の画像情報を読み取る。 When the document 70 passes over the slit glass 21, the first reading unit 22 located below the slit glass 21 reads the image information of the downward surface (front surface) of the document 70.

原稿搬送路30のスリットガラス21より搬送下流側には、第2搬送ローラー対37と、第2読取部38と、第3搬送ローラー対39と、排紙ローラー40とが配置されている。スリットガラス21上を通過した原稿70は、第2搬送ローラー対37により第2読取部38の直下まで送り出される。原稿70が第2読取部38の直下を通過する際に、原稿70における上向きの面(裏面)の画像情報を読み取る。 A second transport roller pair 37, a second reading unit 38, a third transport roller pair 39, and a paper ejection roller 40 are arranged on the transport downstream side of the slit glass 21 of the document transport path 30. The document 70 that has passed over the slit glass 21 is sent out to just below the second reading unit 38 by the second transport roller pair 37. When the document 70 passes directly under the second reading unit 38, the image information of the upward surface (back surface) of the document 70 is read.

第2読取部38の直下を通過した原稿70は、第3搬送ローラー対39および排紙ローラー40により、排紙トレイ41上に排出される。 The document 70 that has passed directly under the second reading unit 38 is ejected onto the paper ejection tray 41 by the third transport roller pair 39 and the paper ejection roller 40.

読取本体部2の上面には、スリットガラス21とプラテンガラス23とが設けられている。第1読取部22は、読取本体部2の内部に配置される。第1読取部22は、スリットガラス21上を通過する原稿70の表面の画像情報、および/または、プラテンガラス23上に配置された原稿70の画像情報の読み取りに用いられる。スリットガラス21上を通過する原稿70の画像情報を読み取る際には、走査ユニット24および走行ユニット25は固定した状態に置かれる。一方、プラテンガラス23上に配置された原稿70の画像情報を読み取る際には、走査ユニット24および走行ユニット25が副走査方向Yに移動することで、第1読取部22が読み取る範囲を順次変更する。 A slit glass 21 and a platen glass 23 are provided on the upper surface of the reading main body 2. The first reading unit 22 is arranged inside the reading main body unit 2. The first reading unit 22 is used to read the image information of the surface of the document 70 passing over the slit glass 21 and / or the image information of the document 70 arranged on the platen glass 23. When reading the image information of the document 70 passing over the slit glass 21, the scanning unit 24 and the traveling unit 25 are placed in a fixed state. On the other hand, when reading the image information of the document 70 arranged on the platen glass 23, the scanning unit 24 and the traveling unit 25 move in the sub-scanning direction Y, so that the range read by the first reading unit 22 is sequentially changed. To do.

走査ユニット24および走行ユニット25は、読取本体部2内に配置された一対の支持レール46に支持されており、図示しないアクチュエータの動力によってスライド移動する。 The scanning unit 24 and the traveling unit 25 are supported by a pair of support rails 46 arranged in the reading main body 2, and slide and move by the power of an actuator (not shown).

第2読取部38は、自動原稿搬送部3内に固定的に配置される。また、第2読取部38に対向してシェーディング板43が固定的に配置される。シェーディング板43は、シェーディング補正用の白色基準体としての機能を有する。 The second reading unit 38 is fixedly arranged in the automatic document transporting unit 3. Further, the shading plate 43 is fixedly arranged so as to face the second reading unit 38. The shading plate 43 has a function as a white reference body for shading correction.

第1読取部22および第2読取部38は、原稿の読取対象の面に向けて光を照射するための光源50,52と、読取対象で生じた反射光を受光するためのラインセンサー51,53とを含む。ラインセンサー51,53は、主走査方向に沿って並ぶ複数の光電変換素子からなり、入射した反射光の輝度(光の強度)に応じた出力値を出力する。すなわち、ラインセンサーは、読取対象で生じた光学的な反射像を電気的な画像信号に変換して出力する。 The first reading unit 22 and the second reading unit 38 include light sources 50 and 52 for irradiating light toward the surface of the document to be read, and line sensors 51 for receiving the reflected light generated by the reading target. Includes 53 and. The line sensors 51 and 53 are composed of a plurality of photoelectric conversion elements arranged along the main scanning direction, and output an output value according to the brightness (light intensity) of the incident reflected light. That is, the line sensor converts the optically reflected image generated in the reading target into an electrical image signal and outputs it.

本実施の形態に従う画像読取装置4においては、第1読取部22および第2読取部38の少なくとも一方のラインセンサーとしてCISが用いられる。特に、第1読取部22および/または第2読取部38は、1ラインCIS読取方式が採用される。 In the image reading device 4 according to the present embodiment, CIS is used as a line sensor of at least one of the first reading unit 22 and the second reading unit 38. In particular, the 1-line CIS reading method is adopted for the first reading unit 22 and / or the second reading unit 38.

なお、第1読取部22および第2読取部38の両方に1ラインCIS読取方式を採用する必要はなく、一方のみに1ラインCIS読取方式を採用するようにしてもよいし、あるいは、画像読取装置4には、第1読取部22および第2読取部38の一方のみを採用するようにしてもよい。 It is not necessary to adopt the 1-line CIS reading method for both the first reading unit 22 and the second reading unit 38, and the 1-line CIS reading method may be adopted for only one of them, or the image reading may be performed. The device 4 may employ only one of the first reading unit 22 and the second reading unit 38.

<B.シェーディング補正>
図3は、実施形態1に基づくシェーディング補正の概要について説明する図である。
<B. Shading correction>
FIG. 3 is a diagram illustrating an outline of shading correction based on the first embodiment.

図3に示されるように、ラインセンサー53は、複数の受光画素が一列に配置されているリニアイメージセンサである。ラインセンサー53は、シェーディング板43あるいは原稿70からの反射光を光電変換し、RGBのアナログ信号を出力する。 As shown in FIG. 3, the line sensor 53 is a linear image sensor in which a plurality of light receiving pixels are arranged in a row. The line sensor 53 photoelectrically converts the reflected light from the shading plate 43 or the document 70 and outputs an RGB analog signal.

シェーディング板43は、基準部材で、原稿より明るい白色板が用いられる。ラインセンサー53は、白階調レベルを調整するための基準原稿に相当する。 The shading plate 43 is a reference member, and a white plate brighter than the original is used. The line sensor 53 corresponds to a reference document for adjusting the white gradation level.

ここで、ラインセンサー53は、反射光を集光するセルフォックレンズアレイ(SLA)を有する。当該セルフォックレンズアレイにより読み取った画像は周期的に波打った正弦波状の画像となるため当該画像を一定階調に補正するシェーディング補正を実行する必要があり、そのためにシェーディングデータを取得する必要がある。 Here, the line sensor 53 has a self-focused lens array (SLA) that collects the reflected light. Since the image read by the Selfock lens array becomes a cyclically wavy sinusoidal image, it is necessary to perform shading correction to correct the image to a constant gradation, and therefore it is necessary to acquire shading data. is there.

図3(A)には、シェーディング板43に紙粉等のごみが付着物として付着している場合が示されている。当該場合には、付着物が付着している画素についてシェーディングデータが想定の階調よりも低い値が検出される。すなわち暗いと判断される。 FIG. 3A shows a case where dust such as paper dust is attached to the shading plate 43 as deposits. In this case, a value in which the shading data is lower than the assumed gradation is detected for the pixel to which the deposit is attached. That is, it is judged to be dark.

これによりシェーディング補正では、当該画素を明るくする補正が実行される。
図3(B)には、シェーディングデータに基づいて原稿70に対してシェーディング補正を実行する場合が示されている。当該場合には、シェーディング補正により暗いと判断された特定の画素部分が明るく補正される。これにより原稿70の読取結果に白く縦筋が生じることになる。
As a result, in the shading correction, a correction for brightening the pixel is executed.
FIG. 3B shows a case where shading correction is executed on the original 70 based on the shading data. In this case, a specific pixel portion determined to be dark by the shading correction is corrected to be bright. As a result, white vertical stripes are generated in the reading result of the document 70.

したがって、シェーディング板43に付着した付着物の影響を除去する必要がある。
図4は、実施形態1に基づく画像読取装置4の機能構成を説明するブロック図である。
Therefore, it is necessary to remove the influence of the deposits adhering to the shading plate 43.
FIG. 4 is a block diagram illustrating a functional configuration of the image reading device 4 based on the first embodiment.

図4に示されるように実施形態1に基づく画像読取装置4は、画像処理部100を含む。 As shown in FIG. 4, the image reading device 4 based on the first embodiment includes an image processing unit 100.

画像処理部100は、データ取得部103と、データ保持部104と、判定部101と、シェーディングデータ補間部200と、シェーディングデータ保持部201と、シェーディング補正部202とを含む。 The image processing unit 100 includes a data acquisition unit 103, a data holding unit 104, a determination unit 101, a shading data interpolation unit 200, a shading data holding unit 201, and a shading correction unit 202.

データ取得部103は、ラインセンサー53からのアナログ信号をデジタル信号にA/D変換するAFE(アナログフロントエンド)から構成される。 The data acquisition unit 103 is composed of an AFE (analog front end) that A / D-converts an analog signal from the line sensor 53 into a digital signal.

データ保持部104は、データ取得部103で取得したシェーディングデータを一時的に保持する。 The data holding unit 104 temporarily holds the shading data acquired by the data acquisition unit 103.

判定部101は、データ保持部104で保持されたシェーディングデータに基づいて付着物(ごみ)の判定処理を実行する。 The determination unit 101 executes the determination process of the adhered matter (dust) based on the shading data held by the data holding unit 104.

シェーディングデータ補間部200は、シェーディングデータから、付着物(ごみ)を除去する補間処理を実行する。 The shading data interpolation unit 200 executes an interpolation process for removing deposits (dust) from the shading data.

シェーディングデータ保持部201は、シェーディングデータ補間部200の補間処理結果を保持する。 The shading data holding unit 201 holds the interpolation processing result of the shading data interpolation unit 200.

シェーディング補正部202は、データ取得部103で取得したデータに対してシェーディングデータ保持部201で保持されているシェーディングデータに基づいて原稿データのムラを補正するシェーディング補正処理を実行する。 The shading correction unit 202 executes a shading correction process for correcting unevenness of the original data based on the shading data held by the shading data holding unit 201 with respect to the data acquired by the data acquisition unit 103.

判定部101は、近似式算出部102と、ごみ検出部110とを含む。
近似式算出部102は、データ保持部104で保持されたシェーディングデータに基づいてシェーディングデータの近似式を算出する。
The determination unit 101 includes an approximation formula calculation unit 102 and a dust detection unit 110.
The approximation formula calculation unit 102 calculates an approximation formula for shading data based on the shading data held by the data holding unit 104.

ごみ検出部110は、データ保持部104で保持されたシェーディングデータと、近似式算出部102で算出した近似式とに基づいて付着物(ごみ)を検出する。 The dust detection unit 110 detects deposits (dust) based on the shading data held by the data holding unit 104 and the approximate formula calculated by the approximate formula calculation unit 102.

近似式算出部102は、ピーク画素検出部105と、ボトム画素検出部106と、ダイナミックレンジ算出部107と、周期算出部108と、算出部109とを含む。 The approximate expression calculation unit 102 includes a peak pixel detection unit 105, a bottom pixel detection unit 106, a dynamic range calculation unit 107, a period calculation unit 108, and a calculation unit 109.

ピーク画素検出部105は、シェーディングデータの複数の変極点のうちピーク階調を有する画素を検出する。 The peak pixel detection unit 105 detects a pixel having a peak gradation among a plurality of poles of shading data.

ボトム画素検出部106は、シェーディングデータの複数の変極点のうちボトム階調を有する画素を検出する。 The bottom pixel detection unit 106 detects a pixel having a bottom gradation among a plurality of poles of shading data.

なお、本例においては、ピーク画素検出部105と、ボトム画素検出部106とをそれぞれ別々に設けた構成について説明するが、特にこれに限られず一体として変極点を検出する構成とすることも可能である。 In this example, a configuration in which the peak pixel detection unit 105 and the bottom pixel detection unit 106 are provided separately will be described, but the present invention is not particularly limited to this, and a configuration in which a pole change point is detected as a unit is also possible. Is.

周期算出部108は、ピーク階調を有する画素間の距離に基づいてシェーディングデータの正弦波の近似式の周期を算出する。 The period calculation unit 108 calculates the period of the approximate expression of the sine wave of the shading data based on the distance between the pixels having the peak gradation.

ダイナミックレンジ算出部107は、ピーク階調およびボトム階調の階調差に基づいてシェーディングデータの正弦波の近似式の振幅を算出する。 The dynamic range calculation unit 107 calculates the amplitude of the approximate expression of the sine wave of the shading data based on the gradation difference between the peak gradation and the bottom gradation.

なお、本例においては、周期算出部108と、ダイナミックレンジ算出部107とをそれぞれ別々に設けた構成について説明するが、特にこれに限られず一体として周期および振幅を算出する構成とすることも可能である。 In this example, a configuration in which the period calculation unit 108 and the dynamic range calculation unit 107 are provided separately will be described, but the configuration is not particularly limited to this, and the period and amplitude can be calculated integrally. Is.

算出部109は、周期算出部108で算出された周期と、ダイナミックレンジ算出部107で算出された振幅とに基づいてシェーディングデータの正弦波の近似式を算出する。 The calculation unit 109 calculates an approximate expression of a sine wave of shading data based on the period calculated by the period calculation unit 108 and the amplitude calculated by the dynamic range calculation unit 107.

図5は、実施形態1に基づく画像処理部100における付着物の判定処理を説明するフロー図である。 FIG. 5 is a flow chart illustrating a process of determining deposits in the image processing unit 100 based on the first embodiment.

図5に示されるように、まず、画像処理部100は、シェーディングデータを取得する(ステップS2)。具体的には、データ取得部103は、ラインセンサー53で検出されたシェーディングデータを取得する。 As shown in FIG. 5, first, the image processing unit 100 acquires shading data (step S2). Specifically, the data acquisition unit 103 acquires the shading data detected by the line sensor 53.

次に、画像処理部100は、シェーディングデータの近似式を算出する(ステップS4)。具体的には、近似式算出部102は、シェーディングデータの近似式を算出する。 Next, the image processing unit 100 calculates an approximate expression for shading data (step S4). Specifically, the approximate expression calculation unit 102 calculates an approximate expression for shading data.

次に、画像処理部100は、比較処理を実行する(ステップS6)。具体的には、ごみ検出部110は、取得されたシェーディングデータと、近似式算出部102で算出した近似式との比較処理を実行する。 Next, the image processing unit 100 executes the comparison process (step S6). Specifically, the dust detection unit 110 executes a comparison process between the acquired shading data and the approximate expression calculated by the approximate expression calculation unit 102.

次に、画像処理部100は、異常値が有るか否かを判断する(ステップS8)。具体的には、ごみ検出部110は、比較処理結果に基づいて異常値が有るか否かを判断する。 Next, the image processing unit 100 determines whether or not there is an abnormal value (step S8). Specifically, the dust detection unit 110 determines whether or not there is an abnormal value based on the comparison processing result.

ステップS8において、画像処理部100は、異常値が有ると判断した場合(ステップS8においてYES)にはごみ有りと判定する(ステップS10)。具体的には、ごみ検出部110は、比較処理結果に基づいて異常値が有ると判断した場合にはごみありと判定する。 In step S8, when the image processing unit 100 determines that there is an abnormal value (YES in step S8), it determines that there is dust (step S10). Specifically, when the dust detection unit 110 determines that there is an abnormal value based on the comparison processing result, it determines that there is dust.

そして、処理を終了する(エンド)。
一方、ステップS8において、画像処理部100は、異常値が無いと判断した場合(ステップS8においてNO)にはごみ無しと判定する(ステップS12)。具体的には、ごみ検出部110は、比較処理結果に基づいて異常値が無いと判断した場合にはごみありと判定する。
Then, the process ends (end).
On the other hand, in step S8, when the image processing unit 100 determines that there is no abnormal value (NO in step S8), it determines that there is no dust (step S12). Specifically, when the dust detection unit 110 determines that there is no abnormal value based on the comparison processing result, it determines that there is dust.

そして、処理を終了する(エンド)。
図6は、実施形態1に基づくシェーディングデータの近似式の算出について説明する図である。
Then, the process ends (end).
FIG. 6 is a diagram illustrating calculation of an approximate expression of shading data based on the first embodiment.

図6に示されるように、データ取得部で取得されたシェーディングデータが示されている。ここで、白丸で示されているのは変極点として検出されたものである。 As shown in FIG. 6, the shading data acquired by the data acquisition unit is shown. Here, what is indicated by a white circle is what was detected as a pole.

シェーディングデータで検出された複数の変極点について、ピーク画素検出部105は、高い階調の変極点の画素をピーク画素として検出する。また、ボトム画素検出部106は、低い階調の変極点の画素をボトム画素として検出する。 With respect to the plurality of poles detected in the shading data, the peak pixel detection unit 105 detects the pixels of the poles with high gradation as peak pixels. Further, the bottom pixel detection unit 106 detects a pixel at a pole of a low gradation as a bottom pixel.

周期算出部108は、ピーク画素検出部105で検出された複数のピーク画素のうち隣接するピーク画素間の距離に基づいて正弦波の周期Tを算出する。なお、周期算出部108は、複数のピーク画素のうち特異点となるピーク画素を除外して周期Tを算出する。具体的には、ピーク画素間の距離が所定値以上となるピーク画素は除外して周期Tを算出するようにしても良い。 The period calculation unit 108 calculates the period T of the sine wave based on the distance between adjacent peak pixels among the plurality of peak pixels detected by the peak pixel detection unit 105. The period calculation unit 108 calculates the period T by excluding the peak pixels that are singular points from the plurality of peak pixels. Specifically, the period T may be calculated by excluding the peak pixels in which the distance between the peak pixels is equal to or greater than a predetermined value.

ダイナミックレンジ算出部107は、ピーク画素とボトム画素との階調差に基づいて正弦波の振幅Hを算出する。なお、ダイナミックレンジ算出部107は、ピーク画素およびボトム画素のうち特異点となるピーク画素およびボトム画素を除外して振幅Hを算出する。具体的には、ピーク画素が所定値以上となるピーク画素あるいはボトム画素が所定値以下となるボトム画素は除外して振幅Hを算出するようにしても良い。 The dynamic range calculation unit 107 calculates the amplitude H of the sine wave based on the gradation difference between the peak pixel and the bottom pixel. The dynamic range calculation unit 107 calculates the amplitude H by excluding the peak pixel and the bottom pixel, which are singular points, from the peak pixel and the bottom pixel. Specifically, the amplitude H may be calculated by excluding the peak pixel in which the peak pixel is equal to or more than a predetermined value or the bottom pixel in which the bottom pixel is equal to or less than a predetermined value.

算出部109は、算出された周期Tおよび振幅Hに基づいて正弦波の近似式を算出する。なお、ピーク画素とボトム画素との階調値の中間値をオフセット値zとして算出する。 The calculation unit 109 calculates an approximate expression for a sine wave based on the calculated period T and amplitude H. The intermediate value between the gradation values of the peak pixel and the bottom pixel is calculated as the offset value z.

一般式として以下の近似式として算出される。
y=Hsin2πx/T+z
yは階調値、xは画素位置である。
As a general formula, it is calculated as the following approximate formula.
y = Hsin2πx / T + z
y is the gradation value and x is the pixel position.

図7は、実施形態1に基づくごみの検出を説明する図である。
図7に示されるように、データ取得部で取得されたシェーディングデータと、近似式とが示されている。
FIG. 7 is a diagram illustrating the detection of dust based on the first embodiment.
As shown in FIG. 7, the shading data acquired by the data acquisition unit and the approximate expression are shown.

また、シェーディングデータと、近似式との差分データも示されている。
左縦軸は階調値を表し、右縦軸は差分値を指し示す。
In addition, the difference data between the shading data and the approximate expression is also shown.
The left vertical axis represents the gradation value, and the right vertical axis indicates the difference value.

本例においては、閾値として差分値±5に設定されている場合が示されている。
本例においては、点線で囲まれる範囲において差分値±5を超える領域が示されており、閾値を超える値があるためごみ有りと判定される。
In this example, the case where the difference value is set to ± 5 is shown as the threshold value.
In this example, a region where the difference value exceeds ± 5 is shown in the range surrounded by the dotted line, and since there is a value exceeding the threshold value, it is determined that there is dust.

本実施形態1においては、取得したシェーディングデータに基づいて近似式を算出する。そして、算出した近似式と取得したシェーディングデータとの比較に基づいて閾値を超える値が有る場合には付着物(ごみ)有りと判定する。一方、閾値を超えない場合には付着物(ごみ)無しと判定する。 In the first embodiment, an approximate expression is calculated based on the acquired shading data. Then, based on the comparison between the calculated approximate expression and the acquired shading data, if there is a value exceeding the threshold value, it is determined that there is deposit (dust). On the other hand, if the threshold value is not exceeded, it is determined that there is no deposit (dust).

したがって、予めシェーディングデータ(初期データ)を取得してメモリに保持する必要はなく簡易な構成で付着物の検出が可能である。また、CISの経時変化量を含むシェーディングデータに基づいて付着物(ごみ)有りあるいは無しの判定が実行されるため精度の高い検出が可能である。 Therefore, it is not necessary to acquire shading data (initial data) in advance and store it in the memory, and it is possible to detect deposits with a simple configuration. Further, since the determination of the presence or absence of deposits (dust) is executed based on the shading data including the amount of change with time of CIS, highly accurate detection is possible.

(実施形態2)
実施形態2においては、付着物(ごみ)有りと判定された範囲を設定する方式について説明する。
(Embodiment 2)
In the second embodiment, a method of setting a range determined to have deposits (dust) will be described.

図8は、実施形態2に基づく画像読取装置4の機能構成を説明するブロック図である。
図8に示されるように実施形態2に基づく画像読取装置4は、画像処理部100#を含む。
FIG. 8 is a block diagram illustrating a functional configuration of the image reading device 4 based on the second embodiment.
As shown in FIG. 8, the image reading device 4 based on the second embodiment includes an image processing unit 100 #.

画像処理部100#は、図4で説明した画像処理部100と比較して判定部101を判定部101#に置換した点が異なる。判定部101#は、判定部101と比較してエリア拡張部112をさらに追加した点が異なる。その他の構成については図4で説明したのと同様であるのでその詳細な説明については繰り返さない。 The image processing unit 100 # is different from the image processing unit 100 described with reference to FIG. 4 in that the determination unit 101 is replaced with the determination unit 101 #. The determination unit 101 # is different from the determination unit 101 in that the area expansion unit 112 is further added. Since the other configurations are the same as those described in FIG. 4, the detailed description thereof will not be repeated.

エリア拡張部112は、付着物(ごみ)有りと判定したエリアを拡張して設定する。具体的には、エリア拡張部112は、付着物(ごみ)と判定した地点に隣接するピーク画素間の範囲にエリアを拡張して設定する。 The area expansion unit 112 expands and sets the area determined to have deposits (dust). Specifically, the area expansion unit 112 expands the area to the range between the peak pixels adjacent to the points determined to be deposits (dust).

図9は、実施形態2に基づくエリア拡張部112の拡張方式を説明する図である。
図9に示されるように、取得したシェーディングデータに基づいて近似式を算出し、算出した近似式と取得したシェーディングデータとの比較に基づいて閾値を超えるか否かを判断する。
FIG. 9 is a diagram illustrating an expansion method of the area expansion unit 112 based on the second embodiment.
As shown in FIG. 9, an approximate expression is calculated based on the acquired shading data, and it is determined whether or not the threshold value is exceeded based on the comparison between the calculated approximate expression and the acquired shading data.

本例においては、一点鎖線の領域において閾値を超える、すなわち付着物(ごみ)有りと判定される。 In this example, it is determined that the threshold value is exceeded in the region of the alternate long and short dash line, that is, there is deposit (dust).

エリア拡張部112は、当該付着物(ごみ)有りと判定した領域に関して、隣接するピーク画素まで拡張する(太線の立ち上った領域)。 The area expansion unit 112 expands to the adjacent peak pixels with respect to the region determined to have the deposit (dust) (the region where the thick line rises).

当該方式により、シェーディング補正される領域が拡大する。ごみ有りと判定した領域のみシェーディング補正した場合には補正データに不連続箇所が生じる可能性がある。その不連続箇所でスジが発生する可能性がある。 By this method, the area to be shading-corrected is expanded. If shading correction is performed only on the area where it is determined that there is dust, there is a possibility that discontinuous parts may occur in the correction data. Streaks may occur at the discontinuity.

実施形態2においては、ごみ有りと判定した領域(ごみ判定領域とも称する)をピーク画素間の一定範囲に拡張することにより補正データの不連続箇所の出現を抑制することが可能である。これによりスジの発生を抑制することが可能である。 In the second embodiment, it is possible to suppress the appearance of discontinuous portions of the correction data by expanding the region determined to have dust (also referred to as a dust determination region) to a certain range between the peak pixels. This makes it possible to suppress the occurrence of streaks.

図10は、実施形態2に基づくごみ判定領域の具体例(その1)を説明する図である。
図10には、複数のごみがシェーディング板43に付着している場合が示されている。
FIG. 10 is a diagram illustrating a specific example (No. 1) of the waste determination area based on the second embodiment.
FIG. 10 shows a case where a plurality of dusts are attached to the shading plate 43.

図10(A)に示されるように近似式(実線)と、シェーディングデータ線(点線)との比較に基づいてごみ有りと判定される。本例においては複数の地点でごみ有りと判定される。 As shown in FIG. 10A, it is determined that there is dust based on the comparison between the approximate expression (solid line) and the shading data line (dotted line). In this example, it is determined that there is dust at a plurality of points.

エリア拡張部112は、ごみ有りと判定された地点に隣接するピーク画素間をごみ判定領域に設定する。 The area expansion unit 112 sets the area between the peak pixels adjacent to the point where it is determined that there is dust in the dust determination area.

図10(B)についても同様である。
図11は、実施形態2に基づくごみ判定領域の具体例(その2)を説明する図である。
The same applies to FIG. 10 (B).
FIG. 11 is a diagram illustrating a specific example (No. 2) of the waste determination area based on the second embodiment.

図11には、範囲の広いごみがシェーディング板43に付着している場合が示されている。 FIG. 11 shows a case where a wide range of dust is attached to the shading plate 43.

図11(A)に示されるように近似式(実線)と、シェーディングデータ線(点線)との比較に基づいてごみ有りと判定される。本例においては広い範囲でごみ有りと判定される。 As shown in FIG. 11A, it is determined that there is dust based on the comparison between the approximate expression (solid line) and the shading data line (dotted line). In this example, it is determined that there is dust in a wide range.

エリア拡張部112は、ごみ有りと判定された地点に隣接するピーク画素間をごみ判定領域に設定する。 The area expansion unit 112 sets the area between the peak pixels adjacent to the point where it is determined that there is dust in the dust determination area.

図11(B)、図11(C)についても同様である。
エリア拡張部112は、ピーク画素が連続性を有するピーク画素であるか否かを判断し、連続性を有するピーク画素と判断した場合に当該ピーク画素間をごみ判定領域に設定するようにしても良い。
The same applies to FIGS. 11 (B) and 11 (C).
The area expansion unit 112 determines whether or not the peak pixel is a continuous peak pixel, and if it is determined that the peak pixel is a continuous peak pixel, the area between the peak pixels may be set in the dust determination area. good.

具体的には、図11(B)に示されるように隣接するピーク画素の階調値が低い場合(ピーク値B)には、隣接するピーク画素が連続性のあるピーク画素(ピーク値A)か否かを判断して、連続性を有するピーク画素(ピーク値A)間をごみ判定領域に設定する。 Specifically, when the gradation value of adjacent peak pixels is low (peak value B) as shown in FIG. 11B, the adjacent peak pixels are continuous peak pixels (peak value A). Whether or not it is determined, and the area between the continuous peak pixels (peak value A) is set as the dust determination area.

以上、本発明に基づいた実施の形態について説明したが、今回開示された実施の形態はすべての点で例示であって制限的なものではない。本発明の技術的範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 Although the embodiments based on the present invention have been described above, the embodiments disclosed this time are exemplary in all respects and are not restrictive. The technical scope of the present invention is indicated by the claims and is intended to include all modifications within the meaning and scope equivalent to the claims.

1 画像形成装置、2 本体部、3 自動原稿搬送部、4 画像読取装置、5 画像形成部、6 給紙部、7 排紙部、8 操作パネル、21 スリットガラス、22 第1読取部、23 プラテンガラス、24 走査ユニット、25 走行ユニット、30 原稿搬送路、31 給紙トレイ、32 ピックアップローラ、33 給紙ローラー対、34 中間ローラー対、35 レジストローラ対、36 第1搬送ローラー対、37 第2搬送ローラー対、38 第2読取部、39 第3搬送ローラー対、40 排紙ローラー、41 排紙トレイ、42 読取ローラー、43 シェーディング板、46 支持レール、50,52 光源、51,53 ラインセンサー、70 原稿、100 画像処理部、101 判定部、102 近似式算出部、103 データ取得部、104 データ保持部、105 ピーク画素検出部、106 ボトム画素検出部、107 ダイナミックレンジ算出部、108 周期算出部、109 算出部、110 ごみ検出部、112 エリア拡張部、200 シェーディングデータ補間部、201 シェーディングデータ保持部、202 シェーディング補正部。 1 Image forming device, 2 Main body, 3 Automatic document transporting section, 4 Image reading device, 5 Image forming section, 6 Feeding section, 7 Paper ejection section, 8 Operation panel, 21 Slit glass, 22 First reading section, 23 Platen glass, 24 scanning unit, 25 traveling unit, 30 document transport path, 31 paper feed tray, 32 pickup roller, 33 paper feed roller pair, 34 intermediate roller pair, 35 resist roller pair, 36 first transport roller pair, 37th 2 transport roller pair, 38 second reader pair, 39 third transport roller pair, 40 paper ejection roller, 41 paper ejection tray, 42 reader roller, 43 shading plate, 46 support rail, 50, 52 light source, 51, 53 line sensor , 70 manuscript, 100 image processing unit, 101 judgment unit, 102 approximation formula calculation unit, 103 data acquisition unit, 104 data retention unit, 105 peak pixel detection unit, 106 bottom pixel detection unit, 107 dynamic range calculation unit, 108 cycle calculation Unit, 109 calculation unit, 110 dust detection unit, 112 area expansion unit, 200 shading data interpolation unit, 201 shading data holding unit, 202 shading correction unit.

Claims (9)

白色部材と、
前記白色部材あるいは原稿からの反射した反射光をレンズにより集光することにより画像を読み取る読取部と、
シェーディング補正を実行する画像処理部とを備え、
前記画像処理部は、
前記読取部により読み取った前記白色部材のシェーディングデータを取得する取得部と、
前記取得部で取得したシェーディングデータに基づいて前記シェーディングデータの近似式を算出する近似式算出部と、
前記近似式算出部で算出した近似式と、前記シェーディングデータとに基づいて前記白色部材に付着した付着物を検出する判定部とを含み、
前記近似式算出部は、
前記シェーディングデータの複数の変極点を検出する変極点検出部と、
前記変極点検出部で検出された複数の変極点に基づいて周期および振幅を算出する周期振幅算出部と、
前記周期振幅算出部の算出結果に基づいて正弦波の近似式を算出する正弦波算出部とを含み、
前記変極点検出部は、前記複数の変極点の画素と階調とをそれぞれ検出し、
前記周期振幅算出部は、
前記複数の変極点の隣接する画素間の距離に基づいて周期を算出し、
前記複数の変極点のピーク階調とボトム階調との階調差に基づいて振幅を算出し、
前記周期の算出において、前記複数の変極点のうち隣接する画素間の距離が所定値以上となる変極点がある場合には当該変極点を除外して前記周期を算出する、画像読取装置。
White members and
A reading unit that reads an image by condensing the reflected light reflected from the white member or the original with a lens.
Equipped with an image processing unit that executes shading correction
The image processing unit
An acquisition unit that acquires shading data of the white member read by the reading unit, and
An approximation formula calculation unit that calculates an approximation formula for the shading data based on the shading data acquired by the acquisition unit, and an approximation formula calculation unit.
Includes an approximation formula calculated by the approximation formula calculation unit and a determination unit for detecting deposits adhering to the white member based on the shading data.
The approximate expression calculation unit
A depolarizing point detection unit that detects a plurality of depolarizing points of the shading data, and
A periodic amplitude calculation unit that calculates the period and amplitude based on a plurality of depolarization points detected by the depolarization point detection unit, and a periodic amplitude calculation unit.
Including a sine wave calculation unit that calculates an approximate expression of a sine wave based on the calculation result of the periodic amplitude calculation unit.
The depolarizing point detection unit detects pixels and gradations of the plurality of depolarizing points, respectively.
The periodic amplitude calculation unit
The period is calculated based on the distance between adjacent pixels of the plurality of poles.
The amplitude is calculated based on the gradation difference between the peak gradation and the bottom gradation of the plurality of poles.
In the calculation of the period, it calculates the period excluding the inflection point in the case where the distance between pixels adjacent in the plurality of inflection point is the inflection point to be a predetermined value or more, images reader.
白色部材と、
前記白色部材あるいは原稿からの反射した反射光をレンズにより集光することにより画像を読み取る読取部と、
シェーディング補正を実行する画像処理部とを備え、
前記画像処理部は、
前記読取部により読み取った前記白色部材のシェーディングデータを取得する取得部と、
前記取得部で取得したシェーディングデータに基づいて前記シェーディングデータの近似式を算出する近似式算出部と、
前記近似式算出部で算出した近似式と、前記シェーディングデータとに基づいて前記白色部材に付着した付着物を検出する判定部とを含み、
前記近似式算出部は、
前記シェーディングデータの複数の変極点を検出する変極点検出部と、
前記変極点検出部で検出された複数の変極点に基づいて周期および振幅を算出する周期振幅算出部と、
前記周期振幅算出部の算出結果に基づいて正弦波の近似式を算出する正弦波算出部とを含み、
前記変極点検出部は、前記複数の変極点の画素と階調とをそれぞれ検出し、
前記周期振幅算出部は、
前記複数の変極点の隣接する画素間の距離に基づいて周期を算出し、
前記複数の変極点のピーク階調とボトム階調との階調差に基づいて振幅を算出し、
前記振幅の算出において、前記複数の変極点のうちピーク階調とボトム階調との階調差が所定値以上となる変極点がある場合には当該変極点を除外して前記振幅を算出する、画像読取装置。
White members and
A reading unit that reads an image by condensing the reflected light reflected from the white member or the original with a lens.
Equipped with an image processing unit that executes shading correction
The image processing unit
An acquisition unit that acquires shading data of the white member read by the reading unit, and
An approximation formula calculation unit that calculates an approximation formula for the shading data based on the shading data acquired by the acquisition unit, and an approximation formula calculation unit.
Includes an approximation formula calculated by the approximation formula calculation unit and a determination unit for detecting deposits adhering to the white member based on the shading data.
The approximate expression calculation unit
A depolarizing point detection unit that detects a plurality of depolarizing points of the shading data, and
A periodic amplitude calculation unit that calculates the period and amplitude based on a plurality of depolarization points detected by the depolarization point detection unit, and a periodic amplitude calculation unit.
Including a sine wave calculation unit that calculates an approximate expression of a sine wave based on the calculation result of the periodic amplitude calculation unit.
The depolarizing point detection unit detects pixels and gradations of the plurality of depolarizing points, respectively.
The periodic amplitude calculation unit
The period is calculated based on the distance between adjacent pixels of the plurality of poles.
The amplitude is calculated based on the gradation difference between the peak gradation and the bottom gradation of the plurality of poles.
In the calculation of the amplitude, if there is a pole that has a gradation difference between the peak gradation and the bottom gradation of a predetermined value or more among the plurality of poles, the pole is excluded and the amplitude is calculated. , images reader.
前記正弦波算出部は、前記複数の変極点のピーク階調とボトム階調との中間値を加算して前記正弦波の近似式を算出する、請求項1または請求項2に記載の画像読取装置。 The image reading according to claim 1 or 2, wherein the sine wave calculation unit calculates an approximate expression of the sine wave by adding an intermediate value between the peak gradation and the bottom gradation of the plurality of poles. apparatus. 前記画像処理部は、前記判定部の検出結果に基づいて前記付着物を検出した範囲を設定するエリア設定部をさらに含む、請求項1または請求項2に記載の画像読取装置。 The image reading device according to claim 1 or 2, wherein the image processing unit further includes an area setting unit that sets a range in which the deposit is detected based on the detection result of the determination unit. 前記エリア設定部は、前記付着物を検出した変極点に隣接するピーク階調を有する変極点間の範囲を前記付着物を検出した範囲に設定する、請求項4に記載の画像読取装置。 The image reading device according to claim 4, wherein the area setting unit sets a range between the poles having a peak gradation adjacent to the pole where the deposit is detected to a range where the deposit is detected. 白色部材と、
前記白色部材あるいは原稿からの反射した反射光をレンズにより集光することにより画像を読み取る読取部と、
シェーディング補正を実行する画像処理部とを備え、
前記画像処理部は、
前記読取部により読み取った前記白色部材のシェーディングデータを取得する取得部と、
前記取得部で取得したシェーディングデータに基づいて前記シェーディングデータの近似式を算出する近似式算出部と、
前記近似式算出部で算出した近似式と、前記シェーディングデータとに基づいて前記白色部材に付着した付着物を検出する判定部と、
前記判定部の検出結果に基づいて前記付着物を検出した範囲を設定するエリア設定部とを含み、
前記エリア設定部は、
前記付着物を検出した変極点に隣接するピーク階調を有する変極点間の範囲を前記付着物を検出した範囲に設定し、
前記隣接するピーク階調を有する変極点が連続性のあるピーク階調を有する変極点であるか否かを判断し、
前記連続性のあるピーク階調を有する変極点間の範囲を前記付着物を検出した範囲に設定する、画像読取装置。
White members and
A reading unit that reads an image by condensing the reflected light reflected from the white member or the original with a lens.
Equipped with an image processing unit that executes shading correction
The image processing unit
An acquisition unit that acquires shading data of the white member read by the reading unit, and
An approximation formula calculation unit that calculates an approximation formula for the shading data based on the shading data acquired by the acquisition unit, and an approximation formula calculation unit.
An approximation unit calculated by the approximation formula calculation unit, a determination unit for detecting deposits adhering to the white member based on the shading data, and a determination unit.
Including an area setting unit that sets a range in which the deposit is detected based on the detection result of the determination unit.
The area setting unit
The range between the poles having a peak gradation adjacent to the pole where the deposit was detected was set to the range where the deposit was detected.
It is determined whether or not the poles having adjacent peak gradations are poles having continuous peak gradations.
To set the range between inflection point having a peak tone with the continuity of the range of detection the deposits, the image reading apparatus.
白色部材からの反射した反射光をレンズにより集光することによりシェーディングデータを取得するステップと、
取得したシェーディングデータに基づいて前記シェーディングデータの近似式を算出するステップと、
算出した近似式と、前記シェーディングデータとに基づいて前記白色部材に付着した付着物を検出するステップとを備え
前記シェーディングデータの近似式を算出するステップは、
前記シェーディングデータの複数の変極点を検出するステップと、
検出された複数の変極点に基づいて周期および振幅を算出するステップと、
前記周期および前記振幅の算出結果に基づいて正弦波の近似式を算出するステップとを含み、
前記シェーディングデータの複数の変極点を検出するステップは、前記複数の変極点の画素と階調とをそれぞれ検出し、
前記検出された複数の変極点に基づいて周期および振幅を算出するステップは、
前記複数の変極点の隣接する画素間の距離に基づいて周期を算出するステップと、
前記複数の変極点のピーク階調とボトム階調との階調差に基づいて振幅を算出するステップとを含み、
前記複数の変極点の隣接する画素間の距離に基づいて周期を算出するステップは、前記複数の変極点のうち隣接する画素間の距離が所定値以上となる変極点がある場合には当該変極点を除外して前記周期を算出する、画像読取方法。
The step of acquiring shading data by condensing the reflected light reflected from the white member with a lens, and
A step of calculating an approximate expression of the shading data based on the acquired shading data, and
A step of detecting deposits adhering to the white member based on the calculated approximate expression and the shading data is provided.
The step of calculating the approximate expression of the shading data is
A step of detecting a plurality of poles of the shading data and
Steps to calculate the period and amplitude based on the multiple poles detected, and
Including the step of calculating the approximate expression of the sine wave based on the calculation result of the period and the amplitude.
In the step of detecting a plurality of poles of the shading data, the pixels and gradations of the plurality of poles are detected, respectively.
The step of calculating the period and amplitude based on the plurality of detected poles is
A step of calculating a period based on the distance between adjacent pixels of the plurality of poles, and a step of calculating the period.
Including the step of calculating the amplitude based on the gradation difference between the peak gradation and the bottom gradation of the plurality of poles.
The step of calculating the period based on the distance between the adjacent pixels of the plurality of poles is the change when there is a pole in which the distance between the adjacent pixels of the plurality of poles is equal to or greater than a predetermined value. An image reading method for calculating the period by excluding extreme points.
白色部材からの反射した反射光をレンズにより集光することによりシェーディングデータを取得するステップと、The step of acquiring shading data by condensing the reflected light reflected from the white member with a lens, and
取得したシェーディングデータに基づいて前記シェーディングデータの近似式を算出するステップと、A step of calculating an approximate expression of the shading data based on the acquired shading data, and
算出した近似式と、前記シェーディングデータとに基づいて前記白色部材に付着した付着物を検出するステップとを備え、A step of detecting deposits adhering to the white member based on the calculated approximate expression and the shading data is provided.
前記シェーディングデータの近似式を算出するステップは、The step of calculating the approximate expression of the shading data is
前記シェーディングデータの複数の変極点を検出するステップと、A step of detecting a plurality of poles of the shading data and
検出された複数の変極点に基づいて周期および振幅を算出するステップと、Steps to calculate the period and amplitude based on the multiple poles detected, and
前記周期および前記振幅の算出結果に基づいて正弦波の近似式を算出するステップとを含み、Including the step of calculating the approximate expression of the sine wave based on the calculation result of the period and the amplitude.
前記シェーディングデータの複数の変極点を検出するステップは、前記複数の変極点の画素と階調とをそれぞれ検出し、In the step of detecting a plurality of poles of the shading data, the pixels and gradations of the plurality of poles are detected, respectively.
前記検出された複数の変極点に基づいて周期および振幅を算出するステップは、The step of calculating the period and amplitude based on the plurality of detected poles is
前記複数の変極点の隣接する画素間の距離に基づいて周期を算出するステップと、A step of calculating a period based on the distance between adjacent pixels of the plurality of poles, and a step of calculating the period.
前記複数の変極点のピーク階調とボトム階調との階調差に基づいて振幅を算出するステップとを含み、Including the step of calculating the amplitude based on the gradation difference between the peak gradation and the bottom gradation of the plurality of poles.
前記複数の変極点のピーク階調とボトム階調との階調差に基づいて振幅を算出するステップは、前記複数の変極点のうちピーク階調とボトム階調との階調差が所定値以上となる変極点がある場合には当該変極点を除外して前記振幅を算出する、画像読取方法。In the step of calculating the amplitude based on the gradation difference between the peak gradation and the bottom gradation of the plurality of poles, the gradation difference between the peak gradation and the bottom gradation among the plurality of poles is a predetermined value. An image reading method for calculating the amplitude by excluding the poles when there is a pole that becomes the above.
白色部材からの反射した反射光をレンズにより集光することによりシェーディングデータを取得するステップと、The step of acquiring shading data by condensing the reflected light reflected from the white member with a lens, and
取得したシェーディングデータに基づいて前記シェーディングデータの近似式を算出するステップと、A step of calculating an approximate expression of the shading data based on the acquired shading data, and
算出した近似式と、前記シェーディングデータとに基づいて前記白色部材に付着した付着物を検出するステップと、A step of detecting deposits adhering to the white member based on the calculated approximate expression and the shading data, and a step of detecting the deposits.
前記付着物の検出結果に基づいて前記付着物を検出した範囲を設定するステップとを備え、A step of setting a range in which the deposit is detected based on the detection result of the deposit is provided.
前記付着物を検出した範囲を設定するステップは、The step of setting the range in which the deposit is detected is
前記付着物を検出した変極点に隣接するピーク階調を有する変極点間の範囲を前記付着物を検出した範囲に設定するステップと、A step of setting the range between the poles having a peak gradation adjacent to the pole where the deposit was detected to the range where the deposit was detected, and
前記隣接するピーク階調を有する変極点が連続性のあるピーク階調を有する変極点であるか否かを判断するステップと、A step of determining whether or not the pole having an adjacent peak gradation is a pole having a continuous peak gradation, and a step of determining whether or not the pole has a continuous peak gradation.
前記連続性のあるピーク階調を有する変極点間の範囲を前記付着物を検出した範囲に設定するステップとを含む、画像読取方法。An image reading method including a step of setting a range between poles having continuous peak gradation to a range in which deposits are detected.
JP2016206968A 2016-10-21 2016-10-21 Image reader and image reading method Active JP6838348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016206968A JP6838348B2 (en) 2016-10-21 2016-10-21 Image reader and image reading method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016206968A JP6838348B2 (en) 2016-10-21 2016-10-21 Image reader and image reading method

Publications (2)

Publication Number Publication Date
JP2018067879A JP2018067879A (en) 2018-04-26
JP6838348B2 true JP6838348B2 (en) 2021-03-03

Family

ID=62087301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016206968A Active JP6838348B2 (en) 2016-10-21 2016-10-21 Image reader and image reading method

Country Status (1)

Country Link
JP (1) JP6838348B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6816494B2 (en) * 2016-12-19 2021-01-20 コニカミノルタ株式会社 Image reader, image forming device, partial replacement method and program of shading data
JP2020017876A (en) * 2018-07-26 2020-01-30 コニカミノルタ株式会社 Image reading apparatus, image forming apparatus, and reading control method
JP7351211B2 (en) * 2019-12-19 2023-09-27 株式会社リコー Image reading device, image forming device, and abnormal location identification method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344737A (en) * 2001-05-14 2002-11-29 Nec Corp Image reader
JP6243160B2 (en) * 2013-07-25 2017-12-06 株式会社日立情報通信エンジニアリング Shading correction method and scanner apparatus to which the method is applied
JP6340983B2 (en) * 2014-08-01 2018-06-13 株式会社リコー Shading correction apparatus and image processing apparatus

Also Published As

Publication number Publication date
JP2018067879A (en) 2018-04-26

Similar Documents

Publication Publication Date Title
JP4759354B2 (en) Image reading device
US8917423B2 (en) Image scanner, auto document feeder, and image forming apparatus
US8068260B2 (en) Original document size detection using a line sensor for reading the original document
JP5481436B2 (en) Image reading apparatus and image forming apparatus
JP2021016110A (en) Abnormal pixel detection device, image forming apparatus, and abnormal pixel detection method
JP6838348B2 (en) Image reader and image reading method
JP2020065121A (en) Document size detection device, image reading device, image forming apparatus, and document size detection method
JP2005117090A (en) Image reading apparatus
JP6808984B2 (en) Image reader and computer program
JP7415585B2 (en) Image processing device, reading device, image forming device, and image processing method
JP6303504B2 (en) Photoelectric conversion element, image reading apparatus, and image forming apparatus
JP5298928B2 (en) Image reading apparatus, image forming apparatus, and image reading method
JP6477283B2 (en) Photoelectric conversion element, image reading apparatus, image forming apparatus, and photoelectric conversion element control method
JP2004266522A (en) Digital picture reader
JP5738157B2 (en) Image reading apparatus, image forming apparatus, and image reading method
JP2011023920A (en) Image reading apparatus and image forming apparatus
JP2014027536A (en) Image reader and image forming apparatus
JP6805521B2 (en) Image reading device, correction method of scanned image in the device, and correction program of scanned image
JP4371717B2 (en) Image reading device
JP2004343190A (en) Image reading apparatus
JP2010220076A (en) Image-reading apparatus, image forming apparatus, shading correction method, and shading correction control program
JP2011045072A (en) Image reading apparatus and image reading method
JP2017195593A (en) Signal processor, image reader, image formation apparatus and control method
JP5895336B2 (en) Image reading apparatus and image forming apparatus
JP2011045074A (en) Image reading apparatus and image reading method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210125

R150 Certificate of patent or registration of utility model

Ref document number: 6838348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150