JP2017046090A - Image reader - Google Patents

Image reader Download PDF

Info

Publication number
JP2017046090A
JP2017046090A JP2015165510A JP2015165510A JP2017046090A JP 2017046090 A JP2017046090 A JP 2017046090A JP 2015165510 A JP2015165510 A JP 2015165510A JP 2015165510 A JP2015165510 A JP 2015165510A JP 2017046090 A JP2017046090 A JP 2017046090A
Authority
JP
Japan
Prior art keywords
data
discrimination
range
pixel
gray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015165510A
Other languages
Japanese (ja)
Other versions
JP6493807B2 (en
Inventor
崇史 松海
Takashi Matsuumi
崇史 松海
中村 満
Mitsuru Nakamura
満 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2015165510A priority Critical patent/JP6493807B2/en
Publication of JP2017046090A publication Critical patent/JP2017046090A/en
Application granted granted Critical
Publication of JP6493807B2 publication Critical patent/JP6493807B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve a problem in that if displacement due to, for example, environmental temperature change occurs in a reading part, dust cannot be detected.SOLUTION: As preparation processing, a control section executes first light-grey black difference calculation processing in which first light-grey black difference data is calculated by subtracting first black data from first light-grey data. As reading pre-processing, the control section executes: second light-gray black difference calculation processing in which second light-grey black difference data is calculated by subtracting second black data from second light-grey data; determination data calculation processing in which determination data is calculated by dividing the second light-grey black difference data by the first light-gray difference data; standard deviation calculation processing in which a determination standard deviation is calculated by calculating a standard deviation for the determination data; determination range setting processing in which the larger the determination standard deviation, the wider the determination range is set; and position specifying processing in which the position of a pixel the determination data of which is not within the determination range is specified as the position of an abnormal pixel.SELECTED DRAWING: Figure 8

Description

本発明は、画像読取装置に関する。   The present invention relates to an image reading apparatus.

一般に、画像読取装置において、シェーディング補正のための配光基準部材として白色基準部材が使用され、白色基準部材を通過する原稿の画像が読み取られる。しかし、白色基準部材を使用した場合には、原稿の裏面の濃度変化が表面に影響する裏写り現象が発生することがある。この裏写り現象を低減するために、白色基準部材より反射率の低い灰色基準部材を使用してシェーディング補正を行う画像読取装置が種々提案されている。たとえば、特許文献1には、非白色の基準部材が原稿給送装置の原稿ガイドに設けられた画像読取装置が開示されている。   In general, in an image reading apparatus, a white reference member is used as a light distribution reference member for shading correction, and an image of a document passing through the white reference member is read. However, when a white reference member is used, a show-through phenomenon in which a density change on the back side of the document affects the front surface may occur. In order to reduce the show-through phenomenon, various image reading apparatuses that perform shading correction using a gray reference member having a lower reflectance than the white reference member have been proposed. For example, Patent Document 1 discloses an image reading apparatus in which a non-white reference member is provided on a document guide of a document feeder.

特許文献2には、白色基準部材に付着した埃などのゴミが白基準データに影響を与えていることを検出する画像読取装置が開示されている。特許文献2に記載の画像読取装置は、白色基準部材を読み取ることにより得られた白基準データを所定の閾値と比較することでゴミ検出を実行し、ゴミ検出された所定の閾値以下の白基準データを周囲の白基準データを用いて線形補間処理する。   Patent Document 2 discloses an image reading apparatus that detects that dust such as dust attached to a white reference member affects white reference data. The image reading apparatus described in Patent Document 2 performs dust detection by comparing white reference data obtained by reading a white reference member with a predetermined threshold, and a white reference equal to or less than a predetermined threshold in which dust is detected. Data is linearly interpolated using surrounding white reference data.

特開2000−125094号公報JP 2000-125044 A 特開2007−68047号公報JP 2007-68047 A

画像読取装置の読取部としてCIS(Contact Image sensorの略)を用いる場合に、CISの筐体、受光素子を配置している基板、および受光素子に光を結像するロッドレンズの間で、相互の位置関係が変わってしまう位置ずれが発生することがある。たとえば、CISの筐体、基板、およびロッドレンズの各部材は、樹脂等の熱膨張率が大きな材料を用いる場合に、環境温度によって伸び縮みする。このため、環境温度の変化により、CISの筐体、基板、およびロッドレンズの間で位置ずれが発生する。発生した位置ずれにより、各受光素子が受光する光量変化が発生し、各受光素子の出力が変化してしまう。   When a CIS (abbreviation of Contact Image sensor) is used as a reading unit of an image reading apparatus, a CIS casing, a substrate on which a light receiving element is arranged, and a rod lens that focuses light on the light receiving element are mutually connected. There may be a positional shift that changes the positional relationship. For example, each member of the CIS housing, substrate, and rod lens expands and contracts depending on the environmental temperature when a material having a high coefficient of thermal expansion such as resin is used. For this reason, a positional shift occurs between the CIS housing, the substrate, and the rod lens due to a change in environmental temperature. Due to the generated positional deviation, a change in the amount of light received by each light receiving element occurs and the output of each light receiving element changes.

特許文献1に記載の非白色の基準部材を設けた画像読取装置において、特許文献2に記載の画像読取装置のようにゴミ検出が実行される場合を考える。上述した環境温度の変化による位置ずれが発生すると、非白色の基準部材を読み取ることにより得られる基準データが各受光素子の出力の変化により変化してしまう。その結果、ゴミ検出が正確に実行されない問題が発生する。   Consider a case where dust detection is performed in an image reading apparatus provided with a non-white reference member described in Patent Document 1 as in the image reading apparatus described in Patent Document 2. When the positional deviation due to the environmental temperature change described above occurs, the reference data obtained by reading the non-white reference member changes due to the change in the output of each light receiving element. As a result, there arises a problem that dust detection is not accurately performed.

そこで、本発明は上述した事情に鑑みてなされ、環境温度の変化などによる位置ずれが読取部の構成部材に発生した場合でも、正確なゴミ検出が可能な画像読取装置を提供することを目的とする。   Accordingly, the present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide an image reading apparatus capable of accurately detecting dust even when a positional deviation due to a change in environmental temperature or the like occurs in a constituent member of a reading unit. To do.

上記目的を達成するために、請求項1に記載の発明態様は、原稿が搬送される搬送経路に配置され、白色よりも反射率が低い灰色基準部材と、原稿が前記灰色基準部材を通過するときに原稿に光を照射して原稿の画像をライン単位で画素毎に読み取る読取部と、前記読取部が読み取った画像データを補正データに基づきシェーディング補正する補正部と、記憶部と、事前処理を実行した後に、読取前処理を実行する制御部と、を備え、前記制御部は、前記事前処理として、前記読取部が消灯して原稿を読み取ったときに前記読取部から出力される1ライン中の各画素の第1黒データを取得する第1黒データ取得処理と、前記読取部が前記灰色基準部材を照射して読み取ったときに前記読取部から出力される1ライン中の各画素の第1灰淡データを取得する第1灰淡データ取得処理と、1ライン中の各画素において前記第1灰淡データから前記第1黒データを引算して1ライン中の各画素の第1灰淡黒差分データを算出し、前記記憶部に記憶する第1灰淡黒差分算出処理と、を実行し、前記読取前処理として、前記読取部が消灯して前記灰色基準部材を読み取ったときに前記読取部から出力される1ライン中の各画素の第2黒データを取得する第2黒データ取得処理と、前記読取部が前記灰色基準部材を照射して読み取ったときに前記読取部から出力される1ライン中の各画素の第2灰淡データを取得する第2灰淡データ取得処理と、1ライン中の各画素において前記第2灰淡データから前記第2黒データを引算して1ライン中の各画素の第2灰淡黒差分データを算出する第2灰淡黒差分算出処理と、1ライン中の各画素において前記第2灰淡黒差分データを前記第1灰淡黒差分データで割算して1ライン中の各画素の判別データを算出する判別データ算出処理と、前記判別データの標準偏差を算出して判別標準偏差を算出する標準偏差算出処理と、前記判別標準偏差が大きいほど判別範囲を広く設定する判別範囲設定処理と、前記判別データが前記判別範囲内でない画素の画素位置を異常画素位置として特定する位置特定処理と、を実行する。   In order to achieve the above object, according to the first aspect of the present invention, there is provided a gray reference member that is disposed in a transport path through which a document is transported and has a lower reflectance than white, and the document passes through the gray reference member. A reading unit that sometimes irradiates light on a document to read an image of the document on a pixel-by-line basis, a correction unit that corrects shading of image data read by the reading unit based on correction data, a storage unit, and preprocessing And a control unit that executes a pre-reading process, and the control unit outputs, as the preliminary process, 1 from the reading unit when the reading unit is turned off and a document is read. First black data acquisition processing for acquiring first black data of each pixel in the line, and each pixel in one line output from the reading unit when the reading unit irradiates and reads the gray reference member No. 1 Ash Day First gray data acquisition processing, and subtracting the first black data from the first gray data for each pixel in one line to obtain first gray light difference data for each pixel in one line And a first gray-black difference calculation process stored in the storage unit, and as the pre-reading process, when the reading unit is turned off and the gray reference member is read from the reading unit Second black data acquisition processing for acquiring second black data of each pixel in one output line, and one line output from the reading unit when the reading unit irradiates and reads the gray reference member Second gray data acquisition processing for acquiring second gray data of each pixel in the pixel, and subtracting the second black data from the second gray data in each pixel in one line Second gray light black for calculating second gray light black difference data of each pixel Minute calculation processing and discrimination data calculation processing for calculating discrimination data for each pixel in one line by dividing the second gray / light black difference data by the first gray / light black difference data in each pixel in one line A standard deviation calculation process for calculating a standard deviation of the discrimination data to calculate a discrimination standard deviation; a discrimination range setting process for setting a discrimination range wider as the discrimination standard deviation is larger; and the discrimination data is the discrimination range And a position specifying process for specifying a pixel position of a pixel not inside as an abnormal pixel position.

請求項2に記載の具体的態様は、前記判別範囲設定処理は、前記判別データの平均値を判別平均値として算出する平均処理を含み、前記判別範囲設定処理は、前記判別標準偏差が第1所定値以下の場合に、前記判別範囲の上限を前記判別平均値に4%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に4%割減した値とする範囲を前記判別範囲として設定し、前記判別標準偏差が第1所定値より大きく、且つ第2所定値以下の場合に、前記判別範囲の上限を前記判別平均値に5%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に5%割減した値とする範囲を前記判別範囲として設定し、前記判別標準偏差が第2所定値より大きく、且つ第3所定値以下の場合に、前記判別範囲の上限を前記判別平均値に6.5%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に6.5%割減した値とする範囲を前記判別範囲として設定し、前記判別標準偏差が第3所定値より大きく、且つ第4所定値以下の場合に、前記判別範囲の上限を前記判別平均値に8.5%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に8.5%割減した値とする範囲を前記判別範囲として設定し、前記判別標準偏差が第4所定値より大きく、且つ第5所定値以下の場合に、前記判別範囲の上限を前記判別平均値に10.5%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に10.5%割減した値とする範囲を前記判別範囲として設定し、前記判別標準偏差が第5所定値より大きい場合に、前記判別範囲の上限を前記判別平均値に13%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に13%割減した値とする範囲を前記判別範囲として設定する。   According to a specific aspect of the present invention, the determination range setting process includes an average process for calculating an average value of the determination data as a determination average value. The determination range setting process has a first determination standard deviation. When the value is equal to or less than a predetermined value, a range in which the upper limit of the discrimination range is a value obtained by adding 4% to the discrimination average value and a lower limit of the discrimination range is a value obtained by subtracting 4% from the discrimination average value. When the discrimination standard deviation is greater than a first predetermined value and less than or equal to a second predetermined value, the upper limit of the discrimination range is a value obtained by adding 5% to the discrimination average value, and the lower limit of the discrimination range Is set as the discrimination range, and when the discrimination standard deviation is larger than the second predetermined value and not more than the third predetermined value, the upper limit of the discrimination range Is increased by 6.5% to the discrimination average And a range in which the lower limit of the discrimination range is 6.5% less than the discrimination average value is set as the discrimination range, the discrimination standard deviation is greater than a third predetermined value, and a fourth predetermined When the value is less than or equal to the value, a range in which the upper limit of the discrimination range is 8.5% higher than the discrimination average and the lower limit of the discrimination range is 8.5% lower than the discrimination average Set as the discrimination range, and when the discrimination standard deviation is greater than a fourth predetermined value and less than or equal to a fifth predetermined value, the upper limit of the discrimination range is a value obtained by adding 10.5% to the discrimination average value; and A range in which the lower limit of the determination range is 10.5% less than the determination average value is set as the determination range, and when the determination standard deviation is larger than a fifth predetermined value, the upper limit of the determination range is set. A value that is 13% higher than the discriminant average, and The range of a value obtained by 13% split down on the discriminant average the lower limit of the serial determination range is set as the determination range.

請求項3に記載の具体的態様は、前記読取部は、光源と、複数のブロックに区分される多数の光電変換素子とを含み、前記標準偏差算出処理は、前記複数のブロックのうち1ライン中に最初に出力されるブロックに存在する全ての画素の前記判別データを用いて標準偏差を算出して前記判別標準偏差を算出する。   According to a specific aspect of the present invention, the reading unit includes a light source and a large number of photoelectric conversion elements divided into a plurality of blocks, and the standard deviation calculation process is performed on one line of the plurality of blocks. The standard deviation is calculated by using the discrimination data of all the pixels existing in the block that is output first, and the discrimination standard deviation is calculated.

請求項1に記載の発明態様では、事前処理として、第1灰淡黒差分算出処理は、1ライン中の各画素において第1灰淡データから第1黒データを引算して1ライン中の各画素の第1灰淡黒差分データを算出し、記憶部に記憶し、読取前処理として、第2灰淡黒差分算出処理は、1ライン中の各画素において第2灰淡データから第2黒データを引算して1ライン中の各画素の第2灰淡黒差分データを算出し、判別データ算出処理は、1ライン中の各画素において第2灰淡黒差分データを第1灰淡黒差分データで割算して1ライン中の各画素の判別データを算出し、標準偏差算出処理は、判別データの標準偏差を算出して判別標準偏差を算出し、判別範囲設定処理は、判別標準偏差が大きいほど判別範囲を広く設定し、位置特定処理は、判別データが判別範囲内でない画素の画素位置を異常画素位置として特定する。よって、判別標準偏差が大きいほど判別範囲を広く設定するため、ゴミ位置である異常画素位置を精度良く検出することができる。   According to the first aspect of the present invention, as the preliminary processing, the first gray / light black difference calculation processing subtracts the first black data from the first gray / light data at each pixel in one line. First gray light black difference data of each pixel is calculated, stored in the storage unit, and as a pre-reading process, the second gray light black difference calculation process is performed from the second gray light data for each pixel in one line. The black data is subtracted to calculate the second gray light black difference data of each pixel in one line, and the discrimination data calculation process calculates the second gray light black difference data in each pixel in one line. Divide by the black difference data to calculate the discrimination data for each pixel in one line, the standard deviation calculation process calculates the standard deviation of the discrimination data, calculates the discrimination standard deviation, and the discrimination range setting process The larger the standard deviation is, the wider the discrimination range is set. Identifies the pixel position of a pixel that is not within the discrimination range as an abnormal pixel position. Accordingly, the larger the discrimination standard deviation is, the wider the discrimination range is set, so that an abnormal pixel position that is a dust position can be detected with high accuracy.

請求項2に記載の具体的態様では、判別範囲設定処理は、判別標準偏差が第1所定値以下の場合に、判別範囲の上限を判別平均値に4%割増した値とし、且つ判別範囲の下限を判別平均値に4%割減した値とする範囲を判別範囲として設定し、判別標準偏差が第1所定値より大きく、且つ第2所定値以下の場合に、判別範囲の上限を判別平均値に5%割増した値とし、且つ判別範囲の下限を判別平均値に5%割減した値とする範囲を判別範囲として設定し、判別標準偏差が第2所定値より大きく、且つ第3所定値以下の場合に、判別範囲の上限を判別平均値に6.5%割増した値とし、且つ判別範囲の下限を判別平均値に6.5%割減した値とする範囲を判別範囲として設定し、判別標準偏差が第3所定値より大きく、且つ第4所定値以下の場合に、判別範囲の上限を判別平均値に8.5%割増した値とし、且つ判別範囲の下限を判別平均値に8.5%割減した値とする範囲を判別範囲として設定し、判別標準偏差が第4所定値より大きく、且つ第5所定値以下の場合に、判別範囲の上限を判別平均値に10.5%割増した値とし、且つ判別範囲の下限を判別平均値に10.5%割減した値とする範囲を判別範囲として設定し、判別標準偏差が第5所定値より大きい場合に、判別範囲の上限を判別平均値の13%割増した値とし、且つ判別範囲の下限を判別平均値の13%割減した値とする範囲を判別範囲として設定する。よって、判別標準偏差の変動を考慮して判別範囲を設定しているため、判別標準偏差の変動による影響を低減して、異常画素位置を精度良く検出することができる。   According to a specific aspect of the present invention, the determination range setting process sets the upper limit of the determination range to a value obtained by adding 4% to the determination average value when the determination standard deviation is equal to or less than the first predetermined value, The range where the lower limit is 4% discounted to the discriminant average value is set as the discriminant range, and when the discriminant standard deviation is larger than the first predetermined value and less than or equal to the second predetermined value, the upper limit of the discriminant range is discriminated average A range in which the lower limit of the discrimination range is 5% less than the discrimination average value is set as the discrimination range, the discrimination standard deviation is greater than the second predetermined value, and the third predetermined value If the value is less than or equal to the value, the upper limit of the discrimination range is set to a value that is 6.5% higher than the discrimination average value, and the range that is the lower limit of the discrimination range to a value that is 6.5% lower than the discrimination average value is set as the discrimination range And the discriminant standard deviation is larger than the third predetermined value and not larger than the fourth predetermined value. The upper limit of the discrimination range is 8.5% higher than the discrimination average and the lower limit of the discrimination range is 8.5% lower than the discrimination average. When the standard deviation is larger than the fourth predetermined value and equal to or smaller than the fifth predetermined value, the upper limit of the determination range is set to a value obtained by adding 10.5% to the determination average value, and the lower limit of the determination range is set to 10. A range with a value reduced by 5% is set as the discrimination range, and when the discrimination standard deviation is larger than the fifth predetermined value, the upper limit of the discrimination range is set to a value that is 13% extra of the discrimination average value, and the lower limit of the discrimination range Is set as a discrimination range. Therefore, since the determination range is set in consideration of the variation of the determination standard deviation, it is possible to reduce the influence of the variation of the determination standard deviation and detect the abnormal pixel position with high accuracy.

請求項3に記載の具体的態様では、標準偏差算出処理は、複数のブロックのうち1ライン中に最初に出力されるブロックに存在する全ての画素の判別データを用いて標準偏差を算出して判別標準偏差を算出する。よって、環境温度などによる位置ずれは読取部の端部においてずれ量が大きい傾向があるため、最初に出力される先頭ブロックの判別データのみを用いることで、より速く、異常画素位置の検出精度の高い判別標準偏差を算出することができる。   According to a specific aspect of the present invention, the standard deviation calculation process calculates the standard deviation using the discrimination data of all the pixels present in the block output first in one line among the plurality of blocks. The discrimination standard deviation is calculated. Therefore, the positional deviation due to the environmental temperature tends to be large at the end of the reading unit. A high discrimination standard deviation can be calculated.

本発明の実施形態に係る画像読取装置1の内部構成を示す正面図である。1 is a front view showing an internal configuration of an image reading apparatus 1 according to an embodiment of the present invention. 画像読取装置1の読取部24の構成を拡大して示す図面である。2 is an enlarged view illustrating a configuration of a reading unit 24 of the image reading apparatus 1. 読取部24の受光部31の構成を示すブロック図である。3 is a block diagram illustrating a configuration of a light receiving unit 31 of a reading unit 24. FIG. 画像読取装置1の電気的構成を示すブロック図である。2 is a block diagram illustrating an electrical configuration of the image reading apparatus 1. FIG. 保守メイン処理を示すフローチャートである。It is a flowchart which shows a maintenance main process. 灰淡黒差分データLGBdif1記憶M16を示すフローチャートである。It is a flowchart which shows gray light black difference data LGBdif1 memory | storage M16. 読取メイン処理を示すフローチャートである。It is a flowchart which shows a reading main process. 基準データCD算出R7を示すフローチャートである。It is a flowchart which shows reference | standard data CD calculation R7.

[実施形態]
以下に、本発明の一実施形態に係る画像読取装置1について図面を参照して説明する。図1において、上下方向および前後方向は矢印により示される。
[Embodiment]
Hereinafter, an image reading apparatus 1 according to an embodiment of the present invention will be described with reference to the drawings. In FIG. 1, the vertical direction and the front-back direction are indicated by arrows.

<画像読取装置1の機械的構成>
図1において、画像読取装置1は、給紙トレイ2と、本体部3と、排紙トレイ4とを備える。操作部5、および表示部6が、本体部3の上面に配置される。操作部5は、電源スイッチ、および各種設定ボタンを含み、使用者からの操作指令等を受け付ける。たとえば、操作部5は、3色のカラーモードおよび単色のモノモードのいずれかを選択する選択ボタン、解像度を設定する操作ボタンなどを含む。表示部6は、LCDを含み、画像読取装置1の状況を表示する。
<Mechanical Configuration of Image Reading Apparatus 1>
In FIG. 1, the image reading apparatus 1 includes a paper feed tray 2, a main body 3, and a paper discharge tray 4. The operation unit 5 and the display unit 6 are disposed on the upper surface of the main body unit 3. The operation unit 5 includes a power switch and various setting buttons, and receives operation commands and the like from the user. For example, the operation unit 5 includes a selection button for selecting one of a three-color mode and a mono mode and an operation button for setting a resolution. The display unit 6 includes an LCD and displays the status of the image reading apparatus 1.

搬送経路20が、本体部3の内部に形成される。給紙トレイ2に載置された原稿GSは、搬送経路20に沿って搬送方向FDに搬送され、排紙トレイ4に排出される。給紙ローラ21と、分離パッド22と、一対の上流側搬送ローラ23と、読取部24と、プラテンガラス25と、一対の下流側搬送ローラ26とが、搬送経路20に沿って配置される。   A conveyance path 20 is formed inside the main body 3. The document GS placed on the paper feed tray 2 is transported in the transport direction FD along the transport path 20 and is discharged to the paper discharge tray 4. A paper feed roller 21, a separation pad 22, a pair of upstream transport rollers 23, a reading unit 24, a platen glass 25, and a pair of downstream transport rollers 26 are arranged along the transport path 20.

給紙ローラ21は、分離パッド22と協働して、給紙トレイ2に載置された複数枚の原稿GSを、1枚ずつ給送する。上流側搬送ローラ23、および下流側搬送ローラ26は、搬送モータMT(図4参照)により駆動される。プラテンガラス25は、光透過性を有し、搬送経路20の下側において搬送経路20に沿って配置される。搬送ローラ23、26は、給紙ローラ21から給送された原稿GSがプラテンガラス25の上を通過するように原稿GSを搬送する。   The paper feed roller 21 cooperates with the separation pad 22 to feed a plurality of originals GS placed on the paper feed tray 2 one by one. The upstream side conveyance roller 23 and the downstream side conveyance roller 26 are driven by a conveyance motor MT (see FIG. 4). The platen glass 25 is light transmissive and is disposed along the transport path 20 below the transport path 20. The transport rollers 23 and 26 transport the document GS so that the document GS fed from the paper feed roller 21 passes over the platen glass 25.

本実施形態では、原稿GSの読み取り面が給紙トレイ2の載置面に向くように原稿GSが給紙トレイ2に載置される。読取部24は、搬送経路20の下側に配置され、プラテンガラス25を通過する原稿GSの読み取り面の画像を読み取る。原稿センサ27が、給紙トレイ2に配置され、給紙トレイ2に原稿GSが載置されたときにオンし、給紙トレイ2に原稿GSが載置されていないときにオフするように構成される。   In the present embodiment, the document GS is placed on the paper feed tray 2 so that the reading surface of the document GS faces the placement surface of the paper feed tray 2. The reading unit 24 is disposed below the conveyance path 20 and reads an image on the reading surface of the document GS passing through the platen glass 25. The document sensor 27 is disposed in the paper feed tray 2 and is turned on when the document GS is placed on the paper feed tray 2 and turned off when the document GS is not placed on the paper feed tray 2. Is done.

(読取部24の詳細な構成)
読取部24の詳細な構成について図2および図3を参照して説明する。図2において、読取部24は、光源30と、受光部31と、光学部材32とを備える。光源30は、赤色、緑色および青色の3色の発光ダイオードを含む。光源30から出射された光が原稿GSの読み取り面などにより反射されたときに、光学部材32は、反射光を受光部31に導く。本実施形態において、カラーモードが選択されたとき、3色の発光ダイオードが順次点灯することにより1ラインの原稿GSの画像が読み取られる。また、モノモードが選択されたとき、3色のうちの特定の1色、たとえば緑色の発光ダイオードが点灯することにより1ラインの原稿GSの画像が読み取られる。
(Detailed configuration of the reading unit 24)
A detailed configuration of the reading unit 24 will be described with reference to FIGS. 2 and 3. In FIG. 2, the reading unit 24 includes a light source 30, a light receiving unit 31, and an optical member 32. The light source 30 includes light emitting diodes of three colors of red, green, and blue. When the light emitted from the light source 30 is reflected by the reading surface of the document GS or the like, the optical member 32 guides the reflected light to the light receiving unit 31. In the present embodiment, when the color mode is selected, an image of the one-line original GS is read by sequentially turning on the three color light emitting diodes. When the mono mode is selected, one line of the original GS is read by turning on a specific one of the three colors, for example, a green light emitting diode.

灰色基準板34が、読取部24と搬送経路20を介して対向する位置に、配置される。灰色基準板34は、原稿GSの背景色である白色より低い反射率を有する。搬送経路20に原稿GSが存在しない場合、光源30からの出射光は、灰色基準板34により反射され、その反射光は光学部材32を介して受光部31により受光される。光学部材32は、主走査方向MDに延びるロッドレンズを含む。本実施形態における灰色基準板34が有する灰色の濃度は、黒色の濃度に近く、後述するような光源30を最大光量で点灯したときでも、白色による反射濃度よりも低い反射濃度となる濃度である。   The gray reference plate 34 is disposed at a position facing the reading unit 24 via the conveyance path 20. The gray reference plate 34 has a lower reflectance than white, which is the background color of the document GS. When the document GS is not present on the conveyance path 20, the light emitted from the light source 30 is reflected by the gray reference plate 34, and the reflected light is received by the light receiving unit 31 through the optical member 32. The optical member 32 includes a rod lens extending in the main scanning direction MD. The gray density of the gray reference plate 34 in the present embodiment is close to the black density, and is a density at which the reflection density is lower than the reflection density of white even when the light source 30 as will be described later is turned on with the maximum light amount. .

図3において、受光部31は、主走査方向MDに直線状に配列される6個のセンサICチップCH1〜CH6を有し、各センサICチップは、主走査方向MDに配列される多数の光電変換素子33を含み、図示しないシフトレジスタ、および増幅器を内蔵する。先頭画素は、センサICチップCH1内のセンサICチップと隣接していない側の端部にある画素であり、最終画素は、センサICチップCH6内のセンサICチップと隣接していない側の端部にある画素である。画素番号は、先頭画素から順番に最終画素まで付されている。チップ番号は、先頭画素を有する先頭のセンサICチップCH1が1であり、最終画素を有する最終のセンサICチップCH6が6である。本実施形態では、受光部31は、6個のセンサICチップCH1〜CH6を有していたが、6個より多い数のセンサICチップを有していても良い。各センサICチップCH1〜CH6は、出力特性が異なっている。1ラインは、この先頭画素から最終画素で構成される画素群である。   In FIG. 3, the light receiving unit 31 has six sensor IC chips CH1 to CH6 arranged linearly in the main scanning direction MD, and each sensor IC chip has a number of photoelectric ICs arranged in the main scanning direction MD. The conversion element 33 is included, and a shift register (not shown) and an amplifier are incorporated. The first pixel is a pixel at an end portion on the side not adjacent to the sensor IC chip in the sensor IC chip CH1, and the last pixel is an end portion on the side not adjacent to the sensor IC chip in the sensor IC chip CH6. It is a pixel. The pixel numbers are assigned from the first pixel to the last pixel in order. As for the chip number, the first sensor IC chip CH1 having the first pixel is 1, and the last sensor IC chip CH6 having the last pixel is 6. In the present embodiment, the light receiving unit 31 has six sensor IC chips CH1 to CH6, but may have more than six sensor IC chips. The sensor IC chips CH1 to CH6 have different output characteristics. One line is a pixel group composed of the first pixel to the last pixel.

<画像読取装置1の電気的構成>
画像読取装置1の電気的構成について図4を参照して説明する。図4において、画像読取装置1は、CPU40、ROM41、RAM42、フラッシュPROM43、デバイス制御部44、アナログフロントエンド(以下、AFEという。)45、画像処理部46、および駆動回路47を主な構成要素として備える。これらの構成要素は、バス48を介して、操作部5、表示部6、および原稿センサ27に接続される。
<Electrical Configuration of Image Reading Apparatus 1>
The electrical configuration of the image reading apparatus 1 will be described with reference to FIG. 4, the image reading apparatus 1 includes a CPU 40, a ROM 41, a RAM 42, a flash PROM 43, a device control unit 44, an analog front end (hereinafter referred to as AFE) 45, an image processing unit 46, and a drive circuit 47. Prepare as. These components are connected to the operation unit 5, the display unit 6, and the document sensor 27 via the bus 48.

ROM41は、後述する保守メイン処理、読取メイン処理、各メイン処理中のサブルーチンの処理など、画像読取装置1の各種動作を実行するためのプログラムを記憶する。CPU40は、ROM41から読み出されたプログラムに従って、各部の制御を行う。フラッシュPROM43は、読み書き可能な不揮発性メモリであり、CPU40の制御処理により生成された各種のデータ、たとえば保守メイン処理により算出された各種データなどを記憶する。RAM42は、CPU40の制御処理により生成された算出結果などを一時的に記憶する。   The ROM 41 stores programs for executing various operations of the image reading apparatus 1 such as a maintenance main process, a reading main process, and a subroutine process in each main process, which will be described later. The CPU 40 controls each unit according to the program read from the ROM 41. The flash PROM 43 is a readable and writable nonvolatile memory, and stores various data generated by the control process of the CPU 40, for example, various data calculated by the maintenance main process. The RAM 42 temporarily stores the calculation result generated by the control process of the CPU 40.

デバイス制御部44は、読取部24に接続され、CPU40からの命令に基いて、光源30の点灯または消灯を制御する信号、および、光源30に流れる電流値を制御する信号を読取部24に送信する。また、デバイス制御部44は、CPU40からの命令に基いて、受光部31のセンサICチップCH1〜CH6の多数の光電変換素子33を順番に動作させるために、図3に示すように各画素を転送するためのクロック信号CLK、および、全ての光電変換素子の電気信号を同時にシフトレジスタに転送するためのシリアルイン信号SIを受光部31に送信する。読取部24は、デバイス制御部44からこれらの制御信号を受け取ると、光源30を点灯させるとともに、受光部31が受光した受光量に応じたアナログ信号をAFE45に送信する。ここで、光源30が照射する最大光量は、予め定められた最大電流値と、シリアルイン信号SIの間隔における光源30が点灯可能な最大期間とから決定される光量である。   The device control unit 44 is connected to the reading unit 24 and transmits to the reading unit 24 a signal for controlling turning on / off of the light source 30 and a signal for controlling a current value flowing through the light source 30 based on a command from the CPU 40. To do. Further, the device control unit 44 operates each pixel as shown in FIG. 3 in order to sequentially operate the large number of photoelectric conversion elements 33 of the sensor IC chips CH1 to CH6 of the light receiving unit 31 based on a command from the CPU 40. A clock signal CLK for transfer and a serial-in signal SI for simultaneously transferring electric signals of all the photoelectric conversion elements to the shift register are transmitted to the light receiving unit 31. Upon receiving these control signals from the device control unit 44, the reading unit 24 turns on the light source 30 and transmits an analog signal corresponding to the amount of light received by the light receiving unit 31 to the AFE 45. Here, the maximum light amount irradiated by the light source 30 is a light amount determined from a predetermined maximum current value and a maximum period during which the light source 30 can be turned on at the interval of the serial-in signal SI.

AFE45は、読取部24に接続され、CPU40からの命令に基づいて、読取部24から送信されるアナログ信号をデジタルデータに変換する。AFE45は、予め定められた入力レンジおよび分解能を有する。たとえば、分解能は、10ビットであるならば「0」から「1023」の階調である。この場合、AFE45は、読取部24から送信されたアナログ信号をデジタルデータとして10ビット(0〜1023)の階調データに変換する。AFE45によって変換されたデジタルデータは、画像処理部46に送信される。画像処理部46は、画像処理用の専用ICであるASICから構成され、デジタルデータに各種の画像処理を施す。画像処理は、シェーディング補正、およびγ補正などの各種の補正処理などである。画像処理部46は、各種の画像処理を施さないように設定することもできるし、全ての画像処理を施すように設定することもできる。画像処理部46は、設定された画像処理をデジタルデータに施し、デジタル画像データを生成する。そのデジタル画像データは、バス48を介してRAM42に記憶される。   The AFE 45 is connected to the reading unit 24 and converts an analog signal transmitted from the reading unit 24 into digital data based on a command from the CPU 40. The AFE 45 has a predetermined input range and resolution. For example, if the resolution is 10 bits, the gradation is from “0” to “1023”. In this case, the AFE 45 converts the analog signal transmitted from the reading unit 24 into 10-bit (0 to 1023) gradation data as digital data. The digital data converted by the AFE 45 is transmitted to the image processing unit 46. The image processing unit 46 is composed of an ASIC that is a dedicated IC for image processing, and performs various types of image processing on the digital data. The image processing includes various correction processes such as shading correction and γ correction. The image processing unit 46 can be set not to perform various types of image processing, or can be set to perform all image processing. The image processing unit 46 performs the set image processing on the digital data to generate digital image data. The digital image data is stored in the RAM 42 via the bus 48.

駆動回路47は、搬送モータMTに接続され、CPU40から送信される駆動指令に基づいて搬送モータMTを駆動する。駆動回路47は、駆動指令により指令された回転量および回転方向に従って搬送モータMTを回転させる。搬送モータMTが所定量だけ回転すると、搬送ローラ23、26が所定角度回転し、搬送経路20において原稿GSが所定距離だけ搬送される。   The drive circuit 47 is connected to the transport motor MT and drives the transport motor MT based on a drive command transmitted from the CPU 40. The drive circuit 47 rotates the transport motor MT according to the rotation amount and the rotation direction commanded by the drive command. When the transport motor MT rotates by a predetermined amount, the transport rollers 23 and 26 rotate by a predetermined angle, and the document GS is transported by a predetermined distance on the transport path 20.

<実施形態の動作>
次に、画像読取装置1の動作について図面を参照して説明する。画像読取装置1は、原稿GSの読み取り前に実行される保守メイン処理と、原稿GSを読み取る読取メイン処理とを主に実行する。保守メイン処理中のステップM1〜M16の処理、読取メイン処理中のステップR1〜R8の処理、および各サブルーチンのステップの処理は、CPU40が実行する処理である。本実施形態において、CPU40が1ラインの各画素について実行するデータ処理は、カラーモードにおいて3色の各画素について実行する処理であり、モノモードにおいて特定の1色の各画素について実行する処理である。本実施形態では、カラーモードについて説明する。
<Operation of Embodiment>
Next, the operation of the image reading apparatus 1 will be described with reference to the drawings. The image reading apparatus 1 mainly executes a maintenance main process executed before reading the document GS and a read main process for reading the document GS. The processing of steps M1 to M16 during the maintenance main processing, the processing of steps R1 to R8 during the reading main processing, and the processing of the steps of each subroutine are processing executed by the CPU 40. In the present embodiment, the data processing executed by the CPU 40 for each pixel of one line is processing executed for each pixel of three colors in the color mode, and is processing executed for each pixel of a specific color in the mono mode. . In this embodiment, a color mode will be described.

(保守メイン処理)
図5に示す保守メイン処理は、画像読取装置1が工場から出荷される前に、または出荷後にサービスマンが保守点検するときに、サービスマン等の作業者が画像読取装置1の操作部5を特別な操作方法に従って操作することにより開始される。本実施形態では、読取解像度として600DPIが用いられ、カラーモードが用いられるときについて説明する。
(Maintenance main processing)
The maintenance main process shown in FIG. 5 is performed when an operator such as a service person operates the operation unit 5 of the image reading apparatus 1 before the image reading apparatus 1 is shipped from the factory or when a service person performs maintenance inspection after the shipment. Start by operating according to a special operating method. In this embodiment, a case where 600 DPI is used as the reading resolution and the color mode is used will be described.

まず、作業者が、白基準となる特別な白基準原稿WGSを給紙トレイ2に載置すると、原稿センサ27が白基準原稿WGSを検知する。原稿センサ27からの検知信号に従って、白基準原稿WGSがあるか否かが判断される(M1)。CPU40は、白基準原稿WGSがあるとき(M1:Yes)、処理M2に進む。CPU40は、白基準原稿WGSがないとき(M1:No)、処理M11に進み、原稿載置状態が誤っていることを報知するエラーメッセージを表示部6に表示させる(M11)。処理M11が終了すると、保守メイン処理が終了する。   First, when an operator places a special white reference document WGS serving as a white reference on the paper feed tray 2, the document sensor 27 detects the white reference document WGS. It is determined whether there is a white reference document WGS according to the detection signal from the document sensor 27 (M1). When the white reference original WGS is present (M1: Yes), the CPU 40 proceeds to process M2. When there is no white reference original WGS (M1: No), the CPU 40 proceeds to processing M11 and displays an error message notifying that the original placement state is incorrect on the display unit 6 (M11). When the process M11 ends, the maintenance main process ends.

処理M1において、白基準原稿WGSがあると判断(M1:Yes)されると、CPU40は、駆動回路47により白基準原稿WGSをプラテンガラス25まで給送させ、デバイス制御部44、AFE45、および画像処理部46を初期化する(M2)。具体的には、CPU40は、駆動回路47に駆動指令を送信し、給紙トレイ2に載置された白基準原稿WGSをプラテンガラス25まで給送させる。さらに、CPU40は、600DPIの読取解像度に対応するクロック信号CLKおよびシリアルイン信号SIの設定をフラッシュPROM43から取得し、デバイス制御部44に設定する。CPU40は、カラーモード時に対応する光源30への信号の設定をフラッシュPROM43から取得し、デバイス制御部44に設定する。CPU40は、AFE45のオフセット調整値およびゲイン調整値をフラッシュPROM43から取得し、AFE45に設定する。ここで、オフセット調整値は、AFE45に入力されるアナログ信号のレベルをシフトする値であり、ゲイン調整値は、AFE45に入力されるアナログ信号の利得を調整する値である。CPU40は、各種の画像処理を施さないように画像処理部46に設定する。   If it is determined in process M1 that there is a white reference document WGS (M1: Yes), the CPU 40 causes the drive circuit 47 to feed the white reference document WGS to the platen glass 25, and the device control unit 44, AFE 45, and image. The processing unit 46 is initialized (M2). Specifically, the CPU 40 transmits a drive command to the drive circuit 47 to feed the white reference document WGS placed on the paper feed tray 2 to the platen glass 25. Further, the CPU 40 acquires the settings of the clock signal CLK and the serial-in signal SI corresponding to the reading resolution of 600 DPI from the flash PROM 43 and sets them in the device control unit 44. The CPU 40 acquires the signal setting for the light source 30 corresponding to the color mode from the flash PROM 43 and sets it in the device control unit 44. The CPU 40 acquires the offset adjustment value and the gain adjustment value of the AFE 45 from the flash PROM 43 and sets them in the AFE 45. Here, the offset adjustment value is a value for shifting the level of the analog signal input to the AFE 45, and the gain adjustment value is a value for adjusting the gain of the analog signal input to the AFE 45. The CPU 40 sets the image processing unit 46 so as not to perform various image processing.

CPU40は、光源30の光量を調整する(M3)。具体的には、CPU40は、白基準原稿WGSに向けて、光源30から光を照射させ、その反射光を読み取った時のアナログ信号がAFE45の入力レンジの最大となるように、各色の光量STを調整する。光量STは、光源30の1ライン中の各色における点灯期間および電流値にて決定される。   The CPU 40 adjusts the light amount of the light source 30 (M3). Specifically, the CPU 40 irradiates light from the light source 30 toward the white reference document WGS, and the light amount ST of each color is set so that the analog signal when the reflected light is read becomes the maximum of the input range of the AFE 45. Adjust. The light quantity ST is determined by the lighting period and current value for each color in one line of the light source 30.

CPU40は、白データWHを取得する(M4)。具体的には、CPU40は、光源30を各色の光量STで点灯させ、白基準原稿WGSを読み取る。そして、CPU40は、読み取った1ラインの各色の各画素のデジタル画像データを白データWHとして取得する。   The CPU 40 acquires white data WH (M4). Specifically, the CPU 40 turns on the light source 30 with the light quantity ST of each color, and reads the white reference document WGS. Then, the CPU 40 acquires the read digital image data of each pixel of each color of one line as white data WH.

CPU40は、黒データBK1を取得する(M5)。具体的には、CPU40は、光源30を消灯させ、白基準原稿WGSを読み取る。そして、読み取った1ラインの1色の各画素のデジタル画像データを黒データBK1として取得する。   The CPU 40 acquires black data BK1 (M5). Specifically, the CPU 40 turns off the light source 30 and reads the white reference document WGS. The read digital image data of each pixel of one color of one line is acquired as black data BK1.

CPU40は、白黒差分データWBdifを算出する(M6)。具体的には、CPU40は、1ラインの各色の各画素の白データWHから黒データBK1を引算し、1ラインの各色の各画素の白黒差分データWBdifとしてRAM42に記憶する。   The CPU 40 calculates the black and white difference data WBdif (M6). Specifically, the CPU 40 subtracts the black data BK1 from the white data WH of each pixel of each color in one line and stores it in the RAM 42 as black and white difference data WBdif of each pixel of each color in one line.

CPU40は、白黒差分上位値WBhrを取得する(M7)。具体的には、CPU40は、処理M6で算出した1ラインの赤色の白黒差分データWBdifのうち大きい値から順に16画素の白黒差分データWBdifを赤色に対応する白黒差分上位値WBhrとして取得する。CPU40は、同様に青色の白黒差分データWBdifにおいて大きい値から順に16画素の白黒差分データWBdifを青色に対応する白黒差分上位値WBhrとして取得し、緑色の白黒差分データWBdifにおいて大きい順に16画素の白黒差分データWBdifを緑色に対応する白黒差分上位値WBhrとして取得する。   The CPU 40 acquires the black and white difference upper value WBhr (M7). Specifically, the CPU 40 acquires the black and white difference data WBdif of 16 pixels in order from the largest value among the red and black difference data WBdif of one line calculated in the process M6 as the black and white difference upper value WBhr corresponding to red. Similarly, the CPU 40 obtains the black / white difference data WBdif of 16 pixels in order from the largest value in the blue / black difference data WBdif as the black / white difference upper value WBhr corresponding to blue, and the black / white difference data WBdif of 16 pixels in the largest order from the black / white difference data WBdif. The difference data WBdif is acquired as a monochrome difference upper value WBhr corresponding to green.

CPU40は、白黒差分上位値WBhrの画素位置Phrを記憶する(M8)。CPU40は、処理M7で取得した各色の16画素の白黒差分上位値WBhrが存在する画素位置Phrを白黒差分上位値WBhrと関連付けてフラッシュPROM43に記憶する。   The CPU 40 stores the pixel position Phr of the monochrome difference upper value WBhr (M8). The CPU 40 stores in the flash PROM 43 the pixel position Phr where the monochrome difference upper value WBhr of 16 pixels of each color obtained in process M7 is present in association with the monochrome difference upper value WBhr.

CPU40は、白黒差分データWBdifを記憶する(M9)。CPU40は、処理M6で算出した1ラインの各色の各画素の白黒差分データWBdifをフラッシュPROM43に記憶する。   The CPU 40 stores the monochrome difference data WBdif (M9). The CPU 40 stores, in the flash PROM 43, the black-and-white differential data WBdif of each pixel of each color calculated in process M6.

処理M9が終了すると、CPU40は、操作部5に配置されるセットキーが押下されるまで、画像読取装置1を待機状態にさせる(M10)。CPU40は、作業者が白基準原稿WGSを取り除き、セットキーが押下されると、原稿センサ27がオフとなっているか否かを判断する。CPU40は、原稿センサ27がオフであると判断(M10:Yes)すれば、処理M12に進む。CPU40は、原稿センサ27がオンであると判断(M10:No)すれば、処理M11に進む。処理M11へ進むと、CPU40は、原稿載置状態が誤っていることを報知するエラーメッセージを表示部6に表示させ(M11)、保守メイン処理が終了する。   When the process M9 is completed, the CPU 40 puts the image reading apparatus 1 in a standby state until the set key arranged on the operation unit 5 is pressed (M10). When the operator removes the white reference document WGS and the set key is pressed, the CPU 40 determines whether or not the document sensor 27 is off. If the CPU 40 determines that the document sensor 27 is off (M10: Yes), the CPU 40 proceeds to process M12. If the CPU 40 determines that the document sensor 27 is on (M10: No), the CPU 40 proceeds to processing M11. In step M11, the CPU 40 causes the display unit 6 to display an error message notifying that the document placement state is incorrect (M11), and the maintenance main process ends.

処理M10において原稿なしと判断(M10:Yes)されると、CPU40は、灰データGR1を取得する(M12)。具体的には、CPU40は、各色の光量STで灰色基準板34を照射させ、読み取った1ラインの各色の各画素のデジタル画像データを灰データGR1として取得する。   If it is determined in process M10 that there is no document (M10: Yes), the CPU 40 acquires the ash data GR1 (M12). Specifically, the CPU 40 irradiates the gray reference plate 34 with the light amount ST of each color, and acquires the read digital image data of each pixel of each color of one line as the ash data GR1.

CPU40は、灰データ最大値GRmaxを取得する(M13)。CPU40は、処理M12で取得した1ラインの各色の各画素の灰データGR1のうちで、各色において灰データGR1の最大値を灰データ最大値GRmaxとして取得する。CPU40は、各色の灰データ最大値GRmaxを各色に対応付けてフラッシュPROM43に記憶する。   The CPU 40 acquires the ash data maximum value GRmax (M13). The CPU 40 acquires the maximum value of the ash data GR1 in each color as the ash data maximum value GRmax among the ash data GR1 of each pixel of each color acquired in the process M12. The CPU 40 stores the ash data maximum value GRmax of each color in the flash PROM 43 in association with each color.

CPU40は、灰黒差分上位値GBhr1を取得する(M14)。具体的には、CPU40は、1ラインの各色の各画素において灰データGR1から黒データBK1を引算し、1ラインの各色の各画素の灰黒差分データGBdif1を算出する。CPU40は、各色において灰黒差分データGBdif1のうち画素位置Phrに存在する16画素の灰黒差分データGBdif1を灰黒差分上位値GBhr1として取得する。   The CPU 40 acquires the gray-black difference upper value GBhr1 (M14). Specifically, the CPU 40 subtracts the black data BK1 from the gray data GR1 for each pixel of each color in one line to calculate gray black difference data GBdif1 for each pixel of each color in one line. The CPU 40 acquires the gray-black difference data GBdif1 of 16 pixels existing at the pixel position Phr in the gray-black difference data GBdif1 for each color as the gray-black difference upper value GBhr1.

CPU40は、光源30を各色の最大光量で点灯させる(M15)。具体的には、CPU40は、各色に対して予め定められている最大電流値と、600DPIの読取解像度のときの最大点灯期間とで光源30を点灯させる。   The CPU 40 turns on the light source 30 with the maximum light amount of each color (M15). Specifically, the CPU 40 turns on the light source 30 with a maximum current value predetermined for each color and a maximum lighting period at a reading resolution of 600 DPI.

CPU40は、灰淡黒差分データLGBdif1をフラッシュPROM43に記憶する(M16)。詳細は後述するが、CPU40は、各色の最大光量で灰色基準板34を照射させたときの1ラインの各色の各画素の灰淡データLGR1を取得する。CPU40は、1ラインの各色の各画素において灰淡データLGR1から黒データBK1を引算して灰淡黒差分データLGBdif1を算出する。CPU40は、算出した灰淡黒差分データLGBdif1から埃等に起因して灰色基準板34を読み取ったときの正常な値と大きく離れた異常な値となった異常画素の画素位置を異常画素位置PEDとして記憶する。CPU40は、各色において灰淡黒差分データLGBdif1の全ての画素の平均値を算出し、灰淡黒差分平均値LGBdifave1としてフラッシュPROM43に記憶する。CPU40は、1ラインの各色の各画素の灰淡黒差分データLGBdif1をフラッシュPROM43に記憶する。処理M16が終了すると、保守メイン処理が終了する。   The CPU 40 stores gray light black difference data LGBdif1 in the flash PROM 43 (M16). Although details will be described later, the CPU 40 acquires gray data LGR1 of each pixel of each color of one line when the gray reference plate 34 is irradiated with the maximum light amount of each color. The CPU 40 calculates gray light black difference data LGBdif1 by subtracting the black data BK1 from the light gray data LGR1 in each pixel of each color of one line. The CPU 40 determines the abnormal pixel position PED as the abnormal pixel position PED from the calculated gray-black difference data LGBdif1 which is an abnormal value greatly different from the normal value when the gray reference plate 34 is read due to dust or the like. Remember as. The CPU 40 calculates the average value of all the pixels of the gray light black difference data LGBdif1 for each color, and stores it in the flash PROM 43 as the gray light black difference average value LGBdifave1. The CPU 40 stores gray-black difference data LGBdif1 of each pixel of each color in one line in the flash PROM 43. When the process M16 ends, the maintenance main process ends.

(灰淡黒差分データLGBdif1記憶M16)
図6に示す灰淡黒差分データLGBdif1記憶(M16)が開始されると、CPU40は、灰淡データLGR1を取得する(MA1)。具体的には、CPU40は、光源30を各色の最大光量で点灯させた状態で、灰色基準板34を照射し、読み取った1ラインの各色の各画素のデジタル画像データを灰淡データLGR1として取得する。
(Gray light black difference data LGBdif1 storage M16)
When the gray / black difference data LGBdif1 storage (M16) shown in FIG. 6 is started, the CPU 40 acquires gray / light data LGR1 (MA1). Specifically, the CPU 40 irradiates the gray reference plate 34 with the light source 30 turned on with the maximum light amount of each color, and acquires the read digital image data of each pixel of each color of one line as gray data LGR1. To do.

CPU40は、灰淡黒差分データLGBdif1を算出する(MA2)。具体的には、CPU40は、1ラインの各色の各画素において灰淡データLGR1から黒データBK1を引算し、1ラインの各色の各画素の灰淡黒差分データLGBdif1を算出する。   The CPU 40 calculates gray-black difference data LGBdif1 (MA2). Specifically, the CPU 40 subtracts the black data BK1 from the gray data LGR1 for each color pixel in one line to calculate gray light black difference data LGBdif1 for each color pixel in one line.

CPU40は、判別データRT1を算出する(MA3)。具体的には、CPU40は、1ラインの赤色の各画素において灰淡黒差分データLGBdif1を白黒差分データWBdifで割算し、1ラインの赤色の各画素の判別データRT1を算出する。   The CPU 40 calculates the discrimination data RT1 (MA3). Specifically, the CPU 40 divides the gray light black difference data LGBdif1 by the black and white difference data WBdif in each line of red pixels to calculate discrimination data RT1 for each line of red pixels.

CPU40は、センサICチップCH1〜CH6の各センサICチップにおける判別データRT1の平均値である平均値AVE1を算出する(MA4)。具体的には、CPU40は、1ラインの赤色の各画素の判別データRT1を各センサICチップのデータ群に分割する。CPU40は、赤色の分割した各センサICチップのデータ群においてデータ群内の判別データRT1の平均値を赤色の各チップの平均値AVE1として算出する。   The CPU 40 calculates an average value AVE1 that is an average value of the discrimination data RT1 in each of the sensor IC chips CH1 to CH6 (MA4). Specifically, the CPU 40 divides the discrimination data RT1 of each line of red pixels into a data group of each sensor IC chip. The CPU 40 calculates the average value of the discrimination data RT1 in the data group in the data group of each sensor IC chip divided in red as the average value AVE1 of each red chip.

CPU40は、閾値TH1を算出する(MA5)。具体的には、CPU40は、処理MA4で算出した各センサICチップの平均値AVE1に保守加算値を加算し、白閾値WTH1を算出する。CPU40は、各センサICチップの平均値AVE1から保守減算値を減算し、黒閾値BTH1を算出する。閾値TH1は、白閾値WTH1、若しくは黒閾値BTH1を意味する。ここで、保守加算値と保守減算値とは、本実施形態では各センサICチップの平均値AVE1の5%に相当する値であり、同じ値である。保守加算値と保守減算値とが同じ値であることにより、出力を下げる黒い埃と出力を上げる白い埃とが読取メイン処理で使用する灰淡黒差分データLGBdif1へ与える影響を同程度以内とすることができる。   The CPU 40 calculates a threshold value TH1 (MA5). Specifically, the CPU 40 adds the maintenance addition value to the average value AVE1 of each sensor IC chip calculated in the process MA4, and calculates the white threshold value WTH1. The CPU 40 subtracts the maintenance subtraction value from the average value AVE1 of each sensor IC chip to calculate the black threshold value BTH1. The threshold value TH1 means the white threshold value WTH1 or the black threshold value BTH1. Here, the maintenance addition value and the maintenance subtraction value are values corresponding to 5% of the average value AVE1 of each sensor IC chip in the present embodiment, and are the same value. Since the maintenance addition value and the maintenance subtraction value are the same value, the influence of the black dust that lowers the output and the white dust that increases the output on the gray light black difference data LGBdif1 used in the main reading process is within the same level. be able to.

CPU40は、対象画素の設定をする(MA6)。具体的には、CPU40は、対象画素が設定されていれば、設定されている対象画素の次の画素を対象画素として設定し、対象画素が設定されていなければ、先頭画素を対象画素として設定する。CPU40は、先頭画素が対象画素に設定されてからの設定回数を計数することにより対象画素の画素番号を取得し、RAM42に記憶する。CPU40は、画素番号を各センサICチップが有する画素数で割算して得られた商に1を加算した値をチップ番号としてRAM42に記憶する。以下では、対象画素が含まれるセンサICチップを対象センサICチップという。   The CPU 40 sets the target pixel (MA6). Specifically, if the target pixel is set, the CPU 40 sets the next pixel of the set target pixel as the target pixel, and if the target pixel is not set, sets the first pixel as the target pixel. To do. The CPU 40 obtains the pixel number of the target pixel by counting the set number of times after the first pixel is set as the target pixel, and stores it in the RAM 42. The CPU 40 stores a value obtained by adding 1 to the quotient obtained by dividing the pixel number by the number of pixels of each sensor IC chip in the RAM 42 as the chip number. Hereinafter, the sensor IC chip including the target pixel is referred to as a target sensor IC chip.

CPU40は、対象画素が異常画素か否かを判断する(MA7)。具体的には、CPU40は、対象画素の赤色の灰淡黒差分データLGBdif1が対象センサICチップのチップ番号に対応する黒閾値BTH1以上であり、且つ対象センサICチップのチップ番号に対応する白閾値WTH1以下の範囲内であるか否かを判断する。範囲内にある場合(MA7:No)は、異常画素でないと判断し、処理MA11に進む。範囲内にない場合(MA7:Yes)は、異常画素であると判断し、処理MA8に進む。   The CPU 40 determines whether or not the target pixel is an abnormal pixel (MA7). Specifically, the CPU 40 determines that the red gray light difference data LGBdif1 of the target pixel is equal to or greater than the black threshold value BTH1 corresponding to the chip number of the target sensor IC chip and the white threshold value corresponding to the chip number of the target sensor IC chip. It is determined whether it is within the range of WTH1 or less. If it is within the range (MA7: No), it is determined that the pixel is not an abnormal pixel, and the process proceeds to process MA11. If it is not within the range (MA7: Yes), it is determined that the pixel is abnormal, and the process proceeds to process MA8.

CPU40は、異常画素数が1ラインにおける異常画素数の基準値であるライン上限値以内か否かを判断する(MA8)。具体的には、CPU40は、1ライン中の異常画素数を表すカウンタCTaに1を加算する。CPU40は、カウンタCTaがライン上限値(例えば、25画素)を超えたか否かを判断する。超えた場合(MA8:No)は、異常画素数がライン上限値を超えたと判断し、エラーを表示する処理(MA9)に進む。CPU40は、越えなかった場合(MA8:Yes)に、異常画素数がライン上限値以内と判断し、処理MA10へ進む。処理MA8において超えた場合(MA8:No)に、CPU40は、表示部にエラーを表示させ(MA9)、灰淡黒差分データ記憶処理(M16)を終了する。   The CPU 40 determines whether or not the number of abnormal pixels is within a line upper limit value that is a reference value for the number of abnormal pixels in one line (MA8). Specifically, the CPU 40 adds 1 to the counter CTa that represents the number of abnormal pixels in one line. The CPU 40 determines whether or not the counter CTa exceeds the line upper limit value (for example, 25 pixels). When it exceeds (MA8: No), it is determined that the number of abnormal pixels has exceeded the line upper limit value, and the process proceeds to an error display process (MA9). If not exceeding (MA8: Yes), the CPU 40 determines that the number of abnormal pixels is within the line upper limit value, and proceeds to processing MA10. When it exceeds in process MA8 (MA8: No), CPU40 displays an error on a display part (MA9), and complete | finishes gray light difference data storage process (M16).

処理MA8において超えなかった場合(MA8:Yes)に、CPU40は、対象画素の画素位置を異常画素位置PEDとしてフラッシュPROM43に記憶する(MA10)。具体的には、CPU40は、対象画素の画素番号を異常画素位置PEDとしてフラッシュPROM43に記憶する。   If not exceeded in the process MA8 (MA8: Yes), the CPU 40 stores the pixel position of the target pixel in the flash PROM 43 as the abnormal pixel position PED (MA10). Specifically, the CPU 40 stores the pixel number of the target pixel in the flash PROM 43 as the abnormal pixel position PED.

CPU40は、対象画素が最終画素か否かを判断する(MA11)。具体的には、CPU40は、対象画素の画素番号が最終画素を示す画素番号と一致するか否かを判断する。CPU40は、一致する場合(MA11:Yes)に、処理MA6で記憶した画素番号とチップ番号とカウンタCTaとを消去し、処理MA12へ進む。CPU40は、一致しない場合(MA11:No)に、処理MA6に進む。   The CPU 40 determines whether or not the target pixel is the final pixel (MA11). Specifically, the CPU 40 determines whether or not the pixel number of the target pixel matches the pixel number indicating the final pixel. If they match (MA11: Yes), the CPU 40 deletes the pixel number, chip number, and counter CTa stored in process MA6, and proceeds to process MA12. If not matched (MA11: No), the CPU 40 proceeds to process MA6.

処理MA11において一致する場合(MA11:Yes)に、CPU40は、灰淡黒差分平均値LGBdifave1を算出する(MA12)。具体的には、CPU40は、各色において1ラインの全ての画素の灰淡黒差分データLGBdif1の平均値を算出し、灰淡黒差分平均値LGBdifave1としてフラッシュPROM43に記憶する。   If the two match in the process MA11 (MA11: Yes), the CPU 40 calculates a gray-light black difference average value LGBdiffave1 (MA12). Specifically, the CPU 40 calculates the average value of gray light black difference data LGBdif1 of all pixels of one line in each color, and stores it in the flash PROM 43 as gray light black difference average value LGBdifave1.

CPU40は、処理MA2で算出した1ラインの各色の各画素の灰淡黒差分データLGBdif1をフラッシュPROM43に記憶する(MA13)。処理MA13が終了すると、灰淡黒差分データLGBdif1記憶処理(M16)が終了する。   The CPU 40 stores the gray-black difference data LGBdif1 of each pixel of each color of one line calculated in the process MA2 in the flash PROM 43 (MA13). When the process MA13 ends, the gray-black difference data LGBdif1 storage process (M16) ends.

(読取メイン処理)
図7に示す読取メイン処理は、ユーザが原稿GSを給紙トレイ2に載置し、操作部5のカラー読取開始ボタンを押下することにより、開始される。本実施形態の読取メイン処理は、読取解像度として600DPIが設定され、カラーモードが設定されたときについて説明を行う。
(Reading main process)
The reading main process shown in FIG. 7 is started when the user places the document GS on the paper feed tray 2 and presses the color reading start button of the operation unit 5. The main reading process of this embodiment will be described when 600 DPI is set as the reading resolution and the color mode is set.

CPU40は、デバイス制御部44、AFE45、および画像処理部46を初期化する(R1)。具体的には、CPU40は、600DPIの読取解像度に応じたクロック信号CLKおよびシリアルイン信号SIの設定をフラッシュPROM43から取得し、デバイス制御部44に設定する。CPU40は、カラーモード時に対する光源30への信号の設定をフラッシュPROM43から取得し、デバイス制御部44に設定する。CPU40は、AFE45のオフセット調整値およびゲイン調整値をフラッシュPROM43から取得し、AFE45に設定する。CPU40は、各種画像処理を施さない設定を画像処理部46に設定する。   The CPU 40 initializes the device control unit 44, the AFE 45, and the image processing unit 46 (R1). Specifically, the CPU 40 acquires the settings of the clock signal CLK and the serial-in signal SI corresponding to the reading resolution of 600 DPI from the flash PROM 43 and sets them in the device control unit 44. The CPU 40 acquires the signal setting for the light source 30 in the color mode from the flash PROM 43 and sets it in the device control unit 44. The CPU 40 acquires the offset adjustment value and the gain adjustment value of the AFE 45 from the flash PROM 43 and sets them in the AFE 45. The CPU 40 sets settings for not performing various image processing in the image processing unit 46.

CPU40は、光源30の光量を調整する(R2)。CPU40は、灰色基準板34に向けて、光源30から光を照射させ、その反射光を読み取った時のデジタル画像データの最大値が灰データ最大値GRmaxとなるように、各色の光量STを調整する。   The CPU 40 adjusts the light amount of the light source 30 (R2). The CPU 40 irradiates light from the light source 30 toward the gray reference plate 34 and adjusts the light amount ST of each color so that the maximum value of the digital image data when the reflected light is read becomes the gray data maximum value GRmax. To do.

CPU40は、灰データGR2を取得する(R3)。具体的には、CPU40は、各色の光量STで灰色基準板34を照射させ、読み取った1ラインの各色の各画素のデジタル画像データを灰データGR2として取得する。   The CPU 40 acquires the ash data GR2 (R3). Specifically, the CPU 40 irradiates the gray reference plate 34 with the light amount ST of each color, and acquires the read digital image data of each pixel of each color of one line as the ash data GR2.

CPU40は、黒データBK2を取得する(R4)。具体的には、CPU40は、光源30を消灯させ、灰色基準板34を読み取る。読み取った1ラインの1色の各画素のデジタル画像データを黒データBK2として取得する。   The CPU 40 acquires black data BK2 (R4). Specifically, the CPU 40 turns off the light source 30 and reads the gray reference plate 34. The read digital image data of each pixel of one color of one line is acquired as black data BK2.

CPU40は、灰黒差分上位値GBhr2を取得する(R5)。具体的には、CPU40は、1ラインの各色の各画素において灰データGR2から黒データBK2を引算し、1ラインの各色の各画素の灰黒差分データGBdif2を算出する。CPU40は、1ラインの各色において灰黒差分データGBdif2のうち画素位置Phrに存在する16画素の灰黒差分データGBdif2を灰黒差分上位値GBhr2として取得する。   The CPU 40 acquires the gray-black difference upper value GBhr2 (R5). Specifically, the CPU 40 subtracts the black data BK2 from the gray data GR2 in each pixel of each color of one line, and calculates gray black difference data GBdif2 of each pixel of each color of one line. The CPU 40 acquires the gray-black difference data GBdif2 of 16 pixels existing at the pixel position Phr in the gray-black difference data GBdif2 for each color of one line as the gray-black difference upper value GBhr2.

CPU40は、光源30を各色の最大光量で点灯させる(R6)。具体的には、CPU40は、各色に対して予め定められている最大電流値と600DPIの読取解像度のときの最大点灯期間とで光源30を点灯させる。   The CPU 40 turns on the light source 30 with the maximum light amount of each color (R6). Specifically, the CPU 40 turns on the light source 30 with a maximum current value predetermined for each color and a maximum lighting period at a reading resolution of 600 DPI.

CPU40は、基準データCDを算出する(R7)。詳細は後述するが、CPU40は、各色の最大光量で灰色基準板34を照射させたときの1ラインの各色の各画素の灰淡データLGR2を取得する。CPU40は、1ラインの各色の各画素において灰淡データLGR2から黒データBK2を引算して灰淡黒差分データLGBdif2を算出する。CPU40は、灰淡黒差分データLGBdif1、LGBdif2について埃等に起因して灰色基準板34を読み取ったときの正常な値と大きく離れた異常な値となった異常画素の値を周辺画素の値と置換する。CPU40は、1ラインの各色において灰淡黒差分データLGBdif2の全ての画素の平均値を灰淡黒差分平均値LGBdifave2として算出する。CPU40は、白黒差分データWBdifと、後述する変動比率SCRTと、後述する平均値比率AVRTと、後述する灰比率GRRTとを掛算して、1ラインの各色の各画素の基準データCDを算出する。   The CPU 40 calculates the reference data CD (R7). Although details will be described later, the CPU 40 acquires gray data LGR2 of each pixel of each color of one line when the gray reference plate 34 is irradiated with the maximum light amount of each color. The CPU 40 calculates gray light black difference data LGBdif2 by subtracting the black data BK2 from the light gray data LGR2 in each pixel of each color of one line. The CPU 40 determines the values of the abnormal pixels which are abnormal values greatly different from the normal values when the gray reference plate 34 is read due to dust or the like for the gray-black difference data LGBdif1 and LGBdif2 as the values of the peripheral pixels. Replace. The CPU 40 calculates the average value of all the pixels of the gray light black difference data LGBdif2 for each color of one line as the gray light black difference average value LGBdifave2. The CPU 40 multiplies the monochrome difference data WBdif, a variation ratio SCRT, which will be described later, an average value ratio AVRT, which will be described later, and an ash ratio GRRT, which will be described later, to calculate reference data CD for each pixel of each color of one line.

CPU40は、読取処理を実行する(R8)。具体的には、CPU40は、各種画像処理を施す設定値を画像処理部46に設定する。CPU40は、駆動回路47に指令を出力し、駆動回路により原稿GSを搬送させる。CPU40は、搬送された原稿GSを読み取らせ、処理R7で算出した基準データCDに基づき各色毎にシェーディング補正を実行させ、さらに各種補正処理を実行させ、デジタル画像データを生成させる。読取処理(R8)が終了すると、読取メイン処理は終了する。   The CPU 40 executes a reading process (R8). Specifically, the CPU 40 sets setting values for performing various image processing in the image processing unit 46. The CPU 40 outputs a command to the drive circuit 47 and causes the document to be conveyed by the drive circuit. The CPU 40 reads the conveyed document GS, performs shading correction for each color based on the reference data CD calculated in process R7, and executes various correction processes to generate digital image data. When the reading process (R8) ends, the reading main process ends.

(基準データCD算出R7)
図8に示す基準データCD算出(R7)が開始されると、CPU40は、灰淡データLGR2を取得する(RA1)。具体的には、CPU40は、光源30を各色の最大光量で点灯させた状態で、灰色基準板34を照射させ、読み取った1ラインの各色の各画素のデジタル画像データを灰淡データLGR2として取得する。
(Standard data CD calculation R7)
When the reference data CD calculation (R7) shown in FIG. 8 is started, the CPU 40 acquires gray data LGR2 (RA1). Specifically, the CPU 40 irradiates the gray reference plate 34 with the light source 30 turned on at the maximum light amount of each color, and acquires the read digital image data of each pixel of each color of one line as gray data LGR2. To do.

CPU40は、灰淡黒差分データLGBdif2を算出する(RA2)。具体的には、CPU40は、1ラインの各色の各画素において灰淡データLGR2から黒データBK2を引算し、1ラインの各色の各画素の灰淡黒差分データLGBdif2を算出する。   The CPU 40 calculates gray light difference data LGBdif2 (RA2). Specifically, the CPU 40 subtracts the black data BK2 from the gray data LGR2 in each pixel of each color in one line to calculate gray light black difference data LGBdif2 of each pixel in each color in one line.

CPU40は、判別データRT2を算出する(RA3)。具体的には、CPU40は、1ラインの赤色の各画素において灰淡黒差分データLGBdif2を灰淡黒差分データLGBdif1で割算し、1ラインの赤色の各画素の判別データRT2を算出する。   The CPU 40 calculates the discrimination data RT2 (RA3). Specifically, the CPU 40 divides the gray light black difference data LGBdif2 by the gray light black difference data LGBdif1 in each line of red pixels to calculate discrimination data RT2 for each line of red pixels.

CPU40は、赤色の各センサICチップの平均値である平均値AVE2を算出する(RA4)。具体的には、CPU40は、1ラインの赤色の各画素の判別データRT2を各センサICチップのデータ群に分割する。CPU40は、赤色の分割した各センサICチップのデータ群において、データ群内の判別データRT2の平均値を赤色の各チップの平均値AVE2として算出する。   The CPU 40 calculates an average value AVE2 that is an average value of the red sensor IC chips (RA4). Specifically, the CPU 40 divides the discrimination data RT2 of each line of red pixels into a data group of each sensor IC chip. In the data group of each sensor IC chip divided into red, the CPU 40 calculates the average value of the discrimination data RT2 in the data group as the average value AVE2 of each red chip.

CPU40は、判別標準偏差LGSDを算出する(RA5)。具体的には、CPU40は、センサICチップCH1に含まれる各画素において、赤色の判別データRT2をセンサICチップCH1の赤色の平均値AVE2で引算した値である偏差SDを算出する。CPU40は、センサICチップCH1に含まれる全ての画素の偏差SDの2乗平均平方根を算出することで、判別標準偏差LGSDを算出する。即ち、CPU40は、センサICチップCH1に含まれる全ての画素の偏差SDを加算した値をセンサICチップCH1に含まれる画素の画素数で割算する。CPU40は、この割算して算出した値の平方根を算出することで判別標準偏差LGSDを算出する。   The CPU 40 calculates the discrimination standard deviation LGSD (RA5). Specifically, the CPU 40 calculates a deviation SD that is a value obtained by subtracting the red discrimination data RT2 by the red average value AVE2 of the sensor IC chip CH1 in each pixel included in the sensor IC chip CH1. The CPU 40 calculates the discrimination standard deviation LGSD by calculating the root mean square of the deviations SD of all the pixels included in the sensor IC chip CH1. That is, the CPU 40 divides a value obtained by adding the deviations SD of all the pixels included in the sensor IC chip CH1 by the number of pixels included in the sensor IC chip CH1. The CPU 40 calculates the discriminant standard deviation LGSD by calculating the square root of the value calculated by the division.

CPU40は、読取加算値LGAD1、および読取減算値LGAD2を算出する(RA6)。具体的には、CPU40は、判別標準偏差LGSDが0.01以下の場合に、平均値AVE2に4%である0.04を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出する。同様に、CPU40は、平均値AVE2に0.04を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出する。CPU40は、判別標準偏差LGSDが0.01より大きく、且つ0.02以下の場合に、平均値AVE2に5%である0.05を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出する。同様に、CPU40は、平均値AVE2に0.05を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出する。CPU40は、標準偏差LGSDが0.02より大きく、且つ0.03以下の場合に、平均値AVE2に6.5%である0.065を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出する。同様に、CPU40は、平均値AVE2に0.065を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出する。CPU40は、標準偏差LGSDが0.03より大きく、且つ0.04以下の場合に、平均値AVE2に8.5%である0.085を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出する。同様に、CPU40は、平均値AVE2に0.085を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出する。CPU40は、標準偏差LGSDが0.04より大きく、且つ0.05以下の場合に、平均値AVE2に10.5%である0.105を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出する。同様に、CPU40は、平均値AVE2に0.105を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出する。CPU40は、標準偏差LGSDが0.05より大きい場合に、平均値AVE2に13%である0.13を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出する。同様に、CPU40は、平均値AVE2に0.13を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出する。本実施形態において、読取加算値LGAD1および読取減算値LGAD2は、同じ値である。読取加算値LGAD1と読取減算値LGAD2とが同じ値であることにより、出力を下げる黒い埃と出力上げる白い埃とに起因する読取画質への影響を同程度以内とすることができる。また、標準偏差LGSDを判別している数値(例えば、判別標準偏差LGSDが0.01以下の場合であれば、0.01を意味する)と、読取加算値LGAD1および読取減算値LGAD2を算出するときに平均値AVEに掛算する数値(例えば、平均値AVE2に4%である0.04を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出する場合であれば、0.04を意味する。)との関係は、標準偏差LGSDを判別している数値に対して、読取加算値LGAD1および読取減算値LGAD2を算出するときに平均値AVEに掛算する数値を若干大きく設定している。この様に設定することで、正常な値のバラツキである標準偏差LGSDよりも大きな出力を示す異常な値のみを検出する閾値TH2を算出することができる。   The CPU 40 calculates the read addition value LGAD1 and the read subtraction value LGAD2 (RA6). Specifically, when the discrimination standard deviation LGSD is 0.01 or less, the CPU 40 multiplies the average value AVE2 by 0.04 which is 4%, and calculates the read addition value LGAD1 of each red sensor IC chip. To do. Similarly, the CPU 40 multiplies the average value AVE2 by 0.04 to calculate a read subtraction value LGAD2 for each red sensor IC chip. When the discrimination standard deviation LGSD is larger than 0.01 and equal to or smaller than 0.02, the CPU 40 multiplies the average value AVE2 by 0.05 which is 5%, and reads the added value LGAD1 of each red sensor IC chip. Is calculated. Similarly, the CPU 40 multiplies the average value AVE2 by 0.05 to calculate a read subtraction value LGAD2 for each red sensor IC chip. When the standard deviation LGSD is greater than 0.02 and less than or equal to 0.03, the CPU 40 multiplies the average value AVE2 by 6.5%, which is 6.5%, and adds the read value of each sensor IC chip in red. LGAD1 is calculated. Similarly, the CPU 40 multiplies the average value AVE2 by 0.065 to calculate the read subtraction value LGAD2 for each red sensor IC chip. When the standard deviation LGSD is greater than 0.03 and less than or equal to 0.04, the CPU 40 multiplies the average value AVE2 by 8.5%, 0.085, and adds the read value of each sensor IC chip in red. LGAD1 is calculated. Similarly, the CPU 40 multiplies the average value AVE2 by 0.085 to calculate the read subtraction value LGAD2 for each red sensor IC chip. When the standard deviation LGSD is greater than 0.04 and less than or equal to 0.05, the CPU 40 multiplies the average value AVE2 by 0.105, which is 10.5%, and adds the read addition value of each sensor IC chip in red LGAD1 is calculated. Similarly, the CPU 40 multiplies the average value AVE2 by 0.105 to calculate the read subtraction value LGAD2 for each red sensor IC chip. When the standard deviation LGSD is larger than 0.05, the CPU 40 multiplies the average value AVE2 by 0.13 which is 13% to calculate the read addition value LGAD1 of each red sensor IC chip. Similarly, the CPU 40 multiplies the average value AVE2 by 0.13 to calculate the read subtraction value LGAD2 for each red sensor IC chip. In the present embodiment, the read addition value LGAD1 and the read subtraction value LGAD2 are the same value. Since the read addition value LGAD1 and the read subtraction value LGAD2 are the same value, the influence on the read image quality caused by the black dust that lowers the output and the white dust that increases the output can be within the same level. In addition, a numerical value for discriminating the standard deviation LGSD (for example, 0.01 if the discriminating standard deviation LGSD is 0.01 or less), a read addition value LGAD1 and a read subtraction value LGAD2 are calculated. A numerical value that is sometimes multiplied by the average value AVE (for example, 0.04 that is 4% is multiplied by the average value AVE2 to calculate the read addition value LGAD1 of each red sensor IC chip, 0.04 The numerical value to be multiplied by the average value AVE when calculating the reading addition value LGAD1 and the reading subtraction value LGAD2 is set slightly larger than the numerical value for determining the standard deviation LGSD. Yes. By setting in this way, it is possible to calculate the threshold value TH2 for detecting only an abnormal value indicating an output larger than the standard deviation LGSD, which is a variation in normal values.

CPU40は、閾値TH2を算出する(RA7)。具体的には、CPU40は、処理RA4で算出した赤色の各センサICチップの平均値AVE2に赤色の同じ各センサICチップの読取加算値LGAD1を加算し、赤色の各センサICチップの白閾値WTH2を算出する。CPU40は、赤色の各センサICチップの平均値AVE2から赤色の同じ各センサICチップの読取減算値LGAD2を減算し、赤色の各センサICチップの黒閾値BTH2を算出する。閾値TH2は、白閾値WTH2、若しくは黒閾値BTH2を意味する。   The CPU 40 calculates a threshold value TH2 (RA7). Specifically, the CPU 40 adds the read addition value LGAD1 of each sensor IC chip having the same red color to the average value AVE2 of each red sensor IC chip calculated in the process RA4, and the white threshold value WTH2 of each red sensor IC chip. Is calculated. The CPU 40 subtracts the read subtraction value LGAD2 of each red sensor IC chip from the average value AVE2 of each red sensor IC chip, and calculates the black threshold value BTH2 of each red sensor IC chip. The threshold value TH2 means the white threshold value WTH2 or the black threshold value BTH2.

CPU40は、対象画素の設定をする(RA8)。処理MA6と同様に、具体的には、CPU40は、対象画素が設定されていれば、設定されている対象画素の次の画素を対象画素として設定し、対象画素が設定されていなければ、先頭画素を対象画素として設定する。CPU40は、処理MA6と同様に、対象画素の画素番号を取得し、RAM42に記憶する。CPU40は、処理MA6と同様に、対象画素が含まれる対象センサICチップのチップ番号をRAM42に記憶する。   The CPU 40 sets the target pixel (RA8). Similarly to the process MA6, specifically, if the target pixel is set, the CPU 40 sets the next pixel of the set target pixel as the target pixel, and if the target pixel is not set, the CPU 40 A pixel is set as a target pixel. The CPU 40 acquires the pixel number of the target pixel and stores it in the RAM 42 as in the process MA6. The CPU 40 stores the chip number of the target sensor IC chip including the target pixel in the RAM 42 as in the process MA6.

CPU40は、対象画素が異常画素か否かを判断する(RA9)。具体的には、CPU40は、赤色において対象画素の灰淡黒差分データLGBdif2が対象センサICチップのチップ番号に対応する黒閾値BTH2以上であり、且つ対象センサICチップのチップ番号に対応する白閾値WTH2以下の範囲内であるか否かを判断する。CPU40は、範囲内にない場合(RA9:Yes)は、対象画素が異常画素であると判断し、処理RA10に進む。CPU40は、範囲内にある場合は、対象画素の画素位置が異常画素位置PEDか否かを判断し、異常画素位置PEDである場合(RA9:Yes)は、対象画素が異常画素であると判断し、処理RA10に進む。異常画素位置PEDでない場合(RA9:No)は、対象画素が異常画素でないと判断し、処理RA11に進む。   The CPU 40 determines whether or not the target pixel is an abnormal pixel (RA9). Specifically, the CPU 40 determines that the gray-black difference data LGBdif2 of the target pixel in red is greater than or equal to the black threshold BTH2 corresponding to the chip number of the target sensor IC chip, and the white threshold corresponding to the chip number of the target sensor IC chip. It is determined whether it is within the range of WTH2 or less. If it is not within the range (RA9: Yes), the CPU 40 determines that the target pixel is an abnormal pixel and proceeds to process RA10. If it is within the range, the CPU 40 determines whether or not the pixel position of the target pixel is the abnormal pixel position PED. If it is the abnormal pixel position PED (RA9: Yes), the CPU 40 determines that the target pixel is an abnormal pixel. The process proceeds to process RA10. If it is not the abnormal pixel position PED (RA9: No), it is determined that the target pixel is not an abnormal pixel, and the process proceeds to process RA11.

CPU40は、対象画素の灰淡黒差分データLGBdif1、LGBdif2を周辺画素の灰淡黒差分データLGBdif1、LGBdif2に置き換える(RA10)。具体的には、CPU40は、各色において対象画素の灰淡黒差分データLGBdif1を対象センサICチップに含まれる画素の灰淡黒差分データLGBdif1に置き換え、対象画素の灰淡黒差分データLGBdif2を対象センサICチップに含まれる画素の灰淡黒差分データLGBdif2に置き換える。灰淡黒差分データLGBdif1で置き換えた画素位置と灰淡黒差分データLGBdif2で置き換えた画素位置とは、同じ画素位置である。   The CPU 40 replaces the gray light black difference data LGBdif1 and LGBdif2 of the target pixel with gray light black difference data LGBdif1 and LGBdif2 of the peripheral pixels (RA10). Specifically, the CPU 40 replaces the gray light black difference data LGBdif1 of the target pixel in each color with gray light black difference data LGBdif1 of the pixel included in the target sensor IC chip, and replaces the light gray difference data LGBdif2 of the target pixel with the target sensor. Replaced with gray-black difference data LGBdif2 of pixels included in the IC chip. The pixel position replaced with gray light black difference data LGBdif1 and the pixel position replaced with gray light black difference data LGBdif2 are the same pixel position.

CPU40は、対象画素が最終画素か否かを判断する(RA11)。具体的には、CPU40は、処理RA6で記憶した画素番号が最終画素を示す画素番号と一致するか否かを判断し、一致する場合(RA11:Yes)は、処理RA8で記憶した画素番号とチップ番号を消去し、処理RA10に進む。一致しない場合(RA11:No)は、処理RA8に進む。   The CPU 40 determines whether the target pixel is the last pixel (RA11). Specifically, the CPU 40 determines whether or not the pixel number stored in the process RA6 matches the pixel number indicating the final pixel. If they match (RA11: Yes), the CPU 40 stores the pixel number stored in the process RA8. The chip number is erased, and the process proceeds to process RA10. If they do not match (RA11: No), the process proceeds to process RA8.

CPU40は、灰淡黒差分平均値LGBdifave2を算出する(RA12)。具体的には、CPU40は、各色の1ラインの全ての画素の灰淡黒差分データLGBdif2の平均値を算出し、灰淡黒差分平均値LGBdifave2としてフラッシュPROM43に記憶する。   The CPU 40 calculates a gray-light black difference average value LGBdiffave2 (RA12). Specifically, the CPU 40 calculates the average value of the gray light black difference data LGBdif2 of all the pixels of one line of each color, and stores it in the flash PROM 43 as the gray light black difference average value LGBdifave2.

CPU40は、変動比率SCRTを算出する(RA13)。具体的には、CPU40は、1ラインの各色の各画素において灰淡黒差分データLGBdif2を灰淡黒差分データLGBdif1で割算し、1ラインの各色の各画素の変動比率SCRTを算出する。   The CPU 40 calculates the fluctuation ratio SCRT (RA13). Specifically, the CPU 40 divides the gray light black difference data LGBdif2 by the gray light black difference data LGBdif1 in each pixel of each color of one line, and calculates a variation ratio SCRT of each pixel of each color of one line.

CPU40は、平均値比率AVRTを算出する(RA14)。具体的には、CPU40は、灰淡黒差分平均値LGBdifave1を灰淡黒差分平均値LGBdifave2で割算し、平均値比率AVRTを算出する。   The CPU 40 calculates the average value ratio AVRT (RA14). Specifically, the CPU 40 calculates the average value ratio AVRT by dividing the gray-light black difference average value LGBdiffave1 by the gray-light black difference average value LGBdiffave2.

CPU40は、灰比率GRRTを算出する(RA15)。具体的には、CPU40は、各色の各画素位置Phrにおいて灰黒差分上位値GBhr2を灰黒差分上位値GBhr1で割算し、割算して得られた16画素の値の平均値を各色の灰比率GRRTとして算出する。   The CPU 40 calculates the ash ratio GRRT (RA15). Specifically, the CPU 40 divides the gray-black difference upper value GBhr2 by the gray-black difference upper value GBhr1 at each pixel position Phr of each color, and calculates an average value of 16 pixel values obtained by the division for each color. Calculated as the ash ratio GRRT.

CPU40は、基準データCDを算出する(RA16)。具体的には、CPU40は、処理M9で記憶した1ラインの各色の各画素において白黒差分データWBdifに変動比率SCRTを掛算し、1ラインの各色において変動比率SCRTを掛算して得られた値に灰比率GRRTを掛算し、灰比率GRRTを掛算して得られた値に平均値比率AVRTを掛算して、1ラインの各色の各画素の基準データCDを算出する。   The CPU 40 calculates the reference data CD (RA16). Specifically, the CPU 40 multiplies the black-and-white difference data WBdif by the variation ratio SCRT for each pixel of each line of color stored in the process M9, and multiplies the variation ratio SCRT for each color of one line by the value obtained. Multiply the ash ratio GRRT and multiply the value obtained by multiplying the ash ratio GRRT by the average value ratio AVRT to calculate the reference data CD for each pixel of each color in one line.

<実施形態の効果>
本実施形態では、保守メイン処理において、黒データBK1取得M5は、黒データBK1を取得する。灰淡黒差分データLGBdif1記憶M16において、灰淡データLGR1取得MA1は、灰淡データLGR1を取得する。灰淡黒差分データLGBdif1算出MA2は、灰淡データLGR1から黒データBK1を引算して灰淡黒差分データLGBdif1を算出する。読取メイン処理において、黒データBK2取得R4は、黒データBK2を取得する。基準データCD算出R7において、灰淡データLGR2取得RA1は、灰淡データLGR2を取得する。灰淡黒差分データLGBdif2算出RA2は、灰淡データLGR2から黒データBK2を引算して灰淡黒差分データLGBdif2を算出する。判別データRT2算出RA3は、1ラインの各色の各画素において灰淡黒差分データLGBdif2を灰淡黒差分データLGBdif1で割算し、1ラインの赤色の各画素の判別データRT2を算出する。判別標準偏差LGSD算出RA5は、センサICチップCH1に含まれる各画素において、判別データRT2をセンサICチップCH1の平均値AVE2で引算した値である偏差SDを算出し、センサICチップCH1に含まれる全ての画素の偏差SDの2乗平均平方根を算出することで、判別標準偏差LGSDを算出する。読取加算値LGAD1、読取減算値LGAD2算出RA6は、判別標準偏差LGSDが0.01以下の場合に、平均値AVE2に4%である0.04を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出し、平均値AVE2に0.04を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出し、判別標準偏差LGSDが0.01より大きく、且つ0.02以下の場合に、平均値AVE2に5%である0.05を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出し、CPU40は、平均値AVE2に0.05を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出し、標準偏差LGSDが0.02より大きく、且つ0.03以下の場合に、平均値AVE2に6%である0.06を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出し、平均値AVE2に0.06を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出し、標準偏差LGSDが0.03より大きく、且つ0.04以下の場合に、平均値AVE2に7%である0.07を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出し、平均値AVE2に0.07を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出し、標準偏差LGSDが0.04より大きく、且つ0.05以下の場合に、平均値AVE2に8%である0.08を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出し、平均値AVE2に0.08を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出し、標準偏差LGSDが0.05より大きい場合に、平均値AVE2に10%である0.1を掛算して、赤色の各センサICチップの読取加算値LGAD1を算出し、平均値AVE2に0.1を掛算して、赤色の各センサICチップの読取減算値LGAD2を算出する。閾値TH2算出RA7は、各センサICチップの平均値AVE2に読取加算値LGAD1を加算し、白閾値WTH2を算出し、各センサICチップの平均値AVE2から読取減算値LGAD2を減算し、黒閾値BTH2を算出する。対象画素が異常画素か否かを判断する処理RA9は、赤色において対象画素の灰淡黒差分データLGBdif2が対象センサICチップのチップ番号に対応する黒閾値BTH2以上であり、且つ対象センサICチップのチップ番号に対応する白閾値WTH2以下の範囲内であるか否かを判断し、範囲内にない場合(RA9:Yes)は、対象画素が異常画素であると判断し、範囲内にある場合は、対象画素の画素位置が異常画素位置PEDか否かを判断し、異常画素位置PEDである場合(RA9:Yes)は、対象画素が異常画素であると判断し、異常画素位置PEDでない場合(RA9:No)は、対象画素が異常画素でないと判断する。よって、判別標準偏差の変動を考慮して判別範囲を設定しているため、判別標準偏差の変動による影響を低減して、異常画素位置を精度良く検出することができる。さらに、環境温度などによる位置ずれは読取部の端部においてずれ量が大きい傾向があるため、最初に出力される先頭ブロックの判別データのみを用いることで、より速く、異常画素位置の検出精度の高い判別標準偏差を算出することができる。
<Effect of embodiment>
In the present embodiment, black data BK1 acquisition M5 acquires black data BK1 in the maintenance main process. In the gray light difference data LGBdif1 storage M16, the light gray data LGR1 acquisition MA1 acquires gray light data LGR1. Gray light black difference data LGBdif1 calculation MA2 subtracts black data BK1 from light gray data LGR1 to calculate gray light black difference data LGBdif1. In the main reading process, black data BK2 acquisition R4 acquires black data BK2. In the reference data CD calculation R7, gray data LGR2 acquisition RA1 acquires gray data LGR2. Gray light black difference data LGBdif2 calculation RA2 calculates gray light black difference data LGBdif2 by subtracting black data BK2 from light gray data LGR2. The discrimination data RT2 calculation RA3 calculates the discrimination data RT2 for each red pixel in one line by dividing the gray light black difference data LGBdif2 by the gray light black difference data LGBdif1 in each pixel of each color in one line. The discrimination standard deviation LGSD calculation RA5 calculates a deviation SD that is a value obtained by subtracting the discrimination data RT2 by the average value AVE2 of the sensor IC chip CH1 in each pixel included in the sensor IC chip CH1, and is included in the sensor IC chip CH1. The discriminant standard deviation LGSD is calculated by calculating the root mean square of the deviations SD of all pixels. The read addition value LGAD1 and the read subtraction value LGAD2 calculation RA6 are obtained by multiplying the average value AVE2 by 0.04 which is 4% when the discrimination standard deviation LGSD is 0.01 or less, and reading the red sensor IC chips. The addition value LGAD1 is calculated, the average value AVE2 is multiplied by 0.04, and the read subtraction value LGAD2 of each red sensor IC chip is calculated. The discrimination standard deviation LGSD is greater than 0.01 and less than or equal to 0.02. In this case, the average value AVE2 is multiplied by 0.05 which is 5% to calculate the read addition value LGAD1 of each sensor IC chip of red, and the CPU 40 multiplies the average value AVE2 by 0.05, The read subtraction value LGAD2 of each red sensor IC chip is calculated. When the standard deviation LGSD is larger than 0.02 and equal to or smaller than 0.03, the average value AVE2 is 6%. To calculate the read addition value LGAD1 of each red sensor IC chip, and multiply the average value AVE2 by 0.06 to calculate the read subtraction value LGAD2 of each red sensor IC chip, and the standard deviation LGSD Is greater than 0.03 and less than or equal to 0.04, the average value AVE2 is multiplied by 0.07 which is 7% to calculate the read addition value LGAD1 of each red sensor IC chip, and the average value AVE2 Is multiplied by 0.07 to calculate the read subtraction value LGAD2 of each red sensor IC chip. When the standard deviation LGSD is greater than 0.04 and less than or equal to 0.05, the average value AVE2 is 8% Multiplying by 0.08, the read addition value LGAD1 of each red sensor IC chip is calculated, the average value AVE2 is multiplied by 0.08, and the read subtraction value LGAD of each red sensor IC chip is calculated. When the standard deviation LGSD is larger than 0.05, the average value AVE2 is multiplied by 0.1 which is 10% to calculate the read addition value LGAD1 of each red sensor IC chip, and the average value AVE2 Is multiplied by 0.1 to calculate the read subtraction value LGAD2 of each red sensor IC chip. The threshold value TH2 calculation RA7 adds the read addition value LGAD1 to the average value AVE2 of each sensor IC chip, calculates the white threshold value WTH2, subtracts the read subtraction value LGAD2 from the average value AVE2 of each sensor IC chip, and black threshold value BTH2 Is calculated. In the process RA9 for determining whether the target pixel is an abnormal pixel, the gray-black difference data LGBdif2 of the target pixel in red is not less than the black threshold value BTH2 corresponding to the chip number of the target sensor IC chip, and the target sensor IC chip It is determined whether or not it is within the range equal to or less than the white threshold value WTH2 corresponding to the chip number. If it is not within the range (RA9: Yes), it is determined that the target pixel is an abnormal pixel. It is determined whether or not the pixel position of the target pixel is the abnormal pixel position PED, and if it is the abnormal pixel position PED (RA9: Yes), it is determined that the target pixel is an abnormal pixel and is not the abnormal pixel position PED ( RA9: No) determines that the target pixel is not an abnormal pixel. Therefore, since the determination range is set in consideration of the variation of the determination standard deviation, it is possible to reduce the influence of the variation of the determination standard deviation and detect the abnormal pixel position with high accuracy. Furthermore, since the amount of misalignment due to environmental temperature tends to be large at the end of the reading unit, using only the first block discrimination data that is output first, the detection accuracy of the abnormal pixel position is faster. A high discrimination standard deviation can be calculated.

[実施形態と発明との対応関係]
画像読取装置1、及び灰色基準板34が、本発明の画像読取装置、及び灰色基準部材の一例である。読取部24、及びAFE45が、本発明の読取部の一例である。デバイス制御部44が本発明の補正部の一例である。フラッシュPROM43、及びCPU40が、本発明の記憶部、及び制御部の一例である。黒データBK1取得M5が、本発明の第1黒データ取得処理の一例である。灰淡データLGR1取得MA1が、本発明の第1灰淡データ取得処理の一例である。灰淡黒差分データLGBdif1算出MA2が、本発明の第1灰淡黒差分算出処理の一例である。黒データBK2取得R4が、本発明の第2黒データ取得処理の一例である。灰淡データLGR2取得RA1が、本発明の第2灰淡データ取得処理の一例である。灰淡黒差分データLGBdif2算出RA2が、本発明の第2灰淡黒差分算出処理の一例である。判別データRT2算出RA3が、本発明の判別データ算出処理の一例である。判別標準偏差LGSD算出RA5が、本発明の標準偏差算出処理の一例である。読取加算値LGAD1、読取減算値LGAD2算出RA6、及び閾値TH2算出RA7が、本発明の判別範囲設定処理の一例である。処理RA8〜処理RA11が、本発明の位置特定処理の一例である。処理RA4が、本発明の平均処理の一例である。
[Correspondence between embodiment and invention]
The image reading device 1 and the gray reference plate 34 are examples of the image reading device and the gray reference member of the present invention. The reading unit 24 and the AFE 45 are examples of the reading unit of the present invention. The device control unit 44 is an example of a correction unit of the present invention. The flash PROM 43 and the CPU 40 are examples of the storage unit and the control unit of the present invention. The black data BK1 acquisition M5 is an example of a first black data acquisition process of the present invention. The gray data LGR1 acquisition MA1 is an example of the first gray data acquisition process of the present invention. Gray light black difference data LGBdif1 calculation MA2 is an example of first gray light black difference calculation processing of the present invention. The black data BK2 acquisition R4 is an example of a second black data acquisition process of the present invention. The gray data LGR2 acquisition RA1 is an example of the second gray data acquisition process of the present invention. Gray light black difference data LGBdif2 calculation RA2 is an example of the second gray light black difference calculation process of the present invention. The discrimination data RT2 calculation RA3 is an example of the discrimination data calculation process of the present invention. The discrimination standard deviation LGSD calculation RA5 is an example of the standard deviation calculation process of the present invention. The read addition value LGAD1, the read subtraction value LGAD2 calculation RA6, and the threshold TH2 calculation RA7 are an example of the determination range setting process of the present invention. Processes RA8 to RA11 are examples of the position specifying process of the present invention. The process RA4 is an example of the average process of the present invention.

[変形例]
本発明は、本実施形態に限定されることなく、その趣旨を逸脱しない範囲において種々の変形が可能である。以下にその変形の一例を述べる。
[Modification]
The present invention is not limited to this embodiment, and various modifications can be made without departing from the spirit of the present invention. An example of the modification will be described below.

(1)本実施形態の画像読取装置1は、プリンタ部を備えた複合機に適用されても良い。また、本実施形態では、1つの読取部24と、1つの灰色基準板34とが備えられる構成であるが、原稿GSの両面を読み取るために、2つの読取部と、2つの灰色基準板とが備えられる構成でもよい。   (1) The image reading apparatus 1 according to the present embodiment may be applied to a multi-function machine including a printer unit. In this embodiment, one reading unit 24 and one gray reference plate 34 are provided. However, in order to read both sides of the document GS, two reading units, two gray reference plates, May be provided.

(2)本実施形態では、図5に示す保守メイン処理、および図7に示す読取メイン処理の全てがCPU40によって実行される構成であるが、この構成に限定されない。例えば、保守メイン処理のM3〜M9、M12〜M16の一部、および読取メイン処理のR2〜R8の一部が画像処理部46、デバイス制御部44、またはAFE45により実行されてもよい。また、保守メイン処理が、画像読取装置1から独立した外部装置、たとえばコンピュータなどで実行される構成でもよい。   (2) In the present embodiment, the maintenance main process shown in FIG. 5 and the reading main process shown in FIG. 7 are all executed by the CPU 40. However, the present invention is not limited to this configuration. For example, part of the maintenance main processes M3 to M9 and M12 to M16 and part of the reading main processes R2 to R8 may be executed by the image processing unit 46, the device control unit 44, or the AFE 45. Alternatively, the maintenance main process may be executed by an external device independent of the image reading device 1, such as a computer.

(3)本実施形態では、図5に示す保守メイン処理、および図7に示す読取メイン処理において、カラーモードについて説明を行ったが、モノモードとしてもよい。カラーモードの場合は、3色で1ラインであったが、モノモードの場合は、1色で1ラインとなる。カラーモードの場合は、処理RA6において、平均値AVE2に、4%、5%、6.5%、8.5%、10.5%、および13%を掛算することで読取加算値LGAD1、及び読取減算値LGAD2を算出したが、モノモードの場合は、平均値AVE2に、4.5%、5.5%、7%、9%、11%、および13.5%を掛算することで読取加算値LGAD1、及び読取減算値LGAD2を算出しても良い。   (3) In this embodiment, the color mode has been described in the maintenance main process shown in FIG. 5 and the reading main process shown in FIG. 7, but a mono mode may be used. In the color mode, one color is one line, but in the mono mode, one color is one line. In the case of the color mode, in the process RA6, the average value AVE2 is multiplied by 4%, 5%, 6.5%, 8.5%, 10.5%, and 13% to obtain the read addition value LGAD1, and The reading subtraction value LGAD2 was calculated, but in the case of the mono mode, reading is performed by multiplying the average value AVE2 by 4.5%, 5.5%, 7%, 9%, 11%, and 13.5%. The addition value LGAD1 and the read subtraction value LGAD2 may be calculated.

(4)本実施形態では、0.01、0.02、0.03、0.04、及び0.05の5つの値を用いて判別標準偏差LGSDを判断したが、異なる値で判断しても良いし、5つよりも多い値と用いても良いし、5つよりも少ない値を用いて判別標準偏差LGSDを判断しても良い。   (4) In this embodiment, the discrimination standard deviation LGSD is determined using five values of 0.01, 0.02, 0.03, 0.04, and 0.05. Alternatively, the discriminant standard deviation LGSD may be determined by using more than five values or by using less than five values.

1…画像読取装置、5…操作部、24…読取部、30…光源、31…受光部、33…光電変換素子、40…CPU、43…フラッシュPROM、44…デバイス制御部、45…AFE、46…画像処理部 DESCRIPTION OF SYMBOLS 1 ... Image reading device, 5 ... Operation part, 24 ... Reading part, 30 ... Light source, 31 ... Light receiving part, 33 ... Photoelectric conversion element, 40 ... CPU, 43 ... Flash PROM, 44 ... Device control part, 45 ... AFE, 46. Image processing unit

Claims (3)

原稿が搬送される搬送経路に配置され、白色よりも反射率が低い灰色基準部材と、
原稿が前記灰色基準部材を通過するときに原稿に光を照射して原稿の画像をライン単位で画素毎に読み取る読取部と、
前記読取部が読み取った画像データを補正データに基づきシェーディング補正する補正部と、
記憶部と、
事前処理を実行した後に、読取前処理を実行する制御部と、を備え、
前記制御部は、
前記事前処理として、
前記読取部が消灯して読み取ったときに前記読取部から出力される1ライン中の各画素の第1黒データを取得する第1黒データ取得処理と、
前記読取部が前記灰色基準部材を照射して読み取ったときに前記読取部から出力される1ライン中の各画素の第1灰淡データを取得する第1灰淡データ取得処理と、
1ライン中の各画素において前記第1灰淡データから前記第1黒データを引算して1ライン中の各画素の第1灰淡黒差分データを算出し、前記記憶部に記憶する第1灰淡黒差分算出処理と、を実行し、
前記読取前処理として、
前記読取部が消灯して読み取ったときに前記読取部から出力される1ライン中の各画素の第2黒データを取得する第2黒データ取得処理と、
前記読取部が前記灰色基準部材を照射して読み取ったときに前記読取部から出力される1ライン中の各画素の第2灰淡データを取得する第2灰淡データ取得処理と、
1ライン中の各画素において前記第2灰淡データから前記第2黒データを引算して1ライン中の各画素の第2灰淡黒差分データを算出する第2灰淡黒差分算出処理と、
1ライン中の各画素において前記第2灰淡黒差分データを前記第1灰淡黒差分データで割算して1ライン中の各画素の判別データを算出する判別データ算出処理と、
前記判別データの標準偏差を算出して判別標準偏差を算出する標準偏差算出処理と、
前記判別標準偏差が大きいほど前記判別データの正常値の範囲を示す判別範囲を広く設定する判別範囲設定処理と、
前記判別データが前記判別範囲内でない画素の画素位置を異常画素位置として特定する位置特定処理と、を実行することを特徴とする画像読取装置。
A gray reference member that is arranged in a conveyance path through which the document is conveyed and has a lower reflectance than white,
A reading unit that irradiates the original with light when the original passes through the gray reference member and reads an image of the original for each pixel in units of lines;
A correction unit that corrects shading of image data read by the reading unit based on correction data;
A storage unit;
A controller that executes pre-reading processing after executing pre-processing, and
The controller is
As the pre-processing,
A first black data acquisition process for acquiring first black data of each pixel in one line output from the reading unit when the reading unit is turned off and reads;
First gray data acquisition processing for acquiring first gray data of each pixel in one line output from the reading unit when the reading unit irradiates and reads the gray reference member;
First gray data difference of each pixel in one line is calculated by subtracting the first black data from the first gray data in each pixel in one line, and is stored in the storage unit. Gray light black difference calculation processing, and
As the pre-reading process,
A second black data acquisition process for acquiring second black data of each pixel in one line output from the reading unit when the reading unit is turned off and reads;
A second gray data acquisition process for acquiring second gray data of each pixel in one line output from the reading unit when the reading unit irradiates and reads the gray reference member;
A second gray light black difference calculation process for subtracting the second black data from the second gray data for each pixel in one line to calculate second gray light black difference data for each pixel in one line; ,
A discrimination data calculation process for calculating discrimination data for each pixel in one line by dividing the second gray light black difference data by the first gray light black difference data in each pixel in one line;
A standard deviation calculation process for calculating a standard deviation of the discrimination data and calculating a discrimination standard deviation;
A determination range setting process for setting a wider determination range indicating a normal value range of the determination data as the determination standard deviation is larger;
And a position specifying process for specifying a pixel position of a pixel whose discrimination data is not within the discrimination range as an abnormal pixel position.
前記判別範囲設定処理は、前記判別データの平均値を判別平均値として算出する平均処理を含み、
前記判別範囲設定処理は、前記判別標準偏差が第1所定値以下の場合に、前記判別範囲の上限を前記判別平均値に4%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に4%割減した値とする範囲を前記判別範囲として設定し、
前記判別標準偏差が第1所定値より大きく、且つ第2所定値以下の場合に、前記判別範囲の上限を前記判別平均値に5%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に5%割減した値とする範囲を前記判別範囲として設定し、
前記判別標準偏差が第2所定値より大きく、且つ第3所定値以下の場合に、前記判別範囲の上限を前記判別平均値に6.5%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に6.5%割減した値とする範囲を前記判別範囲として設定し、
前記判別標準偏差が第3所定値より大きく、且つ第4所定値以下の場合に、前記判別範囲の上限を前記判別平均値に8.5%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に8.5%割減した値とする範囲を前記判別範囲として設定し、
前記判別標準偏差が第4所定値より大きく、且つ第5所定値以下の場合に、前記判別範囲の上限を前記判別平均値に10.5%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に10.5%割減した値とする範囲を前記判別範囲として設定し、
前記判別標準偏差が第5所定値より大きい場合に、前記判別範囲の上限を前記判別平均値に13%割増した値とし、且つ前記判別範囲の下限を前記判別平均値に13%割減した値とする範囲を前記判別範囲として設定することを特徴とする請求項1に記載の画像読取装置。
The determination range setting process includes an average process for calculating an average value of the determination data as a determination average value,
In the determination range setting process, when the determination standard deviation is less than or equal to a first predetermined value, the upper limit of the determination range is a value obtained by adding 4% to the determination average value, and the lower limit of the determination range is the determination average value. Set the range to be a value obtained by discounting 4% to the discrimination range,
When the discriminant standard deviation is larger than the first predetermined value and less than or equal to the second predetermined value, the upper limit of the discriminating range is set to a value obtained by adding 5% to the discriminating average value, and the lower limit of the discriminating range is set to the discriminant average. A range that is 5% discounted on the value is set as the discrimination range,
When the discrimination standard deviation is greater than a second predetermined value and less than or equal to a third predetermined value, the upper limit of the discrimination range is set to a value that is 6.5% higher than the discrimination average value, and the lower limit of the discrimination range is A range that is 6.5% discounted to the discrimination average value is set as the discrimination range,
When the discriminant standard deviation is greater than a third predetermined value and less than or equal to a fourth predetermined value, the upper limit of the discriminating range is 8.5% higher than the discriminating average value, and the lower limit of the discriminating range is A range that is 8.5% less than the discrimination average value is set as the discrimination range,
When the discrimination standard deviation is larger than a fourth predetermined value and not more than a fifth predetermined value, the upper limit of the discrimination range is set to a value obtained by adding 10.5% to the discrimination average value, and the lower limit of the discrimination range is A range that is 10.5% discounted to the discrimination average value is set as the discrimination range,
When the discrimination standard deviation is larger than a fifth predetermined value, the upper limit of the discrimination range is a value obtained by adding 13% to the discrimination average value, and the lower limit of the discrimination range is reduced by 13% to the discrimination average value The image reading apparatus according to claim 1, wherein the range is set as the determination range.
前記読取部は、光源と、複数のブロックに区分される多数の光電変換素子とを含み、
前記標準偏差算出処理は、前記複数のブロックのうち1ライン中に最初に出力されるブロックに存在する全ての画素の前記判別データの標準偏差を算出して前記判別標準偏差を算出することを特徴とする請求項1又は請求項2に記載の画像読取装置。
The reading unit includes a light source and a large number of photoelectric conversion elements divided into a plurality of blocks,
The standard deviation calculation processing calculates the standard deviation of the discrimination by calculating the standard deviation of the discrimination data of all pixels existing in a block that is output first in one line among the plurality of blocks. The image reading apparatus according to claim 1 or 2.
JP2015165510A 2015-08-25 2015-08-25 Image reading device Active JP6493807B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015165510A JP6493807B2 (en) 2015-08-25 2015-08-25 Image reading device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015165510A JP6493807B2 (en) 2015-08-25 2015-08-25 Image reading device

Publications (2)

Publication Number Publication Date
JP2017046090A true JP2017046090A (en) 2017-03-02
JP6493807B2 JP6493807B2 (en) 2019-04-03

Family

ID=58212294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015165510A Active JP6493807B2 (en) 2015-08-25 2015-08-25 Image reading device

Country Status (1)

Country Link
JP (1) JP6493807B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114885070A (en) * 2022-07-11 2022-08-09 北京高德品创科技有限公司 Method and device for positioning scanning initial position

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001217990A (en) * 2000-02-01 2001-08-10 Canon Inc Image reader and image reading method
JP2005012319A (en) * 2003-06-17 2005-01-13 Pfu Ltd Image reading apparatus provided with shading correction function
JP2010103874A (en) * 2008-10-27 2010-05-06 Canon Inc Image processing apparatus, program and storage medium
JP2012204849A (en) * 2011-03-23 2012-10-22 Brother Ind Ltd Image reading apparatus and light quantity adjustment method
JP2016009933A (en) * 2014-06-23 2016-01-18 富士ゼロックス株式会社 Image reading device and image forming apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001217990A (en) * 2000-02-01 2001-08-10 Canon Inc Image reader and image reading method
JP2005012319A (en) * 2003-06-17 2005-01-13 Pfu Ltd Image reading apparatus provided with shading correction function
JP2010103874A (en) * 2008-10-27 2010-05-06 Canon Inc Image processing apparatus, program and storage medium
JP2012204849A (en) * 2011-03-23 2012-10-22 Brother Ind Ltd Image reading apparatus and light quantity adjustment method
JP2016009933A (en) * 2014-06-23 2016-01-18 富士ゼロックス株式会社 Image reading device and image forming apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114885070A (en) * 2022-07-11 2022-08-09 北京高德品创科技有限公司 Method and device for positioning scanning initial position
CN114885070B (en) * 2022-07-11 2022-09-16 北京高德品创科技有限公司 Method and device for positioning scanning initial position

Also Published As

Publication number Publication date
JP6493807B2 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
JP6554973B2 (en) Image reading device
US20190327387A1 (en) Color inspection device, image forming apparatus, color inspection method, and recording medium
WO2014129305A1 (en) Measurement apparatus and image forming apparatus
US11265424B2 (en) Image forming apparatus
US20210041822A1 (en) Image forming apparatus
US9225878B2 (en) Image processing apparatus, image processing method, and program
JP6558639B2 (en) Image reading device
US10750032B2 (en) Image inspection apparatus
JP6156746B2 (en) Image reading device
JP2015198281A (en) Image reading apparatus
US7564601B2 (en) Method for generating a tonal response curve for a scanner
JP6493807B2 (en) Image reading device
US9924072B2 (en) Image reading apparatus, image forming apparatus, and non-transitory computer readable medium
US11831849B2 (en) Information processing device and method of controlling image forming apparatus
JP6555166B2 (en) Image reading device
JP6380197B2 (en) Image reading device
JP2012199791A (en) Reading apparatus and reading method
US9432552B2 (en) Image scanning apparatus
JP6512005B2 (en) Image reader
JP5225954B2 (en) Image reading device
JP4645701B2 (en) Image reading apparatus and image reading method
JP6311576B2 (en) Image reading device
JP6152820B2 (en) Image reading device
JP6358131B2 (en) Image reading apparatus and image forming apparatus
US20240275902A1 (en) Image reading apparatus, image forming apparatus, and image reading method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190221

R150 Certificate of patent or registration of utility model

Ref document number: 6493807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150