JP4404042B2 - Image reading device - Google Patents

Image reading device Download PDF

Info

Publication number
JP4404042B2
JP4404042B2 JP2005317820A JP2005317820A JP4404042B2 JP 4404042 B2 JP4404042 B2 JP 4404042B2 JP 2005317820 A JP2005317820 A JP 2005317820A JP 2005317820 A JP2005317820 A JP 2005317820A JP 4404042 B2 JP4404042 B2 JP 4404042B2
Authority
JP
Japan
Prior art keywords
scanning direction
data
edge
noise
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005317820A
Other languages
Japanese (ja)
Other versions
JP2007129279A (en
Inventor
和宏 石黒
孝元 鍋島
匡晃 坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2005317820A priority Critical patent/JP4404042B2/en
Publication of JP2007129279A publication Critical patent/JP2007129279A/en
Application granted granted Critical
Publication of JP4404042B2 publication Critical patent/JP4404042B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、画像読取装置に関し、特に、原稿を搬送しながら読取る画像読取装置に関する。   The present invention relates to an image reading apparatus, and more particularly to an image reading apparatus that reads an original while conveying the original.

近年、スキャナ、ファクシミリ、複写機などでは、主走査方向に複数の光電変換素子を配列したラインセンサを固定して設置し、主走査方向と直交する副走査方向に原稿を搬送することによりラインセンサで原稿を読取る読取方式を採用した画像読取装置を備えたものがある。この画像読取装置は、搬送される原稿を読取位置で固定するために、原稿とラインセンサとの間に透明な原稿台を備える。原稿で反射した光は原稿台を透過してラインセンサで受光される。このため、原稿台にゴミが付着していると、ラインセンサは原稿を読み取る代わりにゴミを読み取ってしまい、画像データにノイズが発生するといった問題がある。   In recent years, in scanners, facsimiles, copiers, etc., a line sensor in which a plurality of photoelectric conversion elements are arranged in a main scanning direction is fixed and installed, and a line sensor is conveyed by conveying a document in a sub scanning direction orthogonal to the main scanning direction. There is an image reading apparatus that employs a reading method for reading a document. The image reading apparatus includes a transparent document table between the document and the line sensor in order to fix the conveyed document at the reading position. The light reflected from the original passes through the original table and is received by the line sensor. For this reason, if dust adheres to the document table, the line sensor reads the dust instead of reading the document, and there is a problem that noise is generated in the image data.

原稿台に付着したゴミが原因で発生するノイズを、読取った画像から検出するための技術が、特開2002−185767号公報(特許文献1)および特開2002−271631号公報(特許文献2)に記載されている。特開2002−185767号公報に記載の技術は、画像データ中の主走査方向に垂直な直線を、原稿台上のゴミを読み取ることにより画像データに表れるノイズと判定するようにしている。このため、実際に原稿に描かれた主走査方向に垂直な直線が、誤ってノイズと判定されてしまうことがある。   Japanese Patent Application Laid-Open No. 2002-185767 (Patent Document 1) and Japanese Patent Application Laid-Open No. 2002-271671 (Patent Document 2) are techniques for detecting noise generated due to dust adhering to the document table from a read image. It is described in. In the technique described in Japanese Patent Laid-Open No. 2002-185767, a straight line perpendicular to the main scanning direction in image data is determined as noise appearing in the image data by reading dust on the document table. For this reason, the straight line actually perpendicular to the main scanning direction drawn on the document may be erroneously determined as noise.

また、特開2002−271631号公報には、原稿からカラー画像を読み取る第1読取手段と、第1読取手段とは異なる分光感度に対応しているとともに第1読取手段に対して原稿の副走査方向にオフセットして配置された第2読取手段と、第1読取手段による読み取り結果の濃度値と第2読取手段による読み取り結果の濃度値とを比較するデータ比較手段と、第1読取手段による読み取り結果に原稿の主走査方向におけるエッジ成分が含まれているか否かを判断するエッジ検出手段と、データ比較手段による比較結果とエッジ検出手段による判断結果とを基に第1読取手段でのみ読み取り結果に含まれるノイズ成分を検出するノイズ検出手段とを備えた画像読取装置が記載されている。特開2002−271631号公報に記載の画像読取装置は、原稿からカラー画像を読み取る第1読取手段とは別に、第2読取手段を備える必要があり、処理する画像データの数が増えて処理が複雑になるといった問題がある。
特開2002−185767号公報 特開2002−271631号公報
Japanese Patent Laid-Open No. 2002-271631 discloses a first reading unit that reads a color image from a document, and corresponds to a spectral sensitivity different from that of the first reading unit, and subscans the document with respect to the first reading unit. Second reading means arranged offset in the direction, data comparison means for comparing the density value of the reading result by the first reading means and the density value of the reading result by the second reading means, and reading by the first reading means The result of reading only by the first reading means based on the edge detection means for judging whether or not the result includes an edge component in the main scanning direction of the document, and the comparison result by the data comparison means and the judgment result by the edge detection means An image reading apparatus provided with noise detecting means for detecting a noise component included in the image reading apparatus is described. The image reading apparatus described in Japanese Patent Application Laid-Open No. 2002-271631 needs to include a second reading unit in addition to the first reading unit that reads a color image from a document, and the number of image data to be processed increases and processing is performed. There is a problem that it becomes complicated.
JP 2002-185767 A Japanese Patent Application Laid-Open No. 2002-271631

この発明は上述した問題点を解決するためになされたもので、原稿を読取った画像から原稿台に存在するゴミを読み取って発生するノイズを検出する精度を向上させた画像読取装置を提供することである。   The present invention has been made to solve the above-described problems, and provides an image reading apparatus having improved accuracy in detecting noise generated by reading dust existing on a document table from an image obtained by reading the document. It is.

上述した目的を達成するためにこの発明のある局面によれば、画像読取装置は、分光感度が互いに異なるフィルタを有し、副走査方向に距離を隔てて予め定められた順に配置され、原稿を副走査方向に走査する複数のラインセンサと、原稿と複数のラインセンサとの間に設けられた原稿台と、原稿と複数のラインセンサとの相対速度と異なる相対速度で原稿台を複数のラインセンサに相対して移動させる移動手段と、複数のラインセンサが出力する複数のデータを原稿の同じ位置を読取った画素となるように同期させるライン間補正手段と、ライン間補正手段から同期した複数のデータがライン単位で順に入力されるノイズ画素検出手段とを備え、ノイズ画素検出手段は、複数のデータそれぞれから主走査方向に画素値が変化する主走査方向エッジを検出する主走査方向エッジ検出手段と、複数のデータそれぞれから副走査方向に連続する所定数の画素の画素値が変化するグラデーション領域を検出するグラデーション検出部と、主走査方向エッジ検出手段により複数のデータの1のデータのみから検出された主走査方向エッジであって、グラデーション検出手段により主走査方向エッジが検出されたデータから検出された第1グラデーション領域を含む主走査方向エッジをノイズとする第1ノイズ検出手段とを含む。   In order to achieve the above-described object, according to one aspect of the present invention, an image reading apparatus includes filters having different spectral sensitivities, arranged in a predetermined order at a distance in the sub-scanning direction, and A plurality of line sensors that scan in the sub-scanning direction, a document table provided between the document and the plurality of line sensors, and a plurality of lines at a relative speed different from the relative speed between the document and the plurality of line sensors. A moving means that moves relative to the sensor, a line-to-line correction means that synchronizes a plurality of data output from a plurality of line sensors so as to be pixels read from the same position of the document, and a plurality of lines synchronized from the line-to-line correction means. Noise pixel detecting means for sequentially inputting the data of each line, the noise pixel detecting means is a main scanning direction in which the pixel value changes in the main scanning direction from each of a plurality of data A main scanning direction edge detecting unit for detecting a wedge, a gradation detecting unit for detecting a gradation region in which a pixel value of a predetermined number of pixels continuous in the sub scanning direction changes from each of a plurality of data, and a main scanning direction edge detecting unit Noise in the main scanning direction edge including the first gradation area detected from the data in which the main scanning direction edge is detected by the gradation detecting means, which is detected from only one of the plurality of data. First noise detecting means.

この発明に従えば、分光感度が互いに異なるフィルタを有し、原稿を副走査方向に走査する複数のラインセンサが、副走査方向に距離を隔てて予め定められた順に配置されており、原稿と複数のラインセンサとの間に設けられた原稿台が、原稿と複数のラインセンサとの相対速度と異なる相対速度で複数のラインセンサに相対して移動する。原稿台は原稿と複数のラインセンサとの相対速度と異なる相対速度で複数のラインセンサに相対して移動するため、原稿台上のゴミは、複数のラインセンサそれぞれによって原稿の異なる位置で読取られる。この画像読取装置は、複数のラインセンサが出力する複数のデータを原稿の同じ位置を読取った画素となるように同期させる。そして、画像読取装置は、複数のデータそれぞれから主走査方向に画素値が変化する主走査方向エッジを検出し、また、複数のデータそれぞれから副走査方向に連続する所定数の画素の画素値が変化するグラデーション領域を検出し、複数のデータの1のデータのみから検出された主走査方向エッジであって、主走査方向エッジが検出されたデータから検出された第1グラデーション領域を含む主走査方向エッジをノイズとする。原稿台上のゴミは、複数のラインセンサそれぞれによって原稿の異なる位置で読取られるので、原稿台上のゴミを読み取って得られるデータは、複数のデータの1のデータのみから検出される主走査方向エッジとなる。さらに、原稿台が複数のラインセンサに相対して移動するため、複数のデータの1のデータのみから検出される主走査方向エッジのうち、エッジの端の画素値が変化する主走査方向エッジとなる場合がある。このため、原稿を読取った画像から原稿台に存在するゴミを読み取って発生するノイズを検出する精度を向上させた画像読取装置を提供することができる。   According to the present invention, the plurality of line sensors that have filters having different spectral sensitivities and that scan the document in the sub-scanning direction are arranged in a predetermined order at a distance in the sub-scanning direction. A document table provided between the plurality of line sensors moves relative to the plurality of line sensors at a relative speed different from the relative speed between the document and the plurality of line sensors. Since the document table moves relative to the plurality of line sensors at a relative speed different from the relative speed between the document and the plurality of line sensors, dust on the document table is read at different positions on the document by each of the plurality of line sensors. . This image reading apparatus synchronizes a plurality of data output from a plurality of line sensors so as to be pixels read from the same position of the document. Then, the image reading apparatus detects a main scanning direction edge in which the pixel value changes in the main scanning direction from each of the plurality of data, and the pixel values of a predetermined number of pixels continuous in the sub-scanning direction from each of the plurality of data. A main scanning direction including a first gradation area detected from data in which main gradation direction edges are detected by detecting a changing gradation area and detected from only one of a plurality of data. Let the edge be noise. Since dust on the document table is read at different positions on the document by each of the plurality of line sensors, the data obtained by reading the dust on the document table is the main scanning direction detected from only one of the plurality of data. Become an edge. Furthermore, since the document table moves relative to the plurality of line sensors, the main scanning direction edge in which the pixel value at the edge of the edge changes among the main scanning direction edges detected from only one of the plurality of data. There is a case. For this reason, it is possible to provide an image reading apparatus with improved accuracy in detecting noise generated by reading dust existing on the document table from an image obtained by reading the document.

好ましくは、第1ノイズ検出手段は、グラデーション検出手段により主走査方向エッジが検出されたデータから検出された第1グラデーション領域の属するライン以降の主走査方向エッジをノイズとする。   Preferably, the first noise detection means uses noise in the main scanning direction edge after the line to which the first gradation area belongs, which is detected from the data in which the main scanning direction edge is detected by the gradation detection means.

好ましくは、第1ノイズ検出手段は、グラデーション検出手段により主走査方向エッジが検出されたデータから検出された第1グラデーション領域の属するライン以降に、第2グラデーション領域が検出されることを条件に、第1グラデーション領域の属するライン以降で第2グラデーション領域の属するライン以前の主走査方向エッジをノイズとする。   Preferably, the first noise detecting means is provided on the condition that the second gradation area is detected after the line to which the first gradation area is detected, which is detected from the data in which the edge in the main scanning direction is detected by the gradation detecting means. The main scanning direction edge after the line to which the first gradation area belongs and before the line to which the second gradation area belongs is defined as noise.

好ましくは、第1グラデーション領域と第2グラデーション領域とは、画素値が変化する方向が逆である。   Preferably, the first gradation area and the second gradation area are opposite in the direction in which the pixel value changes.

好ましくは、ノイズ画素検出手段は、主走査方向エッジ検出手段により検出された主走査方向エッジの周辺の領域に副走査方向に画素値が変化する副走査方向エッジを検出する副走査方向エッジ検出手段と、主走査方向エッジ検出手段により複数のデータの1のデータのみから主走査方向エッジが検出された場合、副走査方向エッジ検出手段により副走査方向エッジが検出されることを条件に、主走査方向エッジをノイズとする第2ノイズ検出手段とをさらに含む。   Preferably, the noise pixel detecting unit detects a sub-scanning direction edge detecting unit that detects a sub-scanning direction edge whose pixel value changes in the sub-scanning direction in a region around the main scanning direction edge detected by the main scanning direction edge detecting unit. If the main scanning direction edge is detected from only one of a plurality of data by the main scanning direction edge detecting means, the main scanning is performed on condition that the sub scanning direction edge is detected by the sub scanning direction edge detecting means. And a second noise detecting means that uses the direction edge as noise.

この発明に従えば、画像読取装置は、複数のデータの1のデータのみから主走査方向エッジが検出された場合、検出された主走査方向エッジの周辺の領域に副走査方向に画素値が変化する副走査方向エッジが検出されることを条件に、主走査方向エッジをノイズとする。原稿が高濃度領域と低濃度領域とを有する場合に、副走査方向エッジは、原稿を読み取る位置が高濃度領域から低濃度領域または低濃度領域から高濃度領域に副走査方向に移り変わる境界を示す。高濃度のゴミが原稿台に付着していても原稿の高濃度領域を読み取っている間はゴミにより発生するノイズは主走査方向エッジとして検出されないが、低濃度領域を読み取っている間はゴミにより発生するノイズは主走査方向エッジとして検出される。逆に、低濃度のゴミが原稿台に付着していても原稿の低濃度領域を読み取っている間はゴミにより発生するノイズは主走査方向エッジとして検出されないが、高濃度領域を読み取っている間はゴミにより発生するノイズは主走査方向エッジとして検出される。この場合、検出される主走査方向エッジは、その端で画素値の変化が少ないので、主走査方向エッジ周辺で副走査方向エッジが検出されることを条件に、主走査方向エッジをゴミにより発生するノイズとして検出する。このため、原稿を読取った画像から原稿台に存在するゴミを読み取って発生するノイズを検出する精度をさらに向上させることができる。   According to this invention, when the main scanning direction edge is detected from only one of a plurality of data, the image reading device changes the pixel value in the sub-scanning direction to the area around the detected main scanning direction edge. The edge in the main scanning direction is set as noise on the condition that the edge in the sub scanning direction is detected. When the document has a high density region and a low density region, the edge in the sub scanning direction indicates a boundary where the position at which the document is read changes from the high density region to the low density region or from the low density region to the high density region in the sub scanning direction. . Even if high-concentration dust adheres to the platen, noise generated by dust is not detected as an edge in the main scanning direction while the high-density area of the document is being read. The generated noise is detected as an edge in the main scanning direction. Conversely, even if low-density dust adheres to the platen, noise generated by dust is not detected as an edge in the main scanning direction while reading the low-density area of the document, but while high-density area is being read. The noise generated by dust is detected as an edge in the main scanning direction. In this case, since the change in the pixel value at the end of the main scanning direction edge is small, the main scanning direction edge is generated by dust on the condition that the sub scanning direction edge is detected around the main scanning direction edge. Detect as noise. For this reason, it is possible to further improve the accuracy of detecting noise generated by reading dust existing on the document table from an image obtained by reading the document.

好ましくは、第2ノイズ検出手段は、副走査方向エッジ検出手段により検出された副走査方向エッジの属するライン以降の主走査方向エッジをノイズとする。   Preferably, the second noise detecting means uses noise in the main scanning direction edge after the line to which the sub scanning direction edge detected by the sub scanning direction edge detecting means belongs.

好ましくは、第2ノイズ検出手段は、グラデーション検出手段により副走査方向エッジの属するライン以降に第3グラデーション領域が検出されることを条件に、第1副走査方向エッジの属するライン以降で第3グラデーション領域の属するライン以前の主走査方向エッジをノイズとする。   Preferably, the second noise detecting means detects the third gradation after the line to which the first sub-scanning direction edge belongs, on condition that the third gradation area is detected after the line to which the edge in the sub-scanning direction belongs by the gradation detecting means. The edge in the main scanning direction before the line to which the region belongs is defined as noise.

好ましくは、第2ノイズ検出手段は、複数のデータのうち主走査方向エッジ検出手段により主走査方向エッジが検出された1のデータとは別のデータに、主走査方向エッジのラインに副走査方向に画素値が変化する副走査方向エッジが検出されることをさらに条件として、主走査方向エッジをノイズとする。   Preferably, the second noise detection unit converts the data in the main scanning direction edge to a line different from the one data in which the main scanning direction edge is detected by the main scanning direction edge detection unit among the plurality of data. The edge in the main scanning direction is defined as noise on the condition that an edge in the sub scanning direction in which the pixel value changes is detected.

以下、図面を参照しつつ本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本発明の実施の形態の1つにおける画像読取装置を備えたMFP(Multi Function Peripheral)の斜視図である。図1を参照して、MFP100は、原稿を読取るための画像読取装置10と、画像読取装置10の下部に設けられた画像形成装置20とを含む。画像読取装置10は、本体部103にその一部が収納されており、自動原稿搬送装置(ADF)101を備える。画像形成装置20は、本体部103の画像読取装置10の下方に収納され、画像読取装置10が原稿を読取って出力する画像データに基づいて、紙などの記録媒体に画像を形成する。MFP100は、ファクシミリ、ローカルエリアネットワーク(LAN)、公衆交換電話網(PSTN)などのネットワークと接続するための通信インタフェースを備える。   FIG. 1 is a perspective view of an MFP (Multi Function Peripheral) including an image reading apparatus according to one embodiment of the present invention. Referring to FIG. 1, MFP 100 includes an image reading device 10 for reading a document, and an image forming device 20 provided below the image reading device 10. A part of the image reading apparatus 10 is housed in a main body 103 and includes an automatic document feeder (ADF) 101. The image forming apparatus 20 is housed below the image reading apparatus 10 in the main body 103, and forms an image on a recording medium such as paper based on image data that the image reading apparatus 10 reads and outputs a document. MFP 100 includes a communication interface for connecting to a network such as a facsimile, a local area network (LAN), and a public switched telephone network (PSTN).

図2は、画像読取装置10の内部構成の概略を示す図である。ADF101は、原稿200を原稿読取位置Lに搬送するためのタイミングローラ対201と、原稿読取位置L付近において原稿の搬送をガイドするための上部規制板203と、原稿読取位置Lを通過した原稿200を排出するために原稿200を搬送するためのローラ対202とを備える。   FIG. 2 is a diagram showing an outline of the internal configuration of the image reading apparatus 10. The ADF 101 includes a timing roller pair 201 for transporting the document 200 to the document reading position L, an upper restricting plate 203 for guiding document transportation in the vicinity of the document reading position L, and the document 200 that has passed through the document reading position L. And a pair of rollers 202 for conveying the document 200 to discharge the document.

ADF101は、積載された複数の原稿200の最上段から1枚の原稿をさばき、タイミングローラ対201に供給する。このため、ADF101は、複数ある原稿200を1枚ずつ順に原稿読取位置Lに搬送する。   The ADF 101 separates one document from the top of the stacked plurality of documents 200 and supplies it to the timing roller pair 201. Therefore, the ADF 101 conveys a plurality of documents 200 one by one to the document reading position L in order.

画像読取装置10の本体部20に収納される部分は、透明な部材から構成された原稿台205と、原稿の搬送経路の一部を形成する通紙ガイド207と、光を照射するための光源206と、光源からの光を反射させる反射部材208と、3つのラインセンサが副走査方向に配列された読取部213と、原稿からの反射光を反射して読取部213に導くための反射ミラー209と、反射ミラー209からの反射光を読取部213上に結像させるためのレンズ211と、読取部213が出力する画像データを処理するための画像処理部215と、原稿台205を振動させるためのモータ219と、画像処理部215からの制御データに基づいてモータ219の駆動を制御するモータ制御部217とを含む。   A portion housed in the main body 20 of the image reading apparatus 10 includes a document table 205 made of a transparent member, a sheet passing guide 207 that forms a part of a document transport path, and a light source for irradiating light. 206, a reflection member 208 that reflects light from the light source, a reading unit 213 in which three line sensors are arranged in the sub-scanning direction, and a reflection mirror that reflects reflected light from the document and guides it to the reading unit 213. 209, a lens 211 for forming an image of reflected light from the reflection mirror 209 on the reading unit 213, an image processing unit 215 for processing image data output from the reading unit 213, and the document table 205 are vibrated. And a motor control unit 217 for controlling the driving of the motor 219 based on control data from the image processing unit 215.

原稿200は、タイミングローラ対201により、原稿台205と上部規制板203との間を矢印D1の方向に搬送される。そして、原稿は搬送されながら原稿読取位置Lにおいて、読取部213によりその画像が読取られる。ADF101が原稿を搬送する方向は、原稿読取位置Lにおいて副走査方向である。モータ制御部217は、画像読取動作中にモータ219を駆動して、原稿台205を矢印D2の方向に振動させる。原稿台205の振動方向と副走査方向とは実質的に平行である。   The document 200 is conveyed between the document table 205 and the upper regulating plate 203 in the direction of the arrow D1 by the timing roller pair 201. Then, the image is read by the reading unit 213 at the document reading position L while the document is being conveyed. The direction in which the ADF 101 transports the document is the sub-scanning direction at the document reading position L. The motor control unit 217 drives the motor 219 during the image reading operation to vibrate the document table 205 in the direction of the arrow D2. The vibration direction of the document table 205 and the sub-scanning direction are substantially parallel.

読取部213は、3つのラインセンサを備える。3つのラインセンサそれぞれは、副走査方向と実質的に垂直な主走査方向に配列された複数の光電変換素子を備える。3つのラインセンサそれぞれは、互いに分光感度が異なるフィルタを有する。原稿から反射した光はフィルタを透過して複数の光電変換素子で受光される。具体的には、3つのラインセンサは、赤(R)、緑(G)および青(B)の各波長の光を透過するフィルタをそれぞれ有する。このため、赤(R)のフィルタを有するラインセンサは、原稿から反射した光のうち赤色の光の強度を示すRデータを出力し、緑(G)のフィルタを有するラインセンサは、原稿から反射した光のうち緑色の光の強度を示すGデータを出力し、青(B)のフィルタを有するラインセンサは、原稿から反射した光のうち青色の光の強度を示すBデータを出力する。   The reading unit 213 includes three line sensors. Each of the three line sensors includes a plurality of photoelectric conversion elements arranged in a main scanning direction substantially perpendicular to the sub-scanning direction. Each of the three line sensors has filters having different spectral sensitivities. Light reflected from the original passes through the filter and is received by a plurality of photoelectric conversion elements. Specifically, each of the three line sensors has a filter that transmits light of each wavelength of red (R), green (G), and blue (B). Therefore, the line sensor having a red (R) filter outputs R data indicating the intensity of red light out of the light reflected from the document, and the line sensor having a green (G) filter reflects from the document. The line data having the blue (B) filter outputs B data indicating the intensity of the blue light out of the light reflected from the document.

3つのラインセンサは、副走査方向に所定の距離を隔てて予め定められた順番で配置される。ここでは、原稿の読取ラインに換算して3ライン分の距離を隔てて原稿の搬送方向で赤、緑、青の順に配置されている。なお、3つのラインセンサを配置する間隔および順番は、これらに限定されるものではない。   The three line sensors are arranged in a predetermined order at a predetermined distance in the sub-scanning direction. Here, the document reading lines are arranged in the order of red, green, and blue in the document transport direction with a distance of 3 lines in terms of the document reading line. Note that the intervals and the order in which the three line sensors are arranged are not limited to these.

3つのラインセンサは、3ライン分の距離を隔てて赤、緑、青の順に配置されるので、3つのラインセンサは、原稿の異なる位置で反射した光を同時に受光する。したがって、原稿のある位置で反射した光は、まず、赤の光を受光するラインセンサで受光され、原稿が3ライン分搬送された後に緑の光を受光するラインセンサで受光され、さらに原稿が3ライン分搬送された後に青の光を受光するラインセンサで受光される。この遅れは、後述する画像処理部215で調整される。   Since the three line sensors are arranged in the order of red, green, and blue at a distance of three lines, the three line sensors simultaneously receive light reflected at different positions on the document. Therefore, the light reflected at a certain position of the document is first received by the line sensor that receives red light, and then received by the line sensor that receives green light after the document is conveyed for three lines, and the document is further received. After being conveyed for three lines, it is received by a line sensor that receives blue light. This delay is adjusted by an image processing unit 215 described later.

なお、本実施の形態においては、読取部213に3つのラインセンサを設けるようにしたが、4つ以上のラインセンサを設けるようにしてもよい。   In the present embodiment, the reading unit 213 is provided with three line sensors. However, four or more line sensors may be provided.

図3は、原稿台を振動させるための機構を示す斜視図である。図3を参照して、原稿台205は、原稿台ホルダ221により保持される。原稿台ホルダ221は、ガイド220により副走査方向に摺動可能に保持される。ガイド220は、画像読取装置10の本体に固定される。原稿台ホルダ221の1つの面に2つのアーム222が接合されている。アーム222の他端は円形の穴を有する。   FIG. 3 is a perspective view showing a mechanism for vibrating the document table. Referring to FIG. 3, document table 205 is held by document table holder 221. The document table holder 221 is held by the guide 220 so as to be slidable in the sub-scanning direction. The guide 220 is fixed to the main body of the image reading apparatus 10. Two arms 222 are joined to one surface of the document table holder 221. The other end of the arm 222 has a circular hole.

軸224には、2つのアーム222に対応する位置に2つのカム223が取付けられる。また、軸224の一端にギア225が取付けられる。ギア225は、モータ219の駆動軸とベルトで接合されたギア226と噛み合うように配置される。モータ219が回転すると、その回転がベルトを介してギア226に伝えられ、ギア226が回転する。ギア226の回転に伴って、ギア225および軸224が回転する。カム223は、アーム222が備える円形の穴の中に配置される。このため、軸224の回転に伴う2つのカム223の回転運動が、原稿台ホルダ221の往復運動に変換される。なお、原稿台205を振動させるための機構はこれに限定されることなく、例えば、電磁石、空気圧、油圧等を利用したピストン等の直線運動を生じさせる駆動源を用いた機構としてもよい。   Two cams 223 are attached to the shaft 224 at positions corresponding to the two arms 222. A gear 225 is attached to one end of the shaft 224. The gear 225 is disposed so as to mesh with a gear 226 joined to the drive shaft of the motor 219 with a belt. When the motor 219 rotates, the rotation is transmitted to the gear 226 via the belt, and the gear 226 rotates. As the gear 226 rotates, the gear 225 and the shaft 224 rotate. The cam 223 is disposed in a circular hole provided in the arm 222. Therefore, the rotational motion of the two cams 223 accompanying the rotation of the shaft 224 is converted into the reciprocating motion of the document table holder 221. The mechanism for vibrating the document table 205 is not limited to this. For example, a mechanism using a drive source that causes a linear motion such as a piston using electromagnet, air pressure, hydraulic pressure, or the like may be used.

原稿台205は、副走査方向と平行に振動する。原稿台205が原稿の搬送方向と逆方向に移動している間は、原稿台205と原稿とは逆方向に移動するため、原稿台205のラインセンサに対する相対速度と、原稿のラインセンサに対する相対速度とが異なる。一方、原稿台205が原稿の搬送方向に移動している間は、原稿台205の速度と原稿の搬送速度とは方向が同じである。速さを異ならせるようにするのが好ましい。なお、ここでは、原稿台205を副走査方向と平行に振動させるようにしたが、方向はこれに限定されない。   The document table 205 vibrates in parallel with the sub-scanning direction. While the document table 205 is moving in the direction opposite to the document conveyance direction, the document table 205 and the document are moved in the opposite direction. Therefore, the relative speed of the document table 205 to the line sensor and the relative value of the document to the line sensor are compared. The speed is different. On the other hand, while the document table 205 is moving in the document conveyance direction, the direction of the document table 205 and the document conveyance speed are the same. It is preferable to vary the speed. Here, the document table 205 is vibrated in parallel with the sub-scanning direction, but the direction is not limited to this.

ここで、本実施の形態における画像読取装置10が、原稿を読取って得られる画像データから原稿台205に付着したゴミにより発生するノイズを検出する原理について説明する。まず、ライン間補正について説明する。図4は、ライン間補正を説明するための図である。図4を参照して、原稿は図中矢印方向に搬送される。ここでは、3つのラインセンサは、赤の光を受光するラインセンサ、緑の光を受光するラインセンサ、青の光を受光するラインセンサの順に、原稿の搬送方向に3ラインの距離を隔てて配置されているものとする。なお、赤の光を受光するラインセンサの出力をR、緑の光を受光するラインセンサの出力をG、青の光を受光するラインセンサの出力をBで示している。   Here, the principle that the image reading apparatus 10 according to the present embodiment detects noise generated by dust attached to the document table 205 from the image data obtained by reading the document will be described. First, correction between lines will be described. FIG. 4 is a diagram for explaining interline correction. Referring to FIG. 4, the document is conveyed in the direction of the arrow in the drawing. Here, the three line sensors are separated from each other by a distance of three lines in the document conveyance direction in the order of a line sensor that receives red light, a line sensor that receives green light, and a line sensor that receives blue light. It is assumed that it is arranged. The output of the line sensor that receives red light is indicated by R, the output of the line sensor that receives green light is indicated by G, and the output of the line sensor that receives blue light is indicated by B.

原稿の一部の画像は、まず、原稿の搬送方向の最も上流に配置された赤の光を受光するラインセンサで読取られる。そして、その原稿の一部の画像が4ライン分の距離だけ搬送されて、緑の光を受光するラインセンサで読取られる。さらに、その原稿の一部の画像が4ライン分の距離だけ搬送されて、青の光を受光するラインセンサで読取られる。   First, a partial image of a document is read by a line sensor that receives red light arranged at the most upstream in the document transport direction. Then, a partial image of the original is conveyed by a distance corresponding to four lines and read by a line sensor that receives green light. Further, a partial image of the original is conveyed by a distance corresponding to four lines and read by a line sensor that receives blue light.

このように、原稿のある一部の画像が、3つのラインセンサで異なる時刻で読取られるため、3つのラインセンサが同時に出力する3つのデータは原稿の異なる部分を読み取って出力されるデータである。ライン間補正では、3つのラインセンサそれぞれが原稿の同じ部分を読み取って出力するデータとなるように、3つのラインセンサが出力する3つのデータの出力タイミングを調整する。具体的には、出力Rを8ライン分遅延させ、出力Gを4ライン分遅延させる。合成出力は、ライン間補正した出力R,出力Gおよび出力Bを合成した出力である。   As described above, since a part of an image of an original is read at different times by the three line sensors, the three data output from the three line sensors at the same time are data output by reading different parts of the original. . In the inter-line correction, the output timings of the three data output by the three line sensors are adjusted so that the three line sensors read and output the same part of the document. Specifically, the output R is delayed by 8 lines, and the output G is delayed by 4 lines. The combined output is an output obtained by combining the output R, the output G, and the output B that are corrected between lines.

図5は、原稿を読取って得られる画像データから原稿台205に付着したゴミにより発生するノイズを検出する原理を説明するための図である。ここでは、原稿および原稿台205は図中矢印方向に搬送され、原稿台205の移動速度は、原稿の搬送速度と方向が同じで1/5倍の速さとしている。また、原稿台205に付着したゴミのサイズを1ライン分としている。   FIG. 5 is a diagram for explaining the principle of detecting noise generated by dust adhering to the document table 205 from image data obtained by reading the document. Here, the document and document table 205 are conveyed in the direction of the arrow in the figure, and the movement speed of the document table 205 is the same as the document conveyance speed and is 1/5 times faster. Further, the size of dust attached to the document table 205 is set to one line.

まず、原稿の搬送方向の最も上流に配置された赤の光を受光するラインセンサがゴミを読取る。原稿台205は、原稿の搬送速度に対して1/5倍の速さで同一方向に移動するため、ラインセンサが原稿を5ライン分読取るだけの時間でゴミは1ライン分を移動する。したがって、赤の光を受光するラインセンサは、原稿が5ライン分搬送される間、ゴミを読み取る。赤の光を受光するラインセンサは、原稿が5ライン分搬送される間の最初の第1ラインではゴミの1/3の部分を読み取り、次の第2ラインではゴミの2/3の部分を読み取り、次の第3ラインではゴミの全体を読み取り、次の第4ラインではゴミの2/3の部分を読み取り、最後の第5ラインではゴミの1/3の部分を読み取る。   First, a line sensor that receives red light disposed at the most upstream in the document transport direction reads dust. Since the document table 205 moves in the same direction at a speed that is 1/5 times the document conveyance speed, dust moves by one line in the time required for the line sensor to read the document for five lines. Therefore, the line sensor that receives red light reads dust while the original is conveyed for five lines. The line sensor that receives red light reads 1/3 of the dust on the first first line while the document is being conveyed for 5 lines, and 2/3 of the dust on the next second line. Read, the next third line reads the entire dust, the next fourth line reads 2/3 of the dust, and the last fifth line reads 1/3 of the dust.

そして、そのゴミが3ライン分の距離だけ搬送された後、緑の光を受光するラインセンサで読取られる。原稿台205は、原稿の搬送速度に対して1/5倍の速さで同一方向に移動するため、ゴミが3ライン分を移動する間に原稿は15ライン搬送される。このため、赤のラインセンサがゴミを読取る時点と、緑のラインセンサがゴミを読取る時点とでは、原稿を15ライン分読取る時間だけずれる。そして、緑の光を受光するラインセンサは、原稿が5ライン分搬送される間、ゴミを読み取る。緑の光を受光するラインセンサは、原稿が5ライン分搬送される間の最初の第1ラインではゴミの1/3の部分を読み取り、次の第2ラインではゴミの2/3の部分を読み取り、次の第3ラインではゴミの全体を読み取り、次の第4ラインではゴミの2/3の部分を読み取り、最後の第5ラインではゴミの1/3の部分を読み取る。   Then, after the dust is conveyed by a distance of 3 lines, it is read by a line sensor that receives green light. Since the document table 205 moves in the same direction at a speed that is 1/5 times the document conveyance speed, the document is conveyed by 15 lines while the dust moves for three lines. For this reason, the time when the red line sensor reads dust and the time when the green line sensor reads dust are shifted by the time required to read the original for 15 lines. The line sensor that receives the green light reads dust while the document is conveyed for five lines. The line sensor that receives green light reads 1/3 of the dust on the first first line while the document is being conveyed by 5 lines, and 2/3 of the dust on the next second line. Read, the next third line reads the entire dust, the next fourth line reads 2/3 of the dust, and the last fifth line reads 1/3 of the dust.

さらに、そのゴミが3ライン分の距離だけ搬送された後、青の光を受光するラインセンサで読取られる。原稿台205は、原稿の搬送速度に対して1/5倍の速さで同一方向に移動するため、ゴミが3ライン分を移動する間に原稿は15ライン搬送される。このため、緑のラインセンサがゴミを読取る時点と、青のラインセンサがゴミを読取る時点とでは、原稿を15ライン分読取る時間だけずれる。そして、青の光を受光するラインセンサは、原稿が5ライン分搬送される間、ゴミを読み取る。青の光を受光するラインセンサは、原稿が5ライン分搬送される間の最初の第1ラインではゴミの1/3の部分を読み取り、次の第2ラインではゴミの2/3の部分を読み取り、次の第3ラインではゴミの全体を読み取り、次の第4ラインではゴミの2/3の部分を読み取り、最後の第5ラインではゴミの1/3の部分を読み取る。   Further, after the dust is conveyed by a distance of three lines, it is read by a line sensor that receives blue light. Since the document table 205 moves in the same direction at a speed that is 1/5 times the document conveyance speed, the document is conveyed by 15 lines while the dust moves for three lines. Therefore, the time when the green line sensor reads dust and the time when the blue line sensor reads dust are shifted by the time required to read the original for 15 lines. The line sensor that receives blue light reads dust while the original is conveyed for five lines. The line sensor that receives blue light reads 1/3 of the dust on the first first line while the original is being conveyed by 5 lines, and 2/3 of the dust on the next second line. Read, the next third line reads the entire dust, the next fourth line reads 2/3 of the dust, and the last fifth line reads 1/3 of the dust.

そして、ライン間補正により、赤の光を受光するラインセンサがゴミを読取って出力する出力Rは8ライン分遅延され、緑の光を受光するラインセンサがゴミを読取って出力する出力Gは4ライン分遅延される。このため、ライン間補正した出力R,出力G、出力Bを合成した合成出力では、ゴミを読取った出力Rと、ゴミを読取った出力Gと、ゴミを読取った出力Bとが同じタイミングとならず、それぞれ16ライン分ずれる。   Then, due to the interline correction, the output R that the line sensor that receives red light reads and outputs dust is delayed by 8 lines, and the output G that the line sensor that receives green light reads and outputs dust is 4 Delayed by line. Therefore, in the combined output obtained by combining the output R, the output G, and the output B corrected between lines, if the output R from which dust is read, the output G from which dust is read, and the output B from which dust is read are at the same timing. Each is shifted by 16 lines.

なお、図では、紙粉などの白色のゴミが原稿台205に付着しており、黒色の原稿を読取る場合の合成出力を示している。この場合、白色のゴミを読取ったにもかかわらず、合成出力では、白色ではなく、3つの色に分かれた赤、緑、青の出力となる。このように、原稿台205に付着したゴミは、画像中で出力R、出力Gおよび出力Bに分断される。このため、原稿中の直線とゴミを読取ることにより生じるノイズとを区別することが可能となる。   In the figure, white dust such as paper dust is attached to the document table 205, and a combined output when a black document is read is shown. In this case, although white dust is read, the combined output is not white but red, green, and blue, which are divided into three colors. In this way, dust adhering to the document table 205 is divided into output R, output G, and output B in the image. For this reason, it becomes possible to distinguish between a straight line in a document and noise generated by reading dust.

また、3つのラインセンサそれぞれでゴミを読み取る際に、原稿が5ライン分搬送される間の最初の第1ラインではゴミの1/3の部分を読み取り、次の第2ラインではゴミの2/3の部分を読み取り、次の第3ラインではゴミの全体を読み取り、次の第4ラインではゴミの2/3の部分を読み取り、最後の第5ラインではゴミの1/3の部分を読み取る。たとえば、3つのラインセンサそれぞれが第3ラインでゴミを読み取って出力する画素値を255とすれば、第1および第5ラインでゴミを読み取って出力する画素値は255/3となり、第2および第4ラインでゴミを読み取って出力する画素値は255×2/3となる。この画素値の変化を検出することにより、原稿中の直線とゴミを読取ることにより生じるノイズとを区別することが可能となる。   Further, when the dust is read by each of the three line sensors, 1/3 of the dust is read on the first first line while the original is conveyed for 5 lines, and 2/2 of the dust is read on the next second line. 3 is read, the next third line reads the entire dust, the next fourth line reads 2/3 of the dust, and the last fifth line reads 1/3 of the dust. For example, if each of the three line sensors reads and outputs dust on the third line as 255, the pixel value read and output on the first and fifth lines becomes 255/3, and the second and The pixel value output by reading dust on the fourth line is 255 × 2/3. By detecting this change in pixel value, it is possible to distinguish between a straight line in a document and noise generated by reading dust.

図6は、原稿台を裏面から見た平面図である。図6を参照して、原稿台205は、一端にマーク205Aを有する。マーク205Aは、主走査方向の長さが副走査方向の位置により異なる形状であり、単色である。ここでは、マーク205Aは、三角形の形状で、黒色としている。また、マーク205Aの一辺が原稿台205の一辺と平行に配置される。   FIG. 6 is a plan view of the document table viewed from the back side. Referring to FIG. 6, document table 205 has a mark 205A at one end. The mark 205 </ b> A has a shape in which the length in the main scanning direction varies depending on the position in the sub-scanning direction and is a single color. Here, the mark 205A has a triangular shape and is black. Further, one side of the mark 205A is arranged in parallel with one side of the document table 205.

読取部213を用いて、または、読取部213とは別に設けられ、本体部103に固定されたセンサを用いて、マーク205Aの主走査方向の長さを検出することにより、原稿台205の読取部213に対する相対的な位置を検出することが可能となる。   By using the reading unit 213 or using a sensor provided separately from the reading unit 213 and fixed to the main body unit 103, the length of the mark 205A in the main scanning direction is detected, thereby reading the document table 205. It is possible to detect a relative position with respect to the part 213.

図7は、読取部213が読取る原稿台205上の読取領域を示す図である。読取部213は、赤(R)のフィルタを有するラインセンサ213Rと、緑(G)のフィルタを有するラインセンサ213Gと、青(B)のフィルタを有するラインセンサ213Bとを含む。ラインセンサ213R、213G、213Bは、原稿の搬送方向D1にラインセンサ213R、213G、213Bの順に配置されている。   FIG. 7 is a diagram showing a reading area on the document table 205 read by the reading unit 213. The reading unit 213 includes a line sensor 213R having a red (R) filter, a line sensor 213G having a green (G) filter, and a line sensor 213B having a blue (B) filter. The line sensors 213R, 213G, and 213B are arranged in the order of the line sensors 213R, 213G, and 213B in the document transport direction D1.

ラインセンサ213Rは、原稿台205の領域205Rを透過した光を受光する。ラインセンサ213Gは、原稿台205の領域205Gを透過した光を受光する。ラインセンサ213Bは、原稿台205の領域205Bを透過した光を受光する。領域205R,205G,205Bは、3ライン分の間隔を有するようにラインセンサ213R,213G,213Bが配置される。原稿は、まず領域205Rを通過し、次に領域205Gを通過し、最後に領域205Bを通過する。したがって、原稿のある位置で反射した光は、まず、赤の光を受光するラインセンサ213Rで受光され、その後緑の光を受光するラインセンサ213Gで受光され、最後に青の光を受光するラインセンサ213Bで受光される。このように、ラインセンサ213R,213G,213Bは、3ライン分の距離を隔てて配置されるので、ラインセンサ213R,213G,213Bは、原稿の同じ位置で反射した光を同時に受光することはない。   The line sensor 213R receives light transmitted through the region 205R of the document table 205. The line sensor 213G receives light transmitted through the region 205G of the document table 205. The line sensor 213B receives light transmitted through the area 205B of the document table 205. In the areas 205R, 205G, and 205B, the line sensors 213R, 213G, and 213B are arranged so as to have an interval of three lines. The document first passes through the region 205R, then passes through the region 205G, and finally passes through the region 205B. Therefore, the light reflected at a certain position of the document is first received by the line sensor 213R that receives red light, then received by the line sensor 213G that receives green light, and finally the line that receives blue light. Light is received by the sensor 213B. As described above, the line sensors 213R, 213G, and 213B are arranged at a distance of three lines, so the line sensors 213R, 213G, and 213B do not simultaneously receive the light reflected at the same position on the document. .

ここで、原稿台205上に長さが4ライン以下のゴミ300が付着しているとする。この場合、原稿台205が副走査方向に平行に振動して移動するので、ゴミ300は領域205R,205G,205Bの2つ以上に同時に存在することはない。図6では、ゴミ300が領域205Gに存在する場合を示している。この場合には、ゴミ300で反射した光は、ラインセンサ213Gでのみ受光され、ラインセンサ213R,213Bでは受光されない。   Here, it is assumed that dust 300 having a length of 4 lines or less is attached on the document table 205. In this case, since the document table 205 vibrates and moves in parallel with the sub-scanning direction, the dust 300 does not exist in two or more of the areas 205R, 205G, and 205B at the same time. FIG. 6 shows a case where the dust 300 exists in the area 205G. In this case, the light reflected by the dust 300 is received only by the line sensor 213G and not received by the line sensors 213R and 213B.

また、原稿台205が振動するので、原稿台205が原稿の搬送方向D1に移動する場合と、原稿台205が原稿の搬送方向D1と逆方向に移動する場合とがある。原稿台205が原稿の搬送方向D1に移動している間、初めに領域205R、次に領域205G、最後に領域205Bの順にゴミが移動する。逆に、原稿台205が原稿の搬送方向D1と逆に移動している間、初めに領域205B、次に領域205G、最後に領域205Rの順にゴミが移動する。したがって、原稿台205が原稿の搬送方向D1に移動している間は、ゴミ300で反射した光は、初めにラインセンサ213Rで受光され、次にラインセンサ213Gで受光され、最後にラインセンサ213Bで受光される。また、原稿台205が原稿の搬送方向D1と逆に移動している間は、ゴミ300で反射した光は、初めにラインセンサ213Bで受光され、次にラインセンサ213Gで受光され、最後にラインセンサ213Rで受光される。   Since the document table 205 vibrates, the document table 205 may move in the document conveyance direction D1, and the document table 205 may move in the direction opposite to the document conveyance direction D1. While the document table 205 moves in the document conveyance direction D1, dust moves in the order of the area 205R, then the area 205G, and finally the area 205B. Conversely, while the document table 205 moves in the direction opposite to the document conveyance direction D1, dust moves first in the order of the area 205B, then in the area 205G, and finally in the area 205R. Therefore, while the document table 205 moves in the document transport direction D1, the light reflected by the dust 300 is first received by the line sensor 213R, then received by the line sensor 213G, and finally the line sensor 213B. Is received. While the document table 205 moves in the direction opposite to the document conveyance direction D1, the light reflected by the dust 300 is first received by the line sensor 213B, then received by the line sensor 213G, and finally the line. Light is received by the sensor 213R.

原稿台205が原稿の搬送方向に移動している間は、ゴミを読取ることによるノイズは、最初にラインセンサ213Rが出力するRデータ、次にラインセンサ213Gが出力するGデータ、最後にラインセンサ213Bが出力するBデータに順に表れる。また、原稿台205が原稿の搬送方向と逆の方向に移動している場合は、ゴミを読取ることによるノイズは、最初にラインセンサ213Bが出力するBデータ、次にラインセンサ213Gが出力するGデータ、最後にラインセンサ213Rが出力するRデータに順に表れる。すなわち、ゴミを読取ることにより発生するノイズが表れるデータの順番が原稿台205の移動方向により定まる。Rデータ、Gデータ、Bデータからノイズが検出される順番を判定することで、ノイズを検出する精度を向上させることができる。   While the document table 205 is moving in the document conveyance direction, noise due to reading of dust is caused by the first R data output by the line sensor 213R, the next G data output by the line sensor 213G, and finally the line sensor. It appears in order in B data output by 213B. Further, when the document table 205 is moved in the direction opposite to the document conveyance direction, noise caused by reading dust is the B data output first by the line sensor 213B and then the G data output by the line sensor 213G. Data, and finally appear in the R data output by the line sensor 213R. In other words, the order of data in which noise generated by reading dust appears is determined by the moving direction of the document table 205. By determining the order in which noise is detected from R data, G data, and B data, the accuracy of detecting noise can be improved.

図8は、本実施の形態における画像読取装置の画像処理部の構成を示すブロック図である。図8を参照して、画像処理部215には、読取部213からRデータ、Gデータ、Bデータが入力される。画像処理部215は、読取部213から入力されたアナログ信号のRデータ、Gデータ、Bデータをデジタル信号に変換するためのアナログデジタル変換部(A/D変換部)251と、光源206の照明ムラ等を補正するためのシェーディング補正部253と、ライン間補正部255と、レンズ211による主走査方向の歪を補正するための色収差補正部257と、Rデータ、Gデータ、Bデータそれぞれからノイズを検出するためのノイズ検出処理部259と、ノイズを除去する処理を実行するノイズ補正部260と、画像処理部215の全体を制御するための制御部263と、画像を画像形成装置20に出力するためのプリンタインターフェース261とを備える。制御部263には、原稿台205の位置を検出するための位置検出部265が接続されている。位置検出部265は、原稿台205が有するマーク205Aの主走査方向の長さを検出する。   FIG. 8 is a block diagram illustrating the configuration of the image processing unit of the image reading apparatus according to the present embodiment. With reference to FIG. 8, R data, G data, and B data are input to the image processing unit 215 from the reading unit 213. The image processing unit 215 includes an analog / digital conversion unit (A / D conversion unit) 251 for converting analog data R data, G data, and B data input from the reading unit 213 into digital signals, and illumination of the light source 206. Noise from shading correction unit 253 for correcting unevenness, inter-line correction unit 255, chromatic aberration correction unit 257 for correcting distortion in the main scanning direction by lens 211, and R data, G data, and B data, respectively. A noise detection processing unit 259 for detecting noise, a noise correction unit 260 for executing processing for removing noise, a control unit 263 for controlling the entire image processing unit 215, and an image output to the image forming apparatus 20 A printer interface 261. A position detector 265 for detecting the position of the document table 205 is connected to the controller 263. The position detection unit 265 detects the length in the main scanning direction of the mark 205 </ b> A that the document table 205 has.

ライン間補正部255は、Rデータを8ライン分遅延させ、Gデータを4ライン分遅延させる。これにより、ラインセンサ213R,213G,213Bが原稿を読み取って出力するRデータ、GデータおよびBデータが、原稿の同一ラインに対応するように同期する。上述したように、ラインセンサ213R,213G,213Bは、副走査方向に3ライン分の距離を隔てて配列されているからである。   The inter-line correction unit 255 delays the R data by 8 lines and delays the G data by 4 lines. As a result, the R data, G data, and B data that the line sensors 213R, 213G, and 213B read and output the document are synchronized so as to correspond to the same line of the document. This is because the line sensors 213R, 213G, and 213B are arranged at a distance of three lines in the sub scanning direction as described above.

ノイズ検出処理部259は、色収差補正部257よりRデータ、GデータおよびBデータが入力される。ノイズ検出処理部259は、色収差補正部257から入力されたRデータ、GデータおよびBデータごとに、ゴミを読み取った画素としてのノイズ画素を検出する。そして、ノイズ画素を「1」とし、他の画素を「0」とする論理データをノイズ補正部260と制御部263とに出力する。その詳細については後述する。   The noise detection processing unit 259 receives R data, G data, and B data from the chromatic aberration correction unit 257. The noise detection processing unit 259 detects a noise pixel as a pixel from which dust is read for each of R data, G data, and B data input from the chromatic aberration correction unit 257. Then, logical data with the noise pixel set to “1” and the other pixels set to “0” is output to the noise correction unit 260 and the control unit 263. Details thereof will be described later.

ノイズ補正部260は、色収差補正部257からRデータ、GデータおよびBデータが入力され、ノイズ検出処理部259からノイズ画素を「1」とし他の画素を「0」とする論理データがRデータ、GデータおよびBデータごとに入力される。ノイズ補正部260は、Rデータ、GデータおよびBデータそれぞれに対応する論理データに基づいて、Rデータ、GデータおよびBデータのノイズ画素を補正する。ノイズ補正部260は、Rデータ、GデータおよびBデータそれぞれについて、対応する論理データに基づいて、ノイズ画素の画素値を周辺のノイズ画素でない画素の画素値に置換える。周辺のノイズ画素でない複数の画素の平均値、最大値または最小値に置換えるようにしてもよい。ノイズ補正部260は、ノイズ画素を周辺の画素で置換したRデータ、GデータおよびBデータをプリンタインターフェース261に出力する。   The noise correction unit 260 receives R data, G data, and B data from the chromatic aberration correction unit 257, and from the noise detection processing unit 259, logical data that sets the noise pixel to “1” and the other pixels to “0” is R data. , G data and B data are input. The noise correction unit 260 corrects the noise pixels of the R data, the G data, and the B data based on the logical data corresponding to the R data, the G data, and the B data. For each of the R data, G data, and B data, the noise correction unit 260 replaces the pixel value of the noise pixel with the pixel value of a pixel that is not a surrounding noise pixel, based on the corresponding logical data. You may make it replace with the average value of the some pixel which is not a surrounding noise pixel, the maximum value, or the minimum value. The noise correction unit 260 outputs R data, G data, and B data obtained by replacing noise pixels with peripheral pixels to the printer interface 261.

制御部263は、位置検出部265から原稿台205の位置が入力され、ノイズ検出処理部259からノイズ画素を「1」とし他の画素を「0」とする論理データが入力される。制御部263は、これらのデータから、原稿台205上のゴミの位置を特定する。より具体的には、原稿台205の位置と論理データのライン番号とから原稿台205の副走査方向の位置を特定し、論理データのノイズ画素の位置から原稿台205の主走査方向の位置を特定する。   The control unit 263 receives the position of the document table 205 from the position detection unit 265, and receives logical data from the noise detection processing unit 259 that sets the noise pixel to “1” and the other pixels to “0”. The control unit 263 specifies the position of dust on the document table 205 from these data. More specifically, the position of the document table 205 in the sub-scanning direction is specified from the position of the document table 205 and the line number of the logical data, and the position of the document table 205 in the main scanning direction is determined from the position of the noise pixel of the logical data. Identify.

図9は、ライン間補正後のRGBデータの一例を示す図である。図9(A)は、原稿の白色の領域を読取っている間に、原稿台に付着した黒色のゴミがラインセンサ213Rに対応する領域205Rにある場合のRGBデータの一例を示している。なお、ここでは黒色のゴミをノイズとして検出することを説明するが、ゴミは有彩色であってもよい。また、ここでは白色の原稿を読取る場合を例に説明するが、原稿の色は白色に限定されることなく、他のいかなる色であってもよい。   FIG. 9 is a diagram illustrating an example of RGB data after line-to-line correction. FIG. 9A shows an example of RGB data when black dust adhering to the document table is in the region 205R corresponding to the line sensor 213R while reading the white region of the document. Note that although black dust is detected as noise here, the dust may be a chromatic color. Although a case where a white document is read will be described as an example here, the color of the document is not limited to white and may be any other color.

図9(A)を参照して、ラインセンサ213Rは、黒色のゴミを読取るので、ラインセンサ213Rが出力するRデータは明度が低くなる。ラインセンサ213G,213Bでは、原稿の白色の領域を読取るので、ラインセンサ213G,213Bが出力するGデータ、Bデータは明度が高い。なお、ここでは、反射光に応じた3つのラインセンサ213R,213G,213Bの出力値を明度という。   Referring to FIG. 9A, the line sensor 213R reads black dust, so that the R data output from the line sensor 213R has low brightness. Since the line sensors 213G and 213B read the white area of the document, the G data and B data output by the line sensors 213G and 213B have high brightness. Here, the output values of the three line sensors 213R, 213G, and 213B corresponding to the reflected light are referred to as brightness.

図9(A)に示すRGBデータの組合せが、原稿を読取って出力されることは希である。一方、原稿を読取って出力されるRGBデータの組合せのうち、図9(A)に示すRGBデータの組合せに最も近い組合せは、赤の補色である青緑の領域を読取った場合である。図9(B)は、原稿の青緑の領域を読取った場合に読取部213が出力するRGBデータを示す図である。Rデータは明度が大きく下がるがGデータおよびBデータの明度も下がる。図9(A)に示すRGBデータと図9(B)に示すRGBデータとではBデータとGデータが影響を受けるか受けないかの大きな違いがある。この違いを検出することにより、青緑の線を誤ってノイズとして検出することなく、黒色のゴミをノイズとして検出することができる。   The combination of RGB data shown in FIG. 9A is rarely read and output. On the other hand, among the RGB data combinations output by reading a document, the closest combination to the RGB data combination shown in FIG. 9A is when a blue-green region which is a complementary color of red is read. FIG. 9B is a diagram showing RGB data output by the reading unit 213 when a blue-green region of a document is read. The brightness of R data is greatly reduced, but the brightness of G data and B data is also reduced. There is a great difference between the RGB data shown in FIG. 9A and the RGB data shown in FIG. 9B whether the B data and the G data are affected or not. By detecting this difference, black dust can be detected as noise without erroneously detecting the blue-green line as noise.

このため、明度が大きく下がるRデータの明度の変化を、しきい値Ref1(R)を用いて検出することができる。また、Bデータの明度の変化を、しきい値Ref2(B)を用いて検出する。しきい値Ref2(B)は、次の値のうち最も小さな値とすればよい。以下では、しきい値Ref2(R),Ref2(G),Ref2(B)を示している。   Therefore, a change in the brightness of the R data whose brightness is greatly reduced can be detected using the threshold value Ref1 (R). Further, a change in the brightness of the B data is detected using a threshold value Ref2 (B). The threshold value Ref2 (B) may be the smallest value among the following values. In the following, threshold values Ref2 (R), Ref2 (G), and Ref2 (B) are shown.

(1)明度の高い無彩色のゴミを検出する場合
青緑の線をノイズとして誤って検出することがないように、赤の補色である青緑を読取った場合に、ラインセンサ213R以外のラインセンサ213G,213Bのいずれか一方が出力する明度と明度の最大値(255)との差Ref2(G),Ref2(B)とすればよい。赤紫の線をノイズとして誤って検出することがないように、緑の補色である赤紫を読取った場合に、ラインセンサ213G以外のラインセンサ213R,213Bのいずれか一方が出力する明度と最大明度(255)との差Ref2(R),Ref2(B)とすればよい。黄の線をノイズとして誤って検出することがないように、青の補色である黄を読取った場合に、ラインセンサ213B以外のラインセンサ213R,213Gのいずれか一方が出力する明度と最大明度(255)との差Ref2(R),Ref2(G)とすればよい。
(1) When detecting achromatic dust with high brightness When reading blue-green, which is a complementary color of red, so that a blue-green line is not erroneously detected as noise, a line other than the line sensor 213R is detected. The difference between the lightness output from one of the sensors 213G and 213B and the maximum lightness value (255) may be set as Ref2 (G) and Ref2 (B). The brightness and maximum output by either one of the line sensors 213R and 213B other than the line sensor 213G when reading the magenta complementary color of green so that the magenta line is not erroneously detected as noise. Differences from brightness (255) may be set as Ref2 (R) and Ref2 (B). In order to prevent the yellow line from being erroneously detected as noise, the brightness and maximum brightness (one of the line sensors 213R and 213G other than the line sensor 213B output when reading yellow, which is a complementary color of blue) ( And Ref2 (R) and Ref2 (G).

(2)明度の低い無彩色のゴミを検出する場合
赤の線をノイズとして誤って検出することがないように、赤を読取った場合に、ラインセンサ213R以外のラインセンサ213G,213Bのいずれか一方が出力する明度と明度の最小値(0)との差Ref2(G),Ref2(B)とすればよい。緑の線をノイズとして誤って検出することがないように、緑を読取った場合に、ラインセンサ213G以外のラインセンサ213R,213Bのいずれか一方が出力する明度と最小値(0)との差Ref2(R),Ref2(B)とすればよい。青の線をノイズとして誤って検出することがないように、青を読取った場合に、ラインセンサ213B以外のラインセンサ213R,213Gのいずれか一方が出力する明度と最小値(0)との差Ref2(R),Ref2(G)とすればよい。
(2) When detecting achromatic dust with low lightness When reading red, one of the line sensors 213G and 213B other than the line sensor 213R is detected so that the red line is not erroneously detected as noise. The difference between the lightness output by one and the minimum value (0) of lightness may be Ref2 (G) and Ref2 (B). The difference between the lightness output by one of the line sensors 213R and 213B other than the line sensor 213G and the minimum value (0) when green is read so that the green line is not erroneously detected as noise. Ref2 (R) and Ref2 (B) may be used. The difference between the lightness output by one of the line sensors 213R and 213G other than the line sensor 213B and the minimum value (0) when blue is read so that the blue line is not erroneously detected as noise. Ref2 (R) and Ref2 (G) may be used.

このようにして、しきい値Ref2(R),Ref2(G),Ref2(B)それぞれは複数求まるが、それぞれの最小値を用いればよい。   In this way, a plurality of threshold values Ref2 (R), Ref2 (G), and Ref2 (B) are obtained, but the minimum values may be used.

図10は、本実施の形態における画像読取装置のノイズ検出処理部の構成を示すブロック図である。図10を参照して、ノイズ検出処理部259は、入力されるRデータ、Gデータ、Bデータそれぞれから所定の特徴を有する領域を抽出するための第1明度差検出部301R、301G,301Bおよび第2明度差検出部302R,302G,302Bと、第2明度差検出部302R、302G,302Bで抽出された領域を周辺に拡張するための検出結果拡張処理部303R,303G,303Bと、否定論理和素子305R,305G,305Bと、論理積素子306R,306G,306Bと、グラデーション検出部311R,311G,311Bと、背景エッジ検出部312R,312G,312Bと、論理和素子313R,313G,313Bと、判定部315R,315G,315Bと、検出エリア拡張処理部316R,316G,316Bとを含む。   FIG. 10 is a block diagram illustrating a configuration of a noise detection processing unit of the image reading apparatus according to the present embodiment. Referring to FIG. 10, the noise detection processing unit 259 includes first brightness difference detection units 301R, 301G, and 301B for extracting regions having predetermined characteristics from input R data, G data, and B data, respectively. Second lightness difference detection units 302R, 302G, and 302B, detection result expansion processing units 303R, 303G, and 303B for extending the regions extracted by the second lightness difference detection units 302R, 302G, and 302B to the periphery; Sum elements 305R, 305G, 305B, AND elements 306R, 306G, 306B, gradation detectors 311R, 311G, 311B, background edge detectors 312R, 312G, 312B, OR elements 313R, 313G, 313B, Determination units 315R, 315G, 315B and detection area expansion processing units 316R, 316 , And a 316B.

Rデータ、Gデータ、Bデータそれぞれが1ラインずつ順にノイズ検出処理部259に入力される。なお、Rデータ、Gデータ、Bデータは、複数ラインまとめて入力されてもよく、画像全体がまとめて入力されてもよい。   Each of R data, G data, and B data is input to the noise detection processing unit 259 one line at a time. In addition, R data, G data, and B data may be input collectively for a plurality of lines, or the entire image may be input collectively.

第1明度差検出部301R,301G,301Bは、取り扱うデータが異なるのみで、それらの機能は同じなので、ここでは第1明度差検出部301Rについて説明する。第1明度差検出部301Rは、Rデータとしきい値Ref1(R)とが入力される。第1明度差検出部301Rは、Rデータから第1レベルの所定の特徴を有する領域を抽出する。第1レベルの所定の特徴を有する領域とは、明度の変化が少ない領域であって、周辺の領域と明度の差がしきい値Ref1(R)以上の領域である。そのような領域は、1画素以上の大きさであればよい。ここでは、第1レベルの所定の特徴を有する領域に含まれる画素を第1特徴画素という。   The first brightness difference detection units 301R, 301G, and 301B differ only in the data that they handle, and their functions are the same, so the first brightness difference detection unit 301R will be described here. The first brightness difference detection unit 301R receives R data and a threshold value Ref1 (R). The first brightness difference detection unit 301R extracts a region having a first level predetermined feature from the R data. The region having the first level predetermined feature is a region where the change in lightness is small and a difference in lightness from the surrounding region is a threshold value Ref1 (R) or more. Such a region may have a size of one pixel or more. Here, a pixel included in a region having a predetermined feature at the first level is referred to as a first feature pixel.

第1明度差検出部301Rは、第1レベルの所定の特徴を有する領域を、エッジ抽出フィルタを用いて抽出する。エッジ抽出フィルタは、エッジ領域の複数のサイズそれぞれに対応した複数のフィルタを含む。第1明度差検出部301Rは、複数のフィルタごとにフィルタ処理を実行して、その結果得られる値としきい値Ref1(R)とを比較する。そして、第1明度差検出部301Rは、フィルタ処理の結果得られる値の絶対値がしきい値Ref1(R)より大きい条件を満たす場合、そのフィルタ処理の中心画素をエッジ領域の中心画素とし、条件を満たしたエッジ抽出フィルタからエッジ領域のサイズを求める。   The first brightness difference detection unit 301R extracts an area having a first level predetermined feature using an edge extraction filter. The edge extraction filter includes a plurality of filters corresponding to a plurality of sizes of the edge region. The first lightness difference detection unit 301R performs the filter process for each of the plurality of filters, and compares the value obtained as a result with the threshold value Ref1 (R). When the absolute value of the value obtained as a result of the filter processing satisfies a condition larger than the threshold value Ref1 (R), the first brightness difference detection unit 301R sets the center pixel of the filter processing as the center pixel of the edge region, The size of the edge region is obtained from the edge extraction filter that satisfies the condition.

図11は、エッジ抽出フィルタの一例を示す図である。なお、ここではエッジ抽出フィルタをRデータで説明するが、Gデータ、Bデータについても、Rデータに用いられるのと同じエッジ抽出フィルタが用いられる。図11(A)は、1画素のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。図11(B)は、2〜3画素のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。図11(C)は、4〜5画素以下のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。図11(D)は、6〜7画素以下のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。図11(E)は、8〜9画素以下のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。図11(G)は、12〜13画素以下のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。図11(H)は、14〜15画素以下のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。これらのエッジ抽出フィルタの成立条件は、次のようになる。   FIG. 11 is a diagram illustrating an example of an edge extraction filter. Here, the edge extraction filter is described using R data, but the same edge extraction filter as that used for R data is also used for G data and B data. FIG. 11A shows an edge extraction filter used for detecting an edge region having a size of one pixel. FIG. 11B shows an edge extraction filter used for detecting an edge region having a size of 2 to 3 pixels. FIG. 11C shows an edge extraction filter used for detecting an edge region having a size of 4 to 5 pixels or less. FIG. 11D shows an edge extraction filter used for detecting an edge region having a size of 6 to 7 pixels or less. FIG. 11E shows an edge extraction filter used to detect an edge region having a size of 8 to 9 pixels or less. FIG. 11G shows an edge extraction filter used for detecting an edge region having a size of 12 to 13 pixels or less. FIG. 11H shows an edge extraction filter used to detect an edge region having a size of 14 to 15 pixels or less. The conditions for establishing these edge extraction filters are as follows.

(1)明度が高いエッジ領域の判定条件は、画素Aと画素Bの明度の平均から画素Cの明度の平均を減算した値がしきい値Ref1(R)以上の場合である。
平均(画素Aと画素B)−平均(画素C)>Ref1(R)
この場合の中心画素は、画素Aと画素Bと画素Cのうち明度が最大の画素である。
(1) The determination condition for the edge region with high brightness is when the value obtained by subtracting the average brightness of pixel C from the average brightness of pixels A and B is equal to or greater than threshold value Ref1 (R).
Average (pixel A and pixel B) -average (pixel C)> Ref1 (R)
The central pixel in this case is the pixel having the maximum brightness among the pixels A, B, and C.

(2)明度が低いエッジ領域の判定条件は、画素Cの明度の平均から画素Aと画素Bの明度の平均を減算した値がしきい値Ref1(R)以上の場合である。
平均(画素C)−平均(画素Aと画素B)>Ref1(R)
この場合の中心画素は、画素Aと画素Bと画素Cのうち明度が最小の画素である。
(2) The determination condition for the edge region with low brightness is when the value obtained by subtracting the average brightness of the pixels A and B from the average brightness of the pixel C is equal to or greater than the threshold value Ref1 (R).
Average (pixel C) -average (pixel A and pixel B)> Ref1 (R)
The central pixel in this case is a pixel having the minimum brightness among the pixel A, the pixel B, and the pixel C.

図10に戻って、第1明度差検出部301Rは、上述したエッジ抽出フィルタを用いて算出した値としきい値Ref1(R)とを比較する。第1明度差検出部301Rは、第1特徴画素を「1」とし、そうでない画素を「0」とした論理データを論理積素子306Rに出力する。論理データは、Rデータの画素値に対応し、画素値と同じ数で構成される。第1明度差検出部301Gは、上述したエッジ抽出フィルタを用いて算出した値と、しきい値Ref1(G)とを比較する。第1明度差検出部301Gは、第1特徴画素を「1」とし、そうでない画素を「0」とした論理データを論理積素子306Gに出力する。論理データは、Gデータの画素値に対応し、画素値と同じ数で構成される。第1明度差検出部301Bは、上述したエッジ抽出フィルタを用いて算出した値と、しきい値Ref1(B)とを比較する。第1明度差検出部301Bは、第1特徴画素を「1」とし、そうでない画素を「0」とした論理データを論理積素子306Bに出力する。論理データは、Bデータの画素値に対応し、画素値と同じ数で構成される。   Returning to FIG. 10, the first brightness difference detection unit 301 </ b> R compares the value calculated using the above-described edge extraction filter with the threshold value Ref <b> 1 (R). The first brightness difference detection unit 301R outputs logical data in which the first feature pixel is set to “1” and the other pixels are not set to “0” to the AND element 306R. The logical data corresponds to the pixel value of the R data and is configured with the same number as the pixel value. The first brightness difference detection unit 301G compares the value calculated using the above-described edge extraction filter with the threshold value Ref1 (G). The first lightness difference detection unit 301G outputs logical data in which the first feature pixel is “1” and the other pixels are “0” to the AND element 306G. The logical data corresponds to the pixel value of the G data and is configured with the same number as the pixel value. The first brightness difference detection unit 301B compares the value calculated using the above-described edge extraction filter with the threshold value Ref1 (B). The first brightness difference detection unit 301B outputs logical data in which the first feature pixel is “1” and the other pixel is “0” to the AND element 306B. The logical data corresponds to the pixel value of the B data and is configured with the same number as the pixel value.

第2明度差検出部302R,302G,302Bは、取り扱うデータが異なるのみで、それらの機能は同じなので、ここでは第2明度差検出部302Rについて説明する。第2明度差検出部302Rは、Rデータとしきい値Ref2(R)とが入力される。第2明度差検出部302Rは、Rデータから第2レベルの所定の特徴を有する領域を抽出する。第2レベルの所定の特徴を有する領域とは、明度の変化が少ない領域であって、周辺の領域と明度の差がしきい値Ref2(R)以上の領域である。そのような領域は、1画素以上の大きさであればよい。ここでは、第2レベルの所定の特徴を有する領域に含まれる画素を第2特徴画素という。しきい値Ref2(R)は、しきい値Ref1(R)よりも小さな値である。   The second lightness difference detection units 302R, 302G, and 302B differ only in the data to be handled, and their functions are the same, so the second lightness difference detection unit 302R will be described here. The second brightness difference detection unit 302R receives R data and a threshold value Ref2 (R). The second brightness difference detection unit 302R extracts a region having a second level predetermined feature from the R data. The region having the second level predetermined feature is a region where the change in lightness is small, and is a region where the difference in lightness from the surrounding region is equal to or greater than the threshold value Ref2 (R). Such a region may have a size of one pixel or more. Here, a pixel included in an area having a second level predetermined feature is referred to as a second feature pixel. The threshold value Ref2 (R) is smaller than the threshold value Ref1 (R).

第2明度差検出部302Rは、第2レベルの所定の特徴を有する領域を、エッジ抽出フィルタを用いて抽出する。エッジ抽出フィルタは、エッジ領域の複数のサイズそれぞれに対応した複数のフィルタを含む。第2明度差検出部302Rは、複数のフィルタごとにフィルタ処理を実行して、その結果得られる値としきい値Ref2(R)とを比較する。そして、第2明度差検出部302Rは、フィルタ処理の結果得られる値の絶対値がしきい値Ref2(R)より大きくなる条件を満たす場合、そのフィルタ処理の中心画素をエッジ領域の中心画素とし、条件を満たしたエッジ抽出フィルタからエッジ領域のサイズを求める。   The second brightness difference detection unit 302R extracts an area having a second level predetermined feature using an edge extraction filter. The edge extraction filter includes a plurality of filters corresponding to a plurality of sizes of the edge region. The second lightness difference detection unit 302R executes the filter process for each of the plurality of filters, and compares the value obtained as a result with the threshold value Ref2 (R). Then, when the condition that the absolute value of the value obtained as a result of the filter process is larger than the threshold value Ref2 (R) is satisfied, the second brightness difference detection unit 302R sets the center pixel of the filter process as the center pixel of the edge region. The size of the edge region is obtained from the edge extraction filter that satisfies the conditions.

第2明度差検出部302Rは、図11に示したエッジ抽出フィルタを用いて算出した値としきい値Ref2(R)とを比較する。第2明度差検出部302Rは、第2特徴画素を「1」とし、そうでない画素を「0」とした論理データを検出結果拡張処理部303Rに出力する。論理データは、Rデータの画素値に対応し、画素値と同じ数で構成される。検出結果拡張処理部303Rは、第2明度差検出部302Rで抽出された第2特徴画素の周辺の画素を第2特徴画素とすることにより、第2レベルの所定の特徴を有する領域を拡張する。すなわち、第2明度差検出部302Rから入力される論理データの値が「1」の画素の周辺にある値が「0」の画素の値を「1」に変更する。これにより、ノイズ検出の精度を向上させることができる。検出結果拡張処理部303Rは、領域を拡張した論理データを否定論理和素子305G、305Bに出力する。検出結果拡張処理部303G,303Bは、取り扱うデータが異なるのみで、それらの機能は検出結果拡張処理部303Rと同じなので、ここでは説明を繰り返さない。   The second brightness difference detection unit 302R compares the value calculated using the edge extraction filter shown in FIG. 11 with the threshold value Ref2 (R). The second brightness difference detection unit 302R outputs logical data in which the second feature pixel is set to “1” and other pixels are set to “0” to the detection result extension processing unit 303R. The logical data corresponds to the pixel value of the R data and is configured with the same number as the pixel value. The detection result expansion processing unit 303R expands an area having a predetermined feature of the second level by setting a pixel around the second feature pixel extracted by the second brightness difference detection unit 302R as the second feature pixel. . That is, the value of the pixel having the value “0” around the pixel having the logical data value “1” input from the second brightness difference detection unit 302R is changed to “1”. Thereby, the accuracy of noise detection can be improved. The detection result expansion processing unit 303R outputs the logical data in which the area is expanded to the negative OR elements 305G and 305B. The detection result expansion processing units 303G and 303B differ only in the data to be handled, and their functions are the same as those of the detection result expansion processing unit 303R. Therefore, description thereof will not be repeated here.

否定論理和素子305Rには、検出結果拡張処理部303G,303Bそれぞれから領域を拡張した論理データが入力される。否定論理和素子305Rは、入力された2つの論理データの論理和を反転した論理データを論理積素子306Rに出力する。すなわち、否定論理和素子305Rは、GデータおよびBデータのいずれでも第2特徴画素でない画素を「1」とし、少なくとも一方で第2特徴画素である画素を「0」とする論理データを論理積素子306Rに出力する。論理積素子306Rは、第1明度差検出部301Rから入力される論理データと、否定論理和素子305Rから入力される論理データの論理積を、判定部315Rに出力する。すなわち、論理積素子306Rは、Rデータで第1特徴画素であって、BデータおよびGデータのいずれでも拡張された第2特徴画素でない画素を「1」とし、他の画素を「0」とする論理データを判定部315Rに出力する。ここでは、論理積素子306Rが判定部315Rに出力する論理データをEDGEという。論理積素子306Rが出力する論理データEDGEは、Rデータで第1特徴画素であって、GデータおよびBデータのいずれでも拡張された第2特徴画素でないエッジ画素を示す。このエッジ画素は、原稿台205に付着したゴミをラインセンサ213Rが読み取った画素であり、副走査方向に複数連続する主走査方向エッジを構成する。   The logical data obtained by extending the area from each of the detection result expansion processing units 303G and 303B is input to the negative logical sum element 305R. The negative logical sum element 305R outputs logical data obtained by inverting the logical sum of the two input logical data to the logical product element 306R. In other words, the negative OR element 305R performs logical AND on logical data that sets a pixel that is not the second feature pixel to “1” and at least one pixel that is the second feature pixel to “0” in either G data or B data. Output to the element 306R. The AND element 306R outputs the logical product of the logical data input from the first brightness difference detection unit 301R and the logical data input from the negative OR element 305R to the determination unit 315R. That is, the AND element 306R sets the pixel that is the first feature pixel in the R data and is not the second feature pixel expanded in either the B data or the G data to “1”, and sets the other pixels to “0”. The logical data to be output is output to the determination unit 315R. Here, logical data output from the AND element 306R to the determination unit 315R is referred to as EDGE. The logical data EDGE output from the AND element 306R indicates an edge pixel that is the first feature pixel in the R data and is not the second feature pixel expanded in either the G data or the B data. This edge pixel is a pixel in which dust attached to the document table 205 is read by the line sensor 213R, and constitutes a plurality of edges in the main scanning direction that are continuous in the sub scanning direction.

否定論理和素子305G,305Bは、取り扱うデータが異なるのみでそれらの機能は否定論理和素子305Rと同じなので、ここでは説明を繰り返さない。   Since the logical OR elements 305G and 305B only handle different data and their functions are the same as those of the logical NOR element 305R, description thereof will not be repeated here.

グラデーション検出部311R,311G,311Bは、取り扱うデータが異なるのみでそれららの機能は同じなのでここではグラデーション検出部311Rについて説明する。グラデーション検出部311Rは、Rデータとしきい値Ref3(R)とが入力される。グラデーション検出部311Rは、Rデータから副走査方向に並ぶ複数の画素の画素値の変化の有無を検出する。しきい値Ref3(R)は、SignRef(K)、DRRef1(K)、DRRef2(K)、DRRef3(K)、DRRef4(K)、SignRef(W)、DRRef1(W)、DRRef2(W)、DRRef3(W)、DRRef4(W)を含む。   Since the gradation detection units 311R, 311G, and 311B have the same functions except for the handled data, the gradation detection unit 311R will be described here. The gradation detection unit 311R receives R data and a threshold value Ref3 (R). The gradation detection unit 311R detects the presence or absence of changes in the pixel values of a plurality of pixels arranged in the sub-scanning direction from the R data. The threshold value Ref3 (R) is defined as SignRef (K), DRRef1 (K), DRRef2 (K), DRRef3 (K), DRRef4 (K), SignRef (W), DRRef1 (W), DRRef2 (W), DRRef3. (W), DRRef4 (W) is included.

図12は、グラデーション検出部311Rの機能の概略を示す機能ブロック図である。図12を参照して、グラデーション検出部311Rは、1次微分フィルタ算出部331と、微分比較フィルタ部332,333と、論理和素子334とを含む。1次微分フィルタ算出部331は、Rデータが入力される。1次微分フィルタ算出部331は、図12に示す1次微分フィルタを用いて入力されたRデータを微分し、微分値を微分比較フィルタ部332,333それぞれに出力する。1次微分フィルタは、図中中央のハッチングで示す位置が処理対象となる画素である。   FIG. 12 is a functional block diagram illustrating an outline of functions of the gradation detection unit 311R. Referring to FIG. 12, gradation detection unit 311 </ b> R includes a primary differential filter calculation unit 331, differential comparison filter units 332 and 333, and an OR element 334. The primary differential filter calculation unit 331 receives R data. The primary differential filter calculation unit 331 differentiates the R data input using the primary differential filter shown in FIG. 12 and outputs the differential values to the differential comparison filter units 332 and 333, respectively. The primary differential filter is a pixel whose processing target is a position indicated by hatching in the center of the drawing.

微分比較フィルタ部332,333は、図13に示す微分比較フィルタを用いて、画素値の変化の有無および変化の方向を検出する。図13を参照して、ハッチングで示す画素が処理対象となる画素であり、説明のため各画素に符号を付している。画素D05が処理対象画素であり、1つ前のラインの画素がD04である。微分比較フィルタ部332,333は、処理対象画素を含む後10ラインの画素の1次微分値を用いて、画素値の変化の有無および変化の方向を検出する。   The differential comparison filter units 332 and 333 detect the presence / absence and direction of change of the pixel value using the differential comparison filter shown in FIG. With reference to FIG. 13, pixels indicated by hatching are pixels to be processed, and reference numerals are assigned to the respective pixels for description. The pixel D05 is a processing target pixel, and the pixel on the previous line is D04. The differential comparison filter units 332 and 333 detect the presence / absence of the change in the pixel value and the direction of the change using the first-order differential values of the pixels in the subsequent 10 lines including the processing target pixel.

微分比較フィルタ部332は、黒色のノイズを検出するために、画素値が減少する方向を検出する。具体的には、微分比較フィルタ部332は、処理対象画素を含む後10ラインの画素の1次微分値がプラス符号である画素数が所定のしきい値SignRef(K)を超えれば画素値が減少する変化があると判断する。ただし、微分比較フィルタ部332は、文字をノイズと誤検出するのを防止するため、ダイナミックレンジを用いて次の制約を満たすことを条件にしている。なお、ここでは、処理対象画素を含む後10ラインの画素の画素値の変化を検出するようにしたが、画素値の変化を検出するための画素数を10画素に限定するものではなく、画素値の変化を検出するための画素数は、原稿第205の移動速度により定めればよい。
(1)処理対象画素D05の前の5ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef1(K)であること。
MAX(D00,D01,D02,D03,D04)−MIN(D00,D01,D02,D03,D04)<DRRef1(K)
なお、MAX(D00,D01,D02,D03,D04)は、画素D00,D01,D02,D03,D04の画素値の最大値を示し、MIN(D00,D01,D02,D03,D04)は、画素D00,D01,D02,D03,D04の画素値の最小値を示す。
(2)処理対象画素D05を含む後の5ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef2(K)であること。
MAX(D05,D06,D07,D08,D09)−MIN(D05,D06,D07,D08,D09)<DRRef2(K)
(3)処理対象画素D05の後の6ライン〜10ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef3(K)であること。
MAX(D10,D11,D12,D13,D14)−MIN(D10,D11,D12,D13,D14)<DRRef3(K)
(4)処理対象画素D05の後の6ライン〜10ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef4(K)であること。
MAX(D15,D16,D17,D18,D19)−MIN(D15,D16,D17,D18,D19)<DRRef4(K)
微分比較フィルタ部332は、処理対象画素を含む後10ラインの画素の1次微分値がプラス符号である画素数が所定のしきい値SignRef(K)を超え、かつ、上記4つの制約条件の全てを満たすことを条件に、処理対象画素の値を「1」とする論理データを論理和素子334に出力する。論理データは、上記条件のいずれか1つでも満たされない場合には処理対象画素の値は「0」である。
The differential comparison filter unit 332 detects the direction in which the pixel value decreases in order to detect black noise. Specifically, the differential comparison filter unit 332 determines the pixel value if the number of pixels in which the first-order differential values of the pixels in the subsequent 10 lines including the processing target pixel are plus signs exceeds a predetermined threshold value SignRef (K). Judge that there is a decreasing change. However, the differential comparison filter unit 332 uses the dynamic range to satisfy the following constraints in order to prevent erroneous detection of characters as noise. Here, the change in the pixel value of the pixels in the subsequent 10 lines including the pixel to be processed is detected, but the number of pixels for detecting the change in the pixel value is not limited to 10 pixels. The number of pixels for detecting a change in value may be determined by the moving speed of the 205th document.
(1) The dynamic range of the pixel values of the pixels on the five lines before the processing target pixel D05 is a predetermined threshold value DRRef1 (K).
MAX (D00, D01, D02, D03, D04) −MIN (D00, D01, D02, D03, D04) <DRRef1 (K)
Note that MAX (D00, D01, D02, D03, D04) indicates the maximum pixel value of the pixels D00, D01, D02, D03, D04, and MIN (D00, D01, D02, D03, D04) indicates the pixel. The minimum value of the pixel values of D00, D01, D02, D03, and D04 is shown.
(2) The dynamic range of the pixel values of the pixels of the subsequent five lines including the processing target pixel D05 is a predetermined threshold value DRRef2 (K).
MAX (D05, D06, D07, D08, D09) −MIN (D05, D06, D07, D08, D09) <DRRef2 (K)
(3) The dynamic range of the pixel values of the pixels on the 6th line to the 10th line after the processing target pixel D05 is a predetermined threshold value DRRef3 (K).
MAX (D10, D11, D12, D13, D14) −MIN (D10, D11, D12, D13, D14) <DRRef3 (K)
(4) The dynamic range of the pixel values of the pixels of the 6th to 10th lines after the processing target pixel D05 is a predetermined threshold value DRRef4 (K).
MAX (D15, D16, D17, D18, D19) −MIN (D15, D16, D17, D18, D19) <DRRef4 (K)
The differential comparison filter unit 332 includes the number of pixels in which the first-order differential values of the pixels in the last 10 lines including the processing target pixel exceed a predetermined threshold value SignRef (K), and the above four constraint conditions are satisfied. On the condition that all are satisfied, logical data with the value of the processing target pixel being “1” is output to the logical sum element 334. When the logical data does not satisfy any one of the above conditions, the value of the processing target pixel is “0”.

微分比較フィルタ部333は、白色のノイズを検出するために、画素値が上昇する方向を検出する。具体的には、微分比較フィルタ部333は、処理対象画素を含む後10ラインの画素の1次微分値がマイナス符号である画素数が所定のしきい値SignRef(W)を超えれば画素値が上昇する変化があると判断する。ただし、微分比較フィルタ部333は、文字をノイズと誤検出するのを防止するため、ダイナミックレンジを用いて次の制約を満たすことを条件にしている。
(1)処理対象画素D05の前の5ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef1(W)であること。
MAX(D00,D01,D02,D03,D04)−MIN(D00,D01,D02,D03,D04)<DRRef1(W)
(2)処理対象画素D05を含む後の5ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef2(W)であること。
MAX(D05,D06,D07,D08,D09)−MIN(D05,D06,D07,D08,D09)<DRRef2(W)
(3)処理対象画素D05の後の6ライン〜10ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef3(W)であること。
MAX(D10,D11,D12,D13,D14)−MIN(D10,D11,D12,D13,D14)<DRRef3(W)
(4)処理対象画素D05の後の6ライン〜10ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef4(W)であること。
MAX(D15,D16,D17,D18,D19)−MIN(D15,D16,D17,D18,D19)<DRRef4(W)
微分比較フィルタ部333は、処理対象画素を含む後10ラインの画素の1次微分値がマイナス符号である画素数が所定のしきい値SignRef(W)を超え、かつ、上記4つの制約条件の全てを満たすことを条件に、処理対象画素の値を「1」とする論理データを論理和素子334に出力する。論理データは、上記条件のいずれか1つでも満たされない場合には処理対象画素の値は「0」である。
The differential comparison filter unit 333 detects the direction in which the pixel value increases in order to detect white noise. Specifically, the differential comparison filter unit 333 determines the pixel value if the number of pixels in which the first-order differential values of the pixels in the subsequent 10 lines including the pixel to be processed have a minus sign exceeds a predetermined threshold value SignRef (W). Judge that there is a rising change. However, the differential comparison filter unit 333 uses the dynamic range to satisfy the following constraints in order to prevent erroneous detection of characters as noise.
(1) The dynamic range of the pixel values of the pixels on the five lines before the processing target pixel D05 is a predetermined threshold value DRRef1 (W).
MAX (D00, D01, D02, D03, D04) −MIN (D00, D01, D02, D03, D04) <DRRef1 (W)
(2) The dynamic range of the pixel values of the five lines of pixels including the processing target pixel D05 is a predetermined threshold value DRRef2 (W).
MAX (D05, D06, D07, D08, D09) −MIN (D05, D06, D07, D08, D09) <DRRef2 (W)
(3) The dynamic range of the pixel values of the pixels on the 6th to 10th lines after the processing target pixel D05 is a predetermined threshold value DRRef3 (W).
MAX (D10, D11, D12, D13, D14) −MIN (D10, D11, D12, D13, D14) <DRRef3 (W)
(4) The dynamic range of the pixel values of the 6th to 10th pixel after the processing target pixel D05 is a predetermined threshold value DRRef4 (W).
MAX (D15, D16, D17, D18, D19) −MIN (D15, D16, D17, D18, D19) <DRRef4 (W)
The differential comparison filter unit 333 has the number of pixels in which the first-order differential values of the pixels in the subsequent 10 lines including the processing target pixel have a minus sign exceed a predetermined threshold value SignRef (W), and the four constraint conditions On the condition that all the conditions are satisfied, logical data with the value of the processing target pixel being “1” is output to the logical sum element 334. When the logical data does not satisfy any one of the above conditions, the value of the processing target pixel is “0”.

論理和素子334は、微分比較フィルタ部332,333それぞれから論理データが入力され、それらの論理データの論理和を算出し、算出して得られる論理データを出力する。論理和素子334が出力する論理データをGRAという。グラデーション検出部311Rが出力する論理データGRAは、画素値が副走査方向に変化するグラデーション領域を特定する。   The logical sum element 334 receives logical data from each of the differential comparison filter units 332 and 333, calculates a logical sum of the logical data, and outputs logical data obtained by the calculation. The logical data output from the logical sum element 334 is called GRA. The logical data GRA output from the gradation detection unit 311R specifies a gradation region in which the pixel value changes in the sub-scanning direction.

次に、背景エッジ検出部312Rについて説明する。背景エッジ検出部312G,312Bは、背景エッジ検出部312Rと取り扱うデータが異なるのみで、それらの機能は背景エッジ検出部312Rと同じなので、ここでは説明を繰り返さない。   Next, the background edge detection unit 312R will be described. The background edge detection units 312G and 312B differ from the background edge detection unit 312R only in the data handled, and their functions are the same as those of the background edge detection unit 312R. Therefore, description thereof will not be repeated here.

図14は、背景エッジ領域を検出する原理を説明するための図である。図14(A)は、原稿が白色の下地に黒ベタの領域を有し、原稿台205に白色のゴミが付着している場合に、画像に表れるノイズを示す図である。図14(A)では、ラインセンサ213Rが出力するRデータで明度の低い領域をハッチングで示している。ラインセンサ213Rが原稿の下地を読み取って出力するRデータと、白色のゴミを読み取って出力するRデータとが近似するために、第1明度差検出部301Rは白色のゴミを読み取って出力するRデータを第1特徴画素として検出することはできない。このため、図中ノイズ先端から点線で示す部分では、ラインセンサ213Rでは白ゴミを読み取っているにもかかわらず、第1特長画素として検出されない。一方、ラインセンサ213Rが原稿の黒ベタの領域を読み取って出力するRデータと、白色のゴミを読み取って出力するRデータとは異なるために、第1明度差検出部301Rは白色のゴミを読み取って出力するRデータを第1特徴画素として検出する。図中主走査方向エッジとして示す線分が、第1特徴画素を示す。原稿台205に白色のゴミが付着していなければ、ラインセンサ213Rにより矩形の黒ベタとして読み取られるところ、ラインセンサ213Rが白色のゴミを読み取るために、ラインセンサ213Rにより黒ベタの領域が矩形として読み取られない。図中の注目画素に着目すると、この位置で白色のゴミはラインセンサ213Rの読取領域の全てを覆うため、注目画素の副走査方向に隣接する画素間で画素値の変化はない。このため、注目画素が、グラデーション検出部311Rによってグラデーション領域として検出されない。   FIG. 14 is a diagram for explaining the principle of detecting the background edge region. FIG. 14A is a diagram illustrating noise appearing in an image when a document has a black solid area on a white background and white dust is attached to the document table 205. In FIG. 14A, a region with low brightness in the R data output by the line sensor 213R is indicated by hatching. Since the R data that the line sensor 213R reads and outputs the background of the document is close to the R data that reads and outputs the white dust, the first brightness difference detection unit 301R reads and outputs the white dust R Data cannot be detected as the first feature pixel. For this reason, in the portion indicated by the dotted line from the noise front end in the figure, the line sensor 213R does not detect white dust, but it is not detected as the first feature pixel. On the other hand, since the R data that the line sensor 213R reads and outputs the black solid area of the document is different from the R data that reads and outputs the white dust, the first brightness difference detection unit 301R reads the white dust. R data to be output is detected as a first feature pixel. A line segment shown as an edge in the main scanning direction in the figure indicates the first feature pixel. If white dust does not adhere to the document table 205, the line sensor 213R reads it as a rectangular black solid, and the line sensor 213R reads the white dust so that the line sensor 213R makes the black solid area rectangular. Cannot be read. When attention is focused on the target pixel in the figure, white dust covers the entire reading area of the line sensor 213R at this position, and therefore there is no change in pixel value between pixels adjacent to the target pixel in the sub-scanning direction. For this reason, the target pixel is not detected as a gradation region by the gradation detection unit 311R.

一方、注目画素と同じラインで注目画素に隣接する複数の画素は、原稿の白色の下地から黒ベタの領域に変化する副走査方向エッジを構成している。背景エッジ検出部312Rは、注目画素と同じラインに存在するべき副走査方向エッジを検出する。   On the other hand, a plurality of pixels adjacent to the target pixel on the same line as the target pixel constitute an edge in the sub-scanning direction that changes from a white background of the document to a solid black region. The background edge detector 312R detects an edge in the sub-scanning direction that should be on the same line as the target pixel.

しかしながら、注目画素と同じラインに存在する副走査方向エッジを検出するだけでは、文字の一部を誤ってノイズとして検出してしまう場合がある。副走査方向に平行な直線と主走査方向に平行な直線を含む文字(たとえば文字「T」)であって、赤、青、緑、青緑、赤紫、黄の単色の色の文字である。図14(B)は、文字をノイズと誤って検出する例を説明するための図である。図では赤色の文字「T」を示している。文字「T」は、横の直線が主走査方向と平行になり、縦の直線が副走査方向と平行になる場合が多い。このため、注目画素を含む主走査方向エッジは、上述した第1明度差検出部301RによりRデータから検出される。また、文字「T」の横の直線が注目画素と同じラインに存在する副走査方向エッジとして、Rデータから検出される。さらに、文字「T」の色およびRef2(G)およびRef2(B)の値によって、注目画素を含む主走査方向エッジが、第2明度差検出部302GによりGデータから検出されない場合があり、また、第2明度差検出部302BによりBデータから検出されない場合がある。したがって、Rデータの注目画素を含む主走査方向エッジをノイズとして検出しないために、GデータおよびBデータで注目画素とその前のラインの画素との明度の差をしきい値と比較することにより、Rデータから検出される注目画素を含む主走査方向エッジをノイズと誤判定するのを防止する。文字の色は全て同じ色なので、注目画素を含む主走査方向エッジが文字「T」の縦の直線であれば、GデータおよびBデータでは、注目画素とその前のラインの画素との明度の差が小さいからである。また、Ref2(G)およびRef2(B)の値を小さくすることができるので、誤検出を防止して検出精度を向上させることができる。   However, if only the sub-scanning direction edge existing on the same line as the target pixel is detected, a part of the character may be erroneously detected as noise. A character including a straight line parallel to the sub-scanning direction and a straight line parallel to the main-scanning direction (for example, the letter “T”), which is a single color character of red, blue, green, blue-green, magenta, and yellow . FIG. 14B is a diagram for describing an example in which a character is erroneously detected as noise. In the figure, the red letter “T” is shown. In many cases, the character “T” has a horizontal straight line parallel to the main scanning direction and a vertical straight line parallel to the sub-scanning direction. For this reason, the main scanning direction edge including the target pixel is detected from the R data by the first brightness difference detection unit 301R described above. Further, the horizontal line of the character “T” is detected from the R data as an edge in the sub-scanning direction existing on the same line as the target pixel. Further, depending on the color of the character “T” and the values of Ref2 (G) and Ref2 (B), the main scanning direction edge including the target pixel may not be detected from the G data by the second brightness difference detection unit 302G. The second brightness difference detection unit 302B may not be detected from the B data. Therefore, in order not to detect the main scanning direction edge including the target pixel of the R data as noise, by comparing the difference in brightness between the target pixel and the pixel on the previous line in the G data and B data with a threshold value. , An edge in the main scanning direction including the target pixel detected from the R data is prevented from being erroneously determined as noise. Since the colors of the characters are all the same color, if the edge in the main scanning direction including the target pixel is a vertical straight line of the character “T”, the brightness of the target pixel and the pixel of the preceding line are determined in G data and B data. This is because the difference is small. In addition, since the values of Ref2 (G) and Ref2 (B) can be reduced, erroneous detection can be prevented and detection accuracy can be improved.

背景エッジ検出部312Rは、Rデータとしきい値Ref4(R)とが入力される。しきい値Ref4(R)は、BERef1(K)、BERef1(W)、BEREF2を含む。   The background edge detector 312R receives R data and a threshold value Ref4 (R). The threshold value Ref4 (R) includes BERef1 (K), BERef1 (W), and BEREF2.

図15は、背景エッジ検出フィルタの一例を示す図である。図15(A)は、主走査方向が1画素の長さのゴミによりRデータに現れるノイズを検出するための背景エッジ検出フィルタである。図15(B)は、主走査方向が2〜3画素の長さのゴミによりRデータに現れるノイズを検出するための背景エッジ検出フィルタである。図15(C)は、主走査方向が4〜5画素の長さのゴミによりRデータに現れるノイズを検出するための背景エッジ検出フィルタである。図15(D)は、主走査方向が6〜7画素の長さのゴミによりRデータに現れるノイズを検出するための背景エッジ検出フィルタである。図15(E)は、主走査方向が8〜9画素の長さのゴミによりRデータに現れるノイズを検出するための背景エッジ検出フィルタである。図15(F)は、主走査方向が10〜11画素の長さのゴミによりRデータに現れるノイズを検出するための背景エッジ検出フィルタである。図15(G)は、主走査方向が12〜13画素の長さのゴミによりRデータに現れるノイズを検出するための背景エッジ検出フィルタである。図15(H)は、主走査方向が14〜15画素の長さのゴミによりRデータに現れるノイズを検出するための背景エッジ検出フィルタである。   FIG. 15 is a diagram illustrating an example of the background edge detection filter. FIG. 15A shows a background edge detection filter for detecting noise appearing in R data due to dust having a length of one pixel in the main scanning direction. FIG. 15B shows a background edge detection filter for detecting noise appearing in R data due to dust having a length of 2 to 3 pixels in the main scanning direction. FIG. 15C shows a background edge detection filter for detecting noise appearing in the R data due to dust having a length of 4 to 5 pixels in the main scanning direction. FIG. 15D shows a background edge detection filter for detecting noise appearing in R data due to dust having a length of 6 to 7 pixels in the main scanning direction. FIG. 15E shows a background edge detection filter for detecting noise appearing in R data due to dust having a length of 8 to 9 pixels in the main scanning direction. FIG. 15F illustrates a background edge detection filter for detecting noise that appears in R data due to dust having a length of 10 to 11 pixels in the main scanning direction. FIG. 15G illustrates a background edge detection filter for detecting noise that appears in R data due to dust having a length of 12 to 13 pixels in the main scanning direction. FIG. 15H is a background edge detection filter for detecting noise that appears in R data due to dust having a length of 14 to 15 pixels in the main scanning direction.

ここでは、図15(A)に示す背景エッジ検出フィルタについて説明する。図15(A)を参照して背景エッジ検出フィルタは、説明のため各画素を特定するために符号を付している。背景エッジ検出フィルタは、5ラインのRデータ、GデータおよびBデータを処理する。背景エッジの検出の対象となる注目画素は、符合TPで示される。   Here, the background edge detection filter shown in FIG. Referring to FIG. 15 (A), the background edge detection filter is denoted by a reference numeral for specifying each pixel for explanation. The background edge detection filter processes five lines of R data, G data, and B data. The target pixel for which the background edge is to be detected is indicated by the symbol TP.

背景エッジ検出部312Rは、副走査方向エッジを検出するために、Rデータに次の判定式を用いる。   The background edge detection unit 312R uses the following determination formula for the R data in order to detect the sub-scanning direction edge.

(1)黒色のゴミを検出するための判定式。
MIN(A1)>BERef(B) AND (MIN(A1)−MIN(B1))>BERef1(K) … (1)
または、
MIN(A2)>BERef(B) AND (MIN(A2)−MIN(B2))>BERef1(K) … (2)
ここで、MIN(A1)は複数ある符号A1の画素の画素値の最小値を示し、MIN(A2)は複数ある符号A2の画素の画素値の最小値を示し、MIN(B1)は複数ある符号B1の画素の画素値の最小値を示し、MIN(B2)は複数ある符号B2の画素の画素値の最小値を示す。
(1) A judgment formula for detecting black dust.
MIN (A1)> BERef (B) AND (MIN (A1) −MIN (B1))> BERef1 (K) (1)
Or
MIN (A2)> BERef (B) AND (MIN (A2) −MIN (B2))> BERef1 (K) (2)
Here, MIN (A1) indicates the minimum value of the pixel values of a plurality of pixels with the code A1, MIN (A2) indicates the minimum value of the pixel values of the plurality of pixels with the code A2, and there are a plurality of MIN (B1). The minimum value of the pixel value of the pixel of the code | symbol B1 is shown, MIN (B2) shows the minimum value of the pixel value of the pixel of the code | symbol B2 which exists in multiple numbers.

(2)白色のゴミを検出するための判定式。
MAX(A1)>BERef(W) AND (MAX(A1)−MAX(B1))>BERef1(W) … (3)
または、
MAX(A2)>BERef(W) AND (MAX(A2)−MAX(B2))>BERef1(W) … (4)
さらに、背景エッジ検出部312Rは、注目画素を含む主走査方向エッジがノイズと誤って判定されるのを防止するために、GデータおよびBデータそれぞれに次の判定式を用いる。
(2) A judgment formula for detecting white dust.
MAX (A1)> BERef (W) AND (MAX (A1) -MAX (B1))> BERef1 (W) (3)
Or
MAX (A2)> BERef (W) AND (MAX (A2) -MAX (B2))> BERef1 (W) (4)
Furthermore, the background edge detection unit 312R uses the following determination formula for each of the G data and the B data in order to prevent the main scanning direction edge including the target pixel from being erroneously determined as noise.

(1)黒色のゴミとして誤検出を防止するための判定式。
TP−MIN(C)>BERef2 … (5)
(2)白色のゴミとして誤検出を防止するための判定式。
MAX(C)−TP>BERef2 … (6)
ただし、TPは注目画素のRデータまたはGデータの画素値(明度)を示す。
(1) A judgment formula for preventing erroneous detection as black dust.
TP-MIN (C)> BERef2 (5)
(2) A judgment formula for preventing false detection as white dust.
MAX (C) -TP> BERef2 (6)
Here, TP indicates the pixel value (lightness) of the R data or G data of the target pixel.

背景エッジ検出部312Rは、Rデータにおいて、判定式(1)または判定式(2)のいずれかが成立し、かつ、GデータおよびBデータそれぞれにおいて判定式(5)が共に成立することを条件に、注目画素TPを背景エッジと判定する。また、背景エッジ検出部312Rは、Rデータにおいて、判定式(3)または判定式(4)のいずれかが成立し、かつ、GデータおよびBデータそれぞれにおいて判定式(6)が共に成立することを条件に、注目画素TPを背景エッジと判定する。   The background edge detection unit 312R has a condition that either the determination formula (1) or the determination formula (2) is satisfied in the R data, and that the determination formula (5) is satisfied in each of the G data and the B data. In addition, the target pixel TP is determined as the background edge. In addition, the background edge detection unit 312R satisfies that either the determination formula (3) or the determination formula (4) is satisfied in the R data, and the determination formula (6) is satisfied in each of the G data and the B data. As a result, the target pixel TP is determined as a background edge.

背景エッジ検出部312Rは、第1明度差検出部301Rで第1特徴画素を検出した際に用いたフィルタのサイズから複数ある背景エッジ検出フィルタのうちから1つを選択する。たとえば、第1明度差検出部301Rで第1特徴画素を検出した際に用いたフィルタが図11(B)に示した2〜3画素のサイズのエッジ領域を検出するために用いられるフィルタであれば、図15(B)に示した背景エッジ検出フィルタを選択する。背景エッジ検出部312Rは、選択した背景エッジ検出フィルタを用いて、処理対象となっている注目画素が、注目画素と同じラインに副走査方向エッジが存在し、かつ、文字の一部でない背景エッジであるか否かを判断する。背景エッジ検出部312Rは、注目画素が背景エッジであれば、注目画素の値を「1」とする論理データを論理和素子313Rに出力する。論理データは、注目画素が背景エッジでなければ、注目画素の値は「0」である。背景エッジ検出部312Rが出力する論理データをBEという。   The background edge detection unit 312R selects one of a plurality of background edge detection filters from the size of the filter used when the first feature difference detection unit 301R detects the first feature pixel. For example, the filter used when detecting the first feature pixel by the first brightness difference detection unit 301R may be a filter used to detect an edge region having a size of 2 to 3 pixels shown in FIG. For example, the background edge detection filter shown in FIG. The background edge detection unit 312R uses the selected background edge detection filter to determine that the target pixel to be processed has a sub-scanning direction edge on the same line as the target pixel and is not a part of the character. It is determined whether or not. If the target pixel is a background edge, the background edge detection unit 312R outputs logical data in which the value of the target pixel is “1” to the logical sum element 313R. In the logical data, if the target pixel is not a background edge, the value of the target pixel is “0”. The logical data output from the background edge detection unit 312R is referred to as BE.

図10に戻って、論理和素子313Rは、グラデーション検出部311Rから論理データGRAが入力され、背景エッジ検出部312Rから論理データBEが入力される。論理和素子313Rは、論理データGRAと論理データBEとの論理和を算出し、算出して得られる論理データを判定部315Rに出力する。すなわち、論理和素子313Rは、注目画素がグラデーション領域に含まれる場合、または、注目画素が背景エッジの場合に値が「1」となり、いずれでもない場合に値が「0」となる論理データを出力する。論理和素子313Rが出力する論理データをVALという。論理和素子313G,313Bは、論理和素子313Rと機能は同じなので、ここでは説明を繰り返さない。   Returning to FIG. 10, the logical sum element 313R receives the logical data GRA from the gradation detection unit 311R and the logical data BE from the background edge detection unit 312R. The OR element 313R calculates a logical sum of the logical data GRA and the logical data BE, and outputs the logical data obtained by the calculation to the determination unit 315R. That is, the logical sum element 313R outputs logical data having a value of “1” when the target pixel is included in the gradation area or when the target pixel is a background edge, and a value of “0” when the target pixel is not any of them. Output. The logical data output from the logical sum element 313R is referred to as VAL. Since the logical sum elements 313G and 313B have the same function as the logical sum element 313R, description thereof will not be repeated here.

判定部315Rは、論理積素子306Rから論理データEDGEが入力され、論理和素子313Rから論理データVALが入力される。判定部315Rは、論理積素子306Rから入力される論理データEDGEと、論理和素子313Rから入力される論理データVALとで、同じラインの同じ画素同士で論理演算をするためにバッファメモリを備えている。   The determination unit 315R receives the logical data EDGE from the logical product element 306R and the logical data VAL from the logical sum element 313R. The determination unit 315R includes a buffer memory for performing a logical operation between the same pixels on the same line using the logical data EDGE input from the logical product element 306R and the logical data VAL input from the logical sum element 313R. Yes.

判定部315Rは、論理データEDGEと論理データVALの論理積を算出し論理データflagとする。また、判定部315Rは、1つ前のラインの論理データFLAGと論理データEDGEの論理積を算出し論理データFLAGとする。判定部315Rは、算出した論理データflagと論理データFLAGの論理和を算出し、論理データFLAGを検出エリア拡張処理部316Rに出力する。すなわち、判定部315Rは、論理データEDGEが「1」かつ論理データVALが「1」ならば画素値を「1」とする論理データFLAGを検出エリア拡張処理部316Rに出力する。また、判定部315Rは、論理データEDGEが「1」かつ論理データVALが「0」であっても、検出エリア拡張処理部316Rに出力した1つ前のラインの論理データFLAGが「1」で、かつ、論理データEDGEが「1」ならば、画素値を「1」とする論理データFLAGを検出エリア拡張処理部316Rに出力する。判定部315Rは、論理データEDGEが「1」かつ論理データVALが「1」が成立して論理データFLAGが一度「1」に設定されると、次に値が「0」の論理データEDGEが入力されるまで値が「1」の論理データFLAGを検出エリア拡張処理部316Rに出力する。   The determination unit 315R calculates the logical product of the logical data EDGE and the logical data VAL and sets it as the logical data flag. Further, the determination unit 315R calculates a logical product of the logical data FLAG of the previous line and the logical data EDGE and sets it as the logical data FLAG. The determination unit 315R calculates a logical sum of the calculated logical data flag and the logical data FLAG, and outputs the logical data FLAG to the detection area expansion processing unit 316R. That is, the determination unit 315R outputs the logical data FLAG having the pixel value “1” to the detection area expansion processing unit 316R if the logical data EDGE is “1” and the logical data VAL is “1”. In addition, even if the logical data EDGE is “1” and the logical data VAL is “0”, the determination unit 315R has “1” as the logical data FLAG of the previous line output to the detection area expansion processing unit 316R. If the logical data EDGE is “1”, the logical data FLAG with the pixel value “1” is output to the detection area expansion processing unit 316R. When the logical data EDGE is “1” and the logical data VAL is “1” and the logical data FLAG is once set to “1”, the determination unit 315R receives the logical data EDGE whose value is “0” next. The logical data FLAG whose value is “1” is output to the detection area expansion processing unit 316R until it is input.

ここでは、Rデータで第1特徴画素であって、GデータおよびBデータのいずれでも拡張された第2特徴画素でない画素を主走査方向エッジ画素という。判定部315Rは、換言すれば、主走査方向エッジ画素のうちグラデーション領域に含まれる画素、または背景エッジの画素の値を「1」とする論理データFLAGを出力する。また、判定部315Rは、主走査方向エッジ画素が副走査方向に連続する場合は、連続する複数の主走査方向エッジ画素の1の画素が、グラデーション領域に含まれる画素、または背景エッジ画素であれば、グラデーション領域に含まれる画素、または背景エッジ画素に後続する全ての主走査方向エッジ画素の値を「1」とする論理データFLAGを出力する。   Here, a pixel that is the first feature pixel in the R data and is not the second feature pixel expanded in either the G data or the B data is referred to as a main scanning direction edge pixel. In other words, the determination unit 315R outputs the logical data FLAG in which the value of the pixel included in the gradation region among the edge pixels in the main scanning direction or the pixel of the background edge is “1”. In addition, when the main scanning direction edge pixels are continuous in the sub-scanning direction, the determination unit 315R determines that one of the plurality of continuous main scanning direction edge pixels is a pixel included in the gradation area or a background edge pixel. For example, the logical data FLAG in which the values of the pixels included in the gradation area or all the edge pixels in the main scanning direction following the background edge pixel are “1” is output.

検出エリア拡張処理部316Rは、判定部315Rから論理データFLAGが入力される。検出エリア拡張処理部316Rは、判定部315Rでノイズと判定された画素の周辺の画素を含めた補正対象領域を特定する。すなわち、判定部315Rから入力される論理データFLAGの値が「1」の画素の周辺にある値が「0」の画素の値を「1」に変更する。これにより、補正対象となる画素の範囲を広げて画質を向上させることができる。検出エリア拡張処理部316Rは、補正対象領域を示す論理データをノイズ補正部260に出力する。検出エリア拡張処理部316G,316Bは、取り扱うデータが異なるのみでそれらの機能は検出エリア拡張処理部316Rと同じなので、ここでは説明を繰り返さない。   The detection area expansion processing unit 316R receives the logical data FLAG from the determination unit 315R. The detection area expansion processing unit 316R specifies a correction target area including pixels around the pixel determined to be noise by the determination unit 315R. That is, the value of the pixel having the value “0” around the pixel having the value “1” of the logical data FLAG input from the determination unit 315R is changed to “1”. As a result, the image quality can be improved by expanding the range of pixels to be corrected. The detection area expansion processing unit 316R outputs logical data indicating the correction target area to the noise correction unit 260. The detection area expansion processing units 316G and 316B have the same functions as the detection area expansion processing unit 316R except that they handle different data. Therefore, the description thereof will not be repeated here.

<第1の変形例>
上述したノイズ検出処理部259では、Rデータで第1特徴画素であって、GデータおよびBデータのいずれでも拡張された第2特徴画素でない画素が副走査方向に連続する主走査方向エッジの先端に、グラデーション領域が存在すればノイズと判定するものである。原稿の背景に変化がなければ、主走査方向エッジはその後端にグラデーション領域を含むはずである。このため、主走査方向エッジの先端のグラデーション領域に加え、後端のグラデーション領域を検出することにより、主走査方向エッジをノイズとして検出する精度を向上させることができる。
<First Modification>
In the noise detection processing unit 259 described above, the leading edge of the edge in the main scanning direction in which the first feature pixel in the R data and the pixel that is not the second feature pixel expanded in either the G data or the B data is continuous in the sub-scanning direction. In addition, if there is a gradation area, it is determined as noise. If there is no change in the background of the document, the edge in the main scanning direction should include a gradation area at the trailing edge. For this reason, the accuracy of detecting the main scanning direction edge as noise can be improved by detecting the trailing gradation region in addition to the gradation region at the leading edge of the main scanning direction edge.

図16は、変形例におけるグラデーション検出部311Rの詳細な構成を示す機能ブロック図である。図16を参照して、変形例におけるグラデーション検出部311Rは、先端グラデーション検出部321Rと、後端グラデーション検出部322Rと、ノイズ検出許可領域決定部323Rとを含む。先端グラデーション検出部321Rは、図12に示したグラデーション検出部311Rと同じ構成である。したがってここでは説明を繰り返さない。   FIG. 16 is a functional block diagram showing a detailed configuration of the gradation detection unit 311R in the modification. Referring to FIG. 16, the gradation detection unit 311R in the modification includes a front end gradation detection unit 321R, a rear end gradation detection unit 322R, and a noise detection permission region determination unit 323R. The leading gradation detecting unit 321R has the same configuration as the gradation detecting unit 311R shown in FIG. Therefore, description is not repeated here.

図17は、後端グラデーション検出部322Rの機能の概略を示す機能ブロック図である。図17を参照して、後端グラデーション検出部322Rは、1次微分フィルタ算出部341と、微分比較フィルタ部342,343と、論理和素子344とを含む。   FIG. 17 is a functional block diagram illustrating an outline of functions of the trailing edge gradation detection unit 322R. Referring to FIG. 17, rear end gradation detection unit 322R includes a primary differential filter calculation unit 341, differential comparison filter units 342 and 343, and an OR element 344.

1次微分フィルタ算出部341は、Rデータが入力される。1次微分フィルタ算出部341は、図17に示す1次微分フィルタを用いて入力されたRデータを微分し、微分値を微分比較フィルタ部342,343それぞれに出力する。1次微分フィルタは、図中中央のハッチングで示す位置が処理対象となる画素である。   R data is input to the primary differential filter calculation unit 341. The primary differential filter calculation unit 341 differentiates R data input using the primary differential filter shown in FIG. 17 and outputs differential values to the differential comparison filter units 342 and 343, respectively. The primary differential filter is a pixel whose processing target is a position indicated by hatching in the center of the drawing.

微分比較フィルタ部342,343は、図18に示す微分比較フィルタを用いて、画素値の変化の有無および変化の方向を検出する。図18を参照して、ハッチングで示す画素が処理対象となる画素であり、説明のため各画素に符号を付している。画素D05が処理対象画素であり、1つ前のラインの画素がD06である。微分比較フィルタ部342,343は、処理対象画素を含む前10ラインの画素の1次微分値を用いて、画素値の変化の有無および変化の方向を検出する。なお、ここでは、処理対象画素を含む前10ラインの画素の画素値の変化を検出するようにしたが、画素値の変化を検出するための画素数を10画素に限定するものではなく、画素値の変化を検出するための画素数は、原稿第205の移動速度により定めればよい。   The differential comparison filter units 342 and 343 detect the presence / absence of the change in the pixel value and the direction of the change using the differential comparison filter shown in FIG. Referring to FIG. 18, pixels indicated by hatching are pixels to be processed, and reference numerals are given to the respective pixels for description. The pixel D05 is a processing target pixel, and the pixel on the previous line is D06. The differential comparison filter units 342 and 343 detect the presence / absence of the change in the pixel value and the direction of the change using the primary differential values of the pixels in the previous 10 lines including the pixel to be processed. Here, the change in the pixel value of the pixels in the previous 10 lines including the pixel to be processed is detected, but the number of pixels for detecting the change in the pixel value is not limited to 10 pixels. The number of pixels for detecting a change in value may be determined by the moving speed of the 205th document.

微分比較フィルタ部342は、黒色のノイズを検出するために、画素値が減少する方向を検出する。具体的には、微分比較フィルタ部342は、処理対象画素を含む前10ラインの画素の1次微分値がプラス符号である画素数が所定のしきい値SignRef(K)を超えれば画素値が減少する変化があると判断する。ただし、微分比較フィルタ部342は、文字をノイズと誤検出するのを防止するため、ダイナミックレンジを用いて次の制約を満たすことを条件にしている。
(1)処理対象画素D05の後ろ5ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef1(K)であること。
MAX(D00,D01,D02,D03,D04)−MIN(D00,D01,D02,D03,D04)<DRRef1(K)
(2)処理対象画素D05を含む前5ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef2(K)であること。
MAX(D05,D06,D07,D08,D09)−MIN(D05,D06,D07,D08,D09)<DRRef2(K)
(3)処理対象画素D05の前の5ライン〜9ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef3(K)であること。
MAX(D10,D11,D12,D13,D14)−MIN(D10,D11,D12,D13,D14)<DRRef3(K)
(4)処理対象画素D05の前の10ライン〜14ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef4(K)であること。
MAX(D15,D16,D17,D18,D19)−MIN(D15,D16,D17,D18,D19)<DRRef4(K)
微分比較フィルタ部342は、処理対象画素を含む前10ラインの画素の1次微分値がプラス符号である画素数が所定のしきい値SignRef(K)を超え、かつ、上記4つの制約条件の全てを満たすことを条件に、処理対象画素の値を「1」とする論理データを論理和素子344に出力する。論理データは、上記条件のいずれか1つでも満たされない場合には処理対象画素の値は「0」である。
The differential comparison filter unit 342 detects the direction in which the pixel value decreases in order to detect black noise. Specifically, the differential comparison filter unit 342 determines the pixel value if the number of pixels in which the first-order differential values of the pixels in the previous 10 lines including the pixel to be processed exceed a predetermined threshold value SignRef (K). Judge that there is a decreasing change. However, the differential comparison filter unit 342 uses the dynamic range to satisfy the following constraint in order to prevent erroneous detection of characters as noise.
(1) The dynamic range of the pixel values of the pixels on the five lines after the processing target pixel D05 is a predetermined threshold value DRRef1 (K).
MAX (D00, D01, D02, D03, D04) −MIN (D00, D01, D02, D03, D04) <DRRef1 (K)
(2) The dynamic range of the pixel values of the pixels on the previous five lines including the processing target pixel D05 is a predetermined threshold value DRRef2 (K).
MAX (D05, D06, D07, D08, D09) −MIN (D05, D06, D07, D08, D09) <DRRef2 (K)
(3) The dynamic range of the pixel values of the pixels on the 5th to 9th lines before the processing target pixel D05 is a predetermined threshold value DRRef3 (K).
MAX (D10, D11, D12, D13, D14) −MIN (D10, D11, D12, D13, D14) <DRRef3 (K)
(4) The dynamic range of the pixel values of the pixels on the 10th to 14th lines before the processing target pixel D05 is a predetermined threshold value DRRef4 (K).
MAX (D15, D16, D17, D18, D19) −MIN (D15, D16, D17, D18, D19) <DRRef4 (K)
The differential comparison filter unit 342 has the number of pixels whose first-order differential values of pixels in the previous 10 lines including the pixel to be processed have a plus sign exceed a predetermined threshold value SignRef (K), and the above four constraint conditions On the condition that all the conditions are satisfied, logical data with the value of the processing target pixel being “1” is output to the logical sum element 344. When the logical data does not satisfy any one of the above conditions, the value of the processing target pixel is “0”.

微分比較フィルタ部343は、白色のノイズを検出するために、画素値が上昇する方向を検出する。具体的には、微分比較フィルタ部343は、処理対象画素を含む前10ラインの画素の1次微分値がマイナス符号である画素数が所定のしきい値SignRef(W)を超えれば画素値が上昇する変化があると判断する。ただし、微分比較フィルタ部343は、文字をノイズと誤検出するのを防止するため、ダイナミックレンジを用いて次の制約を満たすことを条件にしている。
(1)処理対象画素D05の後ろ5ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef1(W)であること。
MAX(D00,D01,D02,D03,D04)−MIN(D00,D01,D02,D03,D04)<DRRef1(W)
(2)処理対象画素D05を含む前の5ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef2(W)であること。
MAX(D05,D06,D07,D08,D09)−MIN(D05,D06,D07,D08,D09)<DRRef2(W)
(3)処理対象画素D05の前の5ライン〜9ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef3(W)であること。
MAX(D10,D11,D12,D13,D14)−MIN(D10,D11,D12,D13,D14)<DRRef3(W)
(4)処理対象画素D05の前の10ライン〜14ラインの画素の画素値のダイナミックレンジが所定のしきい値DRRef4(W)であること。
MAX(D15,D16,D17,D18,D19)−MIN(D15,D16,D17,D18,D19)<DRRef4(W)
微分比較フィルタ部343は、処理対象画素を含む前10ラインの画素の1次微分値がマイナス符号である画素数が所定のしきい値SignRef(W)を超え、かつ、上記4つの制約条件の全てを満たすことを条件に、処理対象画素の値を「1」とする論理データを論理和素子344に出力する。論理データは、上記条件のいずれか1つでも満たされない場合には処理対象画素の値は「0」である。
The differential comparison filter unit 343 detects the direction in which the pixel value increases in order to detect white noise. Specifically, the differential comparison filter unit 343 sets the pixel value if the number of pixels in which the first-order differential value of the pixels in the previous 10 lines including the pixel to be processed exceeds a predetermined threshold value SignRef (W). Judge that there is a rising change. However, the differential comparison filter unit 343 uses the dynamic range to satisfy the following constraints in order to prevent erroneous detection of characters as noise.
(1) The dynamic range of the pixel values of the pixels on the five lines after the processing target pixel D05 is a predetermined threshold value DRRef1 (W).
MAX (D00, D01, D02, D03, D04) −MIN (D00, D01, D02, D03, D04) <DRRef1 (W)
(2) The dynamic range of the pixel values of the previous five lines of pixels including the processing target pixel D05 is a predetermined threshold value DRRef2 (W).
MAX (D05, D06, D07, D08, D09) −MIN (D05, D06, D07, D08, D09) <DRRef2 (W)
(3) The dynamic range of the pixel values of the pixels on the 5th to 9th lines before the processing target pixel D05 is a predetermined threshold value DRRef3 (W).
MAX (D10, D11, D12, D13, D14) −MIN (D10, D11, D12, D13, D14) <DRRef3 (W)
(4) The dynamic range of the pixel values of the pixels on the 10th to 14th lines before the processing target pixel D05 is a predetermined threshold value DRRef4 (W).
MAX (D15, D16, D17, D18, D19) −MIN (D15, D16, D17, D18, D19) <DRRef4 (W)
The differential comparison filter unit 343 has the number of pixels in which the first-order differential values of the pixels in the previous 10 lines including the pixel to be processed have a minus sign exceed a predetermined threshold value SignRef (W), and the four constraint conditions On the condition that all the conditions are satisfied, logical data with the value of the processing target pixel being “1” is output to the logical sum element 344. When the logical data does not satisfy any one of the above conditions, the value of the processing target pixel is “0”.

論理和素子344は、微分比較フィルタ部342,343それぞれから論理データが入力され、それらの論理データの論理和を算出し、算出して得られる論理データを出力する。論理和素子344が出力する論理データをGRAEという。   The logical sum element 344 receives logical data from the differential comparison filter units 342 and 343, calculates a logical sum of the logical data, and outputs logical data obtained by the calculation. The logical data output from the logical sum element 344 is called GRAE.

図16に戻って、ノイズ検出許可領域決定部323Rは、先端グラデーション検出部321Rから論理データGRAが入力され、後端グラデーション検出部322Rから論理データGRAEが入力される。ノイズ検出許可領域決定部323Rは、先端グラデーション検出部321Rから値が「1」の論理データGRAが入力された以降に、副走査方向に同じ位置の画素の値が「1」の論理データGRAEが後端グラデーション検出部322Rから入力されることを条件に、先端グラデーション検出部321Rから値が「1」の論理データGRAが入力されたラインから、副走査方向に同じ位置の画素の値が「1」の論理データGRAEが後端グラデーション検出部322Rから入力されるまでのラインを、ノイズ検出を許可する領域として、値が「1」の論理データを判定部315Rに出力する。   Returning to FIG. 16, the noise detection permission area determination unit 323R receives the logical data GRA from the leading gradation detection unit 321R and the logical data GRAE from the trailing gradation detection unit 322R. After the logical data GRA having the value “1” is input from the leading gradation detecting unit 321R, the noise detection permission area determining unit 323R receives the logical data GRAE having the pixel value “1” at the same position in the sub-scanning direction. On the condition that it is input from the trailing edge gradation detection unit 322R, the value of the pixel at the same position in the sub-scanning direction is “1” from the line where the logical data GRA having the value “1” is input from the leading gradation detection unit 321R. The logical data with the value “1” is output to the determination unit 315R, with the line until the logical data GRAE of “is input from the trailing edge gradation detection unit 322R as an area where noise detection is permitted.

先端グラデーション検出部321Rが出力する論理データGRAを、白色のグラデーション領域の場合に値を「1」とし、黒色のグラデーション領域の場合に値を「2」とし、その他の場合に値を「0」とし、後端グラデーション検出部322Rが出力する論理データGRAEを、白色のグラデーション領域の場合に値を「1」とし、黒色のグラデーション領域の場合に値を「2」とし、その他の場合に値を「0」としてもよい。この場合、ノイズ検出許可領域決定部323Rは、先端グラデーション検出部321Rから値が「1」の論理データGRAが入力された以降に、副走査方向に同じ位置の画素の値が「1」の論理データGRAEが後端グラデーション検出部322Rから入力されることを条件に、先端グラデーション検出部321Rから値が「1」の論理データGRAが入力されたラインから、副走査方向に同じ位置の画素の値が「1」の論理データGRAEが後端グラデーション検出部322Rから入力されるまでのラインを、ノイズ検出を許可する領域として、値が「1」の論理データを判定部315Rに出力する。また、ノイズ検出許可領域決定部323Rは、先端グラデーション検出部321Rから値が「2」の論理データGRAが入力された以降に、副走査方向に同じ位置の画素の値が「2」の論理データGRAEが後端グラデーション検出部322Rから入力されることを条件に、先端グラデーション検出部321Rから値が「2」の論理データGRAが入力されたラインから、副走査方向に同じ位置の画素の値が「2」の論理データGRAEが後端グラデーション検出部322Rから入力されるまでのラインを、ノイズ検出を許可する領域として、値が「1」の論理データを判定部315Rに出力する。   The logical data GRA output from the leading gradation detection unit 321R has a value of “1” in the case of a white gradation region, a value of “2” in the case of a black gradation region, and a value of “0” in other cases. And the logical data GRAE output from the trailing edge gradation detection unit 322R is “1” in the case of the white gradation area, “2” in the case of the black gradation area, and the value in the other cases. It may be “0”. In this case, the noise detection permission area determination unit 323R receives the logic data GRA having the value “1” in the sub-scanning direction after the logical data GRA having the value “1” is input from the leading gradation detection unit 321R. On the condition that the data GRAE is input from the trailing edge gradation detection unit 322R, the value of the pixel at the same position in the sub-scanning direction from the line where the logical data GRA having the value “1” is input from the leading edge gradation detection unit 321R. The logical data GRAE having the value “1” is output to the determination unit 315R, with the line until the logical data GRAE having the value “1” input from the rear end gradation detection unit 322R is set as an area where noise detection is permitted. Further, the noise detection permission area determining unit 323R receives the logical data with the pixel value “2” at the same position in the sub-scanning direction after the logical data GRA with the value “2” is input from the leading gradation detection unit 321R. On the condition that GRAE is input from the trailing edge gradation detection unit 322R, the value of the pixel at the same position in the sub-scanning direction from the line where the logical data GRA having the value “2” is input from the leading gradation detection unit 321R. The logical data with a value of “1” is output to the determination unit 315R, with the line until the logical data GRAE of “2” is input from the trailing edge gradation detection unit 322R being an area where noise detection is permitted.

ここで、判定部315Rは、グラデーション検出部311Rのノイズ検出許可領域決定部323Rから入力される論理データについては、論理積素子306から入力される論理データEDGEとノイズ検出許可領域決定部323Rから入力される論理データとの論理積を算出し、算出して得られる論理データを検出エリア拡張処理部316に出力する。   Here, for the logical data input from the noise detection permission region determination unit 323R of the gradation detection unit 311R, the determination unit 315R inputs the logical data EDGE input from the AND element 306 and the noise detection permission region determination unit 323R. The logical product with the logical data to be calculated is calculated, and the logical data obtained by the calculation is output to the detection area expansion processing unit 316.

<第2の変形例>
上述したノイズ検出処理部259では、Rデータで第1特徴画素であって、GデータおよびBデータのいずれでも拡張された第2特徴画素でない画素が副走査方向に連続する主走査方向エッジの先端に、背景エッジが存在すればノイズと判定するものである。原稿の背景に変化がなければ、主走査方向エッジはその後端にグラデーション領域を含むはずである。このため、主走査方向エッジの先端の背景エッジの検出に加え、後端のグラデーション領域を検出することにより、主走査方向エッジをノイズとして検出する精度を向上することができる。
<Second Modification>
In the noise detection processing unit 259 described above, the leading edge of the edge in the main scanning direction in which the first feature pixel in the R data and the pixel that is not the second feature pixel expanded in either the G data or the B data is continuous in the sub-scanning direction. If there is a background edge, it is determined as noise. If there is no change in the background of the document, the edge in the main scanning direction should include a gradation area at the trailing edge. For this reason, in addition to the detection of the background edge at the front end of the main scanning direction edge, the accuracy of detecting the main scanning direction edge as noise can be improved by detecting the gradation area at the rear end.

図19は、変形例における背景エッジ検出部312Rの詳細な構成を示す機能ブロック図である。図19を参照して、変形例における背景エッジ検出部312Rは、先端背景エッジ検出部324Rと、後端グラデーション検出部322Rと、ノイズ検出許可領域決定部325Rとを含む。先端背景エッジ検出部324Rは、図10に示した背景エッジ検出部312Rと同じ構成である。また、後端グラデーション検出部322Rは、図17に示した後端グラデーション検出部322Rと同じ構成である。従ってこれらについてここでは説明を繰り返さない。   FIG. 19 is a functional block diagram illustrating a detailed configuration of the background edge detection unit 312R according to the modification. Referring to FIG. 19, the background edge detection unit 312R in the modification includes a front end background edge detection unit 324R, a rear end gradation detection unit 322R, and a noise detection permission region determination unit 325R. The tip background edge detection unit 324R has the same configuration as the background edge detection unit 312R illustrated in FIG. The rear end gradation detection unit 322R has the same configuration as the rear end gradation detection unit 322R shown in FIG. Therefore, description thereof will not be repeated here.

ノイズ検出許可領域決定部325Rは、先端背景エッジ検出部324Rから論理データBEが入力され、後端グラデーション検出部322Rから論理データGRAEが入力される。ノイズ検出許可領域決定部325Rは、先端背景エッジ検出部324Rから値が「1」の論理データBEが入力された以降に、副走査方向に同じ位置の画素の値が「1」の論理データGRAEが後端グラデーション検出部322Rから入力されることを条件に、先端背景エッジ検出部324Rから値が「1」の論理データBEが入力されたラインから、副走査方向に同じ位置の画素の位置の値が「1」の論理データGRAEが後端グラデーション検出部322Rから入力されるまでのラインを、ノイズ検出を許可する領域として、値が「1」の論理データを判定部315Rに出力する。   The noise detection permission area determination unit 325R receives the logical data BE from the leading edge background edge detection unit 324R and the logical data GRAE from the trailing edge gradation detection unit 322R. The noise detection permission region determination unit 325R receives the logical data GRAE having the pixel value “1” at the same position in the sub-scanning direction after the logical data BE having the value “1” is input from the leading background edge detection unit 324R. Is input from the trailing edge gradation detection unit 322R, the position of the pixel at the same position in the sub-scanning direction from the line where the logical data BE having the value “1” is input from the leading background edge detection unit 324R. The logical data GRAE having the value “1” is output to the determination unit 315R, with the line until the logical data GRAE having the value “1” input from the trailing edge gradation detection unit 322R is set as an area where noise detection is permitted.

先端背景エッジ検出部324Rが出力する論理データBEを、白色のゴミを検出するための判定式で背景エッジが検出された場合の値を「1」とし、黒色のゴミを検出するための判定式で背景エッジが検出された場合の値を「2」とし、その他の場合に値を「0」とし、後端グラデーション検出部322Rが出力する論理データGRAEを、白色のグラデーション領域の場合に値を「1」とし、黒色のグラデーション領域の場合に値を「2」とし、その他の場合に値を「0」としてもよい。この場合、ノイズ検出許可領域決定部325Rは、先端背景エッジ検出部324Rから値が「1」の論理データBEが入力された以降に、副走査方向に同じ位置の画素の値が「1」の論理データGRAEが後端グラデーション検出部322Rから入力されることを条件に、先端背景エッジ検出部324Rから値が「1」の論理データBEが入力されたラインから、副走査方向に同じ位置の画素の値が「1」の論理データGRAEが後端グラデーション検出部322Rから入力されるまでのラインを、ノイズ検出を許可する領域として、値が「1」の論理データを判定部315Rに出力する。また、ノイズ検出許可領域決定部325Rは、先端背景エッジ検出部324Rから値が「2」の論理データBEが入力された以降に、副走査方向に同じ位置の画素の値が「2」の論理データGRAEが後端グラデーション検出部322Rから入力されることを条件に、先端背景エッジ検出部324Rから値が「2」の論理データBEが入力されたラインから、副走査方向に同じ位置の画素の値が「2」の論理データGRAEが後端グラデーション検出部322Rから入力されるまでのラインを、ノイズ検出を許可する領域として、値が「1」の論理データを判定部315Rに出力する。   The logical data BE output from the front-end / background-edge detection unit 324R is set to “1” when a background edge is detected in a determination formula for detecting white dust, and a determination formula for detecting black dust. The value when the background edge is detected is set to “2”, the value is set to “0” in other cases, and the logical data GRAE output from the trailing edge gradation detection unit 322R is set to the value in the case of the white gradation region. The value may be “1”, the value may be “2” in the case of a black gradation region, and the value may be “0” in other cases. In this case, the noise detection permission area determination unit 325R receives the logical data BE having the value “1” from the front-end background edge detection unit 324R, and the value of the pixel at the same position in the sub-scanning direction is “1”. On the condition that the logical data GRAE is input from the trailing edge gradation detection unit 322R, pixels at the same position in the sub-scanning direction from the line where the logical data BE having the value “1” is input from the leading edge background edge detection unit 324R. The logical data GRAE with the value “1” is output from the trailing edge gradation detection unit 322R to the determination unit 315R with the logical data with the value “1” as an area where noise detection is permitted. In addition, the noise detection permission area determination unit 325R receives the logical data BE having the value “2” in the sub-scanning direction after the logical data BE having the value “2” is input from the leading background edge detection unit 324R. On the condition that the data GRAE is input from the trailing edge gradation detection unit 322R, the pixel at the same position in the sub-scanning direction from the line where the logical data BE having the value “2” is input from the leading edge background edge detection unit 324R. The logical data GRAE with the value “2” is output from the trailing edge gradation detection unit 322R to the determination unit 315R with the logical data with the value “1” as an area where noise detection is permitted.

判定部315Rは、背景エッジ検出部312Rのノイズ検出許可領域決定部325Rから入力される論理データについては、論理積素子306から入力される論理データEDGEとノイズ検出許可領域決定部325Rから入力される論理データとの論理積を算出し、算出して得られる論理データを検出エリア拡張処理部316に出力する。   For the logical data input from the noise detection permission region determination unit 325R of the background edge detection unit 312R, the determination unit 315R receives the logical data EDGE input from the AND element 306 and the noise detection permission region determination unit 325R. The logical product with the logical data is calculated, and the logical data obtained by the calculation is output to the detection area expansion processing unit 316.

以上説明したように、原稿台上のゴミは、3つのラインセンサ213R,213G,213Bそれぞれによって原稿の異なる位置で読取られるので、原稿上のゴミを読み取って得られるデータは、Rデータ、GデータおよびBデータのうち1のデータのみに存在する主走査方向エッジとなる。さらに、原稿台205がラインセンサ213R,213G,213Bに相対して移動するため、Rデータ、GデータおよびBデータの1のデータのみから検出される主走査方向エッジのうち、エッジの端の画素値が変化する主走査方向エッジとなる場合がある。画像読取装置10のノイズ検出処理部259は、3つのラインセンサ213R,213G,213Bが出力するRデータ、GデータおよびBデータそれぞれから主走査方向に画素値が変化する主走査方向エッジを検出し、Rデータ、GデータおよびBデータの1のデータのみから検出された主走査方向エッジであって、副走査方向に連続する所定数の画素の画素値が変化するグラデーション領域を含む主走査方向エッジをノイズとする。このため、原稿を読取った画像から原稿台に存在するゴミを読み取って発生するノイズを検出する精度を向上させることができる。   As described above, the dust on the document table is read at different positions on the document by the three line sensors 213R, 213G, and 213B. Therefore, the data obtained by reading the dust on the document is R data and G data. And an edge in the main scanning direction existing only in one of the B data. Further, since the document table 205 moves relative to the line sensors 213R, 213G, and 213B, of the edges in the main scanning direction detected from only one data of R data, G data, and B data, a pixel at the edge of the edge. In some cases, the value changes in the main scanning direction edge. The noise detection processing unit 259 of the image reading apparatus 10 detects an edge in the main scanning direction in which the pixel value changes in the main scanning direction from each of R data, G data, and B data output from the three line sensors 213R, 213G, and 213B. A main scanning direction edge that is detected from only one of R data, G data, and B data, and includes a gradation region in which the pixel values of a predetermined number of pixels that are continuous in the sub scanning direction change. Is noise. For this reason, it is possible to improve the accuracy of detecting noise generated by reading dust existing on the document table from an image obtained by reading the document.

また、原稿が白色の背景で黒ベタの領域を有する場合に、原稿の背景と黒ベタの領域との境界は、副走査方向エッジとして検出される。黒色のゴミが原稿台に付着していても原稿の黒ベタの領域を読み取っている間はゴミにより発生するノイズは主走査方向エッジとして検出されないが、原稿の背景を読み取っている間はゴミにより発生するノイズは主走査方向エッジとして検出される。逆に、白色のゴミが原稿台に付着していても原稿の背景を読み取っている間はゴミにより発生するノイズは主走査方向エッジとして検出されないが、黒ベタの領域を読み取っている間はゴミにより発生するノイズは主走査方向エッジとして検出される。この場合、検出される主走査方向エッジは、その端で画素値の変化が少ないので、グラデーション領域が検出されない。このため、Rデータ、GデータおよびBデータの1のデータのみから主走査方向エッジが検出された場合、検出された主走査方向エッジの周辺の領域に副走査方向に画素値が変化する副走査方向エッジが検出されることを条件に、主走査方向エッジをノイズとする。これにより、原稿を読取った画像から原稿台に存在するゴミを読み取って発生するノイズを検出する精度をさらに向上させることができる。   When the document has a white background and a black solid area, the boundary between the document background and the black solid area is detected as an edge in the sub-scanning direction. Even if black dust adheres to the platen, noise generated by dust is not detected as an edge in the main scanning direction while scanning the black solid area of the document, but dust is detected while scanning the background of the document. The generated noise is detected as an edge in the main scanning direction. Conversely, even if white dust adheres to the platen, noise generated by dust is not detected as an edge in the main scanning direction while scanning the background of the document, but dust is detected while scanning a black solid area. Is detected as an edge in the main scanning direction. In this case, since the detected edge in the main scanning direction has little change in the pixel value at the end, the gradation area is not detected. Therefore, when an edge in the main scanning direction is detected from only one of R data, G data, and B data, the sub scanning in which the pixel value changes in the sub scanning direction in a region around the detected edge in the main scanning direction. The edge in the main scanning direction is set as noise on the condition that the direction edge is detected. Thereby, it is possible to further improve the accuracy of detecting noise generated by reading dust existing on the document table from an image obtained by reading the document.

なお、本実施の形態における画像読取装置10では、第2明度差検出部302R,302G,302Bを設けるようにしたが、これらを省略するようにしても良い。この場合には、第1明度差検出部301R,301G,301Bから検出結果拡張処理部303R,303G,303Bに第1特徴画素を「1」とする論理データが出力され、検出結果拡張処理部303R,303G,303Bで第1特長画素が拡張される。そして、第1特徴画素であって、他のデータで拡張した第1特徴画素でない画素がノイズ画素として検出される。   In the image reading apparatus 10 according to the present embodiment, the second brightness difference detection units 302R, 302G, and 302B are provided. However, these may be omitted. In this case, logical data with the first feature pixel being “1” is output from the first brightness difference detection units 301R, 301G, and 301B to the detection result extension processing units 303R, 303G, and 303B, and the detection result extension processing unit 303R , 303G, 303B, the first feature pixel is expanded. Then, a pixel that is the first feature pixel and is not the first feature pixel expanded with other data is detected as a noise pixel.

また、本実施の形態においては、読取部213を本体部103に固定して原稿を走査する例を示したが、読取部213を移動させて原稿を走査する場合にも適用することができる。例えば、上部規制板を白色または黒色の単色にしておき、読取部213または光源206、反射ミラー209および反射部材208を副走査方向に移動させて原稿を走査する。この走査中に原稿台205を副走査方向に振動させることにより、原稿台205に付着したゴミを検出することができる。   In this embodiment, the example in which the reading unit 213 is fixed to the main body unit 103 and the document is scanned is shown. However, the present invention can also be applied to the case where the reading unit 213 is moved to scan the document. For example, the upper regulating plate is made white or black, and the document is scanned by moving the reading unit 213 or the light source 206, the reflection mirror 209, and the reflection member 208 in the sub-scanning direction. By vibrating the document table 205 in the sub-scanning direction during this scanning, dust adhering to the document table 205 can be detected.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明の実施の形態の1つにおける画像読取装置を備えたMFPの斜視図である。1 is a perspective view of an MFP including an image reading apparatus according to one embodiment of the present invention. 画像読取装置の内部構成の概略を示す図である。2 is a diagram illustrating an outline of an internal configuration of an image reading apparatus. FIG. 原稿台を振動させるための機構を示す斜視図である。It is a perspective view which shows the mechanism for vibrating an original table. ライン間補正を説明するための図である。It is a figure for demonstrating correction | amendment between lines. 原稿を読取って得られる画像データから原稿台に付着したゴミにより発生するノイズを検出する原理を説明するための図である。It is a figure for demonstrating the principle which detects the noise which generate | occur | produces with the dust adhering to a document stand from the image data obtained by reading a document. 原稿台を裏面から見た平面図である。FIG. 3 is a plan view of the document table viewed from the back side. 読取部が読取る原稿台205上の読取領域を示す図である。FIG. 6 is a diagram illustrating a reading area on a document table 205 read by a reading unit. 本実施の形態における画像読取装置の画像処理部の構成を示すブロック図である。3 is a block diagram illustrating a configuration of an image processing unit of the image reading apparatus according to the present embodiment. FIG. ライン間補正後のRGBデータの一例を示す図である。It is a figure which shows an example of the RGB data after correction | amendment between lines. 本実施の形態における画像読取装置のノイズ検出処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the noise detection process part of the image reading apparatus in this Embodiment. エッジ抽出フィルタの一例を示す図である。It is a figure which shows an example of an edge extraction filter. グラデーション検出部の機能の概略を示す機能ブロック図である。It is a functional block diagram which shows the outline of the function of a gradation detection part. 微分比較フィルタの一例を示す図である。It is a figure which shows an example of a differential comparison filter. 背景エッジ領域を検出する原理を説明するための図である。It is a figure for demonstrating the principle which detects a background edge area | region. 背景エッジ検出フィルタの一例を示す図である。It is a figure which shows an example of a background edge detection filter. 変形例におけるグラデーション検出部の詳細な構成を示す機能ブロック図である。It is a functional block diagram which shows the detailed structure of the gradation detection part in a modification. 後端グラデーション検出部322Rの機能の概略を示す機能ブロック図である。It is a functional block diagram which shows the outline of the function of the rear end gradation detection part 322R. 微分比較フィルタの一例を示す別の図である。It is another figure which shows an example of a differential comparison filter. 変形例における背景エッジ検出部の詳細な構成を示す機能ブロック図である。It is a functional block diagram which shows the detailed structure of the background edge detection part in a modification.

符号の説明Explanation of symbols

10 画像読取装置、20 画像形成装置、103 本体部、110 画像読取装置、201 タイミングローラ対、202 ローラ対、203 上部規制板、205 原稿台、206 光源、207 通紙ガイド、208 反射部材、209 反射ミラー、211 レンズ、213 読取部、213R,213G,213B ラインセンサ、215 画像処理部、217 モータ制御部、219 モータ、251 A/D変換部、253 シェーディング補正部、255 ライン間補正部、257 色収差補正部、259 ノイズ検出処理部、260 ノイズ補正部、261 プリンタインターフェース、263 制御部、265 位置検出部、301R,301G,301B 第1明度差検出部、302R,302G,302B 第2明度差検出部、303R,303G,303B 検出結果拡張処理部、311R,311G,311B グラデーション検出部、312R,312G,312B 背景エッジ検出部、315R,315G,315B 判定部、316R,316G,316B 検出エリア拡張処理部、321R 先端グラデーション検出部、322R 後端グラデーション検出部、323R,325R ノイズ検出許可領域決定部、324R 先端背景エッジ検出部。   DESCRIPTION OF SYMBOLS 10 Image reading apparatus, 20 Image forming apparatus, 103 Main body part, 110 Image reading apparatus, 201 Timing roller pair, 202 Roller pair, 203 Upper restriction plate, 205 Original stand, 206 Light source, 207 Paper passing guide, 208 Reflecting member, 209 Reflection mirror, 211 lens, 213 reading unit, 213R, 213G, 213B line sensor, 215 image processing unit, 217 motor control unit, 219 motor, 251 A / D conversion unit, 253 shading correction unit, 255 interline correction unit, 257 Chromatic aberration correction unit, 259 Noise detection processing unit, 260 Noise correction unit, 261 Printer interface, 263 Control unit, 265 Position detection unit, 301R, 301G, 301B First brightness difference detection unit, 302R, 302G, 302B Second brightness difference detection Part, 303R , 303G, 303B detection result expansion processing unit, 311R, 311G, 311B gradation detection unit, 312R, 312G, 312B background edge detection unit, 315R, 315G, 315B determination unit, 316R, 316G, 316B detection area expansion processing unit, 321R tip Gradation detection unit, 322R Rear end gradation detection unit, 323R, 325R Noise detection permission area determination unit, 324R Front end background edge detection unit.

Claims (8)

分光感度が互いに異なるフィルタを有し、副走査方向に距離を隔てて予め定められた順に配置され、原稿を副走査方向に走査する複数のラインセンサと、
原稿と前記複数のラインセンサとの間に設けられた原稿台と、
原稿と前記複数のラインセンサとの相対速度と異なる相対速度で前記原稿台を前記複数のラインセンサに相対して移動させる移動手段と、
前記複数のラインセンサが出力する複数のデータを原稿の同じ位置を読取った画素となるように同期させるライン間補正手段と、
前記ライン間補正手段から同期した前記複数のデータがライン単位で順に入力されるノイズ画素検出手段とを備え、
前記ノイズ画素検出手段は、前記複数のデータそれぞれから主走査方向に画素値が変化する主走査方向エッジを検出する主走査方向エッジ検出手段と、
前記複数のデータそれぞれから副走査方向に連続する所定数の画素の画素値が変化するグラデーション領域を検出するグラデーション検出部と、
前記主走査方向エッジ検出手段により前記複数のデータの1のデータのみから検出された前記主走査方向エッジであって、前記グラデーション検出手段により前記主走査方向エッジが検出されたデータから検出された第1グラデーション領域を含む前記主走査方向エッジをノイズとする第1ノイズ検出手段とを含む、画像読取装置。
A plurality of line sensors having filters having different spectral sensitivities, arranged in a predetermined order at a distance in the sub-scanning direction, and scanning a document in the sub-scanning direction;
A document table provided between the document and the plurality of line sensors;
Moving means for moving the document table relative to the plurality of line sensors at a relative speed different from a relative speed between the document and the plurality of line sensors;
Interline correction means for synchronizing a plurality of data output by the plurality of line sensors so as to become pixels obtained by reading the same position of the document;
A plurality of data synchronized from the inter-line correction means, noise pixel detection means sequentially input in line units,
The noise pixel detecting means detects main edge in the main scanning direction in which the pixel value changes in the main scanning direction from each of the plurality of data, and
A gradation detection unit that detects a gradation region in which the pixel values of a predetermined number of pixels that are continuous in the sub-scanning direction change from each of the plurality of data;
The main scanning direction edge detected from only one of the plurality of data by the main scanning direction edge detecting means, and the gradation detecting means detects the main scanning direction edge from the data detected by the gradation detecting means. An image reading apparatus comprising: a first noise detecting unit that uses the edge in the main scanning direction including one gradation area as noise.
前記第1ノイズ検出手段は、前記グラデーション検出手段により前記主走査方向エッジが検出されたデータから検出された第1グラデーション領域の属するライン以降の前記主走査方向エッジをノイズとする、請求項1に記載の画像読取装置。   2. The first noise detection unit according to claim 1, wherein the main scanning direction edge after the line to which the first gradation area belongs detected from the data in which the main scanning direction edge is detected by the gradation detection unit is used as noise. The image reading apparatus described. 前記第1ノイズ検出手段は、前記グラデーション検出手段により前記主走査方向エッジが検出されたデータから検出された第1グラデーション領域の属するライン以降に、第2グラデーション領域が検出されることを条件に、前記第1グラデーション領域の属するライン以降で前記第2グラデーション領域の属するライン以前の前記主走査方向エッジをノイズとする、請求項1に記載の画像読取装置。   The first noise detecting means is provided on the condition that the second gradation area is detected after the line to which the first gradation area is detected from the data in which the edge in the main scanning direction is detected by the gradation detecting means. The image reading apparatus according to claim 1, wherein the main scanning direction edge after the line to which the first gradation area belongs and before the line to which the second gradation area belongs is defined as noise. 前記第1グラデーション領域と前記第2グラデーション領域とは、画素値が変化する方向が逆である、請求項3に記載の画像読取装置。   The image reading apparatus according to claim 3, wherein the first gradation area and the second gradation area have opposite directions in which pixel values change. 前記ノイズ画素検出手段は、前記主走査方向エッジ検出手段により検出された前記主走査方向エッジの周辺の領域に副走査方向に画素値が変化する副走査方向エッジを検出する副走査方向エッジ検出手段と、
前記主走査方向エッジ検出手段により複数のデータの1のデータのみから前記主走査方向エッジが検出された場合、前記副走査方向エッジ検出手段により前記副走査方向エッジが検出されることを条件に、前記主走査方向エッジをノイズとする第2ノイズ検出手段とをさらに含む、請求項1に記載の画像読取装置。
The noise pixel detecting unit detects a sub-scanning direction edge detecting unit that detects a sub-scanning direction edge in which a pixel value changes in a sub-scanning direction in a region around the main scanning direction edge detected by the main scanning direction edge detecting unit. When,
When the main scanning direction edge is detected from only one data of the plurality of data by the main scanning direction edge detecting means, on condition that the sub scanning direction edge is detected by the sub scanning direction edge detecting means. The image reading apparatus according to claim 1, further comprising a second noise detecting unit that uses the edge in the main scanning direction as noise.
前記第2ノイズ検出手段は、前記副走査方向エッジ検出手段により検出された前記副走査方向エッジの属するライン以降の前記主走査方向エッジをノイズとする、請求項5に記載の画像読取装置。   The image reading apparatus according to claim 5, wherein the second noise detecting unit uses the main scanning direction edge subsequent to the line to which the sub-scanning direction edge detected by the sub-scanning direction edge detecting unit belongs as noise. 前記第2ノイズ検出手段は、前記グラデーション検出手段により前記副走査方向エッジの属するライン以降に第3グラデーション領域が検出されることを条件に、前記副走査方向エッジの属するライン以降で前記第3グラデーション領域の属するライン以前の前記主走査方向エッジをノイズとする、請求項5に記載の画像読取装置。   The second noise detecting means may detect the third gradation after the line to which the edge in the sub-scanning direction belongs, provided that the third gradation area is detected after the line to which the edge in the sub-scanning direction belongs by the gradation detecting means. The image reading apparatus according to claim 5, wherein the edge in the main scanning direction before the line to which the region belongs is defined as noise. 前記第2ノイズ検出手段は、前記複数のデータのうち前記主走査方向エッジ検出手段により前記主走査方向エッジが検出された1のデータとは別のデータに、前記主走査方向エッジのラインに副走査方向に画素値が変化する副走査方向エッジが検出されることをさらに条件として、前記主走査方向エッジをノイズとする、請求項5に記載の画像読取装置。   The second noise detecting means may include sub-data in the main scanning direction edge line that is different from the one data in which the main scanning direction edge is detected by the main scanning direction edge detecting means among the plurality of data. The image reading apparatus according to claim 5, wherein the edge in the main scanning direction is set as noise on the condition that a sub-scanning direction edge whose pixel value changes in the scanning direction is detected.
JP2005317820A 2005-10-31 2005-10-31 Image reading device Expired - Fee Related JP4404042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005317820A JP4404042B2 (en) 2005-10-31 2005-10-31 Image reading device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005317820A JP4404042B2 (en) 2005-10-31 2005-10-31 Image reading device

Publications (2)

Publication Number Publication Date
JP2007129279A JP2007129279A (en) 2007-05-24
JP4404042B2 true JP4404042B2 (en) 2010-01-27

Family

ID=38151604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005317820A Expired - Fee Related JP4404042B2 (en) 2005-10-31 2005-10-31 Image reading device

Country Status (1)

Country Link
JP (1) JP4404042B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5225954B2 (en) * 2009-08-28 2013-07-03 京セラドキュメントソリューションズ株式会社 Image reading device
JP6111897B2 (en) * 2013-06-28 2017-04-12 ブラザー工業株式会社 Image reading device

Also Published As

Publication number Publication date
JP2007129279A (en) 2007-05-24

Similar Documents

Publication Publication Date Title
US7969627B2 (en) Image reading apparatus for detecting noise in image data
US7973986B2 (en) Image reading apparatus for detecting noise in image data
JP4123267B2 (en) Image processing device
JP4244899B2 (en) Image reading device
US7782506B2 (en) Image reading apparatus capable of detecting noise
JP4111181B2 (en) Image reading device
JP4244898B2 (en) Image reading device
JP4265517B2 (en) Image reading device
JP3882803B2 (en) Image processing apparatus and image processing method
JP4305351B2 (en) Image reading device
JP4165488B2 (en) Image reading device
JP4404042B2 (en) Image reading device
JP4375484B2 (en) Image processing device
JP4277778B2 (en) Image reading device
JP4353045B2 (en) Image reading device
JP4285385B2 (en) Image reading device
JP4285384B2 (en) Image reading device
JP2006101359A (en) Image reading apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091013

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091026

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees