JP2006101288A - Image reading apparatus - Google Patents

Image reading apparatus Download PDF

Info

Publication number
JP2006101288A
JP2006101288A JP2004286076A JP2004286076A JP2006101288A JP 2006101288 A JP2006101288 A JP 2006101288A JP 2004286076 A JP2004286076 A JP 2004286076A JP 2004286076 A JP2004286076 A JP 2004286076A JP 2006101288 A JP2006101288 A JP 2006101288A
Authority
JP
Japan
Prior art keywords
pixel
noise
feature
document table
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004286076A
Other languages
Japanese (ja)
Other versions
JP4277778B2 (en
Inventor
Kazuhiro Ishiguro
和宏 石黒
Masaaki Saka
匡晃 坂
Takamoto Nabeshima
孝元 鍋島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2004286076A priority Critical patent/JP4277778B2/en
Publication of JP2006101288A publication Critical patent/JP2006101288A/en
Application granted granted Critical
Publication of JP4277778B2 publication Critical patent/JP4277778B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image reading apparatus for decreasing the noise generated in images due to dust found on original platen. <P>SOLUTION: The image reading apparatus includes line sensors; an original platen; a mobile mechanism for moving the original platen with respect to the line sensors; a dust size detection section for moving the original platen over an entire movable range of the original platen, before reading the original to extract a dust size, while moving the original platen; a degree of dirt calculation section for determining the degree of dirt by each relative position of the original platen, on the basis of the extracted dust size and the relative position of the original platen; a noise detection processing section for detecting noise, while the line sensors scan the carried original; and a selector 313 for detecting the relative position of the original platen, when the line sensors read the original, with respect to the line sensors and selecting the output of a first detection section 310 or the output of a second detection section 320, in response to the degree of dirt corresponding to the detected relative position. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像読取装置に関し、特に、原稿を搬送しながら読取る画像読取装置に関する。   The present invention relates to an image reading apparatus, and more particularly to an image reading apparatus that reads an original while conveying the original.

従来から、デジタル複写機等の画像読取装置においては、いわゆる流し撮りという技術が用いられている。この技術は、固定されたラインセンサに対してラインセンサと直交する副走査方向に原稿を搬送させることにより原稿を読取るというものである。   Conventionally, a so-called panning technique has been used in an image reading apparatus such as a digital copying machine. In this technique, a document is read by conveying the document in a sub-scanning direction orthogonal to the line sensor with respect to a fixed line sensor.

この画像読取装置では、搬送される原稿の読取位置を固定させるために、原稿とラインセンサとの間に透明な原稿台が設けられている。原稿から反射した光は原稿台を介してラインセンサで受光される。   In this image reading apparatus, a transparent document table is provided between the document and the line sensor in order to fix the reading position of the conveyed document. Light reflected from the document is received by the line sensor via the document table.

したがって、ゴミ、紙粉、埃、傷等の異物(以下、これらを総称して「ゴミ」という。)が、原稿台の読取位置に付着しているような場合は、ラインセンサでは搬送される原稿を読取っている間中、常にゴミを読取ることになる。そのため、出力される画像に副走査方向の筋状のノイズが発生するという問題が生じていた。   Therefore, when foreign matters such as dust, paper dust, dust, and scratches (hereinafter collectively referred to as “dust”) adhere to the reading position of the document table, they are conveyed by the line sensor. While reading a document, dust is always read. Therefore, there has been a problem that streak noise in the sub-scanning direction is generated in the output image.

原稿台ガラスの読取位置に付着したゴミが原因で発生するノイズを、読取った画像から検出するために、原稿台を主走査方向に振動させながら搬送される原稿を読取る画像読取装置が特開2000−278485号公報(特許文献1)に記載されている。この画像読取装置は、画像に現れる特定の波形を、ゴミを読取ったことにより発生したノイズとして検出する。   An image reading apparatus that reads a document conveyed while vibrating the document table in the main scanning direction in order to detect noise generated due to dust adhering to the reading position of the document table glass from the read image -278485 (Patent Document 1). This image reading apparatus detects a specific waveform appearing in an image as noise generated by reading dust.

しかしながら、特開2000−278485号公報に記載の画像読取装置は、画像に現れる特定の波形をパターンマッチングで検出しているため、原稿にそのようなパターンが描かれている場合に、誤って検出してしまうといった問題があった。
特開2000−278485号公報
However, since the image reading apparatus described in Japanese Patent Laid-Open No. 2000-278485 detects a specific waveform appearing in an image by pattern matching, it is erroneously detected when such a pattern is drawn on a document. There was a problem such as.
JP 2000-278485 A

この発明は上述した問題点を解決するためになされたもので、原稿台に存在するゴミにより画像に発生するノイズを検出する精度を向上させた画像読取装置を提供することである。   The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide an image reading apparatus with improved accuracy in detecting noise generated in an image due to dust existing on a document table.

上述した目的を達成するためにこの発明のある局面によれば、画象読取装置は、原稿を副走査方向に走査するためのラインセンサと、原稿の搬送経路の一部を形成する原稿台と、原稿台をラインセンサに相対して移動させる移動手段と、原稿台のラインセンサに対する相対位置を検出する位置検出手段と、原稿を読取る前の段階で原稿台の移動可能な範囲全体に渡って原稿台を移動させて、原稿台を移動させている間にラインセンサから出力されるデータから所定の特徴を有する特徴画素を抽出する抽出手段と、抽出された特徴画素と、該特徴画素が抽出されたデータをラインセンサで読取った時点の原稿台の相対位置とに基づき、原稿台の相対位置ごとの汚れ度を決定する汚れ度決定手段と、原稿を搬送するための原稿搬送手段と、原稿搬送手段により搬送される原稿をラインセンサで走査する間、ラインセンサが出力するデータからノイズを検出するノイズ検出手段とを備え、原稿搬送手段により搬送される原稿をラインセンサで走査する間、移動手段は、原稿台を移動させ、位置検出手段は、ラインセンサが原稿を読取った時点における原稿台のラインセンサに対する相対位置を検出し、ノイズ検出手段は、検出された相対位置に対応する汚れ度に応じた精度でラインセンサが出力するデータからノイズを検出する。   In order to achieve the above-described object, according to one aspect of the present invention, an image reading apparatus includes a line sensor for scanning a document in the sub-scanning direction, a document table that forms a part of a document transport path, and A moving means for moving the document table relative to the line sensor; a position detecting means for detecting a relative position of the document table with respect to the line sensor; and an entire movable range of the document table before reading the document. Extraction means for extracting a feature pixel having a predetermined feature from data output from the line sensor while moving the document table, and the extracted feature pixel and the feature pixel are extracted On the basis of the relative position of the document table at the time when the read data is read by the line sensor, a contamination level determination unit for determining the contamination level for each relative position of the document table, a document conveyance unit for conveying the document, and the document Carrying Noise detecting means for detecting noise from data output by the line sensor while scanning the original conveyed by the means, and moving means while scanning the original conveyed by the original conveying means by the line sensor. Moves the document table, the position detection unit detects the relative position of the document table to the line sensor at the time when the line sensor reads the document, and the noise detection unit detects the degree of contamination corresponding to the detected relative position. Noise is detected from the data output by the line sensor with appropriate accuracy.

この発明に従えば、原稿台がラインセンサに相対して移動され、原稿台のラインセンサに対する相対位置が検出される。原稿を読取る前の段階で原稿台の移動可能な範囲全体に渡って原稿台を移動させて、原稿台を移動させている間にラインセンサから出力されるデータから所定の特徴を有する特徴画素が抽出され、抽出された特徴画素と、該特徴画素が抽出されたデータをラインセンサで読取った時点の原稿台の相対位置とに基づき、原稿台の相対位置ごとの汚れ度が決定される。そして、原稿搬送手段により搬送される原稿をラインセンサで走査する間、ラインセンサが原稿を読取った時点における原稿台のラインセンサに対する相対位置を検出し、検出された相対位置に対応する汚れ度に応じた精度でラインセンサが出力するデータからノイズが検出される。このため、汚れ度が大きいほどデータからノイズが検出される確率が高いので検出精度を上げて誤検出を減少させ、ノイズが検出される確立が低い場合には、検出精度を下げて検出率を高くすることができる。その結果、誤検出を少なくしつつ、検出率を向上させることができる。   According to the present invention, the document table is moved relative to the line sensor, and the relative position of the document table to the line sensor is detected. A feature pixel having a predetermined feature is obtained from data output from the line sensor while the document table is moved by moving the document table over the entire movable range of the document table before reading the document. Based on the extracted feature pixels and the relative position of the document table at the time of reading the extracted data of the feature pixels by the line sensor, the degree of contamination for each relative position of the document table is determined. Then, while the original conveyed by the original conveying means is scanned by the line sensor, the relative position of the original platen with respect to the line sensor at the time when the line sensor reads the original is detected, and the degree of contamination corresponding to the detected relative position is detected. Noise is detected from the data output by the line sensor with appropriate accuracy. For this reason, the greater the degree of contamination, the higher the probability that noise will be detected from the data.Therefore, the detection accuracy is increased to reduce false detections.If the probability that noise is detected is low, the detection accuracy is lowered to reduce the detection rate. Can be high. As a result, the detection rate can be improved while reducing erroneous detection.

好ましくは、ノイズ検出手段は、決定された相対位置ごとの汚れ度に基づいて、原稿台のゴミの少ない特定領域を決定する領域決定手段と、ラインセンサが出力するデータからノイズを検出する第1検出手段と、第1検出手段に比較して低い精度で、ラインセンサが出力するデータからノイズを検出する第2検出手段と、検出された相対位置が特定領域であるか否かに応じて、第1検出手段の出力と第2検出手段の出力とを切換える切換手段とを含む。   Preferably, the noise detection unit is a region determination unit that determines a specific region with a small amount of dust on the document table based on the determined degree of contamination for each relative position, and a first that detects noise from data output by the line sensor. According to the detection means, the second detection means for detecting noise from the data output by the line sensor with lower accuracy than the first detection means, and whether or not the detected relative position is a specific region, Switching means for switching between the output of the first detection means and the output of the second detection means.

好ましくは、切換手段は、検出された相対位置が特定領域の場合に第1検出手段の出力を選択し、検出された相対位置が特定領域でない場合に第2検出手段の出力を選択する。   Preferably, the switching unit selects the output of the first detection unit when the detected relative position is in the specific region, and selects the output of the second detection unit when the detected relative position is not the specific region.

好ましくは、ラインセンサは、副走査方向に距離を隔てて複数が配置され、第1検出手段は、複数のラインセンサが出力する複数のデータそれぞれから所定の特徴を有する第1のレベルの第1特徴画素を抽出する第1抽出手段と、複数のデータ間で原稿の同じ位置を読取った画素を比較し、複数のデータのうち1のデータから抽出された第1特徴画素を、他の全てのデータでは第1特徴画素でないことを条件にノイズ画素として検出する第1ノイズ画素検出手段とを含み、第2検出手段は、複数のラインセンサが出力する複数のデータそれぞれから所定の特徴を有する第2のレベルの第2特徴画素を抽出する第2抽出手段と、複数のデータ間で原稿の同じ位置を読取った画素を比較し、複数のデータのうち1のデータから抽出された第2特徴画素を、他の全てのデータでは第2特徴画素でないことを条件にノイズ画素として検出する第2ノイズ画素検出手段とを含み、第1のレベルは、第2のレベルよりも高い。   Preferably, a plurality of line sensors are arranged at a distance in the sub-scanning direction, and the first detection means has a first level first having a predetermined characteristic from each of a plurality of data output by the plurality of line sensors. The first extraction means for extracting the feature pixels is compared with the pixels obtained by reading the same position of the document between the plurality of data, and the first feature pixel extracted from one data among the plurality of data First noise pixel detection means for detecting the data as a noise pixel on condition that the data is not the first feature pixel, and the second detection means has a predetermined feature from each of the plurality of data output from the plurality of line sensors. The second extraction means for extracting the second feature pixel at the second level is compared with the pixels that read the same position of the document between the plurality of data, and the second feature extracted from one of the plurality of data The element, for all other data and a second noise pixel detection means for detecting a noise pixel on the condition that it is not a second feature pixel, the first level is higher than the second level.

好ましくは、第1抽出手段は、エッジ抽出フィルタを用いて算出された値を第1のしきい値と比較して、エッジ領域を抽出する第1エッジ抽出手段を含み、第1エッジ抽出手段により抽出されたエッジ領域に含まれる画素を第1特徴画素として抽出し、第2抽出手段は、エッジ抽出フィルタを用いて算出された値を第2のしきい値と比較して、エッジ領域を抽出する第2エッジ抽出手段を含み、第2エッジ抽出手段により抽出されたエッジ領域に含まれる画素を第2特徴画素として抽出し、第1のしきい値は、第2のしきい値よりも大きい。   Preferably, the first extraction means includes first edge extraction means for extracting an edge region by comparing a value calculated using the edge extraction filter with a first threshold, and the first edge extraction means The pixel included in the extracted edge region is extracted as a first feature pixel, and the second extraction means extracts the edge region by comparing the value calculated using the edge extraction filter with the second threshold value. A second edge extraction unit that extracts pixels included in the edge region extracted by the second edge extraction unit as second feature pixels, and the first threshold value is greater than the second threshold value. .

好ましくは、第1抽出手段は、明度の変化が少ない領域であって、周辺の領域との明度の差が第1のしきい値以上ある領域を抽出する第1領域抽出手段を含み、抽出された領域を第1特徴画素として抽出し、第2抽出手段は、明度の変化が少ない領域であって、周辺の領域との明度の差が第2のしきい値以上ある領域を抽出する第2領域抽出手段を含み、抽出された領域を第2特徴画素として抽出し、第1のしきい値は、第2のしきい値よりも大きい。   Preferably, the first extraction unit includes a first region extraction unit that extracts a region having a small change in lightness and having a lightness difference from the surrounding region equal to or greater than a first threshold value. The second extraction means extracts a region where the change in brightness is small and the difference in brightness from the surrounding region is greater than or equal to a second threshold value. An area extraction unit is included, and the extracted area is extracted as the second feature pixel, and the first threshold value is larger than the second threshold value.

好ましくは、ノイズ検出手段は、決定された相対位置ごとの汚れ度に基づいて、原稿台のゴミの少ない特定領域を決定する特定領域決定手段と、ラインセンサが出力するデータから与えられたしきい値を用いてノイズ画素を検出するノイズ画素検出手段とを含み、検出された相対位置が特定領域の場合にノイズ画素検出手段に第1のしきい値を与え、検出された相対位置が特定領域でない場合にノイズ画素検出手段に第1のしきい値よりも小さい第2のしきい値を与える制御手段をさらに備える。   Preferably, the noise detection means is based on the determined degree of contamination for each relative position, the specific area determination means for determining a specific area with less dust on the document table, and a threshold given from the data output from the line sensor. Noise pixel detecting means for detecting a noise pixel using a value, and when the detected relative position is a specific area, a first threshold value is given to the noise pixel detecting means, and the detected relative position is the specific area If not, it further comprises control means for giving the noise pixel detection means a second threshold value smaller than the first threshold value.

好ましくは、ラインセンサは、副走査方向に距離を隔てて複数が配置され、ノイズ画素検出手段は、複数のラインセンサが出力するデータそれぞれから、エッジ抽出フィルタを用いて算出された値を与えられたしきい値と比較してエッジ領域を抽出し、抽出されたエッジ領域に含まれる画素を特徴画素として抽出するエッジ抽出手段を含み、複数のデータ間で原稿の同じ位置を読取った画素を比較し、複数のデータのうち1のデータから抽出された特徴画素を、他の全てのデータでは特徴画素でないことを条件にノイズ画素として検出する。   Preferably, a plurality of line sensors are arranged at a distance in the sub-scanning direction, and the noise pixel detection unit is given a value calculated using an edge extraction filter from each of data output from the plurality of line sensors. Edge extraction means to extract the edge area compared to the threshold value, and extract the pixels included in the extracted edge area as feature pixels, and compare the pixels that read the same position of the document between multiple data Then, a feature pixel extracted from one data among a plurality of data is detected as a noise pixel on condition that it is not a feature pixel in all other data.

好ましくは、ラインセンサは、副走査方向に距離を隔てて複数が配置され、ノイズ画素検出手段は、ノイズ画素検出手段は、複数のラインセンサが出力するデータそれぞれから、明度の変化が少ない領域であって、周辺の領域との明度の差が与えられたしきい値以上ある領域を抽出し、抽出された領域に含まれる画素を特徴画素として抽出する領域抽出手段を含み、複数のデータ間で原稿の同じ位置を読取った画素を比較し、複数のデータのうち1のデータから抽出された特徴画素を、他の全てのデータでは特徴画素でないことを条件にノイズ画素として検出する。   Preferably, a plurality of line sensors are arranged at a distance in the sub-scanning direction, and the noise pixel detecting means is a region where the brightness change is small from each of the data output from the plurality of line sensors. A region extraction unit that extracts a region having a brightness difference from a surrounding region that is equal to or greater than a given threshold value, and extracts pixels included in the extracted region as a feature pixel; Pixels read at the same position on the document are compared, and a feature pixel extracted from one of a plurality of data is detected as a noise pixel on condition that it is not a feature pixel in all other data.

好ましくは、汚れ度決定手段は、原稿台の相対位置ごとに特徴画素の連続する数を検出するサイズ検出手段を含む。   Preferably, the contamination degree determination unit includes a size detection unit that detects a continuous number of feature pixels for each relative position of the document table.

好ましくは、汚れ度決定手段は、原稿台の相対位置ごとに特徴画素の明度を検出する明度検出手段を含む。 好ましくは、ラインセンサは、副走査方向に距離を隔てて複数が配置され、汚れ度決定手段は、抽出された特徴画素と、該特徴画素が抽出されたデータを複数のラインセンサで読取った時点の原稿台の相対位置とに基づき、原稿台の相対位置ごとに特徴画素の連続する数を決定するサイズ決定手段を含み、ノイズ検出手段は、決定された相対位置ごとのサイズに基づいて、原稿台のゴミの少ない特定領域を決定する特定領域決定手段と、抽出するエッジ領域のサイズに対応して複数のエッジ抽出フィルタを有し、複数のエッジ抽出フィルタの全てまたはいずれか1つを用いて算出された値をしきい値と比較してエッジ領域を抽出し、抽出されたエッジ領域に含まれる画素を特徴画素として抽出するエッジ抽出手段と、複数のデータ間で原稿の同じ位置を読取った画素を比較し、複数のデータのうち1のデータから抽出された特徴画素を、他の全てのデータでは特徴画素でないことを条件にノイズ画素として検出するノイズ画素検出手段とを含み、検出された相対位置が特定領域の場合にエッジ抽出手段に全てのエッジ抽出フィルタを用いてエッジ領域を抽出させ、検出された相対位置が特定領域でない場合には、検出された相対位置で特徴画素の連続する数に対応するエッジ抽出フィルタを用いてエッジ領域を抽出させる制御手段をさらに備える。   Preferably, the stain level determination unit includes a brightness detection unit that detects the brightness of the feature pixel for each relative position of the document table. Preferably, a plurality of line sensors are arranged at a distance in the sub-scanning direction, and the contamination degree determination unit reads the extracted feature pixels and the data from which the feature pixels are extracted by the plurality of line sensors. Size determining means for determining the number of consecutive feature pixels for each relative position of the document table based on the relative position of the document table, and the noise detecting means is configured to determine whether the document is based on the determined size for each relative position. Specific area determining means for determining a specific area with a small amount of dust and a plurality of edge extraction filters corresponding to the size of the edge area to be extracted, and using all or any one of the plurality of edge extraction filters An edge area is extracted by comparing the calculated value with a threshold value, and an edge extraction means for extracting a pixel included in the extracted edge area as a feature pixel; Noise pixel detection means for comparing pixels that have read the same position and detecting a feature pixel extracted from one of a plurality of data as a noise pixel on the condition that it is not a feature pixel in all other data In the case where the detected relative position is a specific area, the edge extraction means is used to extract the edge area using all edge extraction filters, and when the detected relative position is not the specific area, the detected relative position is Control means for extracting an edge region using an edge extraction filter corresponding to the consecutive number of feature pixels is further provided.

好ましくは、ラインセンサは、副走査方向に距離を隔てて複数が配置され、汚れ度決定手段は、抽出された特徴画素と、該特徴画素が抽出されたデータを複数のラインセンサで読取った時点の原稿台の相対位置とに基づき、原稿台の相対位置ごとに特徴画素の連続する数を決定するサイズ決定手段を含み、ノイズ検出手段は、抽出するエッジ領域のサイズに対応して複数のエッジ抽出フィルタを有し、検出された相対位置で特徴画素の連続する数に対応するエッジ抽出フィルタを用いて算出された値をしきい値と比較してエッジ領域を抽出し、抽出されたエッジ領域に含まれる画素を特徴画素として抽出するエッジ抽出手段と、複数のデータ間で原稿の同じ位置を読取った画素を比較し、複数のデータのうち1のデータから抽出された特徴画素を、他の全てのデータでは特徴画素でないことを条件にノイズ画素として検出するノイズ画素検出手段とを含む。   Preferably, a plurality of line sensors are arranged at a distance in the sub-scanning direction, and the contamination degree determination unit reads the extracted feature pixels and the data from which the feature pixels are extracted by the plurality of line sensors. Size determining means for determining the number of consecutive feature pixels for each relative position of the document table based on the relative position of the document table, and the noise detection means includes a plurality of edges corresponding to the size of the edge region to be extracted. The extracted edge region has an extraction filter, compares the value calculated using the edge extraction filter corresponding to the consecutive number of feature pixels at the detected relative position with a threshold value, and extracts the edge region The edge extraction means for extracting the pixels included in the image as feature pixels and the pixels obtained by reading the same position of the document between the plurality of data are compared, and the feature image extracted from one of the plurality of data And for all other data and a noise pixel detection means for detecting a noise pixel on the condition that it is not a feature pixel.

以下、図面を参照しつつ本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本発明の実施の形態の1つにおける画像読取装置を備えたMFP(Multi Function Peripheral)の斜視図である。図1を参照して、MFPは、原稿画像を読取るための画像読取装置10と、画像読取装置10の下部に設けられた画像形成装置20とを含む。MFPは、画像読取装置10で読取られた画像を紙などの記録媒体に形成する。また、MFPは、フアクシミリ装置、ローカルエリアネットワーク(LAN)、公衆回線などのネットワークと接続するための通信インターフェースを備える。   FIG. 1 is a perspective view of an MFP (Multi Function Peripheral) provided with an image reading apparatus according to one embodiment of the present invention. Referring to FIG. 1, the MFP includes an image reading device 10 for reading a document image and an image forming device 20 provided at a lower portion of the image reading device 10. The MFP forms an image read by the image reading apparatus 10 on a recording medium such as paper. The MFP also includes a communication interface for connecting to a network such as a facsimile device, a local area network (LAN), or a public line.

図2は画像読取装置10の内部構成の概略を示す図である。画像読取装置10は、原稿を自動的に原稿読取り位置に搬送するための自動原稿搬送装置(ADF)101と、本体部103とを含む。自動原稿搬送装置101は、原稿読取位置付近において原稿の搬送をガイドするための上部規制板203と、原稿を原稿読取り位置に搬送するためのタイミングローラ対201と、読取り位置を通過した原稿を搬送するためのローラ対202とを備える。   FIG. 2 is a diagram showing an outline of the internal configuration of the image reading apparatus 10. The image reading apparatus 10 includes an automatic document feeder (ADF) 101 for automatically feeding a document to a document reading position, and a main body 103. The automatic document feeder 101 conveys a document that has passed through the reading position, an upper regulating plate 203 for guiding the conveyance of the document in the vicinity of the document reading position, a pair of timing rollers 201 for conveying the document to the document reading position, and the like. And a roller pair 202 for the purpose.

本体部103は、透明な部材から構成された原稿台205と、原稿の搬送経路の一部を形成する通紙ガイド207と、原稿を読取り位置で照射するための光源206と、光源からの光を反射させる反射部材208と、3つのラインセンサが副走査方向に配列された読取部213と、原稿からの反射光を反射して読取部213に導くための反射ミラー209と、反射ミラー209からの反射光を読取部213上に結像させるためのレンズ211と、読取部213が出力する電気信号を処理するための画像処理部215と、原稿台205を移動させるためのモータ219と、画像処理部215からの制御信号に基づいてモータ219の駆動を制御するモータ制御部217とを含む。   The main body 103 includes a document table 205 made of a transparent member, a paper passing guide 207 that forms part of the document transport path, a light source 206 for irradiating the document at a reading position, and light from the light source. A reflection member 208 that reflects the light beam, a reading unit 213 in which three line sensors are arranged in the sub-scanning direction, a reflection mirror 209 that reflects reflected light from the document and guides it to the reading unit 213, and the reflection mirror 209. A lens 211 for forming an image of the reflected light on the reading unit 213, an image processing unit 215 for processing an electric signal output from the reading unit 213, a motor 219 for moving the document table 205, and an image A motor control unit 217 that controls driving of the motor 219 based on a control signal from the processing unit 215.

原稿200は、タイミングローラ対201により、原稿台205と上部規制板203との間を矢印D1の方向に搬送される。そして、搬送されながら読取位置Lにおいて、読取部213によりその画像が逐次読取られる。自動原稿搬送装置101によって、原稿が搬送される方向は、読取位置Lにおいて副走査方向である。画像読取動作中、原稿台205は、モータ219により矢印D2の方向に移動させられる。原稿台205の移動方向は副走査方向に実質的に平行である。   The document 200 is conveyed between the document table 205 and the upper regulating plate 203 in the direction of the arrow D1 by the timing roller pair 201. The image is sequentially read by the reading unit 213 at the reading position L while being conveyed. The direction in which the document is conveyed by the automatic document conveying device 101 is the sub-scanning direction at the reading position L. During the image reading operation, the document table 205 is moved by the motor 219 in the direction of the arrow D2. The moving direction of the document table 205 is substantially parallel to the sub-scanning direction.

上部規制板203の原稿台205側の面は、灰色の無彩色である。   The surface of the upper regulating plate 203 on the side of the document table 205 is a gray achromatic color.

読取部213は、3つのラインセンサを備える。3つのラインセンサそれぞれは、副走査方向と実質的に垂直な主走査方向に複数の光電変換素子が配列されている。3つのラインセンサそれぞれは、互いに分光感度が異なるフィルタを有し、原稿から反射した光をフィルタを介して受光する。具体的には、赤(R)、緑(G)および青(B)の各波長の光を透過するフィルタを有する。このため、赤(R)のフィルタを有するラインセンサは、原稿から反射した光のうち赤色の光の強度を示す電気信号(R信号)を出力し、緑(G)のフィルタを有するラインセンサは、原稿から反射した光のうち緑色の光の強度を示す電気信号(G信号)を出力し、青(B)のフィルタを有するラインセンサは、原稿から反射した光のうち青色の光の強度を示す電気信号(B信号)を出力する。   The reading unit 213 includes three line sensors. Each of the three line sensors has a plurality of photoelectric conversion elements arranged in a main scanning direction substantially perpendicular to the sub-scanning direction. Each of the three line sensors has filters having different spectral sensitivities, and receives light reflected from the document through the filters. Specifically, a filter that transmits light of each wavelength of red (R), green (G), and blue (B) is included. For this reason, the line sensor having a red (R) filter outputs an electric signal (R signal) indicating the intensity of red light out of the light reflected from the document, and the line sensor having a green (G) filter is The line sensor having a blue (B) filter that outputs an electric signal (G signal) indicating the intensity of green light out of the light reflected from the original, calculates the intensity of blue light out of the light reflected from the original. The electric signal (B signal) shown is output.

3つのラインセンサは、副走査方向に所定の距離を隔てて予め定められた順番で配置される。ここでは、原稿の読取ラインに換算して3ライン分の距離を隔てて原稿の搬送方向で赤、緑、青の順に配置されている。なお、ラインセンサを配置する間隔および順番は、これらに限定されるものではない。   The three line sensors are arranged in a predetermined order at a predetermined distance in the sub-scanning direction. Here, the document reading lines are arranged in the order of red, green, and blue in the document transport direction with a distance of 3 lines in terms of the document reading line. In addition, the space | interval and order which arrange | position a line sensor are not limited to these.

3つのラインセンサは、3ライン分の距離を隔てて赤、緑、青の順に配置されるので、3つのラインセンサは、同じタイミングで原稿の異なる位置で反射した光を受光する。したがって、原稿のある位置で反射した光は、まず、赤の光を受光するラインセンサで受光され、その後緑の光を受光するラインセンサで受光され、最後に青の光を受光するラインセンサで受光される。この遅れは、後述する画像処理部215で調整される。   Since the three line sensors are arranged in the order of red, green, and blue at a distance of three lines, the three line sensors receive light reflected at different positions on the document at the same timing. Therefore, the light reflected at a certain position on the document is first received by a line sensor that receives red light, then received by a line sensor that receives green light, and finally received by a line sensor that receives blue light. Received light. This delay is adjusted by an image processing unit 215 described later.

なお、本実施の形態においては、読取部213に3つのラインセンサを設けるようにしたが、4つ以上のラインセンサを設けるようにしてもよい。   In the present embodiment, the reading unit 213 is provided with three line sensors. However, four or more line sensors may be provided.

図3は、原稿台を移動させるための機構を示す斜視図である。図3を参照して、原稿台205は、原稿台ホルダ221により保持される。原稿台ホルダ221は、ガイド220により副走査方向に摺動可能に保持される。ガイド220は、画像読取装置10の本体に固定される。原稿台ホルダ221の1つの面に2つのアーム222が接合されている。アーム222の他端は円形の穴を有する。   FIG. 3 is a perspective view showing a mechanism for moving the document table. Referring to FIG. 3, document table 205 is held by document table holder 221. The document table holder 221 is held by the guide 220 so as to be slidable in the sub-scanning direction. The guide 220 is fixed to the main body of the image reading apparatus 10. Two arms 222 are joined to one surface of the document table holder 221. The other end of the arm 222 has a circular hole.

軸224には、2つのアーム222に対応する位置に2つのカム223が取付けられる。また、軸224の一端にギア225が取付けられる。ギア225は、モータ219の駆動軸とベルトで接合されたギア226と噛み合うように配置される。モータ219が回転すると、その回転がベルトを介してギア226に伝えられ、ギア226が回転する。ギア226の回転に伴って、ギア225および軸224が回転する。   Two cams 223 are attached to the shaft 224 at positions corresponding to the two arms 222. A gear 225 is attached to one end of the shaft 224. The gear 225 is disposed so as to mesh with a gear 226 joined to the drive shaft of the motor 219 with a belt. When the motor 219 rotates, the rotation is transmitted to the gear 226 via the belt, and the gear 226 rotates. As the gear 226 rotates, the gear 225 and the shaft 224 rotate.

カム223は、アーム222の円形の穴の中に配置される。このため、軸224の回転に伴う2つのカム223の回転運動が、原稿台ホルダ221の往復運動に変換される。   The cam 223 is disposed in the circular hole of the arm 222. Therefore, the rotational motion of the two cams 223 accompanying the rotation of the shaft 224 is converted into the reciprocating motion of the document table holder 221.

なお、原稿台205を移動させるための機構はこれに限定されることなく、例えば、電磁石、空気圧、油圧等を利用したピストン等の直線運動を生じさせる駆動源を用いた機構としてもよい。   Note that the mechanism for moving the document table 205 is not limited to this, and may be a mechanism using a drive source that generates a linear motion such as a piston using an electromagnet, air pressure, hydraulic pressure, or the like.

原稿台205は、副走査方向と平行に移動させられる。原稿台205が原稿の搬送方向と逆方向に移動している間は、原稿台205と、原稿とは逆方向に移動するため、原稿台205のラインセンサ213R,213G,213Bに対する相対速度と、原稿のラインセンサ213R,213G,213Bに対する相対速度とが異なる。なお、本実施の形態においては、原稿の読取中に原稿台205を原稿の搬送方向と逆方向に移動させるようにしたが、原稿台205を原稿の搬送方向に移動させるようにしても良い。この場合、原稿台205の速度と、原稿の搬送速度とは方向が同じである。速さを異ならせるようにするのが好ましい。なお、ここでは、原稿台205を副走査方向と平行に移動させるようにしたが、方向はこれに限定されない。   The document table 205 is moved in parallel with the sub-scanning direction. While the document table 205 is moving in the direction opposite to the document conveyance direction, the document table 205 is moved in the direction opposite to the document, so that the relative speed of the document table 205 with respect to the line sensors 213R, 213G, and 213B, The relative speed of the document with respect to the line sensors 213R, 213G, and 213B is different. In the present embodiment, the document table 205 is moved in the direction opposite to the document conveyance direction while the document is being read. However, the document table 205 may be moved in the document conveyance direction. In this case, the direction of the document table 205 and the document conveyance speed are the same. It is preferable to vary the speed. Here, the document table 205 is moved in parallel with the sub-scanning direction, but the direction is not limited to this.

ここで、本実施の形態における画像読取装置10が、原稿台205に付着したゴミにより発生するノイズを、読取った画像から検出する原理について説明する。図4は、読取った画像からゴミを読取ることにより発生するノイズを検出する原理を説明するための図である。ここでは、原稿および原稿台205は図中矢印方向に搬送され、原稿台205の移動速度は、原稿の搬送速度と方向が同じで2倍の速さとしている。また、3つのラインセンサは、赤の光を受光するラインセンサ、緑の光を受光するラインセンサ、青の光を受光するラインセンサの順に、原稿の搬送方向に3ラインの距離を隔てて配置されているものとする。なお、赤の光を受光するラインセンサの出力をR、緑の光を受光するラインセンサの出力をG、青の光を受光するラインセンサの出力をBで示している。   Here, the principle that the image reading apparatus 10 according to the present embodiment detects noise generated by dust attached to the document table 205 from the read image will be described. FIG. 4 is a diagram for explaining the principle of detecting noise generated by reading dust from a read image. Here, the document and document table 205 are conveyed in the direction of the arrow in the figure, and the movement speed of the document table 205 is the same as the document conveyance speed and is twice as fast. The three line sensors are arranged in the order of a line sensor that receives red light, a line sensor that receives green light, and a line sensor that receives blue light at a distance of three lines in the document conveyance direction. It is assumed that The output of the line sensor that receives red light is indicated by R, the output of the line sensor that receives green light is indicated by G, and the output of the line sensor that receives blue light is indicated by B.

図4(A)は、ライン間補正を説明するための図である。原稿の一部の画像は、まず、原稿の搬送方向の最も上流に配置された赤の光を受光するラインセンサで読取られる。そして、その原稿の画像が4ライン分の距離だけ搬送されて、緑の光を受光するラインセンサで読取られる。さらに、その原稿の画像が4ライン分の距離だけ搬送されて、青の光を受光するラインセンサで読取られる。   FIG. 4A is a diagram for explaining line-to-line correction. First, a partial image of a document is read by a line sensor that receives red light arranged at the most upstream in the document transport direction. Then, the image of the original is conveyed by a distance of 4 lines and read by a line sensor that receives green light. Further, the image of the original is conveyed by a distance of 4 lines and read by a line sensor that receives blue light.

このように、原稿の同じ位置の画像が、3つのラインセンサで異なるタイミングで読取られるため、3つのラインセンサが出力する信号にタイミングのずれが生じる。ライン間補正では、各信号が原稿の同じ位置となるように3つのラインセンサが出力する信号のタイミングを合わせる。具体的には、出力Rを8ライン分遅延させ、出力Gを4ライン分遅延させる。   As described above, since images at the same position on the document are read by the three line sensors at different timings, timing deviations occur in signals output from the three line sensors. In the interline correction, the timings of the signals output from the three line sensors are matched so that each signal is at the same position on the document. Specifically, the output R is delayed by 8 lines, and the output G is delayed by 4 lines.

ライン間補正した出力R,出力G、出力Bを合成した合成出力は、原稿の同じ位置で読取った出力R,出力G、出力Bを合成した出力となる。   A combined output obtained by combining the output R, the output G, and the output B corrected between the lines is an output obtained by combining the output R, the output G, and the output B read at the same position on the original.

図4(B)は、原稿台に付着したゴミを読取った場合に出力される合成出力を説明するための図である。原稿台205に付着したゴミは、まず、原稿の搬送方向の最も上流に配置された赤の光を受光するラインセンサで読取られる。そして、そのゴミが4ライン分の距離だけ搬送されて、緑の光を受光するラインセンサで読取られる。ここで、原稿台205は、原稿の搬送速度に対して2倍の速さで同一方向に移動するため、ラインセンサが原稿を2ライン分読取るだけの時間でゴミは4ライン分を移動する。このため、赤のラインセンサでゴミを読取った時点と、緑のラインセンサでゴミを読取る時点とでは、2ライン分を読取る時間だけずれる。さらに、そのゴミが4ライン分の距離だけ搬送されて、青の光を受光するラインセンサで読取られる。原稿台205は、原稿の搬送速度に対して2倍の速さで同一方向に移動するため、緑のラインセンサでゴミを読取った時点と、青のラインセンサでゴミを読取る時点とでは、2ライン分を読取る時間だけずれる。   FIG. 4B is a diagram for explaining a composite output that is output when dust attached to the document table is read. The dust adhering to the document table 205 is first read by a line sensor that receives red light arranged at the most upstream in the document conveyance direction. Then, the dust is conveyed by a distance corresponding to four lines and read by a line sensor that receives green light. Here, the document table 205 moves in the same direction at a speed twice as high as the document conveyance speed, so that the dust moves for four lines in a time required for the line sensor to read the document for two lines. For this reason, the time when dust is read by the red line sensor and the time when dust is read by the green line sensor are shifted by the time for reading two lines. Further, the dust is conveyed by a distance of 4 lines and read by a line sensor that receives blue light. Since the document table 205 moves in the same direction at twice the speed of the document conveyance, there are two points when the dust is read by the green line sensor and when the dust is read by the blue line sensor. The time for reading the line is shifted.

そして、ライン間補正により、赤の光を受光するラインセンサがゴミを読取って出力する出力Rは8ライン分遅延され、緑の光を受光するラインセンサがゴミを読取って出力する出力Gは4ライン分遅延される。このため、ライン間補正した出力R,出力G、出力Bを合成した合成出力では、ゴミを読取った出力Rと、ゴミを読取った出力Gと、ゴミを読取った出力Bとが同じタイミングとならず、2ライン分ずれる。   Then, due to the interline correction, the output R that the line sensor that receives red light reads and outputs dust is delayed by 8 lines, and the output G that the line sensor that receives green light reads and outputs dust is 4 Delayed by line. Therefore, in the combined output obtained by combining the output R, the output G, and the output B corrected between lines, if the output R from which dust is read, the output G from which dust is read, and the output B from which dust is read are at the same timing. No, two lines are misaligned

なお、図では、紙粉などの白色のゴミが原稿台205に付着しており、黒色の原稿を読取る場合の合成出力を示している。この場合、白色のゴミを読取ったにもかかわらず、合成出力では、白色ではなく、3つのラインに分かれた青、緑、赤の出力となる。   In the figure, white dust such as paper dust is attached to the document table 205, and a combined output when a black document is read is shown. In this case, although white dust is read, the composite output is not white but blue, green, and red divided into three lines.

図4(C)は、原稿台に付着したゴミを読取った場合に出力される合成出力を説明するための別の図である。図4(C)では、副走査方向に10ライン分の大きさのゴミを読取る場合を例に示している。原稿台205は、原稿の搬送速度に対して2倍の速さで同一方向に移動するため、ごみは、5ライン分の大きさとして読取られる。   FIG. 4C is another diagram for explaining a composite output that is output when dust attached to the document table is read. FIG. 4C shows an example in which dust having a size of 10 lines is read in the sub-scanning direction. Since the document table 205 moves in the same direction at twice the document conveyance speed, dust is read as a size corresponding to five lines.

原稿台205に付着したゴミは、まず、原稿の搬送方向の最も上流に配置された赤の光を受光するラインセンサで読取られる。そして、そのゴミが4ライン分の距離だけ搬送されて、緑の光を受光するラインセンサで読取られる。赤のラインセンサでゴミを読取った時点と、緑のラインセンサでゴミを読取る時点とでは、2ライン分を読取る時間だけずれる。さらに、そのゴミが4ライン分の距離だけ搬送されて、青の光を受光するラインセンサで読取られる。緑のラインセンサでゴミを読取った時点と、青のラインセンサでゴミを読取る時点とでは、2ライン分を読取る時間だけずれる。   The dust adhering to the document table 205 is first read by a line sensor that receives red light arranged at the most upstream in the document conveyance direction. Then, the dust is conveyed by a distance corresponding to four lines and read by a line sensor that receives green light. The time at which dust is read by the red line sensor and the time at which dust is read by the green line sensor are shifted by the time for reading two lines. Further, the dust is conveyed by a distance of 4 lines and read by a line sensor that receives blue light. The time when the dust is read by the green line sensor and the time when the dust is read by the blue line sensor are shifted by the time for reading two lines.

そして、ライン間補正により、赤の光を受光するラインセンサがゴミを読取って出力する出力Rは8ライン分遅延され、緑の光を受光するラインセンサがゴミを読取って出力する出力Gは4ライン分遅延される。このため、ライン間補正した出力R,出力G、出力Bを合成した合成出力では、ゴミを読取った5ライン分の出力Rと、ゴミを読取った5ライン分の出力Gと、ゴミを読取った5ライン分の出力Bとは、同じタイミングとならず、2ライン分ずれる。なお、図では、紙粉などの白色のゴミが原稿台205に付着しており、黒色の原稿を読取る場合の合成出力を示している。この場合、白色のゴミを読取ったにもかかわらず、合成出力では、青、青緑、白、黄、赤の順に色が変化する出力となる。   Then, due to the interline correction, the output R that the line sensor that receives red light reads and outputs dust is delayed by 8 lines, and the output G that the line sensor that receives green light reads and outputs dust is 4 Delayed by line. Therefore, in the combined output obtained by combining the output R, the output G, and the output B corrected between lines, the output R for 5 lines from which dust is read, the output G for 5 lines from which dust is read, and the dust are read. The output B for 5 lines does not have the same timing but is shifted by 2 lines. In the figure, white dust such as paper dust is attached to the document table 205, and a combined output when a black document is read is shown. In this case, although the white dust is read, the combined output is an output in which the color changes in the order of blue, blue-green, white, yellow, and red.

このように、原稿台205に付着したゴミは、画像中で複数のラインに分断される。この分断されたラインを各色ごとに特徴点として抽出することにより、ノイズを検出するのである。また、分断されることによってゴミを読取ることにより生じるノイズも少なくなる。   In this way, the dust adhering to the document table 205 is divided into a plurality of lines in the image. Noise is detected by extracting the divided lines as feature points for each color. Further, the noise generated by reading the dust by being divided is reduced.

図5は、原稿台を裏面から見た平面図である。図5を参照して、原稿台205は、一端にマーク205Aを有する。マーク205Aは、主走査方向の長さが副走査方向の位置により異なる形状であり、単色である。ここでは、マーク205Aは、三角形の形状で、黒色としている。また、マーク205Aの一辺が原稿台205の一辺と平行に配置される。   FIG. 5 is a plan view of the document table viewed from the back side. Referring to FIG. 5, document table 205 has a mark 205A at one end. The mark 205 </ b> A has a shape in which the length in the main scanning direction varies depending on the position in the sub-scanning direction and is a single color. Here, the mark 205A has a triangular shape and is black. Further, one side of the mark 205A is arranged in parallel with one side of the document table 205.

読取部213を用いて、または、読取部213とは別に設けられ、本体部103に固定されたセンサを用いて、マーク205Aの主走査方向の長さを検出することにより、原稿台205の読取部213に対する相対的な位置を検出することが可能となる。   By using the reading unit 213 or using a sensor provided separately from the reading unit 213 and fixed to the main body unit 103, the length of the mark 205A in the main scanning direction is detected, thereby reading the document table 205. It is possible to detect a relative position with respect to the part 213.

図6は、読取部213で読取られる原稿台205上の位置を示す図である。読取部213は、赤(R)のフィルタを有するラインセンサ213Rと、緑(G)のフィルタを有するラインセンサ213Gと、青(B)のフィルタを有するラインセンサ213Bとが、原稿の搬送方向D1に、ラインセンサ213R、213G、213Bの順に配列されている。   FIG. 6 is a diagram showing a position on the document table 205 read by the reading unit 213. The reading unit 213 includes a line sensor 213R having a red (R) filter, a line sensor 213G having a green (G) filter, and a line sensor 213B having a blue (B) filter. Are arranged in the order of the line sensors 213R, 213G, and 213B.

ラインセンサ213Rは、原稿台205の領域205Rを透過した光を受光する。ラインセンサ213Gは、原稿台205の領域205Gを透過した光を受光する。ラインセンサ213Bは、原稿台205の領域205Bを透過した光を受光する。領域205R,205G,205Bは、3ライン分の間隔を有するようにラインセンサ213R,213G,213Bが配置される。原稿は、まず領域205Rを通過し、次に領域205Gを通過し、最後に領域205Bを通過する。したがって、原稿のある位置で反射した光は、まず、赤の光を受光するラインセンサ213Rで受光され、その後緑の光を受光するラインセンサ213Gで受光され、最後に青の光を受光するラインセンサ213Bで受光される。このように、ラインセンサ213R,213G,213Bは、3ライン分の距離を隔てて配置されるので、ラインセンサ213R,213G,213Bは、同時に原稿の同じ位置で反射した光を受光することはない。   The line sensor 213R receives light transmitted through the region 205R of the document table 205. The line sensor 213G receives light transmitted through the region 205G of the document table 205. The line sensor 213B receives light transmitted through the area 205B of the document table 205. In the areas 205R, 205G, and 205B, the line sensors 213R, 213G, and 213B are arranged so as to have an interval of three lines. The document first passes through the region 205R, then passes through the region 205G, and finally passes through the region 205B. Therefore, the light reflected at a certain position of the document is first received by the line sensor 213R that receives red light, then received by the line sensor 213G that receives green light, and finally the line that receives blue light. Light is received by the sensor 213B. As described above, the line sensors 213R, 213G, and 213B are arranged at a distance of three lines, so that the line sensors 213R, 213G, and 213B do not receive the light reflected at the same position on the document at the same time. .

ここで、原稿台205上に最大長さが4ライン以下のゴミ300が付着しているとする。この場合、原稿台205が副走査方向に平行に移動するので、ゴミ300は領域205R,205G,205Bの2つ以上に同時に存在することはない。図6では、ゴミ300が領域205Gに存在する場合を示している。この場合には、ゴミ300で反射した光は、ラインセンサ213Gでのみ受光され、ラインセンサ213R,213Bでは受光されない。   Here, it is assumed that dust 300 having a maximum length of 4 lines or less adheres on the document table 205. In this case, since the document table 205 moves parallel to the sub-scanning direction, the dust 300 does not exist in two or more of the areas 205R, 205G, and 205B at the same time. FIG. 6 shows a case where the dust 300 exists in the area 205G. In this case, the light reflected by the dust 300 is received only by the line sensor 213G and not received by the line sensors 213R and 213B.

また、原稿台205が移動することにより、ゴミ300が存在することとなる領域は、原稿台205が原稿の搬送方向D1に移動しているときは、初めに領域205R、次に領域205G、最後に領域205Bの順に変化する。逆に、原稿台205が原稿の搬送方向D1と逆に移動しているときは、初めに領域205B、次に領域205G、最後に領域205Rの順に変化する。   Further, the area where the dust 300 is present due to the movement of the document table 205 is the area 205R first, then the area 205G, and the last when the document table 205 is moved in the document transport direction D1. Changes in the order of the region 205B. Conversely, when the document table 205 moves in the direction opposite to the document conveyance direction D1, the area changes first in the order of the area 205B, then in the area 205G, and finally in the area 205R.

したがって、ゴミ300で反射した光が受光される順序は、原稿台205を原稿の搬送方向D1に移動させる場合には、初めにラインセンサ213R、次にラインセンサ213G、最後にラインセンサ213Bである。また、原稿台205を原稿の搬送方向D1と逆に移動させる場合には、初めにラインセンサ213B、次にラインセンサ213G、最後にラインセンサ213Rである。   Therefore, the order in which the light reflected by the dust 300 is received is the line sensor 213R first, then the line sensor 213G, and finally the line sensor 213B when the document table 205 is moved in the document transport direction D1. . When the document table 205 is moved in the direction opposite to the document conveyance direction D1, the line sensor 213B is first, the line sensor 213G is next, and finally the line sensor 213R.

図7は、本実施の形態における画像読取装置の画像処理部の構成を示すブロック図である。図7を参照して、画像処理部215には、読取部213からR信号、G信号、B信号が入力される。画像処理部215は、読取部213から入力されたアナログ信号をデジタル信号に変換するためのアナログデジタル変換部(A/D変換部)251と、光源206の照明ムラ等を補正するためのシェーディング補正部253と、R信号、G信号およびB信号が原稿の同一ラインとなるように同期させるためのライン間補正部255と、レンズ211による主走査方向の歪を補正するための色収差補正部257と、原稿の読取前に原稿台205を読取って原稿台205に付着したゴミを検出するための読取前検出部271と、R信号、G信号、B信号のそれぞれからノイズを検出するためのノイズ検出処理部259と、ノイズ画素を補正する処理を実行するノイズ補正部260と、画像処理部215の全体を制御するための制御部263と、画像を画像形成装置20に出力するためのプリンタインタフェース261とを備える。   FIG. 7 is a block diagram illustrating a configuration of an image processing unit of the image reading apparatus according to the present embodiment. Referring to FIG. 7, R signal, G signal, and B signal are input from reading unit 213 to image processing unit 215. The image processing unit 215 includes an analog / digital conversion unit (A / D conversion unit) 251 for converting an analog signal input from the reading unit 213 into a digital signal, and shading correction for correcting illumination unevenness of the light source 206. A unit 253, an interline correction unit 255 for synchronizing the R signal, the G signal, and the B signal to be on the same line of the document, and a chromatic aberration correction unit 257 for correcting distortion in the main scanning direction caused by the lens 211. Before reading a document, the document table 205 is read to detect dust adhering to the document table 205, and a pre-read detection unit 271 detects noise from each of the R signal, G signal, and B signal. A processing unit 259, a noise correction unit 260 that executes a process of correcting noise pixels, a control unit 263 for controlling the entire image processing unit 215, an image And a printer interface 261 for outputting to an image forming apparatus 20.

ライン間補正部255は、R信号を8ライン分遅延させ、G信号を4ライン分遅延させることにより、R信号、G信号およびB信号が原稿の同一ラインとなるように同期させる。上述したように、ラインセンサ213R,213G,213Bは、副走査方向に3ライン分の距離を隔てて配列されていたためである。   The interline correction unit 255 delays the R signal by 8 lines and delays the G signal by 4 lines, thereby synchronizing the R signal, the G signal, and the B signal to be on the same line of the document. As described above, the line sensors 213R, 213G, and 213B are arranged at a distance of three lines in the sub-scanning direction.

読取前検出部271は、色収差補正部257よりR信号、G信号およびB信号が入力され、制御部263から原稿台205の位置が入力される。読取前検出部271は、原稿台205に付着したゴミを検出する。読取前検出部271が原稿台205に付着したゴミを検出する時期は、原稿を読取る前であればいつでも良い。例えば電源投入時、電源投入後の任意の時、または、原稿の読取開始を指示するためのスタートボタンがユーザにより押下された時などであればよい。   The pre-reading detection unit 271 receives the R signal, the G signal, and the B signal from the chromatic aberration correction unit 257, and receives the position of the document table 205 from the control unit 263. The pre-reading detection unit 271 detects dust attached to the document table 205. The time when the pre-reading detection unit 271 detects dust attached to the document table 205 may be any time before the document is read. For example, when the power is turned on, any time after the power is turned on, or when the start button for instructing the start of reading of the document is pressed by the user.

読取前検出部271は、制御部263からの指示に基づいて原稿台205に付着したゴミを検出する処理を実行する。原稿台205に付着したゴミを検出する際、画像読取装置10は、次の処理を実行する。   The pre-reading detection unit 271 executes processing for detecting dust attached to the document table 205 based on an instruction from the control unit 263. When detecting dust adhering to the document table 205, the image reading apparatus 10 executes the following processing.

(1)制御部263がモータ制御部217に移動開始信号を出力して、原稿台205を初期位置から移動させる。この原稿台205が移動している間に、読取部213において、原稿台205の全体を読取る。   (1) The control unit 263 outputs a movement start signal to the motor control unit 217 to move the document table 205 from the initial position. While the document table 205 is moving, the reading unit 213 reads the entire document table 205.

(2)読取ったデータから原稿台205に付着したゴミの大きさを検出する。原稿台205は、透明であるため原稿台205にゴミが付着していなければ上部規制板203で反射した光が読取部213で受光される。原稿台205にゴミが付着していれば、そのゴミで反射した光が読取部213で受光される。上部規制板203で反射した光を受光して得られる画素値と、ゴミで反射した光を受光して得られる画素値とは異なる。読取前検出部271では、ゴミで反射した光を受光して得られる画素値の連続する数からゴミの大きさを検出する。   (2) The size of dust attached to the document table 205 is detected from the read data. Since the document table 205 is transparent, the light reflected by the upper regulating plate 203 is received by the reading unit 213 unless dust is attached to the document table 205. If dust adheres to the document table 205, the light reflected by the dust is received by the reading unit 213. The pixel value obtained by receiving the light reflected by the upper regulating plate 203 is different from the pixel value obtained by receiving the light reflected by dust. The pre-reading detection unit 271 detects the size of dust from the continuous number of pixel values obtained by receiving light reflected by dust.

(3)原稿台205に付着した原稿台205上のゴミの位置を検出する。読取前検出部271は、制御部263から原稿台205の位置が常に入力される。このため、読取前検出部271では、読取部213から出力される信号からゴミが検出された時点の原稿台205の位置を検出する。   (3) The position of dust on the document table 205 attached to the document table 205 is detected. The pre-reading detection unit 271 always receives the position of the document table 205 from the control unit 263. Therefore, the pre-reading detection unit 271 detects the position of the document table 205 when dust is detected from the signal output from the reading unit 213.

(4)読取前検出部271は、原稿台205のゴミの大きさおよび位置から原稿台205のうちからゴミの少ない使用領域を決定し、その使用領域を制御部263に出力する。   (4) The pre-reading detection unit 271 determines a use area with less dust from the document table 205 based on the size and position of the document table 205 and outputs the use area to the control unit 263.

制御部263は、原稿を読取る際に、モータ制御部217およびADF制御部273を制御して、原稿台205を移動させる。これにより原稿台205は、1回の原稿の読取動作で、読取時の移動と復帰時の移動とで1往復する。また、1回の原稿の読取動作で複数回の往復移動するようにしてもよい。   When reading the document, the control unit 263 controls the motor control unit 217 and the ADF control unit 273 to move the document table 205. As a result, the document table 205 is reciprocated once by a movement at the time of reading and a movement at the time of return in one reading operation of the document. Further, the reciprocation may be performed a plurality of times in one document reading operation.

ノイズ検出処理部259は、色収差補正部257よりR信号、G信号およびB信号が入力され、制御部263から原稿台205の位置と、原稿台205の移動方向とが入力される。ノイズ検出処理部259は、色収差補正部257から入力されたR信号、G信号およびB信号ごとに、ノイズ画素を検出する。そして、ノイズ画素を「1」とし他の画素を「0」とする論理信号をノイズ補正部260と制御部263とに出力する。その詳細については後述する。   The noise detection processing unit 259 receives the R signal, the G signal, and the B signal from the chromatic aberration correction unit 257, and receives the position of the document table 205 and the moving direction of the document table 205 from the control unit 263. The noise detection processing unit 259 detects a noise pixel for each of the R signal, G signal, and B signal input from the chromatic aberration correction unit 257. Then, a logic signal in which the noise pixel is “1” and the other pixels are “0” is output to the noise correction unit 260 and the control unit 263. Details thereof will be described later.

ノイズ補正部260には、色収差補正部257よりR信号、G信号およびB信号が入力され、ノイズ検出処理部259からは、ノイズ画素を「1」とし他の画素を「0」とする論理信号がR信号、G信号およびB信号ごとに入力される。   The noise correction unit 260 receives the R signal, the G signal, and the B signal from the chromatic aberration correction unit 257, and the noise detection processing unit 259 outputs a logical signal that sets the noise pixel to “1” and the other pixels to “0”. Are input for each of the R signal, the G signal, and the B signal.

ノイズ補正部260は、R信号、G信号およびB信号それぞれに対応する論理信号からノイズ画素とされる画素の色を判定する。この際、副走査方向に連続するノイズ画素の色を判定する。また、ノイズ画素が副走査方向に連続しない場合には、2つのノイズ画素の間にある画素の色を判定する。そして、主走査方向に同じ位置で、副走査方向の色の変化が、次の順となるときに、それらの画素の全てをノイズ画素とする。   The noise correction unit 260 determines the color of a pixel that is a noise pixel from logic signals corresponding to the R signal, the G signal, and the B signal. At this time, the color of the noise pixel continuous in the sub-scanning direction is determined. If the noise pixels are not continuous in the sub-scanning direction, the color of the pixel between the two noise pixels is determined. Then, when the color change in the sub-scanning direction is in the following order at the same position in the main scanning direction, all of those pixels are set as noise pixels.

(1)CBMRYまたはYRMBC
(2)CBKRYまたはYRKBC
(3)RYGCBまたはBCGYR
(4)RYWCBまたはBCWYR
ただし、Rは赤、Gは緑、Bは青、Cは青緑、Mは赤紫、Yは黄、Kは黒、Wは白を示す。なお、ここでは色の変化の順番を示したのみで、同じ色の画素が2つ以上連続してもよい。たとえば、CCBBMMRRYYと色が変化する場合でもよい。
(1) CBMRY or YRMBC
(2) CBKRY or YRKBC
(3) RYGCB or BCGYR
(4) RYWCB or BCWYR
However, R is red, G is green, B is blue, C is blue-green, M is magenta, Y is yellow, K is black, and W is white. Here, only the order of color change is shown, and two or more pixels of the same color may be continuous. For example, the color may change from CCBBMMRRYY.

これにより、ゴミが、複数のラインセンサにより同時に読取られる大きさ、ここでは4ライン分以上の大きさであっても、そのゴミを読取ることにより生じるノイズを検出することができる。   As a result, even if the size of dust is simultaneously read by a plurality of line sensors, here, it is possible to detect noise caused by reading the dust.

また、ノイズ補正部260は、R信号、G信号およびB信号それぞれについて、対応する論理信号に基づいて、ノイズ画素とされた画素値を周辺のノイズ画素でない画素の画素値に置換える。周辺のノイズ画素でない複数の画素の平均値、最大値または最小値に置換えるようにすればよい。ノイズ補正部260は、ノイズ画素を周辺の画素で置換したR信号、G信号およびB信号をプリンタインターフェースに出力する。   In addition, the noise correction unit 260 replaces the pixel value determined as a noise pixel with the pixel value of a pixel that is not a surrounding noise pixel based on the corresponding logic signal for each of the R signal, the G signal, and the B signal. The average value, maximum value, or minimum value of a plurality of pixels that are not surrounding noise pixels may be replaced. The noise correction unit 260 outputs an R signal, a G signal, and a B signal obtained by replacing the noise pixel with surrounding pixels to the printer interface.

制御部263では、位置検出部265から原稿台205の位置が入力され、ノイズ検出処理部259からノイズ画素を「1」とし他の画素を「0」とする論理信号が入力される。制御部263は、これらの信号から、原稿台205上のゴミの位置を特定する。より具体的には、原稿台205の位置と論理信号のライン番号とから原稿台205の副走査方向の位置を特定し、論理信号のノイズ画素の位置から原稿台205の主走査方向の位置を特定する。   In the control unit 263, the position of the document table 205 is input from the position detection unit 265, and a logic signal is input from the noise detection processing unit 259 that sets the noise pixel to “1” and the other pixels to “0”. The control unit 263 specifies the position of dust on the document table 205 from these signals. More specifically, the position of the document table 205 in the sub-scanning direction is specified from the position of the document table 205 and the line number of the logic signal, and the position of the document table 205 in the main scanning direction is determined from the position of the noise pixel of the logic signal. Identify.

図8は、読取前検出部の概略構成を示すブロック図である。図8を参照して、読取前検出部271は、入力されるR信号、G信号およびB信号からピーク値を検出するためのピーク値検出部291と、ゴミのサイズを検出するためのゴミサイズ検出部292と、検出されたゴミのサイズと原稿台205の位置を関連付けて記憶するためのゴミ情報記憶メモリ293と、ゴミのサイズと原稿台205の位置とから原稿台205の位置ごとの汚れ度を算出するための汚れ度算出部294と、算出された汚れ度から原稿台205の一部の領域であって読取部213で読取に用いる使用領域を決定するための使用領域決定部295とを含む。   FIG. 8 is a block diagram illustrating a schematic configuration of the pre-reading detection unit. Referring to FIG. 8, pre-reading detection unit 271 includes a peak value detection unit 291 for detecting a peak value from input R, G, and B signals, and a dust size for detecting the size of dust. The detection unit 292, a dust information storage memory 293 for storing the detected dust size and the position of the document table 205 in association with each other, and the contamination for each position of the document table 205 based on the dust size and the position of the document table 205. A degree-of-dirt calculation unit 294 for calculating the degree of use; and a use region determination unit 295 for determining a use region that is a partial region of the document table 205 and is used for reading by the reading unit 213 from the calculated degree of stain. including.

ピーク値検出部291は、1ラインごとにRGB信号が入力される。ピーク値検出部291は、入力された1ラインのRGB信号について画素ごとに次の処理を実行する。   The peak value detector 291 receives RGB signals for each line. The peak value detection unit 291 performs the following process for each pixel on the input RGB signal of one line.

(1)RGB信号のうちから最大値と最小値とを選択する。   (1) A maximum value and a minimum value are selected from RGB signals.

(2)最大値が黒色のゴミを検出するためのしきい値以下の場合、その画素をゴミが読取られた画素と判断する。   (2) If the maximum value is less than or equal to the threshold value for detecting black dust, the pixel is determined to be a pixel from which dust has been read.

(3)最小値が白色のゴミを検出するためのしきい値以上の場合、その画素をゴミが読取られた画素と判断する。   (3) If the minimum value is greater than or equal to the threshold value for detecting white dust, the pixel is determined as a pixel from which dust has been read.

(4)ゴミが読取られた画素とされた画素の値を「1」、ゴミが読取られた画素でないとされた画素の値を「0」とする論理信号を、ゴミサイズ検出部292に出力する。   (4) Output to the dust size detection unit 292 a logic signal that sets the value of the pixel from which the dust has been read to “1” and the value of the pixel that has not been read from the dust to “0”. To do.

ゴミサイズ検出部292は、ピーク値検出部291からゴミが読取られた画素の値を「1」とする論理信号が入力される。ゴミサイズ検出部292は、ゴミが読取られた画素が連続する数からゴミのサイズを検出する。たとえば、値「1」が3つ連続すれば、ゴミのサイズを3画素とする。そして、検出したゴミのサイズと原稿台205の位置とを関連付けてゴミ情報記憶メモリ293に記憶する。ゴミ情報記憶メモリ293は、例えばランダムアクセスメモリ(RAM)等の不揮発性の半導体メモリを用いればよい。ゴミ情報記憶メモリ293には、原稿台205を副走査方向に移動可能な範囲の全を読取部231で読取って得られるゴミのサイズと原稿台205の位置とを関連付けたゴミ情報が記憶される。   The dust size detection unit 292 receives a logical signal that sets the value of the pixel from which dust is read from the peak value detection unit 291 as “1”. The dust size detection unit 292 detects the size of dust from the number of consecutive pixels from which dust has been read. For example, if the value “1” continues three times, the size of the dust is set to 3 pixels. Then, the detected dust size and the position of the document table 205 are associated with each other and stored in the dust information storage memory 293. The garbage information storage memory 293 may be a non-volatile semiconductor memory such as a random access memory (RAM). The dust information storage memory 293 stores dust information that associates the size of dust obtained by reading the entire range in which the document table 205 can be moved in the sub-scanning direction with the reading unit 231 and the position of the document table 205. .

汚れ度算出部294は、重付係数テーブル296を予め記憶している。重付係数テーブル296は、原稿台205の位置ごとに汚れ度を算出するために用いられ、ゴミのサイズに応じた重付係数を定義する。汚れ度算出部294は、ゴミ情報記憶メモリからゴミ情報を読出して、原稿台205の位置ごとに汚れ度を算出する。汚れ度は、重付係数にゴミの数を乗じた値で定義される。そして、汚れ度算出部294は、原稿台205の位置ごとに算出された汚れ度を、使用領域決定部295に出力する。   The degree-of-dirt calculation unit 294 stores a weighting coefficient table 296 in advance. The weighting coefficient table 296 is used for calculating the degree of contamination for each position of the document table 205, and defines weighting coefficients corresponding to the size of dust. The dirt level calculation unit 294 reads dust information from the dust information storage memory and calculates the dirt level for each position of the document table 205. The degree of contamination is defined by a value obtained by multiplying the weighting coefficient by the number of dust. Then, the contamination level calculation unit 294 outputs the contamination level calculated for each position of the document table 205 to the use area determination unit 295.

図9は、重付係数テーブルの一例を示す図である。重付係数は、ゴミのサイズが大きいほど、大きな値である。ゴミのサイズが1〜9画素(dot)に対して、重付係数はゴミのサイズの二乗が定義され、ゴミのサイズが10画素(dot)以上に対して重付係数は「255」が定義される。   FIG. 9 is a diagram illustrating an example of the weighting coefficient table. The weighting factor increases as the size of the dust increases. For the dust size of 1 to 9 pixels (dot), the weighting coefficient is defined as the square of the dust size, and for the dust size of 10 pixels (dot) or more, the weighting coefficient is defined as “255”. Is done.

図8に戻って、使用領域決定部295は、原稿台205の位置ごとの汚れ度からゴミの少ない領域を使用領域として決定する。具体的には、予め定められた数で副走査方向に原稿台205を分割し、分割した複数の領域のうちから汚れ度の総和が最も小さくなる領域を使用領域とする。   Returning to FIG. 8, the use area determination unit 295 determines an area with less dust as a use area from the degree of contamination for each position of the document table 205. Specifically, the document table 205 is divided in the sub-scanning direction by a predetermined number, and an area where the total sum of the degree of contamination is the smallest among the divided areas is used.

図10は、原稿台を副走査方向に3分割した領域を示す図である。図中の矢印は原稿台移動方向を示している。ここでは、原稿台205を原稿台移動方向に3分割した3つの領域を、最も先に読取位置に移動する領域を前領域281Aといい、次の領域を中領域281Bといい、最後の領域を後領域281Cという。   FIG. 10 is a diagram showing an area obtained by dividing the document table into three in the sub-scanning direction. The arrows in the figure indicate the direction of movement of the document table. Here, the three areas obtained by dividing the document table 205 into three parts in the document table movement direction are referred to as the front region 281A, the region that moves first to the reading position, the next region as the middle region 281B, and the last region as the last region. This is referred to as a rear region 281C.

なお、ここでは、原稿台205を原稿台移動方向に等しい長さで分割する例を示したが、例えば、原稿台205の位置ごとに算出された汚れ度の分布から使用領域を決定するようにしてもよい。具体的には、副走査方向の長さがLT/3の原稿に対して原稿台移動方向にL/3の長さの前領域281Aで汚れ度の総和を算出し、前領域281Aを原稿台移動方向と逆方向に1ライン分平行移動した領域で汚れ度の総和を算出する。前領域281Aを原稿台205の最後まで1ラインずつ平行移動するごとに汚れ度の総和を算出する。そして、汚れ度の総和が最も小さくなる平行移動量の領域を使用領域とする。   Here, an example is shown in which the document table 205 is divided by a length equal to the document table movement direction. However, for example, the use area is determined from the distribution of the degree of contamination calculated for each position of the document table 205. May be. Specifically, the sum of the degree of contamination is calculated in the front region 281A having a length of L / 3 in the document table moving direction with respect to a document having a length of LT / 3 in the sub-scanning direction, and the front region 281A is calculated as the document table. The sum total of the degree of contamination is calculated in the region translated by one line in the direction opposite to the moving direction. Each time the front area 281A is translated by one line to the end of the document table 205, the total sum of the stain levels is calculated. Then, the region of the parallel movement amount that minimizes the total sum of the contamination levels is set as the use region.

また、使用領域のサイズを、原稿のサイズにより定めるのではなく、予め定められた長さとしてもよいし、原稿台205の位置ごとに算出された汚れ度の分布から定めるようにしてもよい。原稿台205の位置ごとに算出された汚れ度の分布から使用領域のサイズを定める場合には、例えば、汚れ度が所定の値以下のラインが連続する領域のうち連続するライン数が最大の領域とすればよい。   Further, the size of the use area may not be determined by the size of the document, but may be determined in advance, or may be determined from the distribution of the degree of contamination calculated for each position of the document table 205. When determining the size of the area to be used from the distribution of the degree of contamination calculated for each position of the document table 205, for example, the region having the maximum number of consecutive lines among the regions in which the lines having a degree of contamination equal to or less than a predetermined value are continuous. And it is sufficient.

<読取前検出部の変形例>
図11は、読取前検出部の概略構成を示す別のブロック図である。図11を参照して、変形された読取前検出部271Aは、上述した読取前検出部271におけるゴミサイズ検出部292をゴミ明度検出部292Aに置換え、汚れ度算出部294および重付係数テーブル296を変更したものである。その他の構成は同じであるので、ここでは異なる点を主に説明する。
<Modification of the detection unit before reading>
FIG. 11 is another block diagram illustrating a schematic configuration of the pre-reading detection unit. Referring to FIG. 11, the modified pre-reading detection unit 271A replaces the dust size detection unit 292 in the above-described pre-reading detection unit 271 with a dust lightness detection unit 292A, and a stain level calculation unit 294 and a weighting coefficient table 296. Is a change. Since other configurations are the same, different points will be mainly described here.

ゴミ明度検出部292Aは、ピーク値検出部291からゴミが読取られた画素の値を「1」とする論理信号と、RGB信号とが入力される。ゴミ明度検出部292Aは、ゴミが読取られた画素の明度の平均明度を検出する。たとえば、倫理信号で値「1」が3つ連続すれば、それら3つの画素の平均明度を算出する。そして、算出したゴミの領域の平均明度と原稿台205の位置とを関連付けたゴミ情報をゴミ情報記憶メモリ293に記憶する。ゴミ情報記憶メモリ293には、原稿台205の全ての位置におけるゴミの平均明度が記憶される。   The dust lightness detection unit 292A receives a logic signal for setting the value of a pixel from which dust is read from the peak value detection unit 291 to “1” and an RGB signal. The dust brightness detection unit 292A detects the average brightness of the brightness of pixels from which dust is read. For example, if there are three consecutive values “1” in the ethical signal, the average brightness of these three pixels is calculated. Then, dust information that associates the calculated average brightness of the dust area with the position of the document table 205 is stored in the dust information storage memory 293. The dust information storage memory 293 stores the average brightness of dust at all positions on the document table 205.

汚れ度算出部294Aは、重付係数テーブル296Aを予め記憶している。重付係数テーブル296Aは、原稿台205の位置ごとに汚れ度を算出するために用いられ、ゴミの明度に応じた重付係数を定義する。汚れ度算出部294Aは、ゴミ情報記憶メモリ293からゴミ情報を読出して、原稿台205の位置ごとに汚れ度を算出する。汚れ度は、重付係数にゴミの数を乗じた値で定義される。そして、汚れ度算出部294Aは、原稿台205の位置ごとに算出された汚れ度を、使用領域決定部295に出力する。   The degree-of-dirt calculation unit 294A stores a weighting coefficient table 296A in advance. The weighting coefficient table 296A is used for calculating the degree of contamination for each position of the document table 205, and defines weighting coefficients corresponding to the brightness of dust. The stain level calculation unit 294A reads the dust information from the dust information storage memory 293, and calculates the stain level for each position of the document table 205. The degree of contamination is defined by a value obtained by multiplying the weighting coefficient by the number of dust. Then, the contamination level calculation unit 294A outputs the contamination level calculated for each position of the document table 205 to the use area determination unit 295.

図12は、重付係数テーブルの一例を示す別の図である。重付係数は、ゴミの明度が中間のものが最も小さく、明度がそれより大きいほど、または、明度がそれより小さいほど、大きな値である。ゴミの明度が、「100〜179」に対して、重付係数は「36」が定義され、ゴミの明度が「60から99」および「180〜209」に対して重付係数は「49」が定義され、ゴミの明度が「30から59」および「210〜229」に対して重付係数は「64」が定義され、ゴミの明度が「10から29」および「230〜249」に対して重付係数は「81」が定義され、ゴミの明度が「0から9」および「250〜259」に対して重付係数は「255」が定義される。   FIG. 12 is another diagram illustrating an example of the weighting coefficient table. The weighting coefficient is the smallest when the lightness of dust is the middle, and the larger the lightness, or the smaller the lightness, the larger the weighting coefficient. For a lightness of dust of “100 to 179”, a weighting coefficient “36” is defined, and for a lightness of dust of “60 to 99” and “180 to 209”, a weighting coefficient of “49” is defined. Is defined for the lightness of dust from “30 to 59” and “210 to 229”, and “64” is defined as the weighting coefficient, and for the lightness of dust from “10 to 29” and “230 to 249” Thus, “81” is defined as the weighting coefficient, and “255” is defined as the weighting coefficient for the lightness of dust “0 to 9” and “250 to 259”.

次に、読取られた画像から原稿台のゴミが原因で発生するノイズの検出について説明する。   Next, detection of noise caused by dust on the platen from the read image will be described.

次にノイズ検出処理について具体的に説明する。図6で説明したように、ラインセンサ213R,213G,213Bは、同じタイミングで原稿の異なる位置を読取ることになる。ライン間補正部255で、R信号、G信号およびB信号のラインを同期させることにより、原稿の同じ位置を読取ったR信号、G信号およびB信号が得られる。   Next, the noise detection process will be specifically described. As described with reference to FIG. 6, the line sensors 213R, 213G, and 213B read different positions of the document at the same timing. The line correction unit 255 synchronizes the lines of the R signal, the G signal, and the B signal, thereby obtaining the R signal, the G signal, and the B signal obtained by reading the same position of the document.

したがって、原稿の同じ位置を読取ったR信号、G信号およびB信号は、原稿台205にゴミが付着している場合は、いずれか1つの信号が影響される。
図13は、本実施の形態における画像読取装置のノイズ検出処理部の構成を示すブロック図である。図を参照して、ノイズ検出処理部259は、入力されるR信号、G信号、B信号それぞれからノイズ画素を検出するための第1検出部310と、入力されるR信号、G信号、B信号それぞれからノイズ画素を検出するための第2検出部320と、第1検出部の出力と第2検出部320の出力とのいずれかを選択して出力するセレクタ313とを含む。
Therefore, any one of the R signal, G signal, and B signal obtained by reading the same position of the document is affected when dust adheres to the document table 205.
FIG. 13 is a block diagram illustrating a configuration of a noise detection processing unit of the image reading apparatus according to the present embodiment. Referring to the figure, a noise detection processing unit 259 includes a first detection unit 310 for detecting a noise pixel from each of an inputted R signal, G signal, and B signal, and an inputted R signal, G signal, B A second detector 320 for detecting a noise pixel from each signal, and a selector 313 for selecting and outputting either the output of the first detector or the output of the second detector 320 are included.

第1検出部310には、R信号、G信号、B信号が1ラインずつ順に入力される。第1検出部310は、入力されたラインごとのR信号、G信号、B信号それぞれからノイズ画素を検出する。第1検出部310の詳細は後述する。第1検出部310は、ラインごとにノイズ画素を「1」、その他の画素を「0」とする論理信号を、入力されるR信号、G信号、B信号それぞれに対応して出力する。第1検出部310が出力するR信号、G信号、B信号ごとに対応する論理信号が、ノイズ画素の位置を示す信号である。   An R signal, a G signal, and a B signal are sequentially input to the first detection unit 310 line by line. The first detection unit 310 detects a noise pixel from each of the input R signal, G signal, and B signal for each line. Details of the first detection unit 310 will be described later. The first detection unit 310 outputs a logic signal in which the noise pixel is “1” and the other pixels are “0” for each line corresponding to each of the input R signal, G signal, and B signal. A logic signal corresponding to each of the R signal, the G signal, and the B signal output from the first detection unit 310 is a signal indicating the position of the noise pixel.

第2検出部320は、R信号、G信号、B信号が1ラインずつ順に入力される。第2検出部320は、第1検出部310よりもノイズ画素を検出する精度が低い方法でノイズ画素を検出する。第2検出部320は、R信号用の検出信号が入力されることに応じて、ラインごとに入力されるR信号、G信号、B信号ごとに、ノイズ画素を「1」、その他の画素を「0」とする論理信号を出力する。   The second detection unit 320 receives the R signal, the G signal, and the B signal in order line by line. The second detection unit 320 detects the noise pixel by a method with a lower accuracy of detecting the noise pixel than the first detection unit 310. In response to the detection signal for the R signal being input, the second detection unit 320 sets the noise pixel to “1” for each R signal, G signal, and B signal input for each line, and sets the other pixels to A logic signal to be “0” is output.

セレクタ313は、制御部から原稿台205の位置情報と、使用領域とが入力される。位置情報は、第1検出部310および第2検出部320が出力する論理信号に対応するRGB信号が読取られた時点における、読取位置Lにある原稿台205の位置を示す。セレクタ313は、原稿台205の位置が、使用領域に含まれる場合には、第1検出部310の出力を選択して出力し、使用領域に含まれない場合には第2検出部320の出力を選択して出力する。これにより、事前にゴミがあると分かっている使用領域でない領域で読取られたRGB信号に対しては第1検出部310の出力を有効とし、ゴミが少ないかまたは全くゴミがないと分かっている使用領域で読取られたRGB信号に対しては第2検出部320の出力を有効とする。第2検出部320は、第1検出部310よりも検出精度が低いため、第1検出部310は、第2検出部320に比較して、誤検出は少ないが検出率が小さい。このように、事前にノイズが多く含まれると予想されるRGB信号に対しては、第1検出部310の出力を選択することで誤検出を少なくすることができ、事前にノイズが少ないと予想されるRGB信号に対しては、第2検出部320の出力を選択することで検出率を向上させることができる。これにより、誤検出を少なくしつつ、検出率を向上させることができる。   The selector 313 receives position information of the document table 205 and a use area from the control unit. The position information indicates the position of the document table 205 at the reading position L at the time when the RGB signal corresponding to the logic signal output from the first detection unit 310 and the second detection unit 320 is read. The selector 313 selects and outputs the output of the first detection unit 310 when the position of the document table 205 is included in the use region, and the output of the second detection unit 320 when it is not included in the use region. Select to output. As a result, the output of the first detection unit 310 is validated for RGB signals read in a non-use area that is known to have dust in advance, and it is known that there is little or no dust. The output of the second detection unit 320 is validated for RGB signals read in the use area. Since the second detection unit 320 has lower detection accuracy than the first detection unit 310, the first detection unit 310 has fewer false detections but a lower detection rate than the second detection unit 320. In this way, for RGB signals that are expected to contain a lot of noise in advance, it is possible to reduce false detection by selecting the output of the first detection unit 310, and it is expected that there will be little noise in advance. For the RGB signals to be processed, the detection rate can be improved by selecting the output of the second detector 320. Thereby, the detection rate can be improved while reducing erroneous detection.

<第1検出部>
図14は、読取部が出力するRGB信号の一例を示す図である。図14(A)は、黒色のゴミが原稿台のラインセンサ213Rに対応する領域205Rに付着しており、原稿の白色の領域を読取った場合の一例を示している。ラインセンサ213Rが黒色のゴミを読取った時点の原稿の領域が、ラインセンサ213G,213Bに対応する領域205G,205Bに移動した時点では、ゴミはラインセンサ213G,213Bに対応する領域205G,205Bには存在しない。原稿と原稿台205とが異なる速度で移動するからである。このため、ラインセンサ213G,213Bでは、原稿の白色の領域を読取ることになる。その結果、ラインセンサ213Rが出力するR信号だけが明度が低くなり、ラインセンサ213G,213Bが出力するG信号、B信号は明度が高い。なお、ここでは、反射光に応じた3つのラインセンサ213R,213G,213Bの出力値を明度という。
<First detection unit>
FIG. 14 is a diagram illustrating an example of RGB signals output by the reading unit. FIG. 14A shows an example in which black dust is attached to the area 205R corresponding to the line sensor 213R on the document table, and the white area of the document is read. When the area of the original when the line sensor 213R reads black dust moves to the areas 205G and 205B corresponding to the line sensors 213G and 213B, the dust enters the areas 205G and 205B corresponding to the line sensors 213G and 213B. Does not exist. This is because the document and the document table 205 move at different speeds. For this reason, the line sensors 213G and 213B read the white area of the document. As a result, only the R signal output from the line sensor 213R has low brightness, and the G and B signals output from the line sensors 213G and 213B have high brightness. Here, the output values of the three line sensors 213R, 213G, and 213B corresponding to the reflected light are referred to as brightness.

図14(A)に示すRGB信号の組合せは、ゴミのない状態で原稿を読取った場合に出力されることは希である。最も近い組合せは、赤の補色である青緑の領域を読取った場合である。図14(B)は、原稿の青緑の領域を読取った場合に読取部213が出力するRGB信号を示す図である。R信号は明度が大きく下がるがG信号およびB信号の明度も下がる。このため、明度が大きく下がるR信号の明度の変化を、しきい値Ref1(R)を用いて検出することができる。   The RGB signal combination shown in FIG. 14A is rarely output when a document is read in a dust-free state. The closest combination is when a blue-green region which is a complementary color of red is read. FIG. 14B is a diagram illustrating RGB signals output from the reading unit 213 when a blue-green region of a document is read. The brightness of the R signal is greatly lowered, but the brightness of the G signal and the B signal is also lowered. Therefore, a change in the brightness of the R signal whose brightness is greatly reduced can be detected using the threshold value Ref1 (R).

図14(A)に示すRGB信号と図14(B)に示すRGB信号とではB信号とG信号が影響を受けるか受けないかの大きな違いがある。この違いを検出することにより、青緑の線を誤ってノイズとして検出することなく、黒色のゴミをノイズとして検出することができる。したがって、B信号の明度の変化をしきい値Ref2(B)を用いて検出する。しきい値Ref2(B)は、次の値のうち最も小さな値とすればよい。以下では、しきい値Ref2(R),Ref2(G),Ref2(B)を示している。   There is a big difference between the RGB signal shown in FIG. 14A and the RGB signal shown in FIG. 14B whether the B signal and the G signal are affected or not. By detecting this difference, black dust can be detected as noise without erroneously detecting the blue-green line as noise. Therefore, a change in the brightness of the B signal is detected using the threshold value Ref2 (B). The threshold value Ref2 (B) may be the smallest value among the following values. In the following, threshold values Ref2 (R), Ref2 (G), and Ref2 (B) are shown.

(1)明度の高い無彩色のゴミを検出する場合
青緑の線をノイズとして誤って検出することがないように、赤の補色である青緑を読取った場合に、ラインセンサ213R以外のラインセンサ213G,213Bのいずれか一方が出力する明度と明度の最大値(255)との差Ref2(G),Ref2(B)とすればよい。赤紫の線をノイズとして誤って検出することがないように、緑の補色である赤紫を読取った場合に、ラインセンサ213G以外のラインセンサ213R,213Bのいずれか一方が出力する明度と最大明度(255)との差Ref2(R),Ref2(B)とすればよい。黄の線をノイズとして誤って検出することがないように、青の補色である黄を読取った場合に、ラインセンサ213B以外のラインセンサ213R,213Gのいずれか一方が出力する明度と最大明度(255)との差Ref2(R),Ref2(G)とすればよい。
(1) When detecting achromatic dust with high brightness When reading blue-green, which is a complementary color of red, so that a blue-green line is not erroneously detected as noise, a line other than the line sensor 213R is detected. The difference between the lightness output from one of the sensors 213G and 213B and the maximum lightness value (255) may be set as Ref2 (G) and Ref2 (B). The brightness and maximum output by either one of the line sensors 213R and 213B other than the line sensor 213G when reading the magenta complementary color of green so that the magenta line is not erroneously detected as noise. Differences from brightness (255) may be set as Ref2 (R) and Ref2 (B). In order to prevent the yellow line from being erroneously detected as noise, the brightness and maximum brightness (one of the line sensors 213R and 213G other than the line sensor 213B output when reading yellow, which is a complementary color of blue) ( And Ref2 (R) and Ref2 (G).

(2)明度の低い無彩色のゴミを検出する場合
赤の線をノイズとして誤って検出することがないように、赤を読取った場合に、ラインセンサ213R以外のラインセンサ213G,213Bのいずれか一方が出力する明度と明度の最小値(0)との差Ref2(G),Ref2(B)とすればよい。緑の線をノイズとして誤って検出することがないように、緑を読取った場合に、ラインセンサ213G以外のラインセンサ213R,213Bのいずれか一方が出力する明度と最小値(0)との差Ref2(R),Ref2(B)とすればよい。青の線をノイズとして誤って検出することがないように、青を読取った場合に、ラインセンサ213B以外のラインセンサ213R,213Gのいずれか一方が出力する明度と最小値(0)との差Ref2(R),Ref2(G)とすればよい。
(2) When detecting achromatic dust having low lightness Any of the line sensors 213G and 213B other than the line sensor 213R is read when red is read so that the red line is not erroneously detected as noise. The difference between the lightness output by one and the minimum value (0) of lightness may be Ref2 (G) and Ref2 (B). The difference between the lightness output by one of the line sensors 213R and 213B other than the line sensor 213G and the minimum value (0) when green is read so that the green line is not erroneously detected as noise. Ref2 (R) and Ref2 (B) may be used. The difference between the lightness output by one of the line sensors 213R and 213G other than the line sensor 213B and the minimum value (0) when blue is read so that the blue line is not erroneously detected as noise. Ref2 (R) and Ref2 (G) may be used.

このようにして、しきい値Ref2(R),Ref2(G),Ref2(B)は、複数が求まるが、それらの最小値を用いればよい。   In this way, a plurality of threshold values Ref2 (R), Ref2 (G), and Ref2 (B) can be obtained, and the minimum value thereof may be used.

ここでは、黒色のゴミをノイズとして検出することを説明するが、黒色でなくても無彩色のゴミであれば検出することが可能である。無彩色のゴミであれば、R信号、G信号およびB信号の全てに影響を与えるからである。   Here, detection of black dust as noise will be described, but it is possible to detect non-black dust if it is achromatic. This is because an achromatic color dust affects all of the R signal, the G signal, and the B signal.

また、ここでは白色の原稿を読取る場合を例に説明するが、原稿の色は白色に限定されることなく、どのような色であってもよい。   Although a case where a white document is read will be described as an example here, the color of the document is not limited to white and may be any color.

図15は、本実施の形態における画像読取装置のノイズ検出処理部の第1検出部の構成を示すブロック図である。図15を参照して、第1検出部310は、入力されるR信号、G信号、B信号それぞれから所定の特徴を有する領域を抽出するための第1明度差検出部301R、301G,301Bおよび第2明度差検出部302R,302G,302Bと、第2明度差検出部302R、302G,302Bで抽出された領域を周辺に拡張するための検出結果拡張処理部303R,303G,303Bと、否定論理和素子305R,305G,305Bと、論理積素子307R,307G,307Bと、検出エリア拡張処理部309R,309G,309Bとを含む。   FIG. 15 is a block diagram illustrating a configuration of the first detection unit of the noise detection processing unit of the image reading apparatus according to the present embodiment. Referring to FIG. 15, the first detection unit 310 includes first brightness difference detection units 301R, 301G, and 301B for extracting regions having predetermined characteristics from the input R signal, G signal, and B signal. Second lightness difference detection units 302R, 302G, and 302B, detection result expansion processing units 303R, 303G, and 303B for extending the regions extracted by the second lightness difference detection units 302R, 302G, and 302B to the periphery; Sum elements 305R, 305G, and 305B, AND elements 307R, 307G, and 307B, and detection area expansion processing units 309R, 309G, and 309B are included.

R信号、G信号、B信号が1ラインずつ順に第1検出部310に入力される。なお、R信号、G信号、B信号は、複数ラインまとめて入力されてもよく、画像全体でまとめて入力されてもよい。   The R signal, the G signal, and the B signal are input to the first detection unit 310 one line at a time. Note that the R signal, the G signal, and the B signal may be input together for a plurality of lines, or may be input for the entire image.

第1明度差検出部301Rは、R信号としきい値Ref1(R)とが入力される。第1明度差検出部301Rは、R信号から第1レベルの所定の特徴を有する領域を抽出する。第1レベルの所定の特徴を有する領域とは、明度の変化が少ない領域であって、周辺の領域と明度の差がしきい値Ref1(R)以上の領域である。そのような領域は、1画素以上の大きさであればよい。ここでは、第1レベルの所定の特徴を有する領域に含まれる画素を第1特徴画素という。   The first lightness difference detector 301R receives the R signal and the threshold value Ref1 (R). The first brightness difference detection unit 301R extracts a region having a first level predetermined feature from the R signal. The region having the first level predetermined feature is a region where the change in lightness is small and a difference in lightness from the surrounding region is a threshold value Ref1 (R) or more. Such a region may have a size of one pixel or more. Here, a pixel included in a region having a predetermined feature at the first level is referred to as a first feature pixel.

第1レベルの所定の特徴を有する領域は、エッジ抽出フィルタを用いて抽出するようにしてもよい。エッジ抽出フィルタは、エッジ領域のサイズごとに複数準備され、フィルタ処理の結果得られる値としきい値Ref1(R)とが比較される。そして、しきい値Ref1(R)との条件を満たす画素がエッジ領域の中心画素とされ、その条件をみたしたエッジ抽出フィルタからエッジ領域のサイズが求められる。   The region having the first level predetermined feature may be extracted using an edge extraction filter. A plurality of edge extraction filters are prepared for each size of the edge region, and the value obtained as a result of the filtering process is compared with the threshold value Ref1 (R). The pixel that satisfies the condition of the threshold value Ref1 (R) is set as the center pixel of the edge region, and the size of the edge region is obtained from the edge extraction filter that satisfies the condition.

図16は、エッジ抽出フィルタの一例を示す図である。図16(A)は、R信号が1ラインずつ入力される場合に1画素のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。図16(B)は、R信号が複数ラインまとめて入力される場合に1画素のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。   FIG. 16 is a diagram illustrating an example of an edge extraction filter. FIG. 16A shows an edge extraction filter used for detecting an edge region having a size of one pixel when an R signal is input line by line. FIG. 16B shows an edge extraction filter used to detect an edge region having a size of one pixel when a plurality of R signals are input together.

図16(C)は、R信号が1ラインずつ入力される場合に3画素のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。図16(D)は、R信号が複数ラインまとめて入力される場合に3画素のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。   FIG. 16C shows an edge extraction filter used for detecting an edge region having a size of 3 pixels when the R signal is input line by line. FIG. 16D shows an edge extraction filter that is used to detect an edge region having a size of 3 pixels when a plurality of lines of R signals are input.

図16(E)は、R信号が1ラインずつ入力される場合に5画素のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。図16(F)は、R信号が複数ラインまとめて入力される場合に5画素のサイズのエッジ領域を検出するために用いられるエッジ抽出フィルタを示す。これらのエッジ抽出フィルタの成立条件は、次のようになる。   FIG. 16E shows an edge extraction filter used to detect an edge region having a size of 5 pixels when an R signal is input line by line. FIG. 16F shows an edge extraction filter used to detect an edge region having a size of 5 pixels when a plurality of R signals are input together. The conditions for establishing these edge extraction filters are as follows.

(1)明度が高いエッジ領域の判定条件は、画素Aと画素Bの明度の平均から画素Cの明度の平均を減算した値がしきい値Ref1(R)以上の場合である。   (1) The determination condition for the edge region with high brightness is when the value obtained by subtracting the average brightness of pixel C from the average brightness of pixels A and B is equal to or greater than threshold value Ref1 (R).

平均(画素Aと画素B)−平均(画素C)>Ref1(R)
この場合の中心画素は、画素Aと画素Bと画素Cのうち明度が最大の画素である。
Average (pixel A and pixel B) -average (pixel C)> Ref1 (R)
The central pixel in this case is the pixel having the maximum brightness among the pixels A, B, and C.

(2)明度が低いエッジ領域の判定条件は、画素Cの明度の平均から画素Aと画素Bの明度の平均を減算した値がしきい値Ref1(R)以上の場合である。   (2) The determination condition for the edge region with low brightness is when the value obtained by subtracting the average brightness of the pixels A and B from the average brightness of the pixel C is equal to or greater than the threshold value Ref1 (R).

平均(画素C)−平均(画素Aと画素B)>Ref1(R)
この場合の中心画素は、画素Aと画素Bと画素Cのうち明度が最小の画素である。
Average (pixel C) -average (pixel A and pixel B)> Ref1 (R)
The central pixel in this case is a pixel having the minimum brightness among the pixel A, the pixel B, and the pixel C.

G信号、B信号についても、R信号に用いられるのと同様のエッジ抽出フィルタを用いることができる。   For the G signal and the B signal, the same edge extraction filter as that used for the R signal can be used.

第1明度差検出部301R,301G,301Bでは、上述したエッジ抽出フィルタで算出された値と、しきい値Ref1(R),Ref1(G),Ref1(B)とが比較される。   In the first lightness difference detection units 301R, 301G, and 301B, the values calculated by the above-described edge extraction filter are compared with the threshold values Ref1 (R), Ref1 (G), and Ref1 (B).

図15に戻って、第1明度差検出部301Rで抽出された第1特徴画素を「1」とし、そうでない画素を「0」とした論理信号が、論理積素子307Rに出力される。   Returning to FIG. 15, a logic signal in which the first feature pixel extracted by the first brightness difference detection unit 301 </ b> R is “1” and the other pixel is “0” is output to the AND element 307 </ b> R.

第2明度差検出部302Rは、R信号としきい値Ref2(R)とが入力される。第2明度差検出部302Rは、R信号から第2レベルの所定の特徴を有する領域を抽出する。第2レベルの所定の特徴を有する領域とは、明度の変化が少ない領域であって、周辺の領域と明度の差がしきい値Ref2(R)以上の領域である。そのような領域は、1画素以上の大きさであればよい。ここでは、第2レベルの所定の特徴を有する領域に含まれる画素を第2特徴画素という。しきい値Ref2(R)は、しきい値Ref1(R)よりも小さな値である。   The second lightness difference detection unit 302R receives the R signal and the threshold value Ref2 (R). The second brightness difference detection unit 302R extracts a region having a second level predetermined feature from the R signal. The region having the second level predetermined feature is a region where the change in lightness is small, and is a region where the difference in lightness from the surrounding region is equal to or greater than the threshold value Ref2 (R). Such a region may have a size of one pixel or more. Here, a pixel included in an area having a second level predetermined feature is referred to as a second feature pixel. The threshold value Ref2 (R) is smaller than the threshold value Ref1 (R).

第2レベルの所定の特徴を有する領域は、エッジ抽出フィルタを用いて抽出するようにしてもよい。エッジ抽出フィルタは、エッジ領域のサイズごとに複数準備され、フィルタ処理の結果得られる値としきい値Ref2(R)とが比較される。そして、しきい値Ref2(R)との条件を満たす画素がエッジ領域の中心画素とされ、その条件をみたしたエッジ抽出フィルタからエッジ領域のサイズが求められる。   The region having the second level predetermined feature may be extracted using an edge extraction filter. A plurality of edge extraction filters are prepared for each size of the edge region, and a value obtained as a result of the filtering process is compared with a threshold value Ref2 (R). Then, the pixel that satisfies the condition of the threshold value Ref2 (R) is set as the center pixel of the edge region, and the size of the edge region is obtained from the edge extraction filter that satisfies the condition.

第2明度差検出部302R,302G,302Bでは、上述したエッジ抽出フィルタで算出された値と、しきい値Ref2(R),Ref2(G),Ref2(B)とが比較される。   In the second brightness difference detection units 302R, 302G, and 302B, the values calculated by the edge extraction filter described above are compared with the threshold values Ref2 (R), Ref2 (G), and Ref2 (B).

第2明度差検出部302Rで抽出された第2特徴画素を「1」とし、そうでない画素を「0」とした論理信号が、検出結果拡張処理部303Rに出力される。   A logic signal in which the second feature pixel extracted by the second brightness difference detection unit 302R is set to “1” and the other pixel is not set to “0” is output to the detection result extension processing unit 303R.

検出結果拡張処理部303Rは、第2明度差検出部302Rで抽出された第2特徴画素の周辺の画素を第2特徴画素とすることにより、第2レベルの所定の特徴を有する領域を拡張する。すなわち、第2明度差検出部302Rから入力される論理信号の値が「1」の画素の周辺にある値が「0」の画素の値を「1」に変更する。これにより、ノイズ検出の精度を向上させることができる。領域を拡張した論理信号は、否定論理和素子305G、305Bに出力される。   The detection result expansion processing unit 303R expands an area having a predetermined feature of the second level by setting a pixel around the second feature pixel extracted by the second brightness difference detection unit 302R as the second feature pixel. . That is, the value of the pixel having the value “0” around the pixel having the logic signal value “1” input from the second brightness difference detection unit 302R is changed to “1”. Thereby, the accuracy of noise detection can be improved. The logic signal in which the area is expanded is output to the negative OR elements 305G and 305B.

第1明度差検出部301Gは、G信号としきい値Ref1(G)とが入力される。第1明度差検出部301Gは、G信号から第1レベルの所定の特徴を有する領域を抽出する。第1レベルの所定の特徴を有する領域とは、明度の変化が少ない領域であって、周辺の領域と明度の差がしきい値Ref1(G)以上の領域である。   The first lightness difference detection unit 301G receives the G signal and the threshold value Ref1 (G). The first brightness difference detection unit 301G extracts a region having a first level predetermined feature from the G signal. The region having the first level predetermined feature is a region where the change in lightness is small and a difference in lightness from the surrounding region is a threshold value Ref1 (G) or more.

第1レベルの所定の特徴を有する領域は、エッジ抽出フィルタを用いて抽出するようにしてもよい。エッジ抽出フィルタは、エッジ領域のサイズごとに複数準備され、フィルタ処理の結果得られる値としきい値Ref1(G)とが比較される。そして、しきい値Ref1(G)との条件を満たす画素がエッジ領域の中心画素とされ、その条件をみたしたエッジ抽出フィルタからエッジ領域のサイズが求められる。   The region having the first level predetermined feature may be extracted using an edge extraction filter. A plurality of edge extraction filters are prepared for each size of the edge region, and the value obtained as a result of the filtering process is compared with the threshold value Ref1 (G). Then, the pixel that satisfies the condition of the threshold value Ref1 (G) is set as the center pixel of the edge region, and the size of the edge region is obtained from the edge extraction filter that satisfies the condition.

第1明度差検出部301Gで抽出された特徴画素を「1」とし、そうでない画素を「0」とした論理信号が、論理積素子307Gに出力される。   A logic signal in which the feature pixel extracted by the first brightness difference detection unit 301G is “1” and the other pixel is “0” is output to the AND element 307G.

第2明度差検出部302Gは、G信号としきい値Ref2(G)とが入力される。第2明度差検出部302Gは、G信号から第2レベルの所定の特徴を有する領域を抽出する。第2レベルの所定の特徴を有する領域とは、明度の変化が少ない領域であって、周辺の領域と明度の差がしきい値Ref2(G)以上の領域である。そのような領域は、1画素以上の大きさであればよい。ここでは、第2レベルの所定の特徴を有する領域に含まれる画素を第2特徴画素という。しきい値Ref2(G)は、しきい値Ref1(G)よりも小さな値である。   The second lightness difference detection unit 302G receives the G signal and the threshold value Ref2 (G). The second brightness difference detection unit 302G extracts a region having a second level predetermined feature from the G signal. The region having the second level predetermined feature is a region where the change in brightness is small and a difference in brightness from the surrounding region is a threshold value Ref2 (G) or more. Such a region may have a size of one pixel or more. Here, a pixel included in an area having a second level predetermined feature is referred to as a second feature pixel. The threshold value Ref2 (G) is a value smaller than the threshold value Ref1 (G).

第2レベルの所定の特徴を有する領域は、エッジ抽出フィルタを用いて抽出するようにしてもよい。エッジ抽出フィルタは、エッジ領域のサイズごとに複数準備され、フィルタ処理の結果得られる値としきい値Ref2(G)とが比較される。そして、しきい値Ref2(G)との条件を満たす画素がエッジ領域の中心画素とされ、その条件をみたしたエッジ抽出フィルタからエッジ領域のサイズが求められる。   The region having the second level predetermined feature may be extracted using an edge extraction filter. A plurality of edge extraction filters are prepared for each size of the edge region, and a value obtained as a result of the filtering process is compared with a threshold value Ref2 (G). The pixel that satisfies the condition of the threshold value Ref2 (G) is set as the center pixel of the edge region, and the size of the edge region is obtained from the edge extraction filter that satisfies the condition.

第2明度差検出部302Gで抽出された第2特徴画素を「1」とし、そうでない画素を「0」とした論理信号が、検出結果拡張処理部303Gに出力される。   A logic signal in which the second feature pixel extracted by the second brightness difference detection unit 302G is set to “1” and other pixels are not set to “0” is output to the detection result extension processing unit 303G.

検出結果拡張処理部303Gは、第2明度差検出部302Gで抽出された第2特徴画素の周辺の画素を第2特徴画素とすることにより、第2レベルの所定の特徴を有する領域を拡張する。領域を拡張した論理信号は、否定論理和素子305R、305Bに出力される。   The detection result expansion processing unit 303G expands the region having the second level predetermined feature by setting the pixels around the second feature pixel extracted by the second brightness difference detection unit 302G as the second feature pixel. . The logical signal with the expanded area is output to the negative OR elements 305R and 305B.

第1明度差検出部301Bは、B信号としきい値Ref1(B)とが入力される。第1明度差検出部301Bは、B信号から第1レベルの所定の特徴を有する領域を抽出する。第1レベルの所定の特徴を有する領域とは、明度の変化が少ない領域であって、周辺の領域と明度の差がしきい値Ref1(B)以上の領域である。   The first lightness difference detection unit 301B receives the B signal and the threshold value Ref1 (B). The first brightness difference detection unit 301B extracts a region having a first level predetermined feature from the B signal. The region having the first level predetermined feature is a region where the change in lightness is small and a difference in lightness from the surrounding region is a threshold value Ref1 (B) or more.

第1レベルの所定の特徴を有する領域は、エッジ抽出フィルタを用いて抽出するようにしてもよい。エッジ抽出フィルタは、エッジ領域のサイズごとに複数準備され、フィルタ処理の結果得られる値としきい値Ref1(B)とが比較される。そして、しきい値Ref1(B)との条件を満たす画素がエッジ領域の中心画素とされ、その条件をみたしたエッジ抽出フィルタからエッジ領域のサイズが求められる。   The region having the first level predetermined feature may be extracted using an edge extraction filter. A plurality of edge extraction filters are prepared for each size of the edge region, and the value obtained as a result of the filtering process is compared with the threshold value Ref1 (B). Then, the pixel that satisfies the condition of the threshold value Ref1 (B) is set as the center pixel of the edge region, and the size of the edge region is obtained from the edge extraction filter that satisfies the condition.

第1明度差検出部301Bで抽出された特徴画素を「1」とし、そうでない画素を「0」とした論理信号が、論理積素子307Bに出力される。   A logic signal in which the feature pixel extracted by the first brightness difference detection unit 301B is set to “1” and the other pixels are set to “0” is output to the AND element 307B.

第2明度差検出部302Bは、B信号としきい値Ref2(B)とが入力される。第2明度差検出部302Bは、B信号から第2レベルの所定の特徴を有する領域を抽出する。第2レベルの所定の特徴を有する領域とは、明度の変化が少ない領域であって、周辺の領域と明度の差がしきい値Ref2(B)以上の領域である。そのような領域は、1画素以上の大きさであればよい。ここでは、第2レベルの所定の特徴を有する領域に含まれる画素を第2特徴画素という。しきい値Ref2(B)は、しきい値Ref1(B)よりも小さな値である。   The second lightness difference detection unit 302B receives the B signal and the threshold value Ref2 (B). The second brightness difference detection unit 302B extracts a region having a second level predetermined feature from the B signal. The region having the second level predetermined feature is a region where the change in lightness is small, and is a region where the difference in lightness from the surrounding region is equal to or greater than the threshold value Ref2 (B). Such a region may have a size of one pixel or more. Here, a pixel included in an area having a second level predetermined feature is referred to as a second feature pixel. The threshold value Ref2 (B) is smaller than the threshold value Ref1 (B).

第2レベルの所定の特徴を有する領域は、エッジ抽出フィルタを用いて抽出するようにしてもよい。エッジ抽出フィルタは、エッジ領域のサイズごとに複数準備され、フィルタ処理の結果得られる値としきい値Ref2(B)とが比較される。そして、しきい値Ref2(B)との条件を満たす画素がエッジ領域の中心画素とされ、その条件をみたしたエッジ抽出フィルタからエッジ領域のサイズが求められる。   The region having the second level predetermined feature may be extracted using an edge extraction filter. A plurality of edge extraction filters are prepared for each size of the edge region, and a value obtained as a result of the filtering process is compared with a threshold value Ref2 (B). The pixel that satisfies the condition of the threshold value Ref2 (B) is set as the center pixel of the edge region, and the size of the edge region is obtained from the edge extraction filter that satisfies the condition.

第2明度差検出部302Bで抽出された第2特徴画素を「1」とし、そうでない画素を「0」とした論理信号が、検出結果拡張処理部303Bに出力される。   A logic signal in which the second feature pixel extracted by the second lightness difference detection unit 302B is set to “1” and other pixels are not set to “0” is output to the detection result extension processing unit 303B.

検出結果拡張処理部303Bは、第2明度差検出部302Bで抽出された第2特徴画素の周辺の画素を第2特徴画素とすることにより、第2レベルの所定の特徴を有する領域を拡張する。領域を拡張した論理信号は、否定論理和素子305R、305Gに出力される。   The detection result expansion processing unit 303B expands the region having the second level predetermined feature by setting the pixels around the second feature pixel extracted by the second brightness difference detection unit 302B as the second feature pixel. . The logic signal in which the area is expanded is output to the negative OR elements 305R and 305G.

否定論理和素子305Rには、検出結果拡張処理部303G,303Bそれぞれから領域を拡張した論理信号が入力される。否定論理和素子305Rは、入力された2つの論理信号の論理和を反転した論理信号を論理積素子307Rに出力する。すなわち、G信号およびB信号のいずれでも第2特徴画素でない画素を「1」とし、少なくとも一方で第2特徴画素である画素を「0」とする論理信号が出力される。   To the negative OR element 305R, a logic signal obtained by extending the area is input from each of the detection result expansion processing units 303G and 303B. The negative logical sum element 305R outputs a logical signal obtained by inverting the logical sum of the two input logical signals to the logical AND element 307R. That is, a logic signal is output that sets a pixel that is not the second feature pixel to “1” in either the G signal or the B signal and at least one pixel that is the second feature pixel to “0”.

論理積素子307Rは、第1明度差検出部301Rから入力される論理信号と、否定論理和素子305Rから入力される論理信号の論理積を、検出エリア拡張処理部309Rに出力する。すなわち、R信号で第1特徴画素であって、B信号およびG信号のいずれでも拡張された第2特徴画素でない画素を「1」とし、他の画素を「0」とする論理信号が出力される。この論理信号で値が「1」の画素はノイズ画素を示す。したがって、否定論理和素子305Rと論理積素子307Rとにより、R信号から抽出された第1特徴画素のうちから、G信号およびB信号のいずれでも第2特徴画素として抽出されなかった画素がノイズ画素として判定される。   The logical product element 307R outputs the logical product of the logical signal input from the first brightness difference detection unit 301R and the logical signal input from the negative logical sum element 305R to the detection area expansion processing unit 309R. In other words, a logical signal is output in which the pixel that is the first feature pixel in the R signal and is not the second feature pixel expanded by either the B signal or the G signal is set to “1”, and the other pixels are set to “0”. The A pixel having a value “1” in this logical signal indicates a noise pixel. Therefore, a pixel that has not been extracted as the second feature pixel in either the G signal or the B signal from among the first feature pixels extracted from the R signal by the negative OR element 305R and the AND element 307R is a noise pixel. Is determined.

検出エリア拡張処理部309Rは、論理積素子307Rから入力される論理信号で「1」とされる画素の周辺の画素を「1」とすることにより、ノイズ画素の範囲を拡張する。これは、ノイズ画素の補正の精度を向上させるためである。範囲が拡張されたノイズ画素を「1」とする論理信号が、ノイズ補正部260に出力される。   The detection area expansion processing unit 309R expands the range of the noise pixel by setting the pixels around the pixel that is set to “1” by the logic signal input from the AND element 307R to “1”. This is to improve the accuracy of noise pixel correction. A logic signal that sets the noise pixel whose range has been expanded to “1” is output to the noise correction unit 260.

否定論理和素子305Gには、検出結果拡張処理部303R,303Bそれぞれから領域を拡張した論理信号が入力される。否定論理和素子305Gは、入力された2つの論理信号の論理和を反転した論理信号を論理積素子307Gに出力する。すなわち、R信号およびB信号のいずれでも第2特徴画素でない画素を「1」とし、少なくとも一方で第2特徴画素である画素を「0」とする論理信号が出力される。   A logical signal obtained by extending the area from each of the detection result expansion processing units 303R and 303B is input to the negative logical sum element 305G. The negative logical sum element 305G outputs a logical signal obtained by inverting the logical sum of two input logical signals to the logical AND element 307G. In other words, a logic signal is output that sets a pixel that is not the second feature pixel to “1” in both the R signal and the B signal, and at least one pixel that is the second feature pixel to “0”.

論理積素子307Gは、第1明度差検出部301Gから入力される論理信号と、否定論理和素子305Gから入力される論理信号の論理積を、検出エリア拡張処理部309Gに出力する。すなわち、G信号で第1特徴画素であって、R信号およびB信号のいずれでも拡張された第2特徴画素でない画素を「1」とし、他の画素を「0」とする論理信号が出力される。この論理信号で値が「1」の画素はノイズ画素を示す。したがって、否定論理和素子305Gと論理積素子307Gとにより、G信号から抽出された第1特徴画素のうちから、R信号およびB信号のいずれでも第2特徴画素として抽出されなかった画素がノイズ画素として判定される。   The logical product element 307G outputs the logical product of the logical signal input from the first brightness difference detection unit 301G and the logical signal input from the negative logical sum element 305G to the detection area expansion processing unit 309G. In other words, a logical signal is output in which the pixel that is the first feature pixel in the G signal and is not the second feature pixel expanded by either the R signal or the B signal is set to “1”, and the other pixels are set to “0”. The A pixel having a value “1” in this logical signal indicates a noise pixel. Therefore, a pixel that is not extracted as a second feature pixel in either the R signal or the B signal is a noise pixel among the first feature pixels extracted from the G signal by the negative OR element 305G and the AND element 307G. Is determined.

検出エリア拡張処理部309Gは、論理積素子307Gから入力される論理信号で「1」とされる画素の周辺の画素を「1」とすることにより、ノイズ画素の範囲を拡張する。これは、ノイズ画素の補正の精度を向上させるためである。範囲が拡張されたノイズ画素を「1」とする論理信号が、ノイズ補正部260に出力される。   The detection area expansion processing unit 309G expands the range of the noise pixel by setting the pixels around the pixel that is set to “1” by the logic signal input from the AND element 307G to “1”. This is to improve the accuracy of noise pixel correction. A logic signal that sets the noise pixel whose range has been expanded to “1” is output to the noise correction unit 260.

否定論理和素子305Bには、検出結果拡張処理部303R,303Gそれぞれから領域を拡張した論理信号が入力される。否定論理和素子305Bは、入力された2つの論理信号の論理和を反転した論理信号を論理積素子307Bに出力する。すなわち、R信号およびG信号のいずれでも第2特徴画素でない画素を「1」とし、少なくとも一方で第2特徴画素である画素を「0」とする論理信号が出力される。   A logical signal obtained by extending the area from each of the detection result expansion processing units 303R and 303G is input to the negative logical sum element 305B. The negative logical sum element 305B outputs a logical signal obtained by inverting the logical sum of two input logical signals to the logical product element 307B. That is, a logic signal is output that sets a pixel that is not the second feature pixel to “1” in either the R signal or the G signal, and at least one pixel that is the second feature pixel to “0”.

論理積素子307Bは、第1明度差検出部301Bから入力される論理信号と、否定論理和素子305Bから入力される論理信号の論理積を、検出エリア拡張処理部309Bに出力する。すなわち、B信号で第1特徴画素であって、R信号およびG信号のいずれでも拡張された第2特徴画素でない画素を「1」とし、他の画素を「0」とする論理信号が出力される。この論理信号で値が「1」の画素はノイズ画素を示す。したがって、否定論理和素子305Bと論理積素子307Bとにより、B信号から抽出された第1特徴画素のうちから、R信号およびG信号のいずれでも第2特徴画素として抽出されなかった画素がノイズ画素として判定される。   The logical product element 307B outputs the logical product of the logical signal input from the first brightness difference detection unit 301B and the logical signal input from the negative logical sum element 305B to the detection area expansion processing unit 309B. In other words, a logical signal is output in which a B signal is a first feature pixel and a pixel that is not a second feature pixel expanded by either the R signal or the G signal is set to “1” and the other pixels are set to “0”. The A pixel having a value “1” in this logical signal indicates a noise pixel. Therefore, a pixel that is not extracted as a second feature pixel in either the R signal or the G signal is a noise pixel among the first feature pixels extracted from the B signal by the negative OR element 305B and the AND element 307B. Is determined.

検出エリア拡張処理部309Bは、論理積素子307Bから入力される論理信号で「1」とされる画素の周辺の画素を「1」とすることにより、ノイズ画素の範囲を拡張する。これは、ノイズ画素の補正の精度を向上させるためである。範囲が拡張されたノイズ画素を「1」とする論理信号が、ノイズ補正部260に出力される。   The detection area expansion processing unit 309B expands the range of the noise pixel by setting the pixels around the pixel that is set to “1” by the logical signal input from the AND element 307B to “1”. This is to improve the accuracy of noise pixel correction. A logic signal that sets the noise pixel whose range has been expanded to “1” is output to the noise correction unit 260.

以上説明したように、第1検出部310は、3つのラインセンサ213R,213G,213Bが出力するR信号、G信号およびB信号それぞれから第1特徴画素および第2特徴画素を抽出する。そして、次の画素をノイズ画素とする。   As described above, the first detection unit 310 extracts the first feature pixel and the second feature pixel from the R signal, the G signal, and the B signal output from the three line sensors 213R, 213G, and 213B, respectively. The next pixel is a noise pixel.

(1)R信号から抽出された第1特徴画素であって、G信号およびB信号において該第1特徴画素と原稿の同じ位置を読取った画素の全てが第2特徴画素でない画素。   (1) Pixels that are first feature pixels extracted from the R signal, and that all of the pixels that read the same positions of the first feature pixel and the original in the G signal and B signal are not second feature pixels.

(2)G信号から抽出された第1特徴画素であって、R信号およびB信号において該第1特徴画素と原稿の同じ位置を読取った画素の全てが第2特徴画素でない画素。   (2) First feature pixels extracted from the G signal, and all of the pixels that read the same position of the original feature pixel and the original in the R signal and the B signal are not second feature pixels.

(3)B信号から抽出された第1特徴画素であって、R信号およびG信号において該第1特徴画素と原稿の同じ位置を読取った画素の全てが第2特徴画素でない画素。   (3) The first feature pixels extracted from the B signal, and all of the pixels that have read the same position of the original feature pixel and the original in the R signal and the G signal are not second feature pixels.

このため、原稿を読取った画像から原稿台に存在するゴミにより発生するノイズを検出することができる。   For this reason, it is possible to detect noise generated by dust existing on the document table from an image obtained by reading the document.

<第2検出部>
第2検出部320は、第1検出部310とほぼ同じ構成である。第2検出部320が第1検出部310と異なる点は、しきい値が異なる。より具体的には、第2検出部320において、第1明度差検出部301R,301G,301Bに与えられるしきい値は、第1検出部310で用いられるしきい値Ref1(R),Ref1(G),Ref1(B)よりもエッジが検出されやすい小さい値とされ、第2明度差検出部302R,302G,302Bに与えられるしきい値は、第1検出部310で用いられるしきい値Ref2(R),Ref2(G),Ref2(B)よりもエッジが検出されやすい小さい値とされる。
<Second detection unit>
The second detection unit 320 has substantially the same configuration as the first detection unit 310. The second detector 320 is different from the first detector 310 in that the threshold value is different. More specifically, in the second detector 320, the threshold values given to the first lightness difference detectors 301R, 301G, 301B are the threshold values Ref1 (R), Ref1 ( G), Ref1 (B) is a smaller value at which the edge is more easily detected, and the threshold value given to the second brightness difference detection units 302R, 302G, 302B is the threshold value Ref2 used by the first detection unit 310. (R), Ref2 (G), and Ref2 (B) are set to a smaller value at which the edge is more easily detected.

また、第2検出部320を、第1検出部310から第2明度差検出部302R,302G,302Bを削除し、第1明度差検出部301R,301G,301Bの出力を検出結果拡張処理部303R,303G,303Bに入力するように構成してもよい。   In addition, the second detection unit 320 deletes the second brightness difference detection units 302R, 302G, and 302B from the first detection unit 310, and outputs the outputs of the first brightness difference detection units 301R, 301G, and 301B to the detection result extension processing unit 303R. , 303G, and 303B.

また、第2検出部320は、入力されたRGB信号をL*a*b*表色系に変換し、輝度信号L*からエッジ領域を検出するようにしてもよい。エッジ領域を検出するために、図16に示したエッジ抽出フィルタを用いる。抽出されたエッジ領域に含まれる画素をノイズ画素とする。   Alternatively, the second detection unit 320 may convert the input RGB signal into the L * a * b * color system and detect an edge region from the luminance signal L *. In order to detect the edge region, the edge extraction filter shown in FIG. 16 is used. Pixels included in the extracted edge region are set as noise pixels.

また、第2検出部320を、輝度信号L*から孤立点を検出するようにしてもよい。孤立点の検出には、孤立点検出フィルタを用いて孤立点を検出する。検出された孤立点をノイズ画素とするものである。   Further, the second detection unit 320 may detect an isolated point from the luminance signal L *. For detection of an isolated point, an isolated point is detected using an isolated point detection filter. The detected isolated point is used as a noise pixel.

<ノイズ検出処理部の第1の変形例>
図17は、ノイズ検出処理部の別の構成を示すブロック図である。図を参照して、第1の変形例におけるノイズ検出処理部259Aは、第1検出部310を含む。第1検出部310Aは、図15に示した第1検出部310と同様の構成であるが、制御部263と接続される点およびしきい値を2種類有する点で異なる。
<First Modification of Noise Detection Processing Unit>
FIG. 17 is a block diagram illustrating another configuration of the noise detection processing unit. Referring to the drawing, noise detection processing unit 259A in the first modification includes a first detection unit 310. The first detection unit 310A has the same configuration as that of the first detection unit 310 illustrated in FIG. 15 except that the first detection unit 310A is connected to the control unit 263 and has two types of threshold values.

第1検出部310Aは、第1明度差検出部301R,301G,301Bに与えられるしきい値Ref1(R),Ref1(G),Ref1(B)について、エッジ検出の精度が高いしきい値と、低いしきい値との2種類のしきい値を有する。また、第2明度差検出部302R,302G,302Bに与えられるしきい値Ref2(R),Ref2(G),Ref2(B)とにおいて、エッジ検出の精度が高いしきい値と、低いしきい値との2種類のしきい値を有する。そして、これら2種類のしきい値は選択可能とされる。   The first detection unit 310A has threshold values with high edge detection accuracy for the threshold values Ref1 (R), Ref1 (G), and Ref1 (B) given to the first brightness difference detection units 301R, 301G, and 301B. Two types of threshold values, that is, a low threshold value, are provided. In addition, the threshold value Ref2 (R), Ref2 (G), and Ref2 (B) given to the second brightness difference detection units 302R, 302G, and 302B has a threshold value with high edge detection accuracy and a low threshold value. There are two types of thresholds with values. These two types of threshold values can be selected.

第1検出部310Aは、制御部263からしきい値選択信号が入力され、入力されるしきい値選択信号にしたがって、2種類のしきい値のいずれかを選択して、第1明度差検出部301R,301G,301Bと第2明度差検出部302R,302G,302Bとに与える。   The first detection unit 310A receives the threshold selection signal from the control unit 263, selects one of the two thresholds according to the input threshold selection signal, and detects the first brightness difference. To the units 301R, 301G, and 301B and the second brightness difference detection units 302R, 302G, and 302B.

制御部263は、原稿台205の位置が使用領域にある場合には、検出精度が高いしきい値を選択させるしきい値選択信号を第1検出部310Aに出力する。また、制御部263は、原稿台205の位置が使用領域にない場合には、検出精度が低いしきい値を選択させるしきい値選択信号を第1検出部310Aに出力する。   When the position of the document table 205 is in the use area, the control unit 263 outputs a threshold selection signal for selecting a threshold with high detection accuracy to the first detection unit 310A. In addition, when the position of the document table 205 is not in the use area, the control unit 263 outputs a threshold selection signal for selecting a threshold with low detection accuracy to the first detection unit 310A.

このように、原稿台が使用領域にある場合には、検出精度の高いしきい値を用いてノイズ画素が検出され、原稿台が使用領域にない場合には、検出精度の低いしきい値を用いてノイズ画素が検出される。このため、原稿台205が使用領域にある場合には、検出率は低いが誤検出されることなく検出精度を高くすることができ、原稿台205が使用領域にない場合には、検出率を向上させることができる。   As described above, when the document table is in the use area, a noise pixel is detected using a threshold value with high detection accuracy. When the document table is not in the use area, a threshold value with low detection accuracy is set. The noise pixel is detected using this. Therefore, when the document table 205 is in the use area, the detection rate is low but the detection accuracy can be increased without being erroneously detected. When the document table 205 is not in the use area, the detection rate is increased. Can be improved.

<ノイズ検出処理部の第2の変形例>
図18は、ノイズ検出処理部のさらに別の構成を示すブロック図である。図を参照して、第2の変形例におけるノイズ検出処理部259Bは、図15に示した第1検出部310と同様の構成であるが、制御部263と接続される点および用いるフィルタを選択可能な点で異なる。
<Second Modification of Noise Detection Processing Unit>
FIG. 18 is a block diagram showing still another configuration of the noise detection processing unit. Referring to the figure, noise detection processing unit 259B in the second modification example has the same configuration as that of first detection unit 310 shown in FIG. 15, but selects a point connected to control unit 263 and a filter to be used. It differs in possible points.

第1検出部310Bは、制御部263からフィルタ選択信号が入力される。第1検出部310Bは、第1検出部310と同様に、第1明度差検出部301R,301G,301Bおよび第2明度差検出部302R,302G,302Bでサイズの異なるエッジ抽出フィルタを複数有している。第1検出部310Bは、複数のエッジ抽出フィルタのうちからいずれか1つを用いてエッジ抽出処理を行なうことが可能である。また、第1検出部310と同様に、全てのエッジ抽出フィルタを用いてエッジ抽出処理を行なうことが可能である。フィルタ選択信号は、複数のエッジ抽出フィルタのうちからエッジ抽出に用いるフィルタを指定するための信号である。   The first detection unit 310 </ b> B receives a filter selection signal from the control unit 263. Similar to the first detection unit 310, the first detection unit 310B includes a plurality of edge extraction filters having different sizes in the first lightness difference detection units 301R, 301G, and 301B and the second lightness difference detection units 302R, 302G, and 302B. ing. The first detection unit 310B can perform edge extraction processing using any one of a plurality of edge extraction filters. Similarly to the first detection unit 310, it is possible to perform edge extraction processing using all edge extraction filters. The filter selection signal is a signal for designating a filter used for edge extraction from among a plurality of edge extraction filters.

制御部263は、原稿台205の位置が使用領域にある場合には、すべてのサイズのエッジ抽出フィルタを用いることを示すフィルタ選択信号を第1検出部310Bに出力する。また、制御部263は、原稿台205の位置が使用領域にない場合には、ゴミ情報記憶メモリ293から原稿台205の位置に対応するゴミ情報を読み出して、ゴミのサイズに対応するサイズのエッジ抽出フィルタを選択するためのフィルタ選択信号を第1検出部310Bに出力する。   When the position of the document table 205 is in the use area, the control unit 263 outputs a filter selection signal indicating that the edge extraction filters of all sizes are used to the first detection unit 310B. Further, when the position of the document table 205 is not in the use area, the control unit 263 reads out dust information corresponding to the position of the document table 205 from the dust information storage memory 293, and an edge having a size corresponding to the size of the dust. A filter selection signal for selecting an extraction filter is output to the first detection unit 310B.

第1検出部310Bは、制御部263から入力されるフィルタ選択信号に従って、フィルタを選択し、ノイズ画素を検出する。   The first detection unit 310B selects a filter according to the filter selection signal input from the control unit 263, and detects a noise pixel.

このように、原稿台が使用領域にある場合には、全てのサイズのエッジ抽出フィルタを用いてノイズ画素が検出され、原稿台が使用領域にない場合には、原稿台205の位置で検出されたゴミのサイズに対応したサイズのエッジ抽出フィルタを用いてノイズ画素が検出される。このため、原稿台205が使用領域にある場合には、検出率は低いが誤検出されることなく検出精度を高くすることができ、原稿台205が使用領域にない場合には、検出精度を一定のレベルに維持しつつノイズ画素を検出することができる。   As described above, when the document table is in the use area, noise pixels are detected by using edge extraction filters of all sizes, and when the document table is not in the use area, it is detected at the position of the document table 205. Noise pixels are detected using an edge extraction filter having a size corresponding to the size of dust. Therefore, when the document table 205 is in the use area, the detection accuracy is low but the detection accuracy can be increased without being erroneously detected. When the document table 205 is not in the use area, the detection accuracy is improved. Noise pixels can be detected while maintaining a constant level.

なお、制御部263は、原稿台205の位置が使用領域であるか否かに関わらず、ゴミ情報記憶メモリ293から原稿台205の位置に対応するゴミ情報を読み出して、ゴミのサイズに対応するサイズのエッジ抽出フィルタを選択するためのフィルタ選択信号を第1検出部310Bに出力するようにしてもよい。   Note that the control unit 263 reads out dust information corresponding to the position of the document table 205 from the dust information storage memory 293 regardless of whether or not the position of the document table 205 is the use area, and corresponds to the size of the dust. A filter selection signal for selecting a size edge extraction filter may be output to the first detection unit 310B.

上述した画像読取装置10は、次の発明概念も含まれる。   The image reading apparatus 10 described above includes the following inventive concept.

(1)前記第1抽出手段は、前記抽出された第1特徴画素の周辺の画素を第1特徴画素とする第1拡大手段をさらに含み、
前記第2抽出手段は、前記抽出された第2特徴画素の周辺の画素を第2特徴画素とする第2拡大手段をさらに含む、請求項4に記載の画像読取装置。
(1) The first extraction unit further includes a first enlargement unit that uses a pixel around the extracted first feature pixel as a first feature pixel,
5. The image reading apparatus according to claim 4, wherein the second extraction unit further includes a second enlargement unit that uses a pixel around the extracted second feature pixel as a second feature pixel.

(2)前記複数のラインセンサは、互いに分光感度の異なるフィルタをそれぞれ含み、
原稿から反射した光を前記フィルタを介して受光する、請求項3に記載の画像読取装置。
(2) Each of the plurality of line sensors includes filters having different spectral sensitivities,
The image reading apparatus according to claim 3, wherein the light reflected from the document is received through the filter.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明の実施の形態の1つにおける画像読取装置を備えたMFPの斜視図である。1 is a perspective view of an MFP including an image reading apparatus according to one embodiment of the present invention. 画像読取装置の内部構成の概略を示す図である。2 is a diagram illustrating an outline of an internal configuration of an image reading apparatus. FIG. 原稿台を移動させるための機構を示す斜視図である。It is a perspective view which shows the mechanism for moving an original table. 読取った画像からゴミを読取ることにより発生するノイズを検出する原理を説明するための図である。It is a figure for demonstrating the principle which detects the noise which generate | occur | produces by reading dust from the read image. 原稿台を裏面から見た平面図である。FIG. 3 is a plan view of the document table viewed from the back side. 読取部で読取られる原稿台上の位置を示す図である。It is a figure which shows the position on the original stand read by a reading part. 本実施の形態における画像読取装置の画像処理部の構成を示すブロック図である。3 is a block diagram illustrating a configuration of an image processing unit of the image reading apparatus according to the present embodiment. FIG. 読取前検出部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the detection part before reading. 重付係数テーブルの一例を示す図である。It is a figure which shows an example of a weighting coefficient table. 原稿台を副走査方向に3分割した領域を示す図である。It is a figure which shows the area | region which divided the original table into 3 in the subscanning direction. 読取前検出部の概略構成を示す別のブロック図である。It is another block diagram which shows schematic structure of the detection part before a reading. 重付係数テーブルの一例を示す別の図である。It is another figure which shows an example of a weighting coefficient table. 本実施の形態における画像読取装置のノイズ検出処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the noise detection process part of the image reading apparatus in this Embodiment. 読取部が出力するRGB信号の一例を示す図である。It is a figure which shows an example of the RGB signal which a reading part outputs. 本実施の形態における画像読取装置のノイズ検出処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the noise detection process part of the image reading apparatus in this Embodiment. エッジ抽出フィルタの一例を示す図である。It is a figure which shows an example of an edge extraction filter. ノイズ検出処理部の別の構成を示すブロック図である。It is a block diagram which shows another structure of a noise detection process part. ノイズ検出処理部のさらに別の構成を示すブロック図である。It is a block diagram which shows another structure of a noise detection process part.

符号の説明Explanation of symbols

10 画像読取装置、20 画像形成装置、101 自動原稿搬送装置、103 本体部、200 原稿、201 タイミングローラ対、202 ローラ対、203 上部規制板、205 原稿台、205A マーク、206 光源、207 通紙ガイド、208 反射部材、209 反射ミラー、211 レンズ、213 読取部、213R,213G,213B ラインセンサ、215 画像処理部、217 モータ制御部、219 モータ、253 シェーディング補正部、255 ライン間補正部、257 色収差補正部、259 ノイズ検出処理部、261 プリンタインタフェース、263 制御部、271 読取前検出部、273 ADF制御部、291 ピーク値検出部、292 ゴミサイズ検出部、292A ゴミ明度検出部、293 ゴミ情報記憶メモリ、294,294A 汚れ度算出部、296,296A 重付係数テーブル、295 使用領域決定部、301R,301G,301B 第1明度差検出部、302R,302G,302B 第2明度差検出部、303R,303G,303B 検出結果拡張処理部、305R,305G,305B 否定論理和素子、307R,307G,307B 論理積素子、309R,309G,309B 検出エリア拡張処理部。   DESCRIPTION OF SYMBOLS 10 Image reading apparatus, 20 Image forming apparatus, 101 Automatic document conveying apparatus, 103 Main body part, 200 Document, 201 Timing roller pair, 202 Roller pair, 203 Upper restriction plate, 205 Document stand, 205A mark, 206 Light source, 207 Passing paper Guide, 208 reflection member, 209 reflection mirror, 211 lens, 213 reading unit, 213R, 213G, 213B line sensor, 215 image processing unit, 217 motor control unit, 219 motor, 253 shading correction unit, 255 interline correction unit, 257 Chromatic aberration correction unit, 259 noise detection processing unit, 261 printer interface, 263 control unit, 271 pre-reading detection unit, 273 ADF control unit, 291 peak value detection unit, 292 dust size detection unit, 292A dust lightness detection unit, 293 dust information Storage memory, 294, 294A Contamination level calculation unit, 296, 296A Weighted coefficient table, 295 Use area determination unit, 301R, 301G, 301B First brightness difference detection unit, 302R, 302G, 302B Second brightness difference detection unit, 303R , 303G, 303B detection result expansion processing unit, 305R, 305G, 305B negative OR element, 307R, 307G, 307B logical product element, 309R, 309G, 309B detection area expansion processing unit.

Claims (13)

原稿を副走査方向に走査するためのラインセンサと、
原稿の搬送経路の一部を形成する原稿台と、
前記原稿台を前記ラインセンサに相対して移動させる移動手段と、
前記原稿台の前記ラインセンサに対する相対位置を検出する位置検出手段と、
原稿を読取る前の段階で前記原稿台の移動可能な範囲全体に渡って前記原稿台を移動させて、前記原稿台を移動させている間に前記ラインセンサから出力されるデータから所定の特徴を有する特徴画素を抽出する抽出手段と、
前記抽出された特徴画素と、該特徴画素が抽出されたデータを前記ラインセンサで読取った時点の前記原稿台の前記相対位置とに基づき、前記原稿台の前記相対位置ごとの汚れ度を決定する汚れ度決定手段と、
原稿を搬送するための原稿搬送手段と、
前記原稿搬送手段により搬送される原稿を前記ラインセンサで走査する間、前記ラインセンサが出力するデータからノイズを検出するノイズ検出手段とを備え、
前記原稿搬送手段により搬送される原稿を前記ラインセンサで走査する間、
前記移動手段は、前記原稿台を移動させ、
前記位置検出手段は、前記ラインセンサが原稿を読取った時点における前記原稿台の前記ラインセンサに対する相対位置を検出し、
前記ノイズ検出手段は、前記検出された相対位置に対応する汚れ度に応じた精度で前記ラインセンサが出力するデータからノイズを検出する、画像読取装置。
A line sensor for scanning the document in the sub-scanning direction;
A document table that forms part of the document transport path;
Moving means for moving the document table relative to the line sensor;
Position detecting means for detecting a relative position of the document table with respect to the line sensor;
The document table is moved over the entire movable range of the document table before reading the document, and predetermined characteristics are obtained from the data output from the line sensor while the document table is moved. Extraction means for extracting feature pixels having;
Based on the extracted feature pixel and the relative position of the document table at the time when the data from which the feature pixel was extracted is read by the line sensor, the degree of contamination for each relative position of the document table is determined. A degree of contamination determination;
An original conveying means for conveying an original;
Noise detecting means for detecting noise from data output by the line sensor while scanning the original conveyed by the original conveying means with the line sensor;
While scanning the original conveyed by the original conveying means with the line sensor,
The moving means moves the document table,
The position detecting means detects a relative position of the document table with respect to the line sensor at the time when the line sensor reads the document;
The noise detection unit is an image reading apparatus that detects noise from data output from the line sensor with an accuracy corresponding to a degree of contamination corresponding to the detected relative position.
前記ノイズ検出手段は、前記決定された相対位置ごとの汚れ度に基づいて、前記原稿台のゴミの少ない特定領域を決定する領域決定手段と、
前記ラインセンサが出力するデータからノイズを検出する第1検出手段と、
前記第1検出手段に比較して低い精度で前記ラインセンサが出力するデータからノイズを検出する第2検出手段と、
前記検出された相対位置が前記特定領域であるか否かに応じて、前記第1検出手段の出力と前記第2検出手段の出力とを切換える切換手段とを含む、請求項1に記載の画像読取装置。
The noise detection means, based on the determined degree of dirt for each relative position, an area determination means for determining a specific area of the document table with less dust;
First detection means for detecting noise from data output by the line sensor;
Second detection means for detecting noise from data output by the line sensor with lower accuracy than the first detection means;
2. The image according to claim 1, further comprising switching means for switching between the output of the first detection means and the output of the second detection means in accordance with whether or not the detected relative position is the specific region. Reader.
前記切換手段は、前記検出された相対位置が前記特定領域の場合に前記第1検出手段の出力を選択し、前記検出された相対位置が前記特定領域でない場合に前記第2検出手段の出力を選択する、請求項2に記載の画像読取装置。   The switching means selects the output of the first detection means when the detected relative position is in the specific area, and outputs the output of the second detection means when the detected relative position is not the specific area. The image reading apparatus according to claim 2, wherein the image reading apparatus is selected. 前記ラインセンサは、副走査方向に距離を隔てて複数が配置され、
前記第1検出手段は、前記複数のラインセンサが出力する複数のデータそれぞれから所定の特徴を有する第1のレベルの第1特徴画素を抽出する第1抽出手段と、
前記複数のデータ間で原稿の同じ位置を読取った画素を比較し、前記複数のデータのうち1のデータから抽出された第1特徴画素を、他の全てのデータでは第1特徴画素でないことを条件にノイズ画素として検出する第1ノイズ画素検出手段とを含み、
前記第2検出手段は、前記複数のラインセンサが出力する複数のデータそれぞれから所定の特徴を有する第2のレベルの第2特徴画素を抽出する第2抽出手段と、
前記複数のデータ間で原稿の同じ位置を読取った画素を比較し、前記複数のデータのうち1のデータから抽出された第2特徴画素を、他の全てのデータでは第2特徴画素でないことを条件にノイズ画素として検出する第2ノイズ画素検出手段とを含み、
前記第1のレベルは、前記第2のレベルよりも高い、請求項2に記載の画像読取装置。
A plurality of the line sensors are arranged at a distance in the sub-scanning direction,
The first detection means extracts first feature pixels of a first level having a predetermined feature from each of a plurality of data output from the plurality of line sensors;
Comparing pixels that read the same position of the document between the plurality of data, the first feature pixel extracted from one of the plurality of data is not a first feature pixel in all other data First noise pixel detection means for detecting as a noise pixel in the condition,
The second detection means extracts second feature pixels of a second level having a predetermined feature from each of a plurality of data output from the plurality of line sensors;
Compare the pixels that read the same position of the document between the plurality of data, and determine that the second feature pixel extracted from one of the plurality of data is not the second feature pixel in all other data. Second noise pixel detection means for detecting as a noise pixel in the condition,
The image reading apparatus according to claim 2, wherein the first level is higher than the second level.
前記第1抽出手段は、エッジ抽出フィルタを用いて算出された値を第1のしきい値と比較して、エッジ領域を抽出する第1エッジ抽出手段を含み、前記第1エッジ抽出手段により抽出されたエッジ領域に含まれる画素を前記第1特徴画素として抽出し、
前記第2抽出手段は、エッジ抽出フィルタを用いて算出された値を第2のしきい値と比較して、エッジ領域を抽出する第2エッジ抽出手段を含み、前記第2エッジ抽出手段により抽出されたエッジ領域に含まれる画素を前記第2特徴画素として抽出し、
前記第1のしきい値は、前記第2のしきい値よりも大きい、請求項4に記載の画像読取装置。
The first extraction means includes first edge extraction means for extracting an edge region by comparing a value calculated using an edge extraction filter with a first threshold value, and the first edge extraction means extracts the edge area. A pixel included in the edge region is extracted as the first feature pixel;
The second extraction means includes second edge extraction means for extracting an edge region by comparing a value calculated using an edge extraction filter with a second threshold value, and the second edge extraction means extracts the edge region. A pixel included in the edge region is extracted as the second feature pixel;
The image reading apparatus according to claim 4, wherein the first threshold value is larger than the second threshold value.
前記第1抽出手段は、明度の変化が少ない領域であって、周辺の領域との明度の差が第1のしきい値以上ある領域を抽出する第1領域抽出手段を含み、前記抽出された領域を前記第1特徴画素として抽出し、
前記第2抽出手段は、明度の変化が少ない領域であって、周辺の領域との明度の差が第2のしきい値以上ある領域を抽出する第2領域抽出手段を含み、前記抽出された領域を前記第2特徴画素として抽出し、
前記第1のしきい値は、前記第2のしきい値よりも大きい、請求項4に記載の画像読取装置。
The first extraction means includes first area extraction means for extracting an area having a small change in brightness and having a brightness difference with a surrounding area equal to or greater than a first threshold value. Extracting a region as the first feature pixel;
The second extraction means includes second area extraction means for extracting an area having a small change in brightness and having a brightness difference with a surrounding area equal to or greater than a second threshold value. Extracting a region as the second feature pixel;
The image reading apparatus according to claim 4, wherein the first threshold value is larger than the second threshold value.
前記ノイズ検出手段は、前記決定された相対位置ごとの汚れ度に基づいて、前記原稿台のゴミの少ない特定領域を決定する特定領域決定手段と、
前記ラインセンサが出力するデータから与えられたしきい値を用いてノイズ画素を検出するノイズ画素検出手段とを含み、
前記検出された相対位置が前記特定領域の場合に前記ノイズ画素検出手段に第1のしきい値を与え、前記検出された相対位置が前記特定領域でない場合に前記ノイズ画素検出手段に第1のしきい値よりも小さい第2のしきい値を与える制御手段をさらに備えた、請求項1に記載の画像読取装置。
The noise detection means, based on the determined degree of dirt for each relative position, a specific area determination means for determining a specific area of the document table with less dust;
Noise pixel detection means for detecting a noise pixel using a threshold value given from data output by the line sensor,
When the detected relative position is in the specific area, a first threshold value is given to the noise pixel detecting means, and when the detected relative position is not in the specific area, the noise pixel detecting means has a first threshold value. The image reading apparatus according to claim 1, further comprising a control unit that provides a second threshold value smaller than the threshold value.
前記ラインセンサは、副走査方向に距離を隔てて複数が配置され、
前記ノイズ画素検出手段は、前記複数のラインセンサが出力するデータそれぞれから、エッジ抽出フィルタを用いて算出された値を与えられたしきい値と比較してエッジ領域を抽出し、前記抽出されたエッジ領域に含まれる画素を特徴画素として抽出するエッジ抽出手段を含み、
前記複数のデータ間で原稿の同じ位置を読取った画素を比較し、前記複数のデータのうち1のデータから抽出された特徴画素を、他の全てのデータでは特徴画素でないことを条件にノイズ画素として検出する、請求項7に記載の画像読取装置。
A plurality of the line sensors are arranged at a distance in the sub-scanning direction,
The noise pixel detection means extracts an edge region from each of data output from the plurality of line sensors by comparing a value calculated using an edge extraction filter with a given threshold, and the extracted Including edge extraction means for extracting pixels included in the edge region as feature pixels;
The pixels that read the same position of the document between the plurality of data are compared, and the feature pixel extracted from one of the plurality of data is determined to be a noise pixel on the condition that all the other data are not feature pixels. The image reading apparatus according to claim 7, which is detected as:
前記ラインセンサは、副走査方向に距離を隔てて複数が配置され、
前記ノイズ画素検出手段は、前記ノイズ画素検出手段は、前記複数のラインセンサが出力するデータそれぞれから、明度の変化が少ない領域であって、周辺の領域との明度の差が与えられたしきい値以上ある領域を抽出し、前記抽出された領域に含まれる画素を特徴画素として抽出する領域抽出手段を含み、
前記複数のデータ間で原稿の同じ位置を読取った画素を比較し、前記複数のデータのうち1のデータから抽出された特徴画素を、他の全てのデータでは特徴画素でないことを条件にノイズ画素として検出する、請求項7に記載の画像読取装置。
A plurality of the line sensors are arranged at a distance in the sub-scanning direction,
The noise pixel detecting means is an area in which the noise pixel detecting means is an area where the change in brightness is small from each of data output from the plurality of line sensors, and a difference in brightness from surrounding areas is given. A region extracting means for extracting a region having a value equal to or greater than the value and extracting a pixel included in the extracted region as a feature pixel;
The pixels that read the same position of the document between the plurality of data are compared, and the feature pixel extracted from one of the plurality of data is determined to be a noise pixel on the condition that all the other data are not feature pixels. The image reading apparatus according to claim 7, which is detected as:
前記汚れ度決定手段は、前記原稿台の前記相対位置ごとに前記特徴画素の連続する数を検出するサイズ検出手段を含む、請求項1に記載の画像読取装置。   The image reading apparatus according to claim 1, wherein the contamination degree determination unit includes a size detection unit that detects a continuous number of the feature pixels for each relative position of the document table. 前記汚れ度決定手段は、前記原稿台の前記相対位置ごとに前記特徴画素の明度を検出する明度検出手段を含む、請求項1に記載の画像読取装置。   The image reading apparatus according to claim 1, wherein the stain level determination unit includes a brightness detection unit that detects the brightness of the feature pixel for each relative position of the document table. 前記ラインセンサは、副走査方向に距離を隔てて複数が配置され、
前記汚れ度決定手段は、前記抽出された特徴画素と、該特徴画素が抽出されたデータを前記複数のラインセンサで読取った時点の前記原稿台の前記相対位置とに基づき、前記原稿台の前記相対位置ごとに前記特徴画素の連続する数を決定するサイズ決定手段を含み、
前記ノイズ検出手段は、前記決定された相対位置ごとのサイズに基づいて、前記原稿台のゴミの少ない特定領域を決定する特定領域決定手段と、
抽出するエッジ領域のサイズに対応して複数のエッジ抽出フィルタを有し、前記複数のエッジ抽出フィルタの全てまたはいずれか1つを用いて算出された値をしきい値と比較してエッジ領域を抽出し、抽出されたエッジ領域に含まれる画素を特徴画素として抽出するエッジ抽出手段と、
前記複数のデータ間で原稿の同じ位置を読取った画素を比較し、前記複数のデータのうち1のデータから抽出された特徴画素を、他の全てのデータでは特徴画素でないことを条件にノイズ画素として検出するノイズ画素検出手段とを含み、
前記検出された相対位置が前記特定領域の場合に前記エッジ抽出手段に全てのエッジ抽出フィルタを用いてエッジ領域を抽出させ、前記検出された相対位置が前記特定領域でない場合には、前記検出された相対位置で前記特徴画素の連続する数に対応するエッジ抽出フィルタを用いてエッジ領域を抽出させる制御手段をさらに備えた、請求項1に記載の画像読取装置。
A plurality of the line sensors are arranged at a distance in the sub-scanning direction,
The contamination level determining means is configured to determine the extracted feature pixel and the relative position of the document table at the time when the data extracted from the feature pixel is read by the plurality of line sensors. Sizing means for determining a consecutive number of said feature pixels for each relative position;
The noise detection means, based on the determined size for each relative position, a specific area determination means for determining a specific area of the document table with less dust;
A plurality of edge extraction filters corresponding to the size of the edge region to be extracted, and the edge region is obtained by comparing a value calculated using all or any one of the plurality of edge extraction filters with a threshold value. Edge extraction means for extracting and extracting pixels included in the extracted edge region as feature pixels;
The pixels that read the same position of the document between the plurality of data are compared, and the feature pixel extracted from one of the plurality of data is determined to be a noise pixel on the condition that all the other data are not feature pixels. Noise pixel detecting means for detecting as,
When the detected relative position is the specific area, the edge extraction unit extracts the edge area using all edge extraction filters, and when the detected relative position is not the specific area, the edge detection unit detects the detected area. The image reading apparatus according to claim 1, further comprising a control unit that extracts an edge region using an edge extraction filter corresponding to a continuous number of the feature pixels at a relative position.
前記ラインセンサは、副走査方向に距離を隔てて複数が配置され、
前記汚れ度決定手段は、前記抽出された特徴画素と、該特徴画素が抽出されたデータを前記複数のラインセンサで読取った時点の前記原稿台の前記相対位置とに基づき、前記原稿台の前記相対位置ごとに前記特徴画素の連続する数を決定するサイズ決定手段を含み、
前記ノイズ検出手段は、前記抽出するエッジ領域のサイズに対応して複数のエッジ抽出フィルタを有し、前記検出された相対位置で前記特徴画素の連続する数に対応するエッジ抽出フィルタを用いて算出された値をしきい値と比較してエッジ領域を抽出し、抽出されたエッジ領域に含まれる画素を特徴画素として抽出するエッジ抽出手段と、
前記複数のデータ間で原稿の同じ位置を読取った画素を比較し、前記複数のデータのうち1のデータから抽出された特徴画素を、他の全てのデータでは特徴画素でないことを条件にノイズ画素として検出するノイズ画素検出手段とを含む、請求項1に記載の画像読取装置。
A plurality of the line sensors are arranged at a distance in the sub-scanning direction,
The contamination level determining means is configured to determine the extracted feature pixel and the relative position of the document table at the time when the data extracted from the feature pixel is read by the plurality of line sensors. Sizing means for determining a consecutive number of said feature pixels for each relative position;
The noise detection means has a plurality of edge extraction filters corresponding to the size of the edge region to be extracted, and is calculated using an edge extraction filter corresponding to the consecutive number of the feature pixels at the detected relative position. Edge extraction means for comparing the obtained value with a threshold value to extract an edge region and extracting pixels included in the extracted edge region as feature pixels;
The pixels that read the same position of the document between the plurality of data are compared, and the feature pixel extracted from one of the plurality of data is determined to be a noise pixel on the condition that all the other data are not feature pixels. The image reading apparatus according to claim 1, further comprising: a noise pixel detection unit that detects a noise pixel.
JP2004286076A 2004-09-30 2004-09-30 Image reading device Expired - Fee Related JP4277778B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004286076A JP4277778B2 (en) 2004-09-30 2004-09-30 Image reading device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004286076A JP4277778B2 (en) 2004-09-30 2004-09-30 Image reading device

Publications (2)

Publication Number Publication Date
JP2006101288A true JP2006101288A (en) 2006-04-13
JP4277778B2 JP4277778B2 (en) 2009-06-10

Family

ID=36240666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004286076A Expired - Fee Related JP4277778B2 (en) 2004-09-30 2004-09-30 Image reading device

Country Status (1)

Country Link
JP (1) JP4277778B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017220791A (en) * 2016-06-07 2017-12-14 株式会社東芝 Image reader, division device, and program used for image reader

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017220791A (en) * 2016-06-07 2017-12-14 株式会社東芝 Image reader, division device, and program used for image reader

Also Published As

Publication number Publication date
JP4277778B2 (en) 2009-06-10

Similar Documents

Publication Publication Date Title
JP4123267B2 (en) Image processing device
JP4305369B2 (en) Image reading device
US7751095B2 (en) Image scanning apparatus scanning color original document while conveying the same and color determination method
JP4244899B2 (en) Image reading device
JP4244898B2 (en) Image reading device
JP4075881B2 (en) Image reading device
JP4111181B2 (en) Image reading device
JP4265517B2 (en) Image reading device
JP3918844B2 (en) Image reading device
JP4305351B2 (en) Image reading device
JP4305352B2 (en) Image reading device
JP4165488B2 (en) Image reading device
JP4375484B2 (en) Image processing device
JP4277778B2 (en) Image reading device
JP4404042B2 (en) Image reading device
JP4353045B2 (en) Image reading device
JP4285385B2 (en) Image reading device
JP4285384B2 (en) Image reading device
JP2006101359A (en) Image reading apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090217

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090302

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees