JP2014030142A - Reading device, correction method in the reading device, and program - Google Patents

Reading device, correction method in the reading device, and program Download PDF

Info

Publication number
JP2014030142A
JP2014030142A JP2012170340A JP2012170340A JP2014030142A JP 2014030142 A JP2014030142 A JP 2014030142A JP 2012170340 A JP2012170340 A JP 2012170340A JP 2012170340 A JP2012170340 A JP 2012170340A JP 2014030142 A JP2014030142 A JP 2014030142A
Authority
JP
Japan
Prior art keywords
data
reading
document
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012170340A
Other languages
Japanese (ja)
Inventor
Toshiki Kikuchi
俊喜 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Finetech Nisca Inc
Original Assignee
Canon Finetech Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Finetech Inc filed Critical Canon Finetech Inc
Priority to JP2012170340A priority Critical patent/JP2014030142A/en
Publication of JP2014030142A publication Critical patent/JP2014030142A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a reading device that improves the accuracy of correcting read data corresponding to the position of a foreign matter.SOLUTION: The position of a foreign matter is detected in a reading area for optically reading a document, and it is determined whether read data obtained by reading the document is data of a character area. When it is determined to be data of a character area, data corresponding to the position of the foreign matter detected by detection means within the read data is corrected by replacing it with data representing a document color.

Description

本発明は、読取データを補正する読取装置、その読取装置における補正方法およびプログラムに関する。   The present invention relates to a reading device for correcting read data, a correction method in the reading device, and a program.

従来、原稿を光学的に読み取る読取装置において流し読みを実行した際に、読取部に屑や紙粉などのゴミ(異物)を検出した場合、その検出した位置の画素のデータを、隣接する画素のデータに基づいて補正することが行われている(特許文献1)。   2. Description of the Related Art Conventionally, when a scanning device is used to optically read a document, and a dust (foreign matter) such as dust or paper dust is detected in the reading unit, the pixel data at the detected position is used as an adjacent pixel. Correction is performed based on the data (Patent Document 1).

特開2005−117090号公報JP 2005-1117090 A 特開2002−077584号公報JP 2002-077584 A

ゴミ幅が所定画素以上の場合には、隣接する画素のデータに基づいて線形補間等で補正すると、補正後の読取画像にかえって歪みを起こしてしまい、見難いものとなることがある。例えば、風景写真等の画像の場合には、ゴミの位置を周辺の風景を表わす画素値で線形補間したとしても、視覚的に違和感を生じさせることはない。しかしながら、文字の場合には、例えば文字の中心に、ゴミに起因した黒スジが発生し、その発生箇所を周辺の画素値で線形補間すると、文字が間延びして見えることがあり、かえって視覚的に違和感を生じさせることになる。特許文献2には、ゴミの幅が所定画素以上である場合には、補間処理を行わないことが記載されているが、補正処理を行わない場合には、黒スジはそのまま残り、画像の品位を低下させてしまう。   When the dust width is greater than or equal to a predetermined pixel, correction by linear interpolation or the like based on the data of adjacent pixels may cause distortion instead of the corrected read image, which may be difficult to see. For example, in the case of an image such as a landscape photograph, even if the position of dust is linearly interpolated with pixel values representing the surrounding landscape, there is no visual discomfort. However, in the case of a character, for example, a black streak caused by dust is generated at the center of the character, and when the occurrence point is linearly interpolated with surrounding pixel values, the character may appear to be extended, rather than visually. Will cause a sense of incongruity. Patent Document 2 describes that interpolation processing is not performed when the width of dust is equal to or larger than a predetermined pixel. However, when correction processing is not performed, black streaks remain as they are, and image quality is reduced. Will be reduced.

本発明の目的は、このような従来の問題点を解決することにある。上記の点に鑑み、本発明は、異物の位置に対応する読取データの補正精度を向上させる読取装置、その読取装置における補正方法およびプログラムを提供することを目的とする。   An object of the present invention is to solve such conventional problems. In view of the above, an object of the present invention is to provide a reading apparatus that improves the correction accuracy of read data corresponding to the position of a foreign object, a correction method in the reading apparatus, and a program.

上記課題を解決するため、本発明に係る読取装置は、原稿を光学的に読み取る読取装置であって、当該読取領域において異物の位置を検出する検出手段と、前記原稿を読み取った読取データが文字領域のデータであるか否かを判定する判定手段と、前記判定手段により前記文字領域のデータであると判定された場合に、前記読取データのうち前記検出手段により検出された異物の位置に対応するデータを、前記読取データから求められる原稿色を表すデータで置換することにより補正する補正手段と、を備えることを特徴とする。   In order to solve the above-described problem, a reading apparatus according to the present invention is a reading apparatus that optically reads a document, and includes a detection unit that detects the position of a foreign object in the reading region, and the read data read from the document is a character. Corresponding to the position of the foreign matter detected by the detecting means in the read data when the determining means determines whether the data is an area data and the character area data is determined by the determining means Correction means for correcting the data to be corrected by replacing the data representing the document color obtained from the read data.

本発明によれば、異物の位置に対応する読取データの補正精度を向上させることができる。   According to the present invention, it is possible to improve the correction accuracy of read data corresponding to the position of a foreign object.

画像形成装置の内部構成を示す図である。1 is a diagram illustrating an internal configuration of an image forming apparatus. 画像形成装置の外観斜視図である。1 is an external perspective view of an image forming apparatus. 画像形成装置内に構成された画像読取装置の内部構成を示す図である。1 is a diagram illustrating an internal configuration of an image reading apparatus configured in an image forming apparatus. イメージセンサユニット周辺の構成を示す図である。It is a figure which shows the structure around an image sensor unit. イメージセンサユニットの内部構成を示す図である。It is a figure which shows the internal structure of an image sensor unit. 反射光経路を示す図である。It is a figure which shows a reflected light path. 光源の光量分布を示す図である。It is a figure which shows light quantity distribution of a light source. イメージセンサユニットの他の構成例を示す図である。It is a figure which shows the other structural example of an image sensor unit. 画像信号処理部の構成を示すブロック図である。It is a block diagram which shows the structure of an image signal processing part. 本実施例におけるゴミ検出補正処理の手順を示す図である。It is a figure which shows the procedure of the dust detection correction process in a present Example. 像域分離処理の手順を示す図である。It is a figure which shows the procedure of an image area separation process. 地肌レベル検出処理の手順を示す図である。It is a figure which shows the procedure of a background level detection process. 補正処理を説明するための図である。It is a figure for demonstrating a correction process.

以下、添付図面を参照して本発明の好適な実施例を詳しく説明する。尚、以下の実施例は特許請求の範囲に係る本発明を限定するものでなく、また本実施例で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the present invention according to the claims, and all combinations of features described in the present embodiments are not necessarily essential to the solution means of the present invention. . The same constituent elements are denoted by the same reference numerals, and the description thereof is omitted.

[画像形成装置の全体構成]
図1は、本発明に係る実施例における画像形成装置の内部構成を示す図である。本実施例において、画像形成装置は、例えば、複写機、プリンタ、ファクシミリであり、画像読取機能を備えている。また、画像形成装置は、複写機、プリンタ、ファクシミリ等の各機能が複合化された複合機であっても良い。
[Entire configuration of image forming apparatus]
FIG. 1 is a diagram illustrating an internal configuration of an image forming apparatus according to an embodiment of the present invention. In this embodiment, the image forming apparatus is, for example, a copying machine, a printer, or a facsimile, and has an image reading function. Further, the image forming apparatus may be a complex machine in which functions such as a copying machine, a printer, and a facsimile are compounded.

図1に示す画像形成装置100は、大きく、装置本体101と、装置本体101の上部に設けられた画像読取装置103と、画像読取装置103の上部に設けられた自動原稿供給装置(ADF:オートドキュメントフィーダ)126とから構成されている。自動原稿供給装置126は、ADF分離部115、排紙搬送部116、原稿排紙部117、ブック原稿を押圧する原稿押え板118、シート原稿搬送部121を含む。自動原稿供給装置126は、原稿載置台106に置かれたシート原稿DをADF分離部115により1枚ずつ分離して、画像読取装置103に供給する。画像読取装置103は、自動原稿供給装置126により流し読みガラス109上に送り込まれるシート原稿Dを、停止状態のイメージセンサユニット108で読み取る。また、画像読取装置103は、原稿台ガラス107上にユーザにより配置されたシート原稿Dやブック原稿も読み取ることができる。その際に、イメージセンサユニット108は、いわゆるラインセンサであり、副走査方向(図1内の左右方向)に移動しながら、シート原稿Dやブック原稿を光学的に読み取る。副走査方向とは、図1内の左右方向であり、主走査方向とは、副走査方向に対して交差する方向、即ち、後述する図2内の矢印Bに示す方向である。原稿押え板118は、原稿台ガラス107上に置かれた原稿の浮きを防止するために、白色シートやスポンジなどで積層されて形成されている。原稿押え板118の左端118aがブック読取範囲開始位置107aの左側に、右端118bがブック読取範囲終了位置107bの右側に位置するまで、原稿押え板118は延設されている。   The image forming apparatus 100 shown in FIG. 1 is roughly divided into an apparatus main body 101, an image reading apparatus 103 provided on the upper part of the apparatus main body 101, and an automatic document feeder (ADF: auto) provided on the upper part of the image reading apparatus 103. Document feeder) 126. The automatic document feeder 126 includes an ADF separation unit 115, a sheet discharge conveyance unit 116, a document discharge unit 117, a document pressing plate 118 that presses a book document, and a sheet document conveyance unit 121. The automatic document feeder 126 separates the sheet document D placed on the document table 106 one by one by the ADF separation unit 115 and supplies the separated sheet document D to the image reading device 103. The image reading device 103 reads the sheet document D fed onto the flow reading glass 109 by the automatic document feeder 126 by the image sensor unit 108 in a stopped state. The image reading apparatus 103 can also read a sheet document D or a book document placed on the document table glass 107 by the user. At that time, the image sensor unit 108 is a so-called line sensor, and optically reads the sheet document D and the book document while moving in the sub-scanning direction (left and right direction in FIG. 1). The sub-scanning direction is a left-right direction in FIG. 1, and the main scanning direction is a direction intersecting the sub-scanning direction, that is, a direction indicated by an arrow B in FIG. The document pressing plate 118 is formed by being laminated with a white sheet, sponge or the like in order to prevent the document placed on the document table glass 107 from floating. The document pressing plate 118 is extended until the left end 118a of the document pressing plate 118 is positioned on the left side of the book reading range start position 107a and the right end 118b is positioned on the right side of the book reading range end position 107b.

画像読取装置103は、画像読取情報を装置本体101の印刷部104に送る。装置本体101は、画像読取装置103において読み取られた画像読取情報に基づいて、カセット給紙部112に積載されたシートP(記録媒体)に画像を印刷する。印刷部104は、例えば、LEDアレイを使用した電子写真方式の印刷機構である。その場合には、装置本体101は、LEDヘッドユニット110を含む。また、装置本体101は、画像形成部111、カセット給紙部112、印刷部104の上部にシートPを複数枚積載することができるように構成された記録シート排紙部113、カートリッジカバー部114を含む。さらに、装置本体101は、画像読取装置103と印刷部104とを接合する接合部119、ファクシミリ制御部120、両面搬送部カバー122、搬送方向切換部123、レジスト搬送部124を含む。また、装置本体101は、印刷部104内に、MP(マルチペーパー)給紙部125、両面搬送部150を含む。   The image reading apparatus 103 sends image reading information to the printing unit 104 of the apparatus main body 101. The apparatus main body 101 prints an image on the sheet P (recording medium) stacked on the cassette paper feeding unit 112 based on the image reading information read by the image reading apparatus 103. The printing unit 104 is, for example, an electrophotographic printing mechanism that uses an LED array. In that case, the apparatus main body 101 includes an LED head unit 110. In addition, the apparatus main body 101 includes a recording sheet discharge unit 113 and a cartridge cover unit 114 that are configured to be capable of stacking a plurality of sheets P on top of the image forming unit 111, the cassette sheet feeding unit 112, and the printing unit 104. including. Further, the apparatus main body 101 includes a joining unit 119 that joins the image reading apparatus 103 and the printing unit 104, a facsimile control unit 120, a double-sided transport unit cover 122, a transport direction switching unit 123, and a resist transport unit 124. Further, the apparatus main body 101 includes an MP (multi-paper) paper feeding unit 125 and a double-sided conveyance unit 150 in the printing unit 104.

図2は、画像形成装置100の外観斜視図である。図2に示すように、画像形成装置100は、操作部105を含む。操作部105は、ディスプレイ等の表示部や、テンキー等の入力キーを備えており、ユーザから各種指示を受け付けたり、若しくは、ユーザが画像形成装置100の状態をディスプレイ上で確認することができる。図2に示すADF圧板102は、ヒンジ部102aにより画像読取装置103に回動自在に取り付けられており、ユーザは、自動原稿供給装置126を図2の両矢印A方向に開閉することができる。ヒンジ部102aは、装置本体101の背面側の左右に1個ずつ設けられており、ユーザは、ADF圧板102の手前側を持ち上げることにより、ADF圧板102を後方に開けることができる。ヒンジ部102aは、ダンパやカム、ばね部材などの組合せにより、ADF圧板102を所定の角度、例えば、70度に開いた状態で保持することができる。ユーザは、ADF圧板102が開いた状態で、原稿台ガラス107上にシート原稿やブック原稿等の原稿を配置する。   FIG. 2 is an external perspective view of the image forming apparatus 100. As illustrated in FIG. 2, the image forming apparatus 100 includes an operation unit 105. The operation unit 105 includes a display unit such as a display and input keys such as a numeric keypad. The operation unit 105 can receive various instructions from the user, or the user can check the state of the image forming apparatus 100 on the display. The ADF pressure plate 102 shown in FIG. 2 is rotatably attached to the image reading apparatus 103 by a hinge portion 102a, and the user can open and close the automatic document feeder 126 in the direction of a double arrow A in FIG. One hinge portion 102 a is provided on each of the left and right sides of the back side of the apparatus main body 101, and the user can open the ADF pressure plate 102 rearward by lifting the front side of the ADF pressure plate 102. The hinge portion 102a can hold the ADF pressure plate 102 in a state of being opened at a predetermined angle, for example, 70 degrees, by a combination of a damper, a cam, a spring member, and the like. The user places a document such as a sheet document or a book document on the platen glass 107 with the ADF pressure plate 102 opened.

図3は、画像形成装置100の画像読取装置103と自動原稿供給装置126の内部構成を示す図である。画像読取装置103は、図1に示すように画像形成装置100に一体化されていても良いし、別体として構成されても良い。図3に示すように、原稿台ガラス107の上部に張り出したジャンプ台109bの下面に、白色シート109cが設けられている。画像読取装置103は、イメージセンサユニット108の読取位置が白色シート109cの下部にある際に、イメージセンサユニット108のシェーディング補正を行なう。画像読取装置103は、原稿を読み取るスキャン動作1回毎にイメージセンサユニット108がジャンプ台109bの下部を通過する。つまり、スキャン動作1回毎にシェーディング補正を行ない、移動型のイメージセンサユニット108内の光源の光量の経時変化の影響を低減することができる。   FIG. 3 is a diagram showing an internal configuration of the image reading device 103 and the automatic document feeder 126 of the image forming apparatus 100. The image reading apparatus 103 may be integrated with the image forming apparatus 100 as shown in FIG. 1, or may be configured as a separate body. As shown in FIG. 3, a white sheet 109 c is provided on the lower surface of the jump table 109 b that projects from the upper part of the document table glass 107. The image reading device 103 performs shading correction of the image sensor unit 108 when the reading position of the image sensor unit 108 is below the white sheet 109c. In the image reading apparatus 103, the image sensor unit 108 passes under the jump table 109b for each scanning operation for reading a document. That is, shading correction is performed for each scanning operation, and the influence of the change in the light amount of the light source in the movable image sensor unit 108 with time can be reduced.

[シート原稿の流し読み動作]
ここで、図1〜図3を参照しながら、画像形成装置100で画像読取を実行する際の流し読み動作について説明する。図1及び図2に示すように、原稿載置台106は、ADF圧板102に設けられている。原稿載置台106には、1対のスライダ106aがシート原稿の搬送方向と直交方向(即ち、矢印Bに示すシート原稿の幅方向)にスライド可能に設けられている。この1対のスライダ106aにより原稿載置台106上に積載されたシート原稿の両サイドを揃えることができる。即ち、1対のスライダ106aによりシート原稿の幅整合が可能となる。原稿載置台106上には、原稿長さセンサ106bが設けられており、セットされたシート原稿の長さを検出することができる。
[Sheet original scanning operation]
Here, with reference to FIGS. 1 to 3, a flow reading operation when the image forming apparatus 100 executes image reading will be described. As shown in FIGS. 1 and 2, the document placing table 106 is provided on the ADF pressure plate 102. A pair of sliders 106 a are provided on the document placing table 106 so as to be slidable in a direction perpendicular to the sheet document conveying direction (that is, the sheet document width direction indicated by arrow B). By this pair of sliders 106 a, both sides of the sheet document stacked on the document placing table 106 can be aligned. That is, the width alignment of the sheet original can be performed by the pair of sliders 106a. An original length sensor 106b is provided on the original placing table 106, and the length of the set sheet original can be detected.

図3において、ADF分離部115には、シート原稿の有無と幅を検出する原稿幅センサ115dがシート原稿の幅方向に複数設けられている。原稿幅センサ115dは、図3では奥行き方向に重なって見えるので、1つだけ示される。画像形成装置100は、原稿幅センサ115dと原稿長さセンサ106bからの検出信号により、原稿サイズと原稿のセット方向とを検出することができる。図3において、シート原稿搬送部121には、原稿給送センサ121hと原稿端センサ121iが設けられている。原稿給送センサ121hは、ADF分離部115からシート原稿が送られたか否かや、シート原稿の後端の通過を検出することができる。原稿端センサ121iは、シート原稿の先端及び後端の通過を検出することができる。その検出信号は、画像読取のタイミング制御に用いられる。ADF分離部115は、不図示のアクチュエータにより上下動するピックアップローラ115aと、分離ローラ115bと、分離ローラ115bに圧接されて逆方向に回転するリタードローラ115c等で構成される。   In FIG. 3, the ADF separation unit 115 is provided with a plurality of document width sensors 115d for detecting the presence and width of a sheet document in the width direction of the sheet document. Only one document width sensor 115d is shown in FIG. The image forming apparatus 100 can detect the document size and the document setting direction based on detection signals from the document width sensor 115d and the document length sensor 106b. In FIG. 3, the sheet document conveying unit 121 is provided with a document feeding sensor 121 h and a document edge sensor 121 i. The document feed sensor 121h can detect whether or not a sheet document has been sent from the ADF separation unit 115 and the passage of the rear end of the sheet document. The document edge sensor 121i can detect the passage of the leading edge and the trailing edge of the sheet document. The detection signal is used for image reading timing control. The ADF separation unit 115 includes a pickup roller 115a that moves up and down by an actuator (not shown), a separation roller 115b, a retard roller 115c that is pressed against the separation roller 115b and rotates in the reverse direction, and the like.

シート原稿は、まず、ユーザにより原稿載置台106上に読取面(原稿面)を上に向けて積載される。そして、ピックアップローラ115aが下降して、シート原稿を原稿載置台106に押圧し、分離ローラ115bとリタードローラ115cとの間に送り込む。リタードローラ115cと分離ローラ115bは、シート原稿を1枚ずつ分離して搬送する。次に、レジローラ121a、リードローラ121bと、読取搬送ローラ121cとが、シート原稿を原稿ガイド121dに沿ったUターン紙パスに沿って、流し読みガラス109上に搬送する。   The sheet original is first stacked on the original placing table 106 by the user with the reading surface (original surface) facing up. Then, the pickup roller 115a descends, presses the sheet document against the document placing table 106, and feeds it between the separation roller 115b and the retard roller 115c. The retard roller 115c and the separation roller 115b separate and convey the sheet document one by one. Next, the registration roller 121a, the lead roller 121b, and the reading and conveying roller 121c convey the sheet document onto the flow reading glass 109 along the U-turn paper path along the document guide 121d.

不図示の付勢ばねで押圧されたシート原稿押え板121eは、搬送されたシート原稿を流し読みガラス109に押圧して密着させる。この間、シート原稿は、継続して搬送されている。その際に、イメージセンサユニット108は、既にシート原稿読取位置109aに移動して停止しており、シート原稿読取位置109a上を通過するシート原稿の画像情報を読み取っている。次に、ジャンプ台109bは、継続して搬送されるシート原稿を、ADF圧板102側にすくい上げる。そして、不図示の押圧ばねにより読取搬送ローラ121cに押圧された読取搬送ころ(不図示)と、読取搬送ローラ121cとがシート原稿を搬送する。さらに、押圧ばねによって排紙ローラ117bに押圧された排紙ころ117aと排紙ローラ117bとが、シート原稿を原稿排紙トレイ117cに排出する。   A sheet document pressing plate 121e pressed by an unillustrated urging spring presses and conveys the conveyed sheet document to the reading glass 109. During this time, the sheet document is continuously conveyed. At that time, the image sensor unit 108 has already moved to the sheet document reading position 109a and stopped, and reads the image information of the sheet document passing over the sheet document reading position 109a. Next, the jump table 109b scoops up the sheet document continuously conveyed to the ADF pressure plate 102 side. A reading conveyance roller (not shown) pressed against the reading conveyance roller 121c by a not-illustrated pressing spring and the reading conveyance roller 121c convey the sheet document. Further, the sheet discharge roller 117a and the sheet discharge roller 117b pressed by the sheet discharge roller 117b by the pressing spring discharge the sheet document to the document sheet discharge tray 117c.

[イメージセンサユニットの構成]
図4は、イメージセンサユニット108周辺の構成を示す図である。イメージセンサユニット108は、LED及び樹脂製導光体等を含んで構成される光源から、シート原稿の画像面に光を照射し、画像面で反射した反射光をセルフォックレンズ(商標)などで一次元センサ素子アレイに結像して、シート原稿の画像情報を読み取る。イメージセンサユニット108は、タイミングベルト103a、不図示の駆動モータにより回転する駆動プーリ103b、及び従動プーリ103fにより、ガイド軸103cに沿って、図4内の左右方向に移動する。また、イメージセンサユニット108は、キャリッジ103dによりガイド軸103cに支持されるとともに、スプリング103eにより上方に付勢されている。タイミングベルト103aとキャリッジ103dは、連結部材103gにより連結されている。イメージセンサユニット108と原稿台ガラス107の間には、スペーサ108aが介挿されている。イメージセンサユニット108は、図1のブック読取範囲開始位置107aからブック読取範囲終了位置107bまでの範囲で、原稿台ガラス107上に置かれた原稿の画像を、等速移動しながら光学的に読み取る。
[Image sensor unit configuration]
FIG. 4 is a diagram showing a configuration around the image sensor unit 108. The image sensor unit 108 irradiates the image surface of the sheet original with light from a light source including an LED, a resin light guide, and the like, and reflects the reflected light reflected on the image surface with a SELFOC lens (trademark) or the like. An image is formed on the one-dimensional sensor element array, and image information of the sheet original is read. The image sensor unit 108 moves in the left-right direction in FIG. 4 along the guide shaft 103c by a timing belt 103a, a drive pulley 103b rotated by a drive motor (not shown), and a driven pulley 103f. The image sensor unit 108 is supported by the guide shaft 103c by the carriage 103d and is urged upward by the spring 103e. The timing belt 103a and the carriage 103d are connected by a connecting member 103g. A spacer 108 a is interposed between the image sensor unit 108 and the document table glass 107. The image sensor unit 108 optically reads an image of a document placed on the platen glass 107 in a range from the book reading range start position 107a to the book reading range end position 107b in FIG. 1 while moving at a constant speed. .

図5は、イメージセンサユニット108の内部構成を示す図である。イメージセンサユニット108は、LED10及び樹脂製導光体11等から構成される光源からの光を原稿上に照射する。その反射光が結像光学系であるセルフォックレンズアレイ12により一次元センサ素子アレイである受光センサ13に結像されることで、イメージセンサユニット108は、原稿の画像情報を光学的に読み取ることができる。なお、光源は、主走査方向の向きに配設された軸状のランプであっても良い。カラー読取りの場合には、複数色のカラーであるR(赤)、G(緑)、B(青)の3色の互いに異なる波長分布を有するLEDを光源として用いる。また、モノクロ読取りの場合には、例えばG(緑)を単色光源として用いる。図5は、簡略化のため、LEDは後述する1つの導光体11に1つのみ示している。   FIG. 5 is a diagram illustrating an internal configuration of the image sensor unit 108. The image sensor unit 108 irradiates a document with light from a light source including the LED 10 and the resin light guide 11. The reflected light is imaged on the light receiving sensor 13 which is a one-dimensional sensor element array by the Selfoc lens array 12 which is an imaging optical system, so that the image sensor unit 108 optically reads the image information of the document. Can do. The light source may be an axial lamp arranged in the main scanning direction. In the case of color reading, LEDs having different wavelength distributions of three colors of R (red), G (green), and B (blue), which are a plurality of colors, are used as a light source. For monochrome reading, for example, G (green) is used as a monochromatic light source. FIG. 5 shows only one LED for each light guide 11 to be described later for simplification.

イメージセンサユニット108では、光源の発光素子であるLED10と、LED10から照射された光をシート原稿に導く導光体11とからなる1対の導光体光源とが、結像光学系の役目をするセルフォックレンズアレイ12の両側に配設されている。セルフォックレンズアレイ12の直下には、受光センサ13が設けられている。イメージセンサユニット108は、枠体14内に配置されている。受光センサ13は、イメージセンサユニット108の主走査方向に沿って配列された複数の受光素子13aを有している。LED10は、図5に示すように、一方の導光体11の一端と他方の導光体11の他端にそれぞれ設けられている。イメージセンサユニット108は、上記の構成部材が中心軸Cについて点対称の位置に配置されている。   In the image sensor unit 108, a pair of light guide light sources including an LED 10 that is a light emitting element of a light source and a light guide 11 that guides light emitted from the LED 10 to a sheet document serves as an imaging optical system. The SELFOC lens array 12 is disposed on both sides. A light receiving sensor 13 is provided directly below the selfoc lens array 12. The image sensor unit 108 is disposed in the frame body 14. The light receiving sensor 13 has a plurality of light receiving elements 13 a arranged along the main scanning direction of the image sensor unit 108. As shown in FIG. 5, the LEDs 10 are respectively provided at one end of one light guide 11 and the other end of the other light guide 11. In the image sensor unit 108, the above-described constituent members are arranged at point-symmetrical positions with respect to the central axis C.

各LED10から照射された光は、各導光体11内で反射を繰り返しながらシートの幅方向(即ち、矢印Bの主走査方向)に進行し、導光体11の全長の発光面11aから出射する。導光体11から出射した光は、図6に示すように原稿台ガラス107上の原稿Eを照射して、セルフォックレンズアレイ12を通って受光センサ13で受光される。光電変換素子としての受光センサ13は、原稿Eの反射光を受光し、その反射光を電気信号に変換する。   Light emitted from each LED 10 travels in the sheet width direction (that is, the main scanning direction of the arrow B) while being repeatedly reflected in each light guide 11, and is emitted from the light emitting surface 11 a of the entire length of the light guide 11. To do. The light emitted from the light guide 11 irradiates the original E on the original table glass 107 as shown in FIG. 6, passes through the SELFOC lens array 12 and is received by the light receiving sensor 13. The light receiving sensor 13 as a photoelectric conversion element receives the reflected light of the document E and converts the reflected light into an electrical signal.

図7は、イメージセンサユニット108の導光体光源の光量分布を示す図である。図7において、一方の導光体11側でのLED10からの距離を基準とした光量分布が実線で示され、他方の導光体11側でのLED10からの距離を基準とした光量分布が点線で示されている。イメージセンサユニット108全体としての光量分布は、一点鎖線で示されるように、各々のLED10による光量を加算したものとなる。図7に示すように、導光体光源の光量は、距離に対して平均化されて一定となる。図5に示すように、2つの導光体11の間で各LED10を相対して反対側に設けることで、光量が相互に補完し合う光量分布が得られ、画像読取装置103は、ムラのない良好な読取データを得ることができる。なお、LED10は、一方の導光体11の両端に設けられていても良い。また、LED10、導光体11は、図8に示すように、セルフォックレンズアレイ12を挟んで片側だけに設けられるようにしても良い。   FIG. 7 is a diagram showing the light amount distribution of the light guide light source of the image sensor unit 108. In FIG. 7, the light amount distribution based on the distance from the LED 10 on the one light guide 11 side is indicated by a solid line, and the light amount distribution based on the distance from the LED 10 on the other light guide 11 side is indicated by a dotted line. It is shown in The light amount distribution of the image sensor unit 108 as a whole is obtained by adding the light amounts of the respective LEDs 10 as indicated by a one-dot chain line. As shown in FIG. 7, the light amount of the light guide light source is averaged with respect to the distance and becomes constant. As shown in FIG. 5, by providing each LED 10 between the two light guides 11 on the opposite side, a light amount distribution in which the light amounts complement each other is obtained. Good read data can be obtained. Note that the LEDs 10 may be provided at both ends of one light guide 11. Further, as shown in FIG. 8, the LED 10 and the light guide 11 may be provided only on one side with the selfoc lens array 12 interposed therebetween.

[画像信号処理]
図9は、読み取った画像信号を処理する画像信号処理部の構成を示すブロック図である。CIS21は、イメージセンサユニット108の受光センサ13により検出した検出信号に対して光電変換を行い、アナログ信号を生成する。CIS21は、LED10、受光センサ13、AMP・A/D(アンプ・アナログ/デジタル)変換器23を含む。CIS21で生成されたアナログ信号は、AMP・A/D変換器23の増幅回路により増幅され、A/D変換回路によりデジタル信号に変換される。サブCPU30は、デジタル信号に変換されたデジタルデータをメモリ27に格納する。
[Image signal processing]
FIG. 9 is a block diagram illustrating a configuration of an image signal processing unit that processes a read image signal. The CIS 21 performs photoelectric conversion on the detection signal detected by the light receiving sensor 13 of the image sensor unit 108 to generate an analog signal. The CIS 21 includes an LED 10, a light receiving sensor 13, and an AMP • A / D (amplifier / analog / digital) converter 23. The analog signal generated by the CIS 21 is amplified by the amplifier circuit of the AMP / A / D converter 23 and converted into a digital signal by the A / D converter circuit. The sub CPU 30 stores the digital data converted into the digital signal in the memory 27.

画像処理回路41は、デジタルデータをシート原稿の1ライン分の画像情報に従って並べ替え、各種の画像処理を実行する。ここで、画像処理とは、例えば、シェーディング補正、フィルタ補正や、後述するゴミ検出処理やゴミ補正処理である。画像処理が実行されたデジタルデータは、I/F回路(インタフェース回路)42を介して、画像形成部111に出力されるか、若しくは、外部のホストコンピュータ等に画像再生のために送信される。   The image processing circuit 41 rearranges the digital data according to the image information for one line of the sheet document, and executes various image processes. Here, the image processing is, for example, shading correction, filter correction, dust detection processing or dust correction processing described later. The digital data subjected to the image processing is output to the image forming unit 111 via an I / F circuit (interface circuit) 42 or transmitted to an external host computer or the like for image reproduction.

サブCPU30は、読取ユニット50を制御することで、例えば、LED駆動回路25の点灯時間を制御する。さらに、サブCPU30は、メインCPU24から送信される設定値に基づいて、AMP・A/D変換器23を制御する。読取部共通電源26は、読取ユニット50の不図示の電源をON/OFFすることができる。操作部105は、画像読取装置103の状態表示や、画像形成装置100全体の動作状態を表示し、また、ユーザから読取指示を受け付ける。LED駆動回路25は、読取部共通電源26から電力を供給され、サブCPU30の制御により、CIS21の各LEDを駆動する。AMP・A/D変換器23も、読取部共通電源26から電力を供給され、サブCPU30の制御により動作する。   The sub CPU 30 controls, for example, the lighting time of the LED drive circuit 25 by controlling the reading unit 50. Further, the sub CPU 30 controls the AMP / A / D converter 23 based on the set value transmitted from the main CPU 24. The reading unit common power supply 26 can turn on / off a power supply (not shown) of the reading unit 50. The operation unit 105 displays a status display of the image reading apparatus 103 and an operation state of the entire image forming apparatus 100, and accepts a reading instruction from a user. The LED driving circuit 25 is supplied with electric power from the reading unit common power supply 26 and drives each LED of the CIS 21 under the control of the sub CPU 30. The AMP / A / D converter 23 is also supplied with power from the reading unit common power supply 26 and operates under the control of the sub CPU 30.

サブCPU30は、AMP・A/D変換器23におけるアナログ信号をデジタル信号に変換する変換レベルを設定することで、画像の読取レベル(輝度レベル)を調整することができる。メインCPU24は、サブCPU30と通信I/F51を介して、メモリ27に記憶された設定値等を読取ユニット50に送信する。その設定値とは、AMP・A/D変換器23の変換レベルや、読取ユニット50を制御するための各設定値である。サブCPU30は、メインCPU24から受信した設定値に基づいて、AMP・A/D変換器23の読取レベルを調整したり、読取ユニット50を制御する。メインCPU24は、読取部共通電源26をON/OFFに切り替えることにより、読取ユニット50への電源供給を制御する。メインCPU24は、シェーディング補正や読取レベルの調整の際に得られた、画像情報を表わすデジタルデータに基づいて、LED10の故障や、AMP・A/D変換器23の異常を検出することができる。また、メインCPU24は、画像読取装置103が画像形成装置100と一体化されている構成の場合には、不図示のROM等に格納されたプログラムに従って、画像形成装置100全体を統括的に制御する。   The sub CPU 30 can adjust the reading level (luminance level) of the image by setting a conversion level for converting the analog signal in the AMP / A / D converter 23 into a digital signal. The main CPU 24 transmits setting values and the like stored in the memory 27 to the reading unit 50 via the sub CPU 30 and the communication I / F 51. The set values are the conversion levels of the AMP / A / D converter 23 and the set values for controlling the reading unit 50. The sub CPU 30 adjusts the reading level of the AMP / A / D converter 23 based on the set value received from the main CPU 24 and controls the reading unit 50. The main CPU 24 controls power supply to the reading unit 50 by switching the reading unit common power supply 26 to ON / OFF. The main CPU 24 can detect a failure of the LED 10 or an abnormality of the AMP / A / D converter 23 based on digital data representing image information obtained at the time of shading correction or reading level adjustment. When the image reading apparatus 103 is integrated with the image forming apparatus 100, the main CPU 24 controls the entire image forming apparatus 100 according to a program stored in a ROM (not shown) or the like. .

[ゴミ検出・補正処理]
図10は、本実施例における、画像読取位置上のゴミ(異物)を検出して補正する処理の手順を示すフローチャートである。本処理は、画像形成装置100において画像読取を実行する際に行われる。図10に示す各処理は、例えば、図9のメインCPU24により実行される。
[Dust detection / correction processing]
FIG. 10 is a flowchart illustrating a procedure of processing for detecting and correcting dust (foreign matter) on the image reading position in the present embodiment. This process is performed when the image forming apparatus 100 executes image reading. Each process shown in FIG. 10 is executed by, for example, the main CPU 24 in FIG.

まず、ユーザにより原稿載置台106にシート原稿が置かれ、操作部105のコピーボタンが押下されると、メインCPU24は、画像読取処理を開始する。最初に、メインCPU24は、読取前ゴミ検出処理として、流し読みガラス109上の読取位置におけるゴミの有無およびゴミの位置を検出する(S1001)。ゴミ検出の際には、まず、メインCPU24は、イメージセンサユニット108をシート原稿読取位置109aに移動させ、その位置で、対向する読取搬送ローラ121cの白色を読み取る。メインCPU24は、読み取った白色データをメモリ27に記憶する。次に、メインCPU24は、記憶した白色データを1画素毎にゴミ検出のための輝度閾値と比較し、その輝度閾値以下の輝度を有する画素をゴミと判定し、ゴミと判定された画素の位置及び個数を検出して、読取前ゴミ情報として記憶する。メインCPU24は、読取前ゴミ検出処理の完了後、シート原稿を読取位置まで搬送させ、主走査方向の1ラインずつシート原稿の原稿画像を流し読み動作により読み取る(S1002)。ここで、流し読み動作については、上述したとおりである。   First, when a user places a sheet document on the document table 106 and presses the copy button of the operation unit 105, the main CPU 24 starts an image reading process. First, as the pre-reading dust detection process, the main CPU 24 detects the presence or absence of dust and the dust position at the reading position on the flow reading glass 109 (S1001). When detecting dust, first, the main CPU 24 moves the image sensor unit 108 to the sheet original reading position 109a, and reads the white color of the opposed reading conveyance roller 121c at that position. The main CPU 24 stores the read white data in the memory 27. Next, the main CPU 24 compares the stored white data for each pixel with a luminance threshold for dust detection, determines a pixel having a luminance equal to or lower than the luminance threshold as dust, and positions of the pixels determined as dust And the number are detected and stored as dust information before reading. After the pre-read dust detection process is completed, the main CPU 24 conveys the sheet document to the reading position, and reads the document image of the sheet document line by line in the main scanning direction by a reading operation (S1002). Here, the flow-reading operation is as described above.

メインCPU24は、主走査方向の1ライン分の画像を読み取ると、S1001でゴミを検出していたか否かを判定する(S1003)。ここで、ゴミを検出していたと判定された場合には、その1ライン分が文字領域であるか否かを判定する(S1004)。S1004の判定処理においては、像域分離処理が用いられる。   When the main CPU 24 reads an image for one line in the main scanning direction, the main CPU 24 determines whether dust has been detected in S1001 (S1003). If it is determined that dust has been detected, it is determined whether or not the one line is a character area (S1004). In the determination process of S1004, an image area separation process is used.

ここで、図11を参照しながら、像域分離処理について説明する。メインCPU24は、像域分離処理が開始されると、1ライン上で先端に対応する画素を対象画素とする。そして、S1002で読み取った主走査方向の1ライン分のデータのうち、対象画素と、1ライン上の主走査方向でその画素と相隣接する次の画素との輝度値の差の絶対値を算出し、メモリ27に記憶する(S1102)。輝度値の差の絶対値を算出すると、現在の対象画素の座標が1ライン上で後端座標Ymaxであるか否かを判定する(S1103)。なお、本実施例では、読取領域内で、主走査方向をY座標とし、副走査方向をX座標としている。ここで、後端座標Ymaxでないと判定された場合には、対象画素の座標を主走査方向に沿って「1」進める(S1104)。その後、S1102からの処理を繰り返す。一方、S1103で後端座標Ymaxであると判定された場合には、S1102で算出されてメモリ27に記憶された全ての絶対値の総和Sを算出する(S1105)。   Here, the image area separation processing will be described with reference to FIG. When the image area separation process is started, the main CPU 24 sets a pixel corresponding to the tip on one line as a target pixel. Then, of the data for one line in the main scanning direction read in S1002, the absolute value of the difference in luminance value between the target pixel and the next pixel adjacent to the pixel in the main scanning direction on one line is calculated. And stored in the memory 27 (S1102). When the absolute value of the luminance value difference is calculated, it is determined whether or not the coordinates of the current target pixel are the rear end coordinates Ymax on one line (S1103). In this embodiment, the main scanning direction is the Y coordinate and the sub scanning direction is the X coordinate in the reading area. If it is determined that the rear end coordinate Ymax is not reached, the coordinate of the target pixel is advanced by “1” along the main scanning direction (S1104). Thereafter, the processing from S1102 is repeated. On the other hand, if it is determined in S1103 that the rear end coordinate is Ymax, the sum S of all absolute values calculated in S1102 and stored in the memory 27 is calculated (S1105).

次に、メインCPU24は、総和Sが閾値以上であるか否かを判定する(S1106)。ここで、総和Sが閾値以上であると判定された場合には、現在対象の1ラインを文字領域であると判定する(S1108)。その場合には、後述する地肌レベル検出処理を実行し(S1109)、図11の処理を終了する。一方、総和Sが閾値未満であると判定された場合には、現在対象の1ラインを画像領域であると判定し(S1107)、図11の処理を終了する。   Next, the main CPU 24 determines whether or not the total sum S is equal to or greater than a threshold value (S1106). Here, when it is determined that the total sum S is equal to or greater than the threshold, it is determined that the current target line is a character area (S1108). In that case, a background level detection process described later is executed (S1109), and the process of FIG. 11 is terminated. On the other hand, if it is determined that the total sum S is less than the threshold value, it is determined that the current target line is an image region (S1107), and the processing in FIG.

つまり、図11の処理では、主走査方向の1ライン上での前後の画素の輝度値の差の絶対値の累計を算出している。仮に、1ラインが白地に黒文字等の文字領域である場合には、白と黒の輝度値の差の絶対値の累計ということになり、その値は、写真等の画像領域に比べて大きくなる。これは、画像領域の場合には、風景画像等、前後の画素間の輝度値の差はそれほど大きくならないと想定されるためである。本実施例においては、そのような傾向を利用することで、対象とする1ラインが文字領域であるか否か(即ち、画像領域であるか)を区別することができる。   That is, in the process of FIG. 11, the sum of absolute values of the difference between the luminance values of the previous and subsequent pixels on one line in the main scanning direction is calculated. If one line is a character area such as a black character on a white background, it is the sum of absolute values of the difference between the brightness values of white and black, and the value is larger than that of an image area such as a photograph. . This is because in the case of an image region, it is assumed that the difference in luminance value between the front and rear pixels, such as a landscape image, is not so large. In the present embodiment, by using such a tendency, it is possible to distinguish whether or not one target line is a character area (that is, whether it is an image area).

ここで、図12を参照しながら、地肌レベル検出処理について説明する。本実施例においては、読み取った主走査方向の1ラインが文字領域であると判定された場合には、シート原稿のシート原稿色(記録媒体色)を取得するための地肌レベル検出処理を行う。メインCPU24は、読み取った主走査方向の1ライン分のデータを取得する(S1201)。メインCPU24は、1ライン上の先端画素を対象画素とし、対象画素の読取値(輝度値)が地肌レベル閾値以上であるか否かを判定する(S1202)。ここで、対象画素の読取値が地肌レベル閾値以上であると判定された場合には、S1203に進み、地肌レベル閾値未満であると判定された場合には、S1204に進む。つまり、S1108で文字領域と判定された1ラインについて、1画素ずつ、文字であるか、又は、シート原稿色であるかを判定している。   Here, the background level detection process will be described with reference to FIG. In this embodiment, when it is determined that one line in the main scanning direction that has been read is a character area, a background level detection process for acquiring the sheet original color (recording medium color) of the sheet original is performed. The main CPU 24 acquires the read data for one line in the main scanning direction (S1201). The main CPU 24 determines whether the read value (luminance value) of the target pixel is equal to or higher than the background level threshold value with the leading edge pixel on one line as the target pixel (S1202). If it is determined that the read value of the target pixel is greater than or equal to the background level threshold value, the process proceeds to S1203. If it is determined that the read value is less than the background level threshold value, the process proceeds to S1204. That is, it is determined whether one line is a character or a sheet original color for each line determined as a character area in S1108.

S1202で地肌レベル閾値以上であると判定された場合には、その対象画素の読取値を1ライン分における読取値の累計値に加算する(S1203)。例えば、1ラインの先頭画素が対象画素でありS1202で文字であると判定されている場合には、累計値は、その先頭画素の読取値となる。また、先頭画素から2画素目が対象画素でありS1202で文字であると判定されている場合には、2画素目の読取値を1画素目(累計値)に加算する。S1203においては、S1202で地肌レベル閾値以上であると判定された画素の数を累計値とともにメモリ27に記憶している。以下、説明のために、累計値をSbgとし、地肌レベル閾値以上であると判定された画素の数をmとする。   If it is determined in S1202 that the background level threshold value is exceeded, the read value of the target pixel is added to the cumulative value of the read values for one line (S1203). For example, if the first pixel of one line is the target pixel and it is determined in S1202 that the character is a character, the cumulative value is the read value of the first pixel. If the second pixel from the first pixel is the target pixel and it is determined in S1202 that the character is a character, the read value of the second pixel is added to the first pixel (cumulative value). In S1203, the number of pixels determined to be equal to or higher than the background level threshold value in S1202 is stored in the memory 27 together with the cumulative value. Hereinafter, for the sake of explanation, the cumulative value is Sbg, and the number of pixels determined to be equal to or greater than the background level threshold is m.

次に、メインCPU24は、現在の対象画素の座標が1ライン上で後端座標Ymaxであるか否かを判定する(S1204)。ここで、後端座標Ymaxでないと判定された場合には、対象画素の座標を主走査方向に沿って「1」進める(S1205)。その後、S1202からの処理を繰り返す。一方、後端座標Ymaxであると判定された場合にhあ、メインCPU24は、累計値Sbgを画素の数mで除して画素数分の平均値を算出することにより、シート原稿色輝度値(地肌レベル)Bgを取得する(S1206)。メインCPU24は、シート原稿色輝度値Bgをメモリ27に記憶し、図12の処理を終了する。   Next, the main CPU 24 determines whether or not the coordinates of the current target pixel are the rear end coordinates Ymax on one line (S1204). If it is determined that the rear end coordinate Ymax is not reached, the coordinate of the target pixel is advanced by “1” along the main scanning direction (S1205). Thereafter, the processing from S1202 is repeated. On the other hand, if it is determined that the rear end coordinates Ymax, h, the main CPU 24 calculates the average value for the number of pixels by dividing the cumulative value Sbg by the number m of pixels, thereby obtaining the sheet original color luminance value. (Background level) Bg is acquired (S1206). The main CPU 24 stores the sheet original color luminance value Bg in the memory 27 and ends the processing of FIG.

図12の処理後について、再び、S1004から説明する。S1004で読み取った1ラインが文字領域であると判定された場合には、S1006に進み、文字領域でない(即ち、画像領域)と判定された場合には、S1005に進む。   The processing after FIG. 12 will be described again from S1004. If it is determined that one line read in S1004 is a character area, the process proceeds to S1006. If it is determined that the line is not a character area (that is, an image area), the process proceeds to S1005.

S1005において、メインCPU24は、S1001でゴミが検出された位置に対応する画素値(輝度値)を、周囲の画素値を用いた線形補間により補正する。図13の状態(1)から状態(2)への変化は、S1005における補正処理の概念を示す図である。横軸が主走査方向の位置を示し、縦軸が輝度値を表わしている。状態(1)では、ゴミが検出された位置に対応する画素が「黒スジ画素」として示されており、当然のことながら黒スジ画素の輝度値は、周囲の画素値よりも低い。現在の1ラインが文字領域でないと判定されている場合には、状態(2)に示すように、黒スジ画素の輝度値は、輝度値aとbとの線形補間値とされる。本実施例では、線形補間により黒スジ画素の輝度値を求めているが、周辺の画素値を黒スジ画素の輝度値とするなど他の方法が用いられても良い。   In S1005, the main CPU 24 corrects the pixel value (luminance value) corresponding to the position where dust was detected in S1001 by linear interpolation using surrounding pixel values. The change from the state (1) to the state (2) in FIG. 13 is a diagram illustrating the concept of the correction processing in S1005. The horizontal axis indicates the position in the main scanning direction, and the vertical axis indicates the luminance value. In the state (1), the pixel corresponding to the position where dust is detected is shown as a “black streak pixel”, and the luminance value of the black streak pixel is naturally lower than the surrounding pixel values. If it is determined that the current one line is not a character area, the luminance value of the black streak pixel is a linear interpolation value between the luminance values a and b, as shown in state (2). In this embodiment, the luminance value of the black streak pixel is obtained by linear interpolation, but other methods such as setting the peripheral pixel value as the luminance value of the black streak pixel may be used.

S1006において、メインCPU24は、S1001でゴミが検出された位置に対応する画素値を、S1206で算出されたシート原稿色輝度値Bgで置換する。図13の状態(1)から状態(3)への変化は、S1006における補正処理の概念を示す図である。現在の1ラインが文字領域であると判定されている場合には、状態(3)に示すように、黒スジ画素の輝度値は、シート原稿色輝度値Bgとされる。   In S1006, the main CPU 24 replaces the pixel value corresponding to the position where dust was detected in S1001 with the sheet original color luminance value Bg calculated in S1206. The change from the state (1) to the state (3) in FIG. 13 is a diagram illustrating the concept of the correction processing in S1006. When it is determined that the current one line is a character area, as shown in the state (3), the luminance value of the black streak pixel is set to the sheet original color luminance value Bg.

S1005及びS1006においてゴミが検出された位置に対応する画素値の補正を行った後、メインCPU24は、現在、処理の対象としている1ラインが読取動作において読み取られた最終ラインであるか否かを判定する(S1007)。ここで、最終ラインでないと判定された場合には、次のラインを対象ラインとしてS1002からの処理を繰り返す。一方、最終ラインであると判定された場合には、図10の処理を終了する。   After correcting the pixel value corresponding to the position where dust is detected in S1005 and S1006, the main CPU 24 determines whether one line currently being processed is the last line read in the reading operation. Determination is made (S1007). If it is determined that the line is not the last line, the process from S1002 is repeated with the next line as the target line. On the other hand, if it is determined that the current line is the final line, the processing in FIG. 10 is terminated.

以上のように、本実施例においては、画像読取前に、読取位置のゴミの位置を検出し、読取データ中の画像領域については、そのゴミの位置に対応する箇所は、周囲の画素値に基づき補間する。一方、読取データ中の文字領域については、そのゴミの位置に対応する箇所は、シート原稿色輝度値で置換する。その結果、文字領域で周囲の画素に基づき線形補間した場合における、文字の歪みによる読み難さを改善することができる。   As described above, in the present embodiment, the position of dust at the reading position is detected before image reading, and the position corresponding to the position of the dust is set to the surrounding pixel values for the image area in the read data. Interpolate based on. On the other hand, for the character area in the read data, the portion corresponding to the dust position is replaced with the sheet original color luminance value. As a result, it is possible to improve difficulty in reading due to character distortion when linear interpolation is performed based on surrounding pixels in the character region.

図10で説明したように、S1004で文字領域と判定されたラインについては、S1006において、ゴミが検出された位置に対応する画素値を、S1206で算出されたシート原稿色輝度値Bgで置換する。ここで、S1004とS1006の間において、ゴミの検出された位置の主走査方向に沿った画素数を取得し、その画素数が予め定められた値よりも大きいか否かを判定するようにしても良い。予め定められた値よりも大きいと判定された場合には、S1006の処理を行う。つまり、ゴミが小さいと判定された場合には、従来と同様に、周辺の画素値に基づいて線形補間等で補正を行っても視覚的に違和感を生じさせることはないとする。一方で、ゴミが大きいと判定された場合には、従来のように線形補間等で補正を行うと視覚的に違和感を生じさせるとして、S1006で説明したようにシート原稿色輝度値で置換する。   As described with reference to FIG. 10, for the line determined to be a character area in S1004, in S1006, the pixel value corresponding to the position where dust is detected is replaced with the sheet original color luminance value Bg calculated in S1206. . Here, between S1004 and S1006, the number of pixels along the main scanning direction at the position where dust is detected is acquired, and it is determined whether or not the number of pixels is larger than a predetermined value. Also good. If it is determined that the value is larger than the predetermined value, the process of S1006 is performed. In other words, when it is determined that the dust is small, it is assumed that there is no visually uncomfortable feeling even if correction is performed by linear interpolation or the like based on the surrounding pixel values as in the conventional case. On the other hand, if it is determined that the dust is large, the sheet original color luminance value is replaced as described in S1006, assuming that a visually unnatural feeling is caused when correction is performed by linear interpolation or the like as in the prior art.

24 メインCPU
41 画像処理回路
50 読取ユニット
100 画像形成装置
103 画像読取装置
24 Main CPU
41 Image processing circuit 50 Reading unit 100 Image forming apparatus 103 Image reading apparatus

Claims (7)

原稿を光学的に読み取る読取装置であって、
当該読取領域において異物の位置を検出する検出手段と、
前記原稿を読み取った読取データが文字領域のデータであるか否かを判定する判定手段と、
前記判定手段により前記文字領域のデータであると判定された場合に、前記読取データのうち前記検出手段により検出された異物の位置に対応するデータを、前記読取データから求められる原稿色を表すデータで置換することにより補正する補正手段と、
を備えることを特徴とする読取装置。
A reading device for optically reading a document,
Detecting means for detecting the position of the foreign matter in the reading region;
Determining means for determining whether or not the read data obtained by reading the document is data of a character area;
Data representing the original color obtained from the read data, which corresponds to the position of the foreign matter detected by the detection means in the read data when the determination means determines that the data is the character area data. Correction means for correcting by replacing with,
A reading apparatus comprising:
前記補正手段は、前記検出手段により検出された異物の位置に対応する画素数が予め定められた画素数より大きい場合に、前記読取データのうち前記検出手段により検出された異物の位置に対応するデータを、前記原稿色を表すデータで置換することにより補正する、ことを特徴とする請求項1に記載の読取装置。   The correction means corresponds to the position of the foreign matter detected by the detection means in the read data when the number of pixels corresponding to the position of the foreign matter detected by the detection means is larger than a predetermined number of pixels. The reading apparatus according to claim 1, wherein data is corrected by replacing the data with data representing the original color. 前記判定手段により前記文字領域のデータであると判定された前記読取データが表す各画素の輝度値のうち閾値以上の各輝度値の平均値を、前記原稿色を表すデータとして算出する算出手段、をさらに備えることを特徴とする請求項1又は2に記載の読取装置。   Calculating means for calculating, as data representing the original color, an average value of each luminance value equal to or higher than a threshold value among luminance values of each pixel represented by the read data determined to be data of the character area by the determining means; The reading apparatus according to claim 1, further comprising: 前記判定手段は、前記読取領域において、相隣接する2つの画素間の輝度値の差の累計が閾値以上であれば、前記読取データが前記文字領域のデータであると判定する、ことを特徴とする請求項1乃至3のいずれか1項に記載の読取装置。   The determination unit determines that the read data is data of the character area if the sum of luminance value differences between two adjacent pixels in the reading area is equal to or greater than a threshold value. The reading device according to any one of claims 1 to 3. 前記判定手段により前記文字領域のデータでないと判定された場合に、前記補正手段は、前記読取データのうち前記検出手段により検出された異物の位置に対応するデータを、前記異物の位置に隣接する画素の輝度値に基づいて補正する、ことを特徴とする請求項1乃至4のいずれか1項に記載の読取装置。   When the determination unit determines that the data is not data of the character area, the correction unit adjoins the position corresponding to the position of the foreign object detected by the detection unit in the read data adjacent to the position of the foreign object. The reading apparatus according to claim 1, wherein correction is performed based on a luminance value of a pixel. 原稿を光学的に読み取る読取装置において実行される補正方法であって、
前記読取装置の検出手段が、当該読取領域において異物の位置を検出する検出工程と、
前記読取装置の判定手段が、前記原稿を読み取った読取データが文字領域のデータであるか否かを判定する判定工程と、
前記読取装置の補正手段が、前記判定工程において前記文字領域のデータであると判定された場合に、前記読取データのうち前記検出手段において検出された異物の位置に対応するデータを、原稿色を表すデータで置換することにより補正する補正工程と、
を有することを特徴とする補正方法。
A correction method executed in a reading device that optically reads a document,
A detecting step in which the detecting means of the reading device detects the position of the foreign matter in the reading region;
A determination step in which the determination unit of the reading apparatus determines whether the read data obtained by reading the document is character area data;
When the correcting unit of the reading apparatus determines that the character area data is in the determining step, the data corresponding to the position of the foreign matter detected by the detecting unit in the read data is converted to the original color. A correction process for correcting by replacing with data to represent,
A correction method characterized by comprising:
請求項6に記載の補正方法の各工程をコンピュータに実行させるプログラム。   The program which makes a computer perform each process of the correction method of Claim 6.
JP2012170340A 2012-07-31 2012-07-31 Reading device, correction method in the reading device, and program Pending JP2014030142A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012170340A JP2014030142A (en) 2012-07-31 2012-07-31 Reading device, correction method in the reading device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012170340A JP2014030142A (en) 2012-07-31 2012-07-31 Reading device, correction method in the reading device, and program

Publications (1)

Publication Number Publication Date
JP2014030142A true JP2014030142A (en) 2014-02-13

Family

ID=50202441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012170340A Pending JP2014030142A (en) 2012-07-31 2012-07-31 Reading device, correction method in the reading device, and program

Country Status (1)

Country Link
JP (1) JP2014030142A (en)

Similar Documents

Publication Publication Date Title
JP4539424B2 (en) Image reading device
US8928961B2 (en) Image reading device, image forming apparatus therewith, and method of controlling an image reading device
JP4310351B2 (en) Image reading apparatus and reading characteristic correction method for image reading apparatus
JP2003134307A (en) Image reading apparatus
JP2014060550A (en) Document reading device, image forming apparatus, document reading method, and program
JP4646641B2 (en) Image reading apparatus and image forming apparatus
JP2016066836A (en) Image reading apparatus, control method of the same, and program
JP6142815B2 (en) Image reading device
JP2007235441A (en) Image reading device and image formation apparatus
JP4412070B2 (en) Image reading apparatus and image data correction method
US10250773B2 (en) Image reading device, method of adjusting distance between document and light receiving sensor in the device, and distance adjustment program
JP2014030143A (en) Reading device, correction method in the reading device, and program
JP5793968B2 (en) Image reading device
JP2014030142A (en) Reading device, correction method in the reading device, and program
JP4367079B2 (en) Image reading device
JP5481901B2 (en) Image reading apparatus and image reading program
JP2012244500A (en) Image reading apparatus, correction method and program for image reading apparatus
JP2007049314A (en) Image reading apparatus and method therefor
JP6069883B2 (en) Image reading apparatus and image reading method
JP2017098896A (en) Image reading apparatus, reading method, and image forming apparatus
JP4186796B2 (en) Image reading device
JP2006080941A (en) Image reading apparatus
JP4367115B2 (en) Image reading device
JP2016092617A (en) Image reading device, image forming device, control method of image reading device, and program
JP5874269B2 (en) Image reading apparatus and program