JP2008048057A - Image reader, image processor and program - Google Patents

Image reader, image processor and program Download PDF

Info

Publication number
JP2008048057A
JP2008048057A JP2006220335A JP2006220335A JP2008048057A JP 2008048057 A JP2008048057 A JP 2008048057A JP 2006220335 A JP2006220335 A JP 2006220335A JP 2006220335 A JP2006220335 A JP 2006220335A JP 2008048057 A JP2008048057 A JP 2008048057A
Authority
JP
Japan
Prior art keywords
image
document
image data
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006220335A
Other languages
Japanese (ja)
Inventor
Shinji Hanaoka
新治 花岡
Kimikatsu Kanda
公克 神田
Tatatomi Suzuki
忠臣 鈴木
Hiroshi Hayashi
寛 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2006220335A priority Critical patent/JP2008048057A/en
Publication of JP2008048057A publication Critical patent/JP2008048057A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately recognize correction executed to the paper of an original. <P>SOLUTION: A signal processing part 70 provided in a scanner comprises: a preprocessing part 100 for executing various kinds of preprocessing to input image data obtained by reading the original by respective color line sensors; an image processing part 200 for executing various kinds of image processing to the preprocessed image data; a correction detection part 300 for detecting a correction area executed on the paper of the original with correction fluid or the like from the preprocessed image data; and a composition part 400 for combining the image data to which the image processing is executed in the image processing part 200 and the data of the correction area detected in the correction detection part 300 and outputting the result. In the correction detection part 300, a fine edge near the base is detected from the base detection result of the original, and a part where the fine edge is present is detected as the correction area. The data of the correction area and the image data to which the image processing is executed are combined in the composition part 400 and then the result is outputted by a printer. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、原稿の画像を読み取る画像読み取り装置、読み取られた画像データに処理を施す画像処理装置、および複写装置に関する。   The present invention relates to an image reading apparatus that reads an image of a document, an image processing apparatus that processes read image data, and a copying apparatus.

従来から、文字や画像などの情報を記録した用紙(原稿)の複製を得るために、複写機が利用されている。また、原稿に記録された情報の一部を、例えば修正液や修正テープ等を用いて消去したり、あるいは消去した後に他の情報を記録することも行われている。
従来、原稿に予めコード画像を埋め込んでおき、この原稿をドキュメント読取部(スキャナ)で読み取った際に、読み取ったコード画像に基づいて対応する原稿の原本ドキュメント画像を取り出し、取得した原本ドキュメント画像と読み取った原稿の複製ドキュメント画像と比較して両者の相違箇所を検出し、複製ドキュメント画像に相違箇所画像を加えた画像をドキュメント出力部(プリンタ)にて出力する技術が提案されている(例えば、特許文献1参照。)。
Conventionally, a copying machine is used to obtain a copy of a sheet (original) on which information such as characters and images is recorded. In addition, part of information recorded on a document is erased using, for example, a correction liquid or a correction tape, or other information is recorded after being erased.
Conventionally, a code image is embedded in a document in advance, and when this document is read by a document reading unit (scanner), a corresponding original document image is taken out based on the read code image, and the acquired original document image and A technique has been proposed in which a difference between the two is detected in comparison with a duplicate document image of a read original, and an image obtained by adding the difference portion image to the duplicate document image is output by a document output unit (printer) (for example, (See Patent Document 1).

特開2005−210327号公報Japanese Patent Laying-Open No. 2005-210327

しかしながら、例えば修正液や修正テープを用いて原本ドキュメントそのものが修正されていたような場合には、その相違箇所を見つけることが困難である。また、原本ドキュメントを記憶装置に保持させておく必要があり、装置の大型化、高コスト化を招くことにもなる。   However, for example, when the original document itself is corrected using correction fluid or correction tape, it is difficult to find the difference. In addition, it is necessary to hold the original document in the storage device, which leads to an increase in size and cost of the device.

本発明は、上述した技術を背景としてなされたものであり、その目的とするところは、原稿の紙面に施された修正を的確に把握できるようにすることにある。   The present invention has been made against the background of the above-described technique, and an object of the present invention is to make it possible to accurately grasp the correction made on the paper surface of the document.

かかる目的のもと、本発明が適用される画像読み取り装置は、原稿に形成された画像を読み取る読み取り部と、読み取り部にて読み取られた画像データに画像処理を施す画像処理部と、読み取り部にて読み取られた画像データから原稿の紙面に施された修正箇所を検出する検出部と、画像処理部にて画像処理が施された画像データと検出部にて検出された修正箇所のデータとを合成する合成部とを含んでいる。   For this purpose, an image reading apparatus to which the present invention is applied includes a reading unit that reads an image formed on a document, an image processing unit that performs image processing on image data read by the reading unit, and a reading unit. A detection unit that detects a correction portion applied to the paper surface of the document from the image data read by the image data, image data subjected to image processing by the image processing unit, and data of the correction portion detected by the detection unit; And a synthesizing unit for synthesizing.

このような画像読み取り装置において、検出部は、読み取り部にて読み取られた画像データにおける微小エッジの検出結果に基づいて修正箇所を検出することができる。また、読み取り部にて読み取られたRGB色空間の画像データをL***色空間の画像データに変換する色変換部をさらに含む場合に、検出部は、色変換部にて色変換されたL***色空間の画像データから修正箇所を検出することができる。 In such an image reading apparatus, the detection unit can detect the correction portion based on the detection result of the minute edge in the image data read by the reading unit. In addition, in the case of further including a color conversion unit that converts image data in the RGB color space read by the reading unit into image data in the L * a * b * color space, the detection unit performs color conversion in the color conversion unit. The correction location can be detected from the image data in the L * a * b * color space.

また、他の観点から捉えると、本発明が適用される画像処理装置は、原稿を読み取って得られた画像データに画像処理を施す第1の処理部と、画像データから画像データに含まれる微小エッジを検出する第2の処理部と、第1の処理部にて画像処理が施された画像データに第2の処理部にて検出された微小エッジのデータを重畳して出力する第3の処理部とを含んでいる。   From another point of view, the image processing apparatus to which the present invention is applied includes a first processing unit that performs image processing on image data obtained by reading a document, and a minute amount included in the image data from the image data. A second processing unit that detects an edge; and a third processing unit that superimposes and outputs the minute edge data detected by the second processing unit on the image data that has been subjected to image processing by the first processing unit. And a processing unit.

このような画像処理装置において、第2の処理部は、画像データから原稿の下地を検出し、検出された原稿の下地に近い微小エッジを検出し、検出された微小エッジに強調処理を施すことができる。そして、この場合に、強調処理は、空間フィルタ処理または色変換処理であることを特徴とすることができる。   In such an image processing apparatus, the second processing unit detects the background of the document from the image data, detects a minute edge close to the detected background of the document, and performs enhancement processing on the detected minute edge. Can do. In this case, the enhancement process may be a spatial filter process or a color conversion process.

また、本発明は、コンピュータに、入力される画像データに画像処理を施す機能と、画像データから画像データに含まれる微小エッジを検出する機能と、画像処理が施された画像データに検出された微小エッジのデータを重畳して出力する機能とを実現させるプログラムとして把握することもできる。   In addition, the present invention is detected in image data that has been subjected to image processing on a computer, a function that performs image processing on input image data, a function that detects minute edges included in image data from image data, and the like. It can also be understood as a program that realizes a function of superimposing and outputting data of minute edges.

請求項1記載の発明によれば、原稿の紙面に施された修正を的確に把握できるようになる。
請求項2記載の発明によれば、修正液等と原稿との段差から原稿の紙面に施された修正を検出することが可能になる。
請求項3記載の発明によれば、明度等の違いから原稿の紙面に施された修正を検出することが可能になる。
請求項4記載の発明によれば、原稿の紙面に施された修正を的確に把握できるようになる。
請求項5記載の発明によれば、原稿の紙面に施された修正領域をわかりやすく示すことができる。
請求項6記載の発明によれば、原稿の紙面に施された修正領域をよりわかりやすく示すことができる。
請求項7記載の発明によれば、画像データの元となる原稿の紙面等に施された修正を的確に把握できるようになる。
According to the first aspect of the present invention, it is possible to accurately grasp the correction applied to the paper surface of the document.
According to the second aspect of the present invention, it is possible to detect the correction applied to the paper surface of the document from the level difference between the correction liquid and the document.
According to the third aspect of the present invention, it is possible to detect a correction applied to the paper surface of the document from a difference in brightness or the like.
According to the fourth aspect of the invention, it is possible to accurately grasp the correction made on the paper surface of the document.
According to the fifth aspect of the present invention, it is possible to clearly show the correction area formed on the paper surface of the document.
According to the sixth aspect of the invention, it is possible to more easily show the correction area provided on the paper surface of the document.
According to the seventh aspect of the present invention, it becomes possible to accurately grasp the correction made on the paper surface of the original document that is the source of the image data.

以下、添付図面を参照して、本発明を実施するための最良の形態(以下、実施の形態という)について詳細に説明する。
図1は本実施の形態が適用される複写機1を示している。この複写機1は、原稿の画像を読み取るスキャナ2と、スキャナ2にて読み取られた画像データに基づき用紙上に画像を形成するプリンタ3とを備えている。ここで、スキャナ2はプリンタ3の上部に配設されており、スキャナ2の手前側には、ユーザから複写動作等の指示を受け付け、且つ、ユーザにメッセージの表示等を行うユーザインタフェース(User Interface:UI)4が設けられている。
The best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described below in detail with reference to the accompanying drawings.
FIG. 1 shows a copying machine 1 to which the present embodiment is applied. The copying machine 1 includes a scanner 2 that reads an image of a document, and a printer 3 that forms an image on a sheet based on image data read by the scanner 2. Here, the scanner 2 is disposed on the upper portion of the printer 3, and a user interface (User Interface) that accepts an instruction for a copying operation or the like from a user and displays a message to the user on the front side of the scanner 2. : UI) 4 is provided.

プリンタ3は、例えば電子写真方式によりトナーを用いて用紙上に画像形成を行う。特に、本実施の形態では、プリンタ3が、イエロー(Y)、マゼンタ(M)、シアン(C)、および黒(K)の各色トナーを用いてフルカラー画像を形成することができるようになっている。ただし、プリンタ3は用紙上にトナーやインク等の画形材を用いて画像を形成する機能を有していればよく、例えばインクジェット方式や静電記録方式などを採用することもできる。   The printer 3 forms an image on paper using toner by, for example, an electrophotographic method. In particular, in this embodiment, the printer 3 can form a full-color image using toners of yellow (Y), magenta (M), cyan (C), and black (K). Yes. However, the printer 3 only needs to have a function of forming an image on a sheet using an image forming material such as toner or ink. For example, an ink jet method or an electrostatic recording method can be adopted.

図2は、上述したスキャナ2の構成例を示す図である。この画像読み取り装置では、固定された原稿の画像を読み取ることが可能であるとともに、搬送される原稿の画像を読み取ることも可能である。そして、このスキャナ2は、積載された原稿束から原稿を順次搬送する原稿送り装置10と、スキャンによって原稿の画像を読み込む読み取り装置50とを備えている。ここで、原稿送り装置10は、図中奥側で読み取り装置50に対してヒンジ等を用いて取り付けられている。したがって原稿送り装置10は、読み取り装置50に対し図中奥側を支点として開閉自在に装着される。   FIG. 2 is a diagram illustrating a configuration example of the scanner 2 described above. With this image reading apparatus, it is possible to read a fixed original image and also to read a conveyed original image. The scanner 2 includes a document feeding device 10 that sequentially conveys documents from a stacked document stack, and a reading device 50 that reads an image of the document by scanning. Here, the document feeder 10 is attached to the reading device 50 on the back side in the drawing using a hinge or the like. Therefore, the document feeder 10 is attached to the reading device 50 so as to be opened and closed with the back side in the figure as a fulcrum.

原稿送り装置10は、複数枚の原稿からなる原稿束を積載する原稿トレイ11、この原稿トレイ11の下方に設けられ、読み取りが終了した原稿を積載する排紙トレイ12を備える。また、原稿送り装置10は原稿トレイ11の原稿を取り出して搬送する取り出しロール13を備える。さらに、取り出しロール13の原稿搬送方向下流側には、一対のロール部材を用いて用紙を一枚ずつに捌く捌き機構14が設けられる。最初に原稿が搬送される第1搬送路31には、原稿搬送方向上流側から順に、プレレジロール15、レジロール16、裏当てロール17、およびアウトロール18が設けられる。プレレジロール15は、一枚ずつに捌かれた原稿を下流側のロールに向けて搬送すると共に原稿のループ形成を行う。レジロール16は、回転し一旦停止した後にタイミングを合わせて回転を再開し、後述する原稿読み取り部に対してレジストレーション調整を施しながら原稿を供給する。裏当てロール17は、読み取り装置50にて読み込み中の原稿搬送をアシストし、且つ、原稿を第2プラテンガラス52B(後述)に押し付けることにより、読み取り位置における原稿の高さをほぼ一定に維持させる。アウトロール18は、読み取り装置50にて読み込まれた原稿をさらに下流に搬送する。
また、アウトロール18よりも原稿搬送方向下流側には、原稿を排紙トレイ12に導くための第2搬送路32が設けられる。この第2搬送路32には、排出ロール19が配設される。
そして、排紙トレイ12の下面には裏当て部材20が取り付けられている。この裏当て部材20は、後述する固定読み取りモードにおいて、読み取り装置50に設けられた第1プラテンガラス52A(後述)に原稿を押し付けるために用いられる。
The document feeder 10 includes a document tray 11 on which a bundle of documents composed of a plurality of documents is stacked, and a paper discharge tray 12 that is provided below the document tray 11 and stacks documents that have been read. In addition, the document feeder 10 includes a take-out roll 13 that takes out and conveys a document on the document tray 11. Further, on the downstream side of the take-out roll 13 in the document conveyance direction, a mechanism 14 is provided for separating sheets one by one using a pair of roll members. A pre-registration roll 15, a registration roll 16, a backing roll 17, and an out-roll 18 are provided in order from the upstream side in the document conveyance direction in the first conveyance path 31 through which the document is first conveyed. The pre-registration roll 15 conveys the originals that have been rolled up one by one toward the downstream roll and forms a loop of the originals. The registration roll 16 rotates and temporarily stops, then restarts at the same timing, and supplies a document while performing registration adjustment on a document reading unit to be described later. The backing roll 17 assists the conveyance of the document being read by the reading device 50, and presses the document against a second platen glass 52B (described later), thereby maintaining the height of the document at the reading position substantially constant. . The out roll 18 conveys the document read by the reading device 50 further downstream.
A second transport path 32 for guiding the document to the paper discharge tray 12 is provided downstream of the out-roll 18 in the document transport direction. A discharge roll 19 is disposed in the second transport path 32.
A backing member 20 is attached to the lower surface of the paper discharge tray 12. The backing member 20 is used to press a document against a first platen glass 52A (described later) provided in the reading device 50 in a fixed reading mode described later.

さらに、このスキャナ2では、原稿の両面に形成された画像を1プロセスで読み取ることができるよう、アウトロール18の出口側とプレレジロール15の入口側との間に第3搬送路33が設けられている。なお、上述した排出ロール19は、第2搬送路32に搬入された原稿を第3搬送路33に反転搬送する機能も有している。
さらにまた、このスキャナ2には、原稿の両面読み取りを行った際に、その排出時に原稿を再度反転させて排紙トレイ12に排出するための第4搬送路34が設けられている。この第4搬送路34は、第2搬送路32の上部側に設けられている。そして、上述した排出ロール19は、第2搬送路32に搬入された原稿を第4搬送路34に反転搬送する機能も有している。
Further, in the scanner 2, a third transport path 33 is provided between the outlet side of the out roll 18 and the inlet side of the pre-registration roll 15 so that the images formed on both sides of the document can be read in one process. ing. The discharge roll 19 described above also has a function of reversing and transporting the document carried into the second transport path 32 to the third transport path 33.
Furthermore, the scanner 2 is provided with a fourth transport path 34 for reversing the original and discharging it to the paper discharge tray 12 when the original is read on both sides. The fourth transport path 34 is provided on the upper side of the second transport path 32. The discharge roll 19 described above also has a function of reversing and conveying the original document carried into the second conveyance path 32 to the fourth conveyance path 34.

一方、読み取り部としての読み取り装置50は、上述した原稿送り装置10を開閉可能に支持すると共に、この原稿送り装置10を装置フレーム51によって支え、また、原稿送り装置10によって搬送される原稿の画像読み取りを行っている。この読み取り装置50は、筐体を形成する装置フレーム51、画像を読み込むべき原稿を静止させた状態で置くことが可能な原稿台としての第1プラテンガラス52A、原稿送り装置10によって搬送される原稿を読み取るための光の開口部を有する第2プラテンガラス52Bを備えている。   On the other hand, the reading device 50 as a reading unit supports the above-described document feeding device 10 so as to be openable and closable, supports the document feeding device 10 by the device frame 51, and images of the document conveyed by the document feeding device 10. Reading is in progress. The reading device 50 includes a device frame 51 forming a casing, a first platen glass 52A as a document table on which a document to be read can be placed in a stationary state, and a document conveyed by the document feeding device 10. 2nd platen glass 52B which has the opening part of the light for reading.

また、読み取り装置50は、フルレートキャリッジ53およびハーフレートキャリッジ54を備えている。フルレートキャリッジ53は、第2プラテンガラス52Bの下に静止し、あるいは第1プラテンガラス52Aの全体にわたってスキャンして画像を読み込む。ハーフレートキャリッジ54は、フルレートキャリッジ53が静止する場合には静止し、フルレートキャリッジ53が移動する場合には連動して移動することで、フルレートキャリッジ53にて得られた光を結像部へ供給する。フルレートキャリッジ53には、光源55および光源55にて光照射がなされた原稿からの反射光を受光する第1ミラー57Aが設けられている。さらに、ハーフレートキャリッジ54には、第1ミラー57Aから得られた光を結像部へ提供する第2ミラー57Bおよび第3ミラー57Cが設けられている。さらにまた、読み取り装置50は、結像用レンズ58およびCCD(Charge Coupled Device)イメージセンサ59を備えている。これらのうち、結像用レンズ58は、第3ミラー57Cから得られた光学像を光学的に縮小する。また、CCDイメージセンサ59は、結像用レンズ58によって結像された光学像を光電変換する。つまり、読み取り装置50では、所謂縮小光学系を用いてCCDイメージセンサ59に像を結像させている。
また、第1プラテンガラス52Aと第2プラテンガラス52Bとの間に設けられる部材の下部には、主走査方向に沿って伸びる白基準板56が装着されている。
In addition, the reading device 50 includes a full rate carriage 53 and a half rate carriage 54. The full-rate carriage 53 is stationary under the second platen glass 52B or scans the entire first platen glass 52A to read an image. The half-rate carriage 54 is stationary when the full-rate carriage 53 is stationary, and moves in conjunction with the full-rate carriage 53 so that the light obtained by the full-rate carriage 53 is supplied to the imaging unit. To do. The full-rate carriage 53 is provided with a light source 55 and a first mirror 57 </ b> A that receives reflected light from a document irradiated with light from the light source 55. Further, the half-rate carriage 54 is provided with a second mirror 57B and a third mirror 57C that provide the light obtained from the first mirror 57A to the imaging unit. Furthermore, the reading device 50 includes an imaging lens 58 and a CCD (Charge Coupled Device) image sensor 59. Among these, the imaging lens 58 optically reduces the optical image obtained from the third mirror 57C. The CCD image sensor 59 photoelectrically converts the optical image formed by the imaging lens 58. That is, in the reading device 50, an image is formed on the CCD image sensor 59 using a so-called reduction optical system.
A white reference plate 56 extending along the main scanning direction is attached to the lower part of a member provided between the first platen glass 52A and the second platen glass 52B.

そして、読み取り装置50は、制御・画像処理ユニット60をさらに備える。この制御・画像処理ユニット60は、CCDイメージセンサ59から入力される原稿の画像データに所定の処理を施す。また、制御・画像処理ユニット60は、スキャナ2(原稿送り装置10および読み取り装置50)の読み取り動作における各部の動作を制御する。   The reading device 50 further includes a control / image processing unit 60. The control / image processing unit 60 performs predetermined processing on the image data of the document input from the CCD image sensor 59. The control / image processing unit 60 controls the operation of each unit in the reading operation of the scanner 2 (the document feeding device 10 and the reading device 50).

図3は、読み取り装置50に設けられるCCDイメージセンサ59の概略構成を示す図である。受光部として機能するCCDイメージセンサ59は、矩形状のセンサ基板59aと、このセンサ基板59a上に配設された三本のラインセンサ59R、59G、59Bとを有している。なお、以下の説明では、これら三本のラインセンサ59R、59G、59Bを、それぞれ赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59Bと呼ぶ。赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59Bは、原稿の搬送方向およびフルレートキャリッジ53(図2参照)の移動方向と直交する方向(主走査方向)に沿って配列され、各ラインセンサは平行に配置されている。赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59Bは、それぞれ例えば10μm×10μmのフォトダイオードPDを直線上にn個並べて構成される。そして、青用ラインセンサ59Bと緑用ラインセンサ59Gとの間隔、および緑用ラインセンサ59Gと赤用ラインセンサ59Rとの間隔は、それぞれ、副走査方向2ライン分となっている。   FIG. 3 is a diagram showing a schematic configuration of a CCD image sensor 59 provided in the reading device 50. The CCD image sensor 59 functioning as a light receiving unit includes a rectangular sensor substrate 59a and three line sensors 59R, 59G, and 59B disposed on the sensor substrate 59a. In the following description, these three line sensors 59R, 59G, and 59B are referred to as a red line sensor 59R, a green line sensor 59G, and a blue line sensor 59B, respectively. The line sensor for red 59R, the line sensor for green 59G, and the line sensor for blue 59B are arranged along the direction (main scanning direction) orthogonal to the document conveying direction and the moving direction of the full rate carriage 53 (see FIG. 2). Each line sensor is arranged in parallel. Each of the red line sensor 59R, the green line sensor 59G, and the blue line sensor 59B includes, for example, n photodiodes PD each having a size of 10 μm × 10 μm arranged on a straight line. The distance between the blue line sensor 59B and the green line sensor 59G and the distance between the green line sensor 59G and the red line sensor 59R are respectively two lines in the sub-scanning direction.

図4は、図2に示す制御・画像処理ユニット60のブロック図である。この制御・画像処理ユニット60は、信号処理部70および制御部80を備えている。信号処理部70は、CCDイメージセンサ59に設けられた赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59Bから入力されてくる読み取りデータに処理を施す。一方、制御部80は原稿送り装置10および読み取り装置50の動作を制御する。   FIG. 4 is a block diagram of the control / image processing unit 60 shown in FIG. The control / image processing unit 60 includes a signal processing unit 70 and a control unit 80. The signal processing unit 70 processes the read data input from the red line sensor 59R, the green line sensor 59G, and the blue line sensor 59B provided in the CCD image sensor 59. On the other hand, the control unit 80 controls the operations of the document feeder 10 and the reading device 50.

制御部80は、読み取りコントローラ81、CCDドライバ82、光源ドライバ83、スキャンドライバ84、および搬送機構ドライバ85を備える。
読み取りコントローラ81は、各種原稿読み取りの制御等を含め、図2に示す原稿送り装置10および読み取り装置50の全体を制御する。
CCDドライバ82はCCDイメージセンサ59(赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59B)による画像データの取り込み動作を制御する。
光源ドライバ83は、点灯信号を出力し、原稿の読み取りタイミングに合わせて光源55の点灯・消灯を制御する。
スキャンドライバ84は、読み取り装置50におけるモータのオン/オフなどを行いフルレートキャリッジ53およびハーフレートキャリッジ54によるスキャン動作を制御する。
搬送機構ドライバ85は、原稿送り装置10におけるモータの制御、各種ロール、クラッチ、およびゲートの切り替え動作等を制御する。
The control unit 80 includes a reading controller 81, a CCD driver 82, a light source driver 83, a scan driver 84, and a transport mechanism driver 85.
The reading controller 81 controls the entire document feeder 10 and the reading device 50 shown in FIG.
The CCD driver 82 controls the image data capturing operation by the CCD image sensor 59 (red line sensor 59R, green line sensor 59G, blue line sensor 59B).
The light source driver 83 outputs a lighting signal and controls turning on / off of the light source 55 in accordance with the reading timing of the document.
The scan driver 84 controls the scanning operation by the full rate carriage 53 and the half rate carriage 54 by turning on / off the motor in the reading device 50.
The transport mechanism driver 85 controls motor control, various rolls, clutches, and gate switching operations in the document feeder 10.

これらの各種ドライバからは、原稿送り装置10および読み取り装置50に対して制御信号が出力され、かかる制御信号に基づいて、これらの動作制御が可能となる。読み取りコントローラ81は、ホストシステムからの制御信号や、例えば自動選択読み取り機能に際して検出されるセンサ出力、UI4(図1参照)を介して受け付けたユーザからの選択等に基づいて、読み取りモードを設定し、原稿送り装置10および読み取り装置50を制御している。この読み取りモードとしては、第1プラテンガラス52A上に置かれた原稿を読み取る固定読み取りモード、第2プラテンガラス52B上を搬送される原稿を読み取る搬送読み取りモード等が挙げられる。また、搬送読み取りモードにおいては、原稿の片面の画像を読み取る片面モード、原稿の両面の画像を読み取る両面モード等も挙げられる。   From these various drivers, control signals are output to the document feeder 10 and the reading device 50, and these operations can be controlled based on the control signals. The reading controller 81 sets the reading mode based on a control signal from the host system, a sensor output detected in the automatic selection reading function, a selection from the user received via the UI 4 (see FIG. 1), and the like. The document feeder 10 and the reading device 50 are controlled. Examples of the reading mode include a fixed reading mode for reading a document placed on the first platen glass 52A, a transport reading mode for reading a document transported on the second platen glass 52B, and the like. Further, in the conveyance reading mode, there are a single-side mode for reading an image on one side of a document, a double-side mode for reading images on both sides of a document, and the like.

では、図1〜図4を参照しつつ、複写機1による複写動作について説明する。この複写機1のスキャナ2では、上述したように、第1プラテンガラス52A上に置かれた原稿の読み取り(固定読み取りモード)、および、原稿送り装置10にて搬送される原稿の読み取り(搬送読み取りモード)が実行可能である。   Now, a copying operation by the copying machine 1 will be described with reference to FIGS. In the scanner 2 of the copying machine 1, as described above, reading of a document placed on the first platen glass 52A (fixed reading mode) and reading of a document conveyed by the document feeder 10 (conveyance reading) Mode) is executable.

まず、固定読み取りモードについて説明する。固定読み取りモードでは、読み取り装置50に対して原稿送り装置10が開かれ、第1プラテンガラス52A上に原稿がセットされた後、原稿送り装置10が閉じられる。これにより、第1プラテンガラス52A上の原稿は、原稿送り装置10に設けられた裏当て部材20により第1プラテンガラス52Aに押し付けられる。そして、ユーザによるスタート指示がUI4を介して受け付けられると、次のような動作が実行される。   First, the fixed reading mode will be described. In the fixed reading mode, the document feeder 10 is opened with respect to the reading device 50, and after the document is set on the first platen glass 52A, the document feeder 10 is closed. As a result, the document on the first platen glass 52A is pressed against the first platen glass 52A by the backing member 20 provided in the document feeder 10. Then, when a start instruction from the user is accepted via the UI 4, the following operation is executed.

すなわち、第1プラテンガラス52Aに置かれた原稿の画像を読み取る場合には、フルレートキャリッジ53とハーフレートキャリッジ54とが、2:1の割合でスキャン方向(矢印方向)に移動する。このとき、フルレートキャリッジ53の光源55が点灯し、これらからの光が原稿の被読み取り面に照射される。そして、原稿からの反射光が第1ミラー57A、第2ミラー57B、および第3ミラー57Cの順に反射されて結像用レンズ58に導かれる。結像用レンズ58に導かれた光は、CCDイメージセンサ59の受光面に結像される。すなわち、青色領域の反射光は青用ラインセンサ59Bが、緑色領域の反射光は緑用ラインセンサ59Gが、そして赤色領域の反射光は赤用ラインセンサ59Rが、それぞれ受光する。これら青用ラインセンサ59B、緑用ラインセンサ59G、赤用ラインセンサ59Rは上述したようにそれぞれが1次元のセンサで構成されており、1ライン分を同時に処理している。このライン方向(スキャンの副走査方向)にフルレートキャリッジ53およびハーフレートキャリッジ54を移動させ、原稿の次のラインを読み取る。これを原稿全体に亘って実行することで、1ページの原稿読み取りが完了する。   That is, when reading an image of a document placed on the first platen glass 52A, the full rate carriage 53 and the half rate carriage 54 move in the scanning direction (arrow direction) at a ratio of 2: 1. At this time, the light source 55 of the full-rate carriage 53 is turned on, and the light from these lights is applied to the read surface of the document. Then, the reflected light from the document is reflected in the order of the first mirror 57A, the second mirror 57B, and the third mirror 57C and guided to the imaging lens 58. The light guided to the imaging lens 58 is imaged on the light receiving surface of the CCD image sensor 59. That is, the blue line sensor 59B receives reflected light in the blue region, the green line sensor 59G receives reflected light in the green region, and the red line sensor 59R receives reflected light in the red region. Each of the blue line sensor 59B, the green line sensor 59G, and the red line sensor 59R is composed of a one-dimensional sensor as described above, and processes one line at a time. The full rate carriage 53 and the half rate carriage 54 are moved in this line direction (scanning sub-scanning direction) to read the next line of the document. By executing this over the entire document, reading of one page of the document is completed.

次に、搬送読み取りモードについて説明する。搬送読み取りモードでは、読み取り装置50に対して原稿送り装置10が閉じられた状態で、原稿トレイ11上に原稿あるいは原稿束がセットされる。その後、ユーザによるスタート指示がUI4を介して受け付けられると、原稿送り装置10による原稿の搬送が開始される。   Next, the conveyance reading mode will be described. In the transport reading mode, a document or a bundle of documents is set on the document tray 11 in a state where the document feeder 10 is closed with respect to the reading device 50. Thereafter, when a start instruction from the user is received via the UI 4, the conveyance of the document by the document feeder 10 is started.

原稿送り装置10にて搬送される原稿の画像を読み取る際には、搬送される原稿が、裏当てロール17によって第2プラテンガラス52Bに押し付けられながら第2プラテンガラス52Bの上を通過する。このとき、フルレートキャリッジ53およびハーフレートキャリッジ54は、図2に示す実線の位置に停止した状態におかれる。そして、フルレートキャリッジ53の光源55の光が原稿の被読み取り面に照射される。このとき、裏当てロール17は原稿を挟んでフルレートキャリッジ53による原稿読み取り位置に対向している。そして、原稿の1ライン目の反射光が、第1ミラー57A、第2ミラー57B、および第3ミラー57Cを経て結像用レンズ58にて結像される。結像用レンズ58に導かれた光は、CCDイメージセンサ59の受光面に結像される。すなわち、青色領域の反射光は青用ラインセンサ59Bが、緑色領域の反射光は緑用ラインセンサ59Gが、そして赤色領域の反射光は赤用ラインセンサ59Rが、それぞれ受光する。そして、CCDイメージセンサ59を構成する各ラインセンサにて主走査方向の1ライン分を同時に処理した後、原稿送り装置10によって搬送される原稿の次の主走査方向の1ラインが読み込まれる。そして、原稿の先端が第2プラテンガラス52Bの読み取り位置に到達した後、この原稿の後端が第2プラテンガラス52Bの読み取り位置を通過することによって、副走査方向に亘って1ページの原稿読み取りが完了する。   When reading an image of a document transported by the document feeder 10, the transported document passes over the second platen glass 52B while being pressed against the second platen glass 52B by the backing roll 17. At this time, the full rate carriage 53 and the half rate carriage 54 are stopped at the position indicated by the solid line in FIG. Then, the light of the light source 55 of the full rate carriage 53 is irradiated on the read surface of the document. At this time, the backing roll 17 faces the original reading position by the full rate carriage 53 with the original interposed therebetween. Then, the reflected light of the first line of the original is imaged by the imaging lens 58 via the first mirror 57A, the second mirror 57B, and the third mirror 57C. The light guided to the imaging lens 58 is imaged on the light receiving surface of the CCD image sensor 59. That is, the blue line sensor 59B receives reflected light in the blue region, the green line sensor 59G receives reflected light in the green region, and the red line sensor 59R receives reflected light in the red region. Then, after each line sensor constituting the CCD image sensor 59 simultaneously processes one line in the main scanning direction, one line in the next main scanning direction of the document conveyed by the document feeder 10 is read. Then, after the leading edge of the document reaches the reading position of the second platen glass 52B, the trailing edge of the document passes through the reading position of the second platen glass 52B, thereby reading one page of the document in the sub-scanning direction. Is completed.

また、原稿の両面に形成された画像を読み取る際には、表面側の読み取りを完了した原稿の後端が第2搬送路32に設けられた排出ロール19を通過する直前に、排出ロール19の駆動方向が逆方向に切り替えられる。このとき、図示しないゲートの向きが切り替えられることにより、原稿は第3搬送路33に導かれる。このとき、原稿の後端側が今度は先端側になる。そして、原稿は表裏が反転された状態で再び第2プラテンガラス52Bの上を通過し、上述したプロセスと同様にして裏面側の読み取りが行われる。その後、裏面側の読み取りを完了した原稿の後端が第2搬送路32に設けられた排出ロール19を通過する直前に、排出ロール19の駆動方向が再び逆方向に切り替えられる。このとき、図示しないゲートの向きが切り替えられることにより、原稿は第4搬送路34へと導かれる。このとき、原稿の先後端が再び入れ替わり、原稿は原稿トレイ11上に置かれていたときとは表裏が反転した状態で排紙トレイ12上に排出される。このようにすることで、複数枚の原稿束の並び順を、原稿トレイ11上に置かれていたときと排紙トレイ12上に排出されたときとで、同じにすることができる。   Further, when reading images formed on both sides of the original, the discharge roll 19 is immediately before the rear end of the original, which has been read on the front side, passes through the discharge roll 19 provided in the second conveyance path 32. The driving direction is switched to the reverse direction. At this time, the document is guided to the third conveyance path 33 by switching the direction of the gate (not shown). At this time, the trailing edge side of the document is now the leading edge side. Then, the original passes again over the second platen glass 52B with the front and back sides reversed, and the back side is read in the same manner as the above-described process. Thereafter, the drive direction of the discharge roll 19 is switched to the reverse direction again immediately before the rear end of the document that has been read on the back side passes through the discharge roll 19 provided in the second conveyance path 32. At this time, the document is guided to the fourth conveyance path 34 by switching the direction of the gate (not shown). At this time, the leading and trailing edges of the document are replaced again, and the document is discharged onto the paper discharge tray 12 in a state where the front and back of the document are reversed. By doing so, the arrangement order of a plurality of document bundles can be made the same when placed on the document tray 11 and when ejected onto the paper discharge tray 12.

これら固定読み取りモードあるいは搬送読み取りモードで得られた赤(R)、緑(G)、および青(B)の画像データ(RGBデータ:それぞれをRデータ、Gデータ、Bデータという)は、制御・画像処理ユニット60にて所定の画像処理が施され、イエロー(Y)、マゼンタ(M)、シアン(C)、および黒(K)の画像データ(YMCKデータという)に変換された後プリンタ3に出力される。そして、プリンタ3は、入力されてくるYMCKデータに基づき、用紙上に各色トナーにてフルカラー画像の形成を行う。   The red (R), green (G), and blue (B) image data (RGB data: referred to as R data, G data, and B data, respectively) obtained in the fixed reading mode or the conveyance reading mode are Predetermined image processing is performed in the image processing unit 60 and converted into yellow (Y), magenta (M), cyan (C), and black (K) image data (referred to as YMCK data) and then applied to the printer 3. Is output. Then, the printer 3 forms a full color image with each color toner on the paper based on the input YMCK data.

ところで、この複写機1では、スキャナ2にて原稿の画像を読み取って得られた赤、緑、青の各色の画像データに基づき、信号処理部70において、修正液や修正テープ等による原稿の修正跡の有無の検出を行っている。そして、修正跡が検出された場合は、原稿の読み取りデータにこの修正跡のデータを加味した出力画像データを、プリンタ3に出力している。   By the way, in this copying machine 1, based on the image data of each color of red, green, and blue obtained by reading the image of the document with the scanner 2, the signal processing unit 70 corrects the document with a correction liquid or a correction tape. The presence or absence of traces is detected. When a correction trace is detected, output image data in which the correction trace data is added to the original read data is output to the printer 3.

図5は、図4に示す信号処理部70の詳細なブロック図を示している。信号処理部70は、前処理部100、画像処理部200、修正検出部300、および合成部400を備える。
前処理部100は、CCDイメージセンサ59(赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59B)から入力されてくる画像データ(入力画像データ)に例えばアナログ/デジタル変換(A/D変換)等の各種前処理を施す。
第1の処理部として機能する画像処理部200は、前処理部100にて前処理が施された画像データにハイライト調整(下地除去)等の各種画像処理を施し、得られた画像データを出力する。
検出部および第2の処理部として機能する修正検出部300は、前処理部100にて前処理が施された画像データに基づき、修正液等による修正領域(修正箇所)を抽出し、得られた修正領域データ(修正箇所のデータ)を出力する。
第3の処理部として機能する合成部400は、画像処理部200にて各種画像処理が施された画像データと、修正検出部300にて抽出された修正領域データとを合成し、得られた出力画像データをプリンタ3に出力する。
FIG. 5 shows a detailed block diagram of the signal processing unit 70 shown in FIG. The signal processing unit 70 includes a preprocessing unit 100, an image processing unit 200, a correction detection unit 300, and a synthesis unit 400.
The preprocessing unit 100 converts, for example, analog / digital conversion (A / A) into image data (input image data) input from the CCD image sensor 59 (red line sensor 59R, green line sensor 59G, blue line sensor 59B). Various pre-processing such as D conversion) is performed.
The image processing unit 200 functioning as the first processing unit performs various image processing such as highlight adjustment (background removal) on the image data preprocessed by the preprocessing unit 100, and uses the obtained image data. Output.
The correction detection unit 300 functioning as the detection unit and the second processing unit is obtained by extracting a correction region (correction part) with a correction liquid or the like based on the image data preprocessed by the preprocessing unit 100 The corrected area data (corrected part data) is output.
The synthesizing unit 400 functioning as the third processing unit is obtained by synthesizing the image data subjected to various image processing by the image processing unit 200 and the correction area data extracted by the correction detection unit 300. Output image data is output to the printer 3.

図6は、前処理部100のブロック図を示している。前処理部100は、アナログ処理部110、アナログ−デジタル(A/D)変換部120、遅延処理部130、および第1色変換部140を備える。
アナログ処理部110は、入力されてくるRデータ、Gデータ、およびBデータそれぞれに対し、ゲイン・オフセット調整等のアナログ補正を施す。
A/D変換部120は、アナログ補正が施されたRデータ、Gデータ、およびBデータをデジタルデータに変換する。
FIG. 6 shows a block diagram of the preprocessing unit 100. The preprocessing unit 100 includes an analog processing unit 110, an analog-digital (A / D) conversion unit 120, a delay processing unit 130, and a first color conversion unit 140.
The analog processing unit 110 performs analog correction such as gain / offset adjustment on the input R data, G data, and B data.
The A / D conversion unit 120 converts R data, G data, and B data subjected to analog correction into digital data.

遅延処理部130は、青用ラインセンサ59B、緑用ラインセンサ59G、および赤用ラインセンサ59R(図3参照)の取り付け位置の相違に伴うギャップを補正する。すなわち、図3に示したように、赤用ラインセンサ59Rに対し緑用ラインセンサ59Gは副走査方向に2ライン分だけずらして配置され、緑用ラインセンサ59Gに対し青用ラインセンサ59Bは副走査方向に2ライン分だけずらして配置される。このため、スキャナ2では、固定読み取りモードおよび搬送読み取りモードにて原稿の読み取り動作を行う際、原稿のある特定の部位(主走査方向ライン)をまず青用ラインセンサ59Bにて読み取り、次いでこの特定の部位を緑用ラインセンサ59Gにて読み取り、最後にこの特定の部位を赤用ラインセンサ58Rにて読み取る。これを逆に見れば、同じタイミングでは青用ラインセンサ59B、緑用ラインセンサ59G、および赤用ラインセンサ59Rが、それぞれ副走査方向に2ライン分ずつずれた部位の画像を読み取っていることになる。そこで、遅延処理部130では、最後に読み取りが行われる赤用ラインセンサ59RによるRデータを基準とし、緑用ラインセンサ59GによるGデータをRデータに対し副走査方向に2ライン分だけ遅延させ、また、青用ラインセンサ59BによるBデータをRデータに対し副走査方向に4ライン分だけ(Gデータに対しては副走査方向に2ライン分だけ)遅延させている。これにより、遅延処理部130からは、原稿の同一部位(同一の主走査方向ライン)を読み取って得られたRデータ、Gデータ、およびBデータが、同期して出力されることになる。   The delay processing unit 130 corrects a gap due to a difference in attachment positions of the blue line sensor 59B, the green line sensor 59G, and the red line sensor 59R (see FIG. 3). That is, as shown in FIG. 3, the green line sensor 59G is shifted by two lines in the sub scanning direction with respect to the red line sensor 59R, and the blue line sensor 59B is subordinate to the green line sensor 59G. They are shifted by two lines in the scanning direction. For this reason, when the scanner 2 performs a document reading operation in the fixed reading mode and the conveyance reading mode, a specific part (main scanning direction line) of the document is first read by the blue line sensor 59B, and then this specification is performed. Is read by the green line sensor 59G, and finally this specific part is read by the red line sensor 58R. In other words, at the same timing, the blue line sensor 59B, the green line sensor 59G, and the red line sensor 59R each read an image of a portion shifted by two lines in the sub-scanning direction. Become. Therefore, the delay processing unit 130 uses the R data from the red line sensor 59R to be read last as a reference, delays the G data from the green line sensor 59G by two lines in the sub-scanning direction with respect to the R data, Further, the B data by the blue line sensor 59B is delayed by 4 lines in the sub-scanning direction with respect to the R data (for G data by 2 lines in the sub-scanning direction). As a result, R data, G data, and B data obtained by reading the same part (the same main scanning direction line) of the document are output from the delay processing unit 130 in synchronization.

第1色変換部140は、遅延処理部130から同期して入力されてくるRデータ、Gデータ、およびBデータに対し、画素毎に、RGB色空間からL***色空間への色変換処理を施す。このため、第1色変換部140すなわち前処理部100からは、色変換後のL*データ、a*データ、およびb*データが出力されることになる。これらL*データ、a*データ、およびb*データ(以下の説明では必要に応じてLabデータと呼ぶことにする)は、画像処理部200および修正検出部300に、それぞれ出力される。 The first color conversion unit 140 converts, from the RGB color space to the L * a * b * color space, for each pixel with respect to R data, G data, and B data input in synchronization with the delay processing unit 130. Perform color conversion processing. Therefore, the L * data, a * data, and b * data after color conversion are output from the first color conversion unit 140, that is, the preprocessing unit 100. These L * data, a * data, and b * data (hereinafter referred to as Lab data as necessary in the following description) are output to the image processing unit 200 and the correction detection unit 300, respectively.

図7は、画像処理部200のブロック図を示している。画像処理部200は、エッジ検出部210、フィルタ処理部220、ハイライト調整部230、および第2色変換部240を備える。
エッジ検出部210は、前処理部100から入力されてくるLabデータのうち、明度に対するL*データに基づき、画像のエッジを検出する。
フィルタ処理部220は、Labデータに空間フィルタ処理を施し、エッジ検出部210にて検出されたエッジを強調したり、あるいはぼやかしたりする。
ハイライト調整部230は、Labデータから原稿の下地データを取得し、このLabデータから下地データを除去して出力する。
第2色変換部240は、ハイライト調整部230から入力されてくるL*データ、a*データ、およびb*データに対し、画素毎に、L***色空間からYMCK色空間への色変換処理を施す。このため、第2色変換部240すなわち画像処理部200からは、画像データとしてYデータ、Mデータ、Cデータ、およびKデータ(以下の説明では必要に応じてYMCKデータと呼ぶことにする)が合成部400に出力されることになる。
FIG. 7 shows a block diagram of the image processing unit 200. The image processing unit 200 includes an edge detection unit 210, a filter processing unit 220, a highlight adjustment unit 230, and a second color conversion unit 240.
The edge detection unit 210 detects an edge of an image based on L * data for lightness among Lab data input from the preprocessing unit 100.
The filter processing unit 220 performs spatial filter processing on the Lab data, and emphasizes or blurs the edges detected by the edge detection unit 210.
The highlight adjustment unit 230 acquires the background data of the document from the Lab data, removes the background data from the Lab data, and outputs the data.
The second color conversion unit 240 converts the L * data, a * data, and b * data input from the highlight adjustment unit 230 from the L * a * b * color space to the YMCK color space for each pixel. The color conversion process is performed. For this reason, Y data, M data, C data, and K data (hereinafter referred to as YMCK data as necessary in the following description) are supplied as image data from the second color conversion unit 240, that is, the image processing unit 200. It is output to the synthesis unit 400.

図8は、修正検出部300のブロック図を示している。修正検出部300は、下地検出部310、微小エッジ検出部320、エッジ強調処理部330、および第3色変換部340を備える。
下地検出部310は、前処理部100から入力されてくるLabデータのうち、明度に対応するL*データに基づき、原稿の下地レベルを検出する。
微小エッジ検出部320は、前処理部100から入力されてくるLabデータと、下地検出部310にて検出された原稿の下地レベルとを用いて、下地レベルに近い微小なエッジを検出する。
エッジ強調処理部330は、微小エッジ検出部320にて検出された微小エッジを強調するための処理を施す。
第3色変換部340は、エッジ強調処理部330から入力されてくるLabデータに対し、画素毎に、L***色空間からYMCK色空間への色変換処理を施す。このため、第3色変換部340すなわち修正検出部300からは、修正領域データとしてYデータ、Mデータ、Cデータ、およびKデータが合成部400に出力されることになる。
FIG. 8 shows a block diagram of the correction detection unit 300. The correction detection unit 300 includes a background detection unit 310, a minute edge detection unit 320, an edge enhancement processing unit 330, and a third color conversion unit 340.
The background detection unit 310 detects the background level of the document based on L * data corresponding to the lightness among the Lab data input from the preprocessing unit 100.
The minute edge detection unit 320 detects minute edges close to the background level using the Lab data input from the preprocessing unit 100 and the background level of the document detected by the background detection unit 310.
The edge enhancement processing unit 330 performs processing for enhancing the minute edge detected by the minute edge detection unit 320.
The third color conversion unit 340 performs color conversion processing from the L * a * b * color space to the YMCK color space for each pixel on the Lab data input from the edge enhancement processing unit 330. For this reason, Y data, M data, C data, and K data are output from the third color conversion unit 340, that is, the correction detection unit 300, to the synthesis unit 400 as correction area data.

なお、図5に示す合成部400は、画像処理部200から入力されてくる画像データ(YMCKデータ)および修正検出部300から入力されてくる修正領域データ(YMCKデータ)を、色毎かつ画素毎に加算し、得られた出力画像データを出力する。   5 combines the image data (YMCK data) input from the image processing unit 200 and the correction area data (YMCK data) input from the correction detection unit 300 for each color and each pixel. And output image data obtained is output.

なお、信号処理部70を構成する各部の機能は、ソフトウェアとハードウェア資源とが協働することにより実現される。すなわち、信号処理部70に設けられた図示しないCPU(Central Processing Unit)が、前処理部100、画像処理部200、修正検出部300、合成部400の各機能を実現するプログラムを、例えばハードディスク等の外部記憶装置からメインメモリに読み込んで、これらの各機能を実現する。   Note that the function of each unit constituting the signal processing unit 70 is realized by cooperation of software and hardware resources. That is, a CPU (Central Processing Unit) (not shown) provided in the signal processing unit 70 implements a program for realizing the functions of the preprocessing unit 100, the image processing unit 200, the correction detection unit 300, and the synthesis unit 400, such as a hard disk or the like. These functions are realized by reading from the external storage device into the main memory.

ここで、図9(a)は、修正液等による修正が施されていない原稿(無修正原稿と呼ぶ)を例示している。
一方、図9(b)は、図9(a)に示す無修正原稿の一部領域(テキスト画像三行目の「あいうえお」)に対し修正液等による修正が施された原稿(有修正原稿と呼ぶ)を例示している。なお、図9(b)に示す有修正原稿において、修正液等にて修正が施された領域を修正領域Wと呼ぶことにする。
Here, FIG. 9A exemplifies a document that is not corrected with a correction liquid or the like (referred to as an uncorrected document).
On the other hand, FIG. 9B shows a document (corrected document) in which a partial area of the uncorrected document shown in FIG. 9A (“Aiueo” in the third line of the text image) is corrected with a correction liquid or the like. This is exemplified. In the corrected original shown in FIG. 9B, an area corrected with correction liquid or the like is referred to as a correction area W.

また、図10(a)は、図9(a)に示す無修正原稿における無修正ラインL1の読み取りデータ(画素番号1〜n:各ラインセンサのフォトダイオードPDの数に対応)に基づき、前処理部100から出力されるL*データを示している。無修正ラインL1では、テキスト画像である「あいうえお」が記録された領域においてL*の値が小さく(暗く)なり、「あいうえお」が記録されない領域(背景領域)ではL*の値が大きく(明るく)なる。 FIG. 10A is based on the read data (pixel numbers 1 to n: corresponding to the number of photodiodes PD of each line sensor) of the uncensored line L1 in the uncensored document shown in FIG. The L * data output from the processing unit 100 is shown. In unmodified line L1, a text image "ABCDE" value of L * is small in the recorded region (dark) becomes, "ABCDE" is not area (background area), the L * value is large which is recorded (bright )Become.

一方、図10(b)は、図9(b)に示す有修正原稿のうち修正領域Wを含む有修正ラインL2の読み取りデータ(画素番号1〜n)に基づき、前処理部100から出力されるL*データを示している。有修正ラインL2では、図9(b)に示す修正領域Wの端部に対応する微小エッジ部EにおいてL*の値がわずかに小さく(暗く)なり、それ以外の領域ではL*の値が大きく(明るく)なる。ここで微小エッジ部EにおいてのL*値が変化するのは、修正液や修正テープ等と原稿自身との間にわずかに段差ができることによって影が生じるためである。 On the other hand, FIG. 10B is output from the preprocessing unit 100 based on the read data (pixel numbers 1 to n) of the corrected line L2 including the correction area W in the corrected document shown in FIG. 9B. L * data is shown. In the corrected line L2, the value of L * is slightly smaller (darker) in the minute edge portion E corresponding to the end of the correction region W shown in FIG. 9B, and the value of L * is in other regions. It becomes bigger (brighter). Here, the L * value at the minute edge portion E is changed because a slight step is formed between the correction liquid or the correction tape and the original itself.

そして、図8に示す修正検出部300では、次のような処理がなされる。
まず、下地検出部310は、得られたL*データに基づいて下地レベルを検出する。図10に示す例では、L*=gが下地レベルとして検出されることになる。
次に、微小エッジ検出部320は、エッジ検出を行い、検出されたエッジにおける各画素のL*の最小値がg+α<L*<g+βの範囲、あるいは、g−β<L*<g−αの範囲にあるか否かを判断し、L*の最小値がこの範囲内にあるときは微小エッジの存在を検出する。すなわち、修正検出部300は、修正液等によって生じた微小段差による影を検出している。ここで、|α|<|β|であり、例えばL*=90の場合、αは3程度に、βは5程度に設定される。なお、本実施の形態では、L*の最小値がg−α≦L*≦g+αの範囲にある場合は、微小エッジの存在を検出しない。これは、測定誤差等による微小エッジの誤検出を防止するためである。
Then, the following processing is performed in the correction detection unit 300 shown in FIG.
First, the background detection unit 310 detects the background level based on the obtained L * data. In the example shown in FIG. 10, L * = g is detected as the background level.
Next, the minute edge detection unit 320 performs edge detection, and the minimum value of L * of each pixel at the detected edge is in the range of g + α <L * <g + β, or g−β <L * <g−α. If the minimum value of L * is within this range, the presence of a minute edge is detected. That is, the correction detection unit 300 detects a shadow caused by a minute step caused by a correction liquid or the like. Here, | α | <| β |. For example, when L * = 90, α is set to about 3 and β is set to about 5. In this embodiment, when the minimum value of L * is in the range of g−α ≦ L * ≦ g + α, the presence of a minute edge is not detected. This is to prevent erroneous detection of a minute edge due to a measurement error or the like.

図10(a)に示す無修正ラインL1の場合、テキスト画像のエッジに対応する部位のL*の最小値はg−βよりも著しく小さくなる。すなわち、L*の最小値がg+α<L*<g+βの範囲、あるいは、g−β<L*<g−αの範囲には存在しない。したがって、微小エッジ検出部320は、修正が施されていない無修正ラインL1からは、微小エッジを検出しない。 In the case of the uncorrected line L1 shown in FIG. 10A, the minimum value of L * of the part corresponding to the edge of the text image is significantly smaller than g-β. That, L * minimum of g + α <L * <g + β range or,, g-β <not present in the range of L * <g-α. Therefore, the minute edge detector 320 does not detect minute edges from the uncorrected line L1 that has not been corrected.

一方、図10(b)に示す有修正ラインL2の場合、修正領域Wの境界である微小エッジ部EのL*の最小値がg−β<L*<g−αの範囲内に収まる。したがって、微小エッジ検出部320は、修正が施された有修正ラインL2から、微小エッジの存在(この例では二箇所)を検出する。 On the other hand, in the case of the corrected line L2 shown in FIG. 10B, the minimum value of L * of the minute edge portion E which is the boundary of the correction area W is within the range of g−β <L * <g−α. Therefore, the minute edge detector 320 detects the presence of minute edges (two locations in this example) from the corrected line L2 that has been corrected.

エッジ強調処理部330は、微小エッジ検出部320で検出された微小エッジを強調するための強調処理を実行する。ここで、微小エッジを強調するための処理としては、例えばハイパスフィルタを用いた空間フィルタ処理が挙げられる。また、検出された微小エッジを、赤等の目立ちやすい色に対応するLabデータに変換する処理等であってもよく、さらにはこれら両者を組み合わせてもよい。   The edge enhancement processing unit 330 executes enhancement processing for enhancing the minute edges detected by the minute edge detection unit 320. Here, as a process for emphasizing a minute edge, for example, a spatial filter process using a high-pass filter can be cited. Moreover, the process etc. which convert the detected minute edge into Lab data corresponding to the color which is conspicuous, such as red, etc. may be sufficient, and also these may be combined.

そして、第3色変換部340は、微小エッジを強調して得られたLabデータを、YMCKデータからなる修正領域データに色変換し、出力する。   Then, the third color conversion unit 340 performs color conversion on Lab data obtained by emphasizing minute edges into correction area data including YMCK data, and outputs the correction area data.

なお、この例では、原稿(有修正原稿)の主走査方向ライン(無修正ラインL1、有修正ラインL2)における微小エッジの有無の判断について説明を行っているが、実際には、主走査方向に直交する方向の副走査方向ラインに対しても、同様にして微小エッジの有無の判断が行われる。   In this example, the determination of the presence or absence of a minute edge in the main scanning direction line (uncorrected line L1 and corrected line L2) of the document (corrected document) is described. Similarly, the presence / absence of a minute edge is also determined for the sub-scanning direction line perpendicular to the line.

図11(a)は、図9(a)に示す無修正原稿を読み取って得られたデータの流れを例示する図である。
ここで、図11(a−1)は画像処理部200から出力される画像データを、図11(a−2)は修正検出部300から出力される修正領域データを、図11(a−3)は画像データおよび修正領域データを合成し合成部400から出力される出力画像データを、それぞれ示している。無修正原稿の場合、修正領域データは図11(a−2)に示すように実質的に何もなく、空である。このため、図11(a−3)に示す出力画像データは、図11(a−1)に示す画像データと同一になる。
FIG. 11A is a diagram illustrating the flow of data obtained by reading the uncorrected document shown in FIG.
11A-1 shows the image data output from the image processing unit 200, FIG. 11A-2 shows the correction area data output from the correction detection unit 300, and FIG. ) Represents output image data output from the combining unit 400 by combining the image data and the correction area data. In the case of an uncorrected document, the correction area data is substantially empty and empty as shown in FIG. For this reason, the output image data shown in FIG. 11A-3 is the same as the image data shown in FIG.

一方、図11(b)は、図9(b)に示す有修正原稿を読み取って得られたデータの流れを例示する図である。
ここで、図11(b−1)は画像処理部200から出力される画像データを、図11(b−2)は修正検出部300から出力される修正領域データを、図11(b−3)は画像データおよび修正領域データを合成し合成部400から出力される出力画像データを、それぞれ示している。有修正原稿の場合、画像データは図11(b−1)に示すように修正領域W(図9(b)参照)に対応する領域が空(白)になる。一方、修正領域検出データは図11(b−2)に示すように修正領域Wのエッジに対応する領域に枠状のデータが現れることになる。このため、図11(b−3)に示す出力画像データは、修正領域Wの対応部位に修正がなされたことを示す枠が形成されたものとなる。
On the other hand, FIG. 11B is a diagram illustrating the flow of data obtained by reading the corrected document shown in FIG. 9B.
11B-1 shows the image data output from the image processing unit 200, FIG. 11B-2 shows the correction area data output from the correction detection unit 300, and FIG. ) Represents output image data output from the combining unit 400 by combining the image data and the correction area data. In the case of a corrected original, the area corresponding to the correction area W (see FIG. 9B) is empty (white) in the image data as shown in FIG. 11B-1. On the other hand, in the correction area detection data, frame-shaped data appears in an area corresponding to the edge of the correction area W as shown in FIG. For this reason, the output image data shown in FIG. 11 (b-3) has a frame indicating that the corresponding part of the correction area W has been corrected.

なお、本実施の形態では、スキャナ2およびプリンタ3を用いた複写動作を例に説明を行ったが、例えばスキャナ2で原稿を読み取って得られた画像データをPC(Personal Computer)等の機器に出力するスキャンイン動作も実行可能である。この場合には、PC等の機器に対し、上述した処理後の画像データを、YMCKデータではなくRGBデータのまま出力することが好ましい。   In the present embodiment, the copying operation using the scanner 2 and the printer 3 has been described as an example. For example, image data obtained by reading a document with the scanner 2 is transferred to a device such as a PC (Personal Computer). The output scan-in operation can also be executed. In this case, it is preferable to output the processed image data as described above as RGB data instead of YMCK data to a device such as a PC.

また、本実施の形態では、無修正原稿に対し修正液や修正テープ等を用いて修正がなされた有修正原稿を例に説明を行ったが、これに限られるものではない。すなわち、例えば無修正原稿の一部に他の用紙(例えば白紙)を重ねることで原稿の一部領域を隠した場合や、無修正原稿の一部を切り取ることで原稿の一部領域を隠した場合にも、この境界領域にできる微小段差の読み取り結果から、修正領域を抽出することができる。   Further, in the present embodiment, the description has been made with respect to a corrected document in which an uncorrected document is corrected using a correction liquid, a correction tape, or the like, but the present invention is not limited to this. That is, for example, when a partial area of the original is hidden by overlaying another piece of paper (for example, white paper) on a part of the uncensored original, or a partial area of the original is hidden by cutting a part of the uncensored original Even in this case, the correction area can be extracted from the reading result of the minute step formed in the boundary area.

本実施の形態が適用される複写機の構成を示す図である。1 is a diagram illustrating a configuration of a copier to which the exemplary embodiment is applied. スキャナの構成例を示す図である。It is a figure which shows the structural example of a scanner. CCDイメージセンサの概略構成を示す図である。It is a figure which shows schematic structure of a CCD image sensor. 制御・画像処理ユニットのブロック図である。It is a block diagram of a control and image processing unit. 信号処理部のブロック図である。It is a block diagram of a signal processing part. 信号処理部における前処理部のブロック図である。It is a block diagram of the pre-processing part in a signal processing part. 信号処理部における画像処理部のブロック図である。It is a block diagram of the image processing part in a signal processing part. 信号処理部における修正検出部のブロック図である。It is a block diagram of the correction detection part in a signal processing part. (a)は無修正原稿を、(b)は無修正原稿に修正液等にて修正を施した有修正原稿を、それぞれ示す図である。(A) is a view showing an uncorrected document, and (b) is a corrected document obtained by correcting an uncorrected document with a correction liquid or the like. (a)は有修正原稿における無修正ラインのL*データを、(b)は有修正原稿における有修正ラインのL*データを、それぞれ示す図である。(A) is a L * data of unmodified lines in chromatic revised manuscript, the L * data chromatic repair line in (b) is Yes revised manuscript illustrates respectively. (a)は無修正原稿の画像データ、修正領域データ、および出力画像データを、(b)は有修正原稿の画像データ、修正領域データ、および出力画像データを、それぞれ模式的に示した図である。(A) is a diagram schematically showing image data, correction area data, and output image data of an uncorrected document, and (b) is a diagram schematically showing image data, correction area data, and output image data of a corrected document. is there.

符号の説明Explanation of symbols

1…複写機、2…スキャナ、3…プリンタ、10…原稿送り装置、50…読み取り装置、59…CCDイメージセンサ、60…制御・画像処理ユニット、70…信号処理部、80…制御部、100…前処理部、110…アナログ処理部、120…A/D変換部、130…遅延処理部、140…第1色変換部、200…画像処理部、210…エッジ検出部、220…フィルタ処理部、230…ハイライト調整部、240…第2色変換部、300…修正検出部、310…下地検出部、320…微小エッジ検出部、330…エッジ強調処理部、340…第3色変換部、400…合成部、W…修正領域 DESCRIPTION OF SYMBOLS 1 ... Copy machine, 2 ... Scanner, 3 ... Printer, 10 ... Document feeder, 50 ... Reading apparatus, 59 ... CCD image sensor, 60 ... Control and image processing unit, 70 ... Signal processing part, 80 ... Control part, 100 ... Pre-processing unit, 110 ... Analog processing unit, 120 ... A / D conversion unit, 130 ... Delay processing unit, 140 ... First color conversion unit, 200 ... Image processing unit, 210 ... Edge detection unit, 220 ... Filter processing unit , 230 ... highlight adjustment unit, 240 ... second color conversion unit, 300 ... correction detection unit, 310 ... background detection unit, 320 ... minute edge detection unit, 330 ... edge enhancement processing unit, 340 ... third color conversion unit, 400: synthesis unit, W: correction area

Claims (7)

原稿に形成された画像を読み取る読み取り部と、
前記読み取り部にて読み取られた画像データに画像処理を施す画像処理部と、
前記読み取り部にて読み取られた画像データから前記原稿の紙面に施された修正箇所を検出する検出部と、
前記画像処理部にて画像処理が施された画像データと前記検出部にて検出された前記修正箇所のデータとを合成する合成部と
を含む画像読み取り装置。
A reading unit for reading an image formed on a document;
An image processing unit that performs image processing on the image data read by the reading unit;
A detection unit for detecting a correction portion applied to the paper surface of the document from the image data read by the reading unit;
An image reading apparatus comprising: a combining unit that combines image data that has been subjected to image processing by the image processing unit and data of the correction portion detected by the detecting unit.
前記検出部は、前記読み取り部にて読み取られた前記画像データにおける微小エッジの検出結果に基づいて前記修正箇所を検出することを特徴とする請求項1記載の画像読み取り装置。   The image reading apparatus according to claim 1, wherein the detection unit detects the correction portion based on a detection result of a minute edge in the image data read by the reading unit. 前記読み取り部にて読み取られたRGB色空間の画像データをL***色空間の画像データに変換する色変換部をさらに含み、
前記検出部は、前記色変換部にて色変換された前記L***色空間の画像データから前記修正箇所を検出することを特徴とする請求項1記載の画像読み取り装置。
A color conversion unit that converts image data in the RGB color space read by the reading unit into image data in an L * a * b * color space;
The image reading apparatus according to claim 1, wherein the detection unit detects the correction portion from image data of the L * a * b * color space that has been color-converted by the color conversion unit.
原稿を読み取って得られた画像データに画像処理を施す第1の処理部と、
前記画像データから当該画像データに含まれる微小エッジを検出する第2の処理部と、
前記第1の処理部にて画像処理が施された画像データに前記第2の処理部にて検出された前記微小エッジのデータを重畳して出力する第3の処理部と
を含む画像処理装置。
A first processing unit that performs image processing on image data obtained by reading a document;
A second processing unit for detecting a minute edge included in the image data from the image data;
An image processing apparatus including: a third processing unit that superimposes and outputs the minute edge data detected by the second processing unit on the image data subjected to image processing by the first processing unit. .
前記第2の処理部は、
前記画像データから前記原稿の下地を検出し、
検出された前記原稿の下地に近い微小エッジを検出し、
検出された前記微小エッジに強調処理を施すこと
を特徴とする請求項4記載の画像処理装置。
The second processing unit includes:
Detecting the background of the document from the image data;
Detect a minute edge close to the detected background of the document,
The image processing apparatus according to claim 4, wherein enhancement processing is performed on the detected minute edge.
前記強調処理は、空間フィルタ処理または色変換処理であることを特徴とする請求項5記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the enhancement process is a spatial filter process or a color conversion process. コンピュータに、
入力される画像データに画像処理を施す機能と、
前記画像データから当該画像データに含まれる微小エッジを検出する機能と、
前記画像処理が施された画像データに検出された前記微小エッジのデータを重畳して出力する機能と
を実現させるプログラム。
On the computer,
A function to perform image processing on input image data;
A function of detecting minute edges included in the image data from the image data;
A program for realizing a function of superimposing and outputting the detected data of the minute edge on the image data subjected to the image processing.
JP2006220335A 2006-08-11 2006-08-11 Image reader, image processor and program Pending JP2008048057A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006220335A JP2008048057A (en) 2006-08-11 2006-08-11 Image reader, image processor and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006220335A JP2008048057A (en) 2006-08-11 2006-08-11 Image reader, image processor and program

Publications (1)

Publication Number Publication Date
JP2008048057A true JP2008048057A (en) 2008-02-28

Family

ID=39181392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006220335A Pending JP2008048057A (en) 2006-08-11 2006-08-11 Image reader, image processor and program

Country Status (1)

Country Link
JP (1) JP2008048057A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016192646A (en) * 2015-03-31 2016-11-10 ブラザー工業株式会社 Computer program and image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016192646A (en) * 2015-03-31 2016-11-10 ブラザー工業株式会社 Computer program and image processing apparatus

Similar Documents

Publication Publication Date Title
US8854641B2 (en) Control device for controlling image processing system, image forming apparatus, image reading apparatus, control method, and computer-readable recording medium
JP5265479B2 (en) Image reading apparatus and image forming apparatus
US11212406B2 (en) Image forming apparatus, method of controlling the same, and storage medium
US20100123940A1 (en) Image forming apparatus and image forming method
JP2009088692A (en) Image reading apparatus and image forming apparatus
JP6047528B2 (en) Image reading apparatus and image forming apparatus
JP2015159509A (en) Image forming apparatus, control method of image forming apparatus, and program
JP4956350B2 (en) Image reading apparatus and image forming apparatus
JP2016066836A (en) Image reading apparatus, control method of the same, and program
JP2008048057A (en) Image reader, image processor and program
JP2006140902A (en) Image reading apparatus
JP2010028682A (en) Image reading apparatus and image forming apparatus
JP2005268893A (en) Image reading apparatus
JP2007036732A (en) Image reading apparatus and image forming apparatus
JP6127810B2 (en) Image forming system and image reading apparatus
JP4186796B2 (en) Image reading device
JP2007019854A (en) Image processing apparatus and image processing method
JP5027831B2 (en) Image reading apparatus, image forming apparatus, and noise contamination factor detection method
JP2006191229A (en) Image scanner and image forming apparatus
JP6885076B2 (en) Image reader, image forming device, image processing device, and image processing method
JP2008022434A (en) Image reading apparatus
JP2010245688A (en) Document reader
JP5033566B2 (en) Image reading apparatus and image forming apparatus
JP5069705B2 (en) Image reading apparatus and image forming apparatus
JP2006191228A (en) Image scanner and image forming apparatus