JP2008048057A - Image reader, image processor and program - Google Patents
Image reader, image processor and program Download PDFInfo
- Publication number
- JP2008048057A JP2008048057A JP2006220335A JP2006220335A JP2008048057A JP 2008048057 A JP2008048057 A JP 2008048057A JP 2006220335 A JP2006220335 A JP 2006220335A JP 2006220335 A JP2006220335 A JP 2006220335A JP 2008048057 A JP2008048057 A JP 2008048057A
- Authority
- JP
- Japan
- Prior art keywords
- image
- document
- image data
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 238000006243 chemical reaction Methods 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 16
- 238000007781 pre-processing Methods 0.000 abstract description 17
- 239000002989 correction material Substances 0.000 abstract description 2
- 239000011521 glass Substances 0.000 description 20
- 238000010586 diagram Methods 0.000 description 17
- 238000003708 edge detection Methods 0.000 description 11
- 239000007788 liquid Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000007723 transport mechanism Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
本発明は、原稿の画像を読み取る画像読み取り装置、読み取られた画像データに処理を施す画像処理装置、および複写装置に関する。 The present invention relates to an image reading apparatus that reads an image of a document, an image processing apparatus that processes read image data, and a copying apparatus.
従来から、文字や画像などの情報を記録した用紙(原稿)の複製を得るために、複写機が利用されている。また、原稿に記録された情報の一部を、例えば修正液や修正テープ等を用いて消去したり、あるいは消去した後に他の情報を記録することも行われている。
従来、原稿に予めコード画像を埋め込んでおき、この原稿をドキュメント読取部(スキャナ)で読み取った際に、読み取ったコード画像に基づいて対応する原稿の原本ドキュメント画像を取り出し、取得した原本ドキュメント画像と読み取った原稿の複製ドキュメント画像と比較して両者の相違箇所を検出し、複製ドキュメント画像に相違箇所画像を加えた画像をドキュメント出力部(プリンタ)にて出力する技術が提案されている(例えば、特許文献1参照。)。
Conventionally, a copying machine is used to obtain a copy of a sheet (original) on which information such as characters and images is recorded. In addition, part of information recorded on a document is erased using, for example, a correction liquid or a correction tape, or other information is recorded after being erased.
Conventionally, a code image is embedded in a document in advance, and when this document is read by a document reading unit (scanner), a corresponding original document image is taken out based on the read code image, and the acquired original document image and A technique has been proposed in which a difference between the two is detected in comparison with a duplicate document image of a read original, and an image obtained by adding the difference portion image to the duplicate document image is output by a document output unit (printer) (for example, (See Patent Document 1).
しかしながら、例えば修正液や修正テープを用いて原本ドキュメントそのものが修正されていたような場合には、その相違箇所を見つけることが困難である。また、原本ドキュメントを記憶装置に保持させておく必要があり、装置の大型化、高コスト化を招くことにもなる。 However, for example, when the original document itself is corrected using correction fluid or correction tape, it is difficult to find the difference. In addition, it is necessary to hold the original document in the storage device, which leads to an increase in size and cost of the device.
本発明は、上述した技術を背景としてなされたものであり、その目的とするところは、原稿の紙面に施された修正を的確に把握できるようにすることにある。 The present invention has been made against the background of the above-described technique, and an object of the present invention is to make it possible to accurately grasp the correction made on the paper surface of the document.
かかる目的のもと、本発明が適用される画像読み取り装置は、原稿に形成された画像を読み取る読み取り部と、読み取り部にて読み取られた画像データに画像処理を施す画像処理部と、読み取り部にて読み取られた画像データから原稿の紙面に施された修正箇所を検出する検出部と、画像処理部にて画像処理が施された画像データと検出部にて検出された修正箇所のデータとを合成する合成部とを含んでいる。 For this purpose, an image reading apparatus to which the present invention is applied includes a reading unit that reads an image formed on a document, an image processing unit that performs image processing on image data read by the reading unit, and a reading unit. A detection unit that detects a correction portion applied to the paper surface of the document from the image data read by the image data, image data subjected to image processing by the image processing unit, and data of the correction portion detected by the detection unit; And a synthesizing unit for synthesizing.
このような画像読み取り装置において、検出部は、読み取り部にて読み取られた画像データにおける微小エッジの検出結果に基づいて修正箇所を検出することができる。また、読み取り部にて読み取られたRGB色空間の画像データをL*a*b*色空間の画像データに変換する色変換部をさらに含む場合に、検出部は、色変換部にて色変換されたL*a*b*色空間の画像データから修正箇所を検出することができる。 In such an image reading apparatus, the detection unit can detect the correction portion based on the detection result of the minute edge in the image data read by the reading unit. In addition, in the case of further including a color conversion unit that converts image data in the RGB color space read by the reading unit into image data in the L * a * b * color space, the detection unit performs color conversion in the color conversion unit. The correction location can be detected from the image data in the L * a * b * color space.
また、他の観点から捉えると、本発明が適用される画像処理装置は、原稿を読み取って得られた画像データに画像処理を施す第1の処理部と、画像データから画像データに含まれる微小エッジを検出する第2の処理部と、第1の処理部にて画像処理が施された画像データに第2の処理部にて検出された微小エッジのデータを重畳して出力する第3の処理部とを含んでいる。 From another point of view, the image processing apparatus to which the present invention is applied includes a first processing unit that performs image processing on image data obtained by reading a document, and a minute amount included in the image data from the image data. A second processing unit that detects an edge; and a third processing unit that superimposes and outputs the minute edge data detected by the second processing unit on the image data that has been subjected to image processing by the first processing unit. And a processing unit.
このような画像処理装置において、第2の処理部は、画像データから原稿の下地を検出し、検出された原稿の下地に近い微小エッジを検出し、検出された微小エッジに強調処理を施すことができる。そして、この場合に、強調処理は、空間フィルタ処理または色変換処理であることを特徴とすることができる。 In such an image processing apparatus, the second processing unit detects the background of the document from the image data, detects a minute edge close to the detected background of the document, and performs enhancement processing on the detected minute edge. Can do. In this case, the enhancement process may be a spatial filter process or a color conversion process.
また、本発明は、コンピュータに、入力される画像データに画像処理を施す機能と、画像データから画像データに含まれる微小エッジを検出する機能と、画像処理が施された画像データに検出された微小エッジのデータを重畳して出力する機能とを実現させるプログラムとして把握することもできる。 In addition, the present invention is detected in image data that has been subjected to image processing on a computer, a function that performs image processing on input image data, a function that detects minute edges included in image data from image data, and the like. It can also be understood as a program that realizes a function of superimposing and outputting data of minute edges.
請求項1記載の発明によれば、原稿の紙面に施された修正を的確に把握できるようになる。
請求項2記載の発明によれば、修正液等と原稿との段差から原稿の紙面に施された修正を検出することが可能になる。
請求項3記載の発明によれば、明度等の違いから原稿の紙面に施された修正を検出することが可能になる。
請求項4記載の発明によれば、原稿の紙面に施された修正を的確に把握できるようになる。
請求項5記載の発明によれば、原稿の紙面に施された修正領域をわかりやすく示すことができる。
請求項6記載の発明によれば、原稿の紙面に施された修正領域をよりわかりやすく示すことができる。
請求項7記載の発明によれば、画像データの元となる原稿の紙面等に施された修正を的確に把握できるようになる。
According to the first aspect of the present invention, it is possible to accurately grasp the correction applied to the paper surface of the document.
According to the second aspect of the present invention, it is possible to detect the correction applied to the paper surface of the document from the level difference between the correction liquid and the document.
According to the third aspect of the present invention, it is possible to detect a correction applied to the paper surface of the document from a difference in brightness or the like.
According to the fourth aspect of the invention, it is possible to accurately grasp the correction made on the paper surface of the document.
According to the fifth aspect of the present invention, it is possible to clearly show the correction area formed on the paper surface of the document.
According to the sixth aspect of the invention, it is possible to more easily show the correction area provided on the paper surface of the document.
According to the seventh aspect of the present invention, it becomes possible to accurately grasp the correction made on the paper surface of the original document that is the source of the image data.
以下、添付図面を参照して、本発明を実施するための最良の形態(以下、実施の形態という)について詳細に説明する。
図1は本実施の形態が適用される複写機1を示している。この複写機1は、原稿の画像を読み取るスキャナ2と、スキャナ2にて読み取られた画像データに基づき用紙上に画像を形成するプリンタ3とを備えている。ここで、スキャナ2はプリンタ3の上部に配設されており、スキャナ2の手前側には、ユーザから複写動作等の指示を受け付け、且つ、ユーザにメッセージの表示等を行うユーザインタフェース(User Interface:UI)4が設けられている。
The best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described below in detail with reference to the accompanying drawings.
FIG. 1 shows a
プリンタ3は、例えば電子写真方式によりトナーを用いて用紙上に画像形成を行う。特に、本実施の形態では、プリンタ3が、イエロー(Y)、マゼンタ(M)、シアン(C)、および黒(K)の各色トナーを用いてフルカラー画像を形成することができるようになっている。ただし、プリンタ3は用紙上にトナーやインク等の画形材を用いて画像を形成する機能を有していればよく、例えばインクジェット方式や静電記録方式などを採用することもできる。
The
図2は、上述したスキャナ2の構成例を示す図である。この画像読み取り装置では、固定された原稿の画像を読み取ることが可能であるとともに、搬送される原稿の画像を読み取ることも可能である。そして、このスキャナ2は、積載された原稿束から原稿を順次搬送する原稿送り装置10と、スキャンによって原稿の画像を読み込む読み取り装置50とを備えている。ここで、原稿送り装置10は、図中奥側で読み取り装置50に対してヒンジ等を用いて取り付けられている。したがって原稿送り装置10は、読み取り装置50に対し図中奥側を支点として開閉自在に装着される。
FIG. 2 is a diagram illustrating a configuration example of the
原稿送り装置10は、複数枚の原稿からなる原稿束を積載する原稿トレイ11、この原稿トレイ11の下方に設けられ、読み取りが終了した原稿を積載する排紙トレイ12を備える。また、原稿送り装置10は原稿トレイ11の原稿を取り出して搬送する取り出しロール13を備える。さらに、取り出しロール13の原稿搬送方向下流側には、一対のロール部材を用いて用紙を一枚ずつに捌く捌き機構14が設けられる。最初に原稿が搬送される第1搬送路31には、原稿搬送方向上流側から順に、プレレジロール15、レジロール16、裏当てロール17、およびアウトロール18が設けられる。プレレジロール15は、一枚ずつに捌かれた原稿を下流側のロールに向けて搬送すると共に原稿のループ形成を行う。レジロール16は、回転し一旦停止した後にタイミングを合わせて回転を再開し、後述する原稿読み取り部に対してレジストレーション調整を施しながら原稿を供給する。裏当てロール17は、読み取り装置50にて読み込み中の原稿搬送をアシストし、且つ、原稿を第2プラテンガラス52B(後述)に押し付けることにより、読み取り位置における原稿の高さをほぼ一定に維持させる。アウトロール18は、読み取り装置50にて読み込まれた原稿をさらに下流に搬送する。
また、アウトロール18よりも原稿搬送方向下流側には、原稿を排紙トレイ12に導くための第2搬送路32が設けられる。この第2搬送路32には、排出ロール19が配設される。
そして、排紙トレイ12の下面には裏当て部材20が取り付けられている。この裏当て部材20は、後述する固定読み取りモードにおいて、読み取り装置50に設けられた第1プラテンガラス52A(後述)に原稿を押し付けるために用いられる。
The
A
A
さらに、このスキャナ2では、原稿の両面に形成された画像を1プロセスで読み取ることができるよう、アウトロール18の出口側とプレレジロール15の入口側との間に第3搬送路33が設けられている。なお、上述した排出ロール19は、第2搬送路32に搬入された原稿を第3搬送路33に反転搬送する機能も有している。
さらにまた、このスキャナ2には、原稿の両面読み取りを行った際に、その排出時に原稿を再度反転させて排紙トレイ12に排出するための第4搬送路34が設けられている。この第4搬送路34は、第2搬送路32の上部側に設けられている。そして、上述した排出ロール19は、第2搬送路32に搬入された原稿を第4搬送路34に反転搬送する機能も有している。
Further, in the
Furthermore, the
一方、読み取り部としての読み取り装置50は、上述した原稿送り装置10を開閉可能に支持すると共に、この原稿送り装置10を装置フレーム51によって支え、また、原稿送り装置10によって搬送される原稿の画像読み取りを行っている。この読み取り装置50は、筐体を形成する装置フレーム51、画像を読み込むべき原稿を静止させた状態で置くことが可能な原稿台としての第1プラテンガラス52A、原稿送り装置10によって搬送される原稿を読み取るための光の開口部を有する第2プラテンガラス52Bを備えている。
On the other hand, the
また、読み取り装置50は、フルレートキャリッジ53およびハーフレートキャリッジ54を備えている。フルレートキャリッジ53は、第2プラテンガラス52Bの下に静止し、あるいは第1プラテンガラス52Aの全体にわたってスキャンして画像を読み込む。ハーフレートキャリッジ54は、フルレートキャリッジ53が静止する場合には静止し、フルレートキャリッジ53が移動する場合には連動して移動することで、フルレートキャリッジ53にて得られた光を結像部へ供給する。フルレートキャリッジ53には、光源55および光源55にて光照射がなされた原稿からの反射光を受光する第1ミラー57Aが設けられている。さらに、ハーフレートキャリッジ54には、第1ミラー57Aから得られた光を結像部へ提供する第2ミラー57Bおよび第3ミラー57Cが設けられている。さらにまた、読み取り装置50は、結像用レンズ58およびCCD(Charge Coupled Device)イメージセンサ59を備えている。これらのうち、結像用レンズ58は、第3ミラー57Cから得られた光学像を光学的に縮小する。また、CCDイメージセンサ59は、結像用レンズ58によって結像された光学像を光電変換する。つまり、読み取り装置50では、所謂縮小光学系を用いてCCDイメージセンサ59に像を結像させている。
また、第1プラテンガラス52Aと第2プラテンガラス52Bとの間に設けられる部材の下部には、主走査方向に沿って伸びる白基準板56が装着されている。
In addition, the
A
そして、読み取り装置50は、制御・画像処理ユニット60をさらに備える。この制御・画像処理ユニット60は、CCDイメージセンサ59から入力される原稿の画像データに所定の処理を施す。また、制御・画像処理ユニット60は、スキャナ2(原稿送り装置10および読み取り装置50)の読み取り動作における各部の動作を制御する。
The
図3は、読み取り装置50に設けられるCCDイメージセンサ59の概略構成を示す図である。受光部として機能するCCDイメージセンサ59は、矩形状のセンサ基板59aと、このセンサ基板59a上に配設された三本のラインセンサ59R、59G、59Bとを有している。なお、以下の説明では、これら三本のラインセンサ59R、59G、59Bを、それぞれ赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59Bと呼ぶ。赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59Bは、原稿の搬送方向およびフルレートキャリッジ53(図2参照)の移動方向と直交する方向(主走査方向)に沿って配列され、各ラインセンサは平行に配置されている。赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59Bは、それぞれ例えば10μm×10μmのフォトダイオードPDを直線上にn個並べて構成される。そして、青用ラインセンサ59Bと緑用ラインセンサ59Gとの間隔、および緑用ラインセンサ59Gと赤用ラインセンサ59Rとの間隔は、それぞれ、副走査方向2ライン分となっている。
FIG. 3 is a diagram showing a schematic configuration of a
図4は、図2に示す制御・画像処理ユニット60のブロック図である。この制御・画像処理ユニット60は、信号処理部70および制御部80を備えている。信号処理部70は、CCDイメージセンサ59に設けられた赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59Bから入力されてくる読み取りデータに処理を施す。一方、制御部80は原稿送り装置10および読み取り装置50の動作を制御する。
FIG. 4 is a block diagram of the control /
制御部80は、読み取りコントローラ81、CCDドライバ82、光源ドライバ83、スキャンドライバ84、および搬送機構ドライバ85を備える。
読み取りコントローラ81は、各種原稿読み取りの制御等を含め、図2に示す原稿送り装置10および読み取り装置50の全体を制御する。
CCDドライバ82はCCDイメージセンサ59(赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59B)による画像データの取り込み動作を制御する。
光源ドライバ83は、点灯信号を出力し、原稿の読み取りタイミングに合わせて光源55の点灯・消灯を制御する。
スキャンドライバ84は、読み取り装置50におけるモータのオン/オフなどを行いフルレートキャリッジ53およびハーフレートキャリッジ54によるスキャン動作を制御する。
搬送機構ドライバ85は、原稿送り装置10におけるモータの制御、各種ロール、クラッチ、およびゲートの切り替え動作等を制御する。
The
The reading
The
The
The
The
これらの各種ドライバからは、原稿送り装置10および読み取り装置50に対して制御信号が出力され、かかる制御信号に基づいて、これらの動作制御が可能となる。読み取りコントローラ81は、ホストシステムからの制御信号や、例えば自動選択読み取り機能に際して検出されるセンサ出力、UI4(図1参照)を介して受け付けたユーザからの選択等に基づいて、読み取りモードを設定し、原稿送り装置10および読み取り装置50を制御している。この読み取りモードとしては、第1プラテンガラス52A上に置かれた原稿を読み取る固定読み取りモード、第2プラテンガラス52B上を搬送される原稿を読み取る搬送読み取りモード等が挙げられる。また、搬送読み取りモードにおいては、原稿の片面の画像を読み取る片面モード、原稿の両面の画像を読み取る両面モード等も挙げられる。
From these various drivers, control signals are output to the
では、図1〜図4を参照しつつ、複写機1による複写動作について説明する。この複写機1のスキャナ2では、上述したように、第1プラテンガラス52A上に置かれた原稿の読み取り(固定読み取りモード)、および、原稿送り装置10にて搬送される原稿の読み取り(搬送読み取りモード)が実行可能である。
Now, a copying operation by the copying
まず、固定読み取りモードについて説明する。固定読み取りモードでは、読み取り装置50に対して原稿送り装置10が開かれ、第1プラテンガラス52A上に原稿がセットされた後、原稿送り装置10が閉じられる。これにより、第1プラテンガラス52A上の原稿は、原稿送り装置10に設けられた裏当て部材20により第1プラテンガラス52Aに押し付けられる。そして、ユーザによるスタート指示がUI4を介して受け付けられると、次のような動作が実行される。
First, the fixed reading mode will be described. In the fixed reading mode, the
すなわち、第1プラテンガラス52Aに置かれた原稿の画像を読み取る場合には、フルレートキャリッジ53とハーフレートキャリッジ54とが、2:1の割合でスキャン方向(矢印方向)に移動する。このとき、フルレートキャリッジ53の光源55が点灯し、これらからの光が原稿の被読み取り面に照射される。そして、原稿からの反射光が第1ミラー57A、第2ミラー57B、および第3ミラー57Cの順に反射されて結像用レンズ58に導かれる。結像用レンズ58に導かれた光は、CCDイメージセンサ59の受光面に結像される。すなわち、青色領域の反射光は青用ラインセンサ59Bが、緑色領域の反射光は緑用ラインセンサ59Gが、そして赤色領域の反射光は赤用ラインセンサ59Rが、それぞれ受光する。これら青用ラインセンサ59B、緑用ラインセンサ59G、赤用ラインセンサ59Rは上述したようにそれぞれが1次元のセンサで構成されており、1ライン分を同時に処理している。このライン方向(スキャンの副走査方向)にフルレートキャリッジ53およびハーフレートキャリッジ54を移動させ、原稿の次のラインを読み取る。これを原稿全体に亘って実行することで、1ページの原稿読み取りが完了する。
That is, when reading an image of a document placed on the
次に、搬送読み取りモードについて説明する。搬送読み取りモードでは、読み取り装置50に対して原稿送り装置10が閉じられた状態で、原稿トレイ11上に原稿あるいは原稿束がセットされる。その後、ユーザによるスタート指示がUI4を介して受け付けられると、原稿送り装置10による原稿の搬送が開始される。
Next, the conveyance reading mode will be described. In the transport reading mode, a document or a bundle of documents is set on the
原稿送り装置10にて搬送される原稿の画像を読み取る際には、搬送される原稿が、裏当てロール17によって第2プラテンガラス52Bに押し付けられながら第2プラテンガラス52Bの上を通過する。このとき、フルレートキャリッジ53およびハーフレートキャリッジ54は、図2に示す実線の位置に停止した状態におかれる。そして、フルレートキャリッジ53の光源55の光が原稿の被読み取り面に照射される。このとき、裏当てロール17は原稿を挟んでフルレートキャリッジ53による原稿読み取り位置に対向している。そして、原稿の1ライン目の反射光が、第1ミラー57A、第2ミラー57B、および第3ミラー57Cを経て結像用レンズ58にて結像される。結像用レンズ58に導かれた光は、CCDイメージセンサ59の受光面に結像される。すなわち、青色領域の反射光は青用ラインセンサ59Bが、緑色領域の反射光は緑用ラインセンサ59Gが、そして赤色領域の反射光は赤用ラインセンサ59Rが、それぞれ受光する。そして、CCDイメージセンサ59を構成する各ラインセンサにて主走査方向の1ライン分を同時に処理した後、原稿送り装置10によって搬送される原稿の次の主走査方向の1ラインが読み込まれる。そして、原稿の先端が第2プラテンガラス52Bの読み取り位置に到達した後、この原稿の後端が第2プラテンガラス52Bの読み取り位置を通過することによって、副走査方向に亘って1ページの原稿読み取りが完了する。
When reading an image of a document transported by the
また、原稿の両面に形成された画像を読み取る際には、表面側の読み取りを完了した原稿の後端が第2搬送路32に設けられた排出ロール19を通過する直前に、排出ロール19の駆動方向が逆方向に切り替えられる。このとき、図示しないゲートの向きが切り替えられることにより、原稿は第3搬送路33に導かれる。このとき、原稿の後端側が今度は先端側になる。そして、原稿は表裏が反転された状態で再び第2プラテンガラス52Bの上を通過し、上述したプロセスと同様にして裏面側の読み取りが行われる。その後、裏面側の読み取りを完了した原稿の後端が第2搬送路32に設けられた排出ロール19を通過する直前に、排出ロール19の駆動方向が再び逆方向に切り替えられる。このとき、図示しないゲートの向きが切り替えられることにより、原稿は第4搬送路34へと導かれる。このとき、原稿の先後端が再び入れ替わり、原稿は原稿トレイ11上に置かれていたときとは表裏が反転した状態で排紙トレイ12上に排出される。このようにすることで、複数枚の原稿束の並び順を、原稿トレイ11上に置かれていたときと排紙トレイ12上に排出されたときとで、同じにすることができる。
Further, when reading images formed on both sides of the original, the
これら固定読み取りモードあるいは搬送読み取りモードで得られた赤(R)、緑(G)、および青(B)の画像データ(RGBデータ:それぞれをRデータ、Gデータ、Bデータという)は、制御・画像処理ユニット60にて所定の画像処理が施され、イエロー(Y)、マゼンタ(M)、シアン(C)、および黒(K)の画像データ(YMCKデータという)に変換された後プリンタ3に出力される。そして、プリンタ3は、入力されてくるYMCKデータに基づき、用紙上に各色トナーにてフルカラー画像の形成を行う。
The red (R), green (G), and blue (B) image data (RGB data: referred to as R data, G data, and B data, respectively) obtained in the fixed reading mode or the conveyance reading mode are Predetermined image processing is performed in the
ところで、この複写機1では、スキャナ2にて原稿の画像を読み取って得られた赤、緑、青の各色の画像データに基づき、信号処理部70において、修正液や修正テープ等による原稿の修正跡の有無の検出を行っている。そして、修正跡が検出された場合は、原稿の読み取りデータにこの修正跡のデータを加味した出力画像データを、プリンタ3に出力している。
By the way, in this copying
図5は、図4に示す信号処理部70の詳細なブロック図を示している。信号処理部70は、前処理部100、画像処理部200、修正検出部300、および合成部400を備える。
前処理部100は、CCDイメージセンサ59(赤用ラインセンサ59R、緑用ラインセンサ59G、青用ラインセンサ59B)から入力されてくる画像データ(入力画像データ)に例えばアナログ/デジタル変換(A/D変換)等の各種前処理を施す。
第1の処理部として機能する画像処理部200は、前処理部100にて前処理が施された画像データにハイライト調整(下地除去)等の各種画像処理を施し、得られた画像データを出力する。
検出部および第2の処理部として機能する修正検出部300は、前処理部100にて前処理が施された画像データに基づき、修正液等による修正領域(修正箇所)を抽出し、得られた修正領域データ(修正箇所のデータ)を出力する。
第3の処理部として機能する合成部400は、画像処理部200にて各種画像処理が施された画像データと、修正検出部300にて抽出された修正領域データとを合成し、得られた出力画像データをプリンタ3に出力する。
FIG. 5 shows a detailed block diagram of the
The
The
The
The synthesizing
図6は、前処理部100のブロック図を示している。前処理部100は、アナログ処理部110、アナログ−デジタル(A/D)変換部120、遅延処理部130、および第1色変換部140を備える。
アナログ処理部110は、入力されてくるRデータ、Gデータ、およびBデータそれぞれに対し、ゲイン・オフセット調整等のアナログ補正を施す。
A/D変換部120は、アナログ補正が施されたRデータ、Gデータ、およびBデータをデジタルデータに変換する。
FIG. 6 shows a block diagram of the
The
The A /
遅延処理部130は、青用ラインセンサ59B、緑用ラインセンサ59G、および赤用ラインセンサ59R(図3参照)の取り付け位置の相違に伴うギャップを補正する。すなわち、図3に示したように、赤用ラインセンサ59Rに対し緑用ラインセンサ59Gは副走査方向に2ライン分だけずらして配置され、緑用ラインセンサ59Gに対し青用ラインセンサ59Bは副走査方向に2ライン分だけずらして配置される。このため、スキャナ2では、固定読み取りモードおよび搬送読み取りモードにて原稿の読み取り動作を行う際、原稿のある特定の部位(主走査方向ライン)をまず青用ラインセンサ59Bにて読み取り、次いでこの特定の部位を緑用ラインセンサ59Gにて読み取り、最後にこの特定の部位を赤用ラインセンサ58Rにて読み取る。これを逆に見れば、同じタイミングでは青用ラインセンサ59B、緑用ラインセンサ59G、および赤用ラインセンサ59Rが、それぞれ副走査方向に2ライン分ずつずれた部位の画像を読み取っていることになる。そこで、遅延処理部130では、最後に読み取りが行われる赤用ラインセンサ59RによるRデータを基準とし、緑用ラインセンサ59GによるGデータをRデータに対し副走査方向に2ライン分だけ遅延させ、また、青用ラインセンサ59BによるBデータをRデータに対し副走査方向に4ライン分だけ(Gデータに対しては副走査方向に2ライン分だけ)遅延させている。これにより、遅延処理部130からは、原稿の同一部位(同一の主走査方向ライン)を読み取って得られたRデータ、Gデータ、およびBデータが、同期して出力されることになる。
The
第1色変換部140は、遅延処理部130から同期して入力されてくるRデータ、Gデータ、およびBデータに対し、画素毎に、RGB色空間からL*a*b*色空間への色変換処理を施す。このため、第1色変換部140すなわち前処理部100からは、色変換後のL*データ、a*データ、およびb*データが出力されることになる。これらL*データ、a*データ、およびb*データ(以下の説明では必要に応じてLabデータと呼ぶことにする)は、画像処理部200および修正検出部300に、それぞれ出力される。
The first
図7は、画像処理部200のブロック図を示している。画像処理部200は、エッジ検出部210、フィルタ処理部220、ハイライト調整部230、および第2色変換部240を備える。
エッジ検出部210は、前処理部100から入力されてくるLabデータのうち、明度に対するL*データに基づき、画像のエッジを検出する。
フィルタ処理部220は、Labデータに空間フィルタ処理を施し、エッジ検出部210にて検出されたエッジを強調したり、あるいはぼやかしたりする。
ハイライト調整部230は、Labデータから原稿の下地データを取得し、このLabデータから下地データを除去して出力する。
第2色変換部240は、ハイライト調整部230から入力されてくるL*データ、a*データ、およびb*データに対し、画素毎に、L*a*b*色空間からYMCK色空間への色変換処理を施す。このため、第2色変換部240すなわち画像処理部200からは、画像データとしてYデータ、Mデータ、Cデータ、およびKデータ(以下の説明では必要に応じてYMCKデータと呼ぶことにする)が合成部400に出力されることになる。
FIG. 7 shows a block diagram of the
The
The
The
The second
図8は、修正検出部300のブロック図を示している。修正検出部300は、下地検出部310、微小エッジ検出部320、エッジ強調処理部330、および第3色変換部340を備える。
下地検出部310は、前処理部100から入力されてくるLabデータのうち、明度に対応するL*データに基づき、原稿の下地レベルを検出する。
微小エッジ検出部320は、前処理部100から入力されてくるLabデータと、下地検出部310にて検出された原稿の下地レベルとを用いて、下地レベルに近い微小なエッジを検出する。
エッジ強調処理部330は、微小エッジ検出部320にて検出された微小エッジを強調するための処理を施す。
第3色変換部340は、エッジ強調処理部330から入力されてくるLabデータに対し、画素毎に、L*a*b*色空間からYMCK色空間への色変換処理を施す。このため、第3色変換部340すなわち修正検出部300からは、修正領域データとしてYデータ、Mデータ、Cデータ、およびKデータが合成部400に出力されることになる。
FIG. 8 shows a block diagram of the
The
The minute
The edge
The third
なお、図5に示す合成部400は、画像処理部200から入力されてくる画像データ(YMCKデータ)および修正検出部300から入力されてくる修正領域データ(YMCKデータ)を、色毎かつ画素毎に加算し、得られた出力画像データを出力する。
5 combines the image data (YMCK data) input from the
なお、信号処理部70を構成する各部の機能は、ソフトウェアとハードウェア資源とが協働することにより実現される。すなわち、信号処理部70に設けられた図示しないCPU(Central Processing Unit)が、前処理部100、画像処理部200、修正検出部300、合成部400の各機能を実現するプログラムを、例えばハードディスク等の外部記憶装置からメインメモリに読み込んで、これらの各機能を実現する。
Note that the function of each unit constituting the
ここで、図9(a)は、修正液等による修正が施されていない原稿(無修正原稿と呼ぶ)を例示している。
一方、図9(b)は、図9(a)に示す無修正原稿の一部領域(テキスト画像三行目の「あいうえお」)に対し修正液等による修正が施された原稿(有修正原稿と呼ぶ)を例示している。なお、図9(b)に示す有修正原稿において、修正液等にて修正が施された領域を修正領域Wと呼ぶことにする。
Here, FIG. 9A exemplifies a document that is not corrected with a correction liquid or the like (referred to as an uncorrected document).
On the other hand, FIG. 9B shows a document (corrected document) in which a partial area of the uncorrected document shown in FIG. 9A (“Aiueo” in the third line of the text image) is corrected with a correction liquid or the like. This is exemplified. In the corrected original shown in FIG. 9B, an area corrected with correction liquid or the like is referred to as a correction area W.
また、図10(a)は、図9(a)に示す無修正原稿における無修正ラインL1の読み取りデータ(画素番号1〜n:各ラインセンサのフォトダイオードPDの数に対応)に基づき、前処理部100から出力されるL*データを示している。無修正ラインL1では、テキスト画像である「あいうえお」が記録された領域においてL*の値が小さく(暗く)なり、「あいうえお」が記録されない領域(背景領域)ではL*の値が大きく(明るく)なる。
FIG. 10A is based on the read data (
一方、図10(b)は、図9(b)に示す有修正原稿のうち修正領域Wを含む有修正ラインL2の読み取りデータ(画素番号1〜n)に基づき、前処理部100から出力されるL*データを示している。有修正ラインL2では、図9(b)に示す修正領域Wの端部に対応する微小エッジ部EにおいてL*の値がわずかに小さく(暗く)なり、それ以外の領域ではL*の値が大きく(明るく)なる。ここで微小エッジ部EにおいてのL*値が変化するのは、修正液や修正テープ等と原稿自身との間にわずかに段差ができることによって影が生じるためである。
On the other hand, FIG. 10B is output from the
そして、図8に示す修正検出部300では、次のような処理がなされる。
まず、下地検出部310は、得られたL*データに基づいて下地レベルを検出する。図10に示す例では、L*=gが下地レベルとして検出されることになる。
次に、微小エッジ検出部320は、エッジ検出を行い、検出されたエッジにおける各画素のL*の最小値がg+α<L*<g+βの範囲、あるいは、g−β<L*<g−αの範囲にあるか否かを判断し、L*の最小値がこの範囲内にあるときは微小エッジの存在を検出する。すなわち、修正検出部300は、修正液等によって生じた微小段差による影を検出している。ここで、|α|<|β|であり、例えばL*=90の場合、αは3程度に、βは5程度に設定される。なお、本実施の形態では、L*の最小値がg−α≦L*≦g+αの範囲にある場合は、微小エッジの存在を検出しない。これは、測定誤差等による微小エッジの誤検出を防止するためである。
Then, the following processing is performed in the
First, the
Next, the minute
図10(a)に示す無修正ラインL1の場合、テキスト画像のエッジに対応する部位のL*の最小値はg−βよりも著しく小さくなる。すなわち、L*の最小値がg+α<L*<g+βの範囲、あるいは、g−β<L*<g−αの範囲には存在しない。したがって、微小エッジ検出部320は、修正が施されていない無修正ラインL1からは、微小エッジを検出しない。
In the case of the uncorrected line L1 shown in FIG. 10A, the minimum value of L * of the part corresponding to the edge of the text image is significantly smaller than g-β. That, L * minimum of g + α <L * <g + β range or,, g-β <not present in the range of L * <g-α. Therefore, the
一方、図10(b)に示す有修正ラインL2の場合、修正領域Wの境界である微小エッジ部EのL*の最小値がg−β<L*<g−αの範囲内に収まる。したがって、微小エッジ検出部320は、修正が施された有修正ラインL2から、微小エッジの存在(この例では二箇所)を検出する。
On the other hand, in the case of the corrected line L2 shown in FIG. 10B, the minimum value of L * of the minute edge portion E which is the boundary of the correction area W is within the range of g−β <L * <g−α. Therefore, the
エッジ強調処理部330は、微小エッジ検出部320で検出された微小エッジを強調するための強調処理を実行する。ここで、微小エッジを強調するための処理としては、例えばハイパスフィルタを用いた空間フィルタ処理が挙げられる。また、検出された微小エッジを、赤等の目立ちやすい色に対応するLabデータに変換する処理等であってもよく、さらにはこれら両者を組み合わせてもよい。
The edge
そして、第3色変換部340は、微小エッジを強調して得られたLabデータを、YMCKデータからなる修正領域データに色変換し、出力する。
Then, the third
なお、この例では、原稿(有修正原稿)の主走査方向ライン(無修正ラインL1、有修正ラインL2)における微小エッジの有無の判断について説明を行っているが、実際には、主走査方向に直交する方向の副走査方向ラインに対しても、同様にして微小エッジの有無の判断が行われる。 In this example, the determination of the presence or absence of a minute edge in the main scanning direction line (uncorrected line L1 and corrected line L2) of the document (corrected document) is described. Similarly, the presence / absence of a minute edge is also determined for the sub-scanning direction line perpendicular to the line.
図11(a)は、図9(a)に示す無修正原稿を読み取って得られたデータの流れを例示する図である。
ここで、図11(a−1)は画像処理部200から出力される画像データを、図11(a−2)は修正検出部300から出力される修正領域データを、図11(a−3)は画像データおよび修正領域データを合成し合成部400から出力される出力画像データを、それぞれ示している。無修正原稿の場合、修正領域データは図11(a−2)に示すように実質的に何もなく、空である。このため、図11(a−3)に示す出力画像データは、図11(a−1)に示す画像データと同一になる。
FIG. 11A is a diagram illustrating the flow of data obtained by reading the uncorrected document shown in FIG.
11A-1 shows the image data output from the
一方、図11(b)は、図9(b)に示す有修正原稿を読み取って得られたデータの流れを例示する図である。
ここで、図11(b−1)は画像処理部200から出力される画像データを、図11(b−2)は修正検出部300から出力される修正領域データを、図11(b−3)は画像データおよび修正領域データを合成し合成部400から出力される出力画像データを、それぞれ示している。有修正原稿の場合、画像データは図11(b−1)に示すように修正領域W(図9(b)参照)に対応する領域が空(白)になる。一方、修正領域検出データは図11(b−2)に示すように修正領域Wのエッジに対応する領域に枠状のデータが現れることになる。このため、図11(b−3)に示す出力画像データは、修正領域Wの対応部位に修正がなされたことを示す枠が形成されたものとなる。
On the other hand, FIG. 11B is a diagram illustrating the flow of data obtained by reading the corrected document shown in FIG. 9B.
11B-1 shows the image data output from the
なお、本実施の形態では、スキャナ2およびプリンタ3を用いた複写動作を例に説明を行ったが、例えばスキャナ2で原稿を読み取って得られた画像データをPC(Personal Computer)等の機器に出力するスキャンイン動作も実行可能である。この場合には、PC等の機器に対し、上述した処理後の画像データを、YMCKデータではなくRGBデータのまま出力することが好ましい。
In the present embodiment, the copying operation using the
また、本実施の形態では、無修正原稿に対し修正液や修正テープ等を用いて修正がなされた有修正原稿を例に説明を行ったが、これに限られるものではない。すなわち、例えば無修正原稿の一部に他の用紙(例えば白紙)を重ねることで原稿の一部領域を隠した場合や、無修正原稿の一部を切り取ることで原稿の一部領域を隠した場合にも、この境界領域にできる微小段差の読み取り結果から、修正領域を抽出することができる。 Further, in the present embodiment, the description has been made with respect to a corrected document in which an uncorrected document is corrected using a correction liquid, a correction tape, or the like, but the present invention is not limited to this. That is, for example, when a partial area of the original is hidden by overlaying another piece of paper (for example, white paper) on a part of the uncensored original, or a partial area of the original is hidden by cutting a part of the uncensored original Even in this case, the correction area can be extracted from the reading result of the minute step formed in the boundary area.
1…複写機、2…スキャナ、3…プリンタ、10…原稿送り装置、50…読み取り装置、59…CCDイメージセンサ、60…制御・画像処理ユニット、70…信号処理部、80…制御部、100…前処理部、110…アナログ処理部、120…A/D変換部、130…遅延処理部、140…第1色変換部、200…画像処理部、210…エッジ検出部、220…フィルタ処理部、230…ハイライト調整部、240…第2色変換部、300…修正検出部、310…下地検出部、320…微小エッジ検出部、330…エッジ強調処理部、340…第3色変換部、400…合成部、W…修正領域
DESCRIPTION OF
Claims (7)
前記読み取り部にて読み取られた画像データに画像処理を施す画像処理部と、
前記読み取り部にて読み取られた画像データから前記原稿の紙面に施された修正箇所を検出する検出部と、
前記画像処理部にて画像処理が施された画像データと前記検出部にて検出された前記修正箇所のデータとを合成する合成部と
を含む画像読み取り装置。 A reading unit for reading an image formed on a document;
An image processing unit that performs image processing on the image data read by the reading unit;
A detection unit for detecting a correction portion applied to the paper surface of the document from the image data read by the reading unit;
An image reading apparatus comprising: a combining unit that combines image data that has been subjected to image processing by the image processing unit and data of the correction portion detected by the detecting unit.
前記検出部は、前記色変換部にて色変換された前記L*a*b*色空間の画像データから前記修正箇所を検出することを特徴とする請求項1記載の画像読み取り装置。 A color conversion unit that converts image data in the RGB color space read by the reading unit into image data in an L * a * b * color space;
The image reading apparatus according to claim 1, wherein the detection unit detects the correction portion from image data of the L * a * b * color space that has been color-converted by the color conversion unit.
前記画像データから当該画像データに含まれる微小エッジを検出する第2の処理部と、
前記第1の処理部にて画像処理が施された画像データに前記第2の処理部にて検出された前記微小エッジのデータを重畳して出力する第3の処理部と
を含む画像処理装置。 A first processing unit that performs image processing on image data obtained by reading a document;
A second processing unit for detecting a minute edge included in the image data from the image data;
An image processing apparatus including: a third processing unit that superimposes and outputs the minute edge data detected by the second processing unit on the image data subjected to image processing by the first processing unit. .
前記画像データから前記原稿の下地を検出し、
検出された前記原稿の下地に近い微小エッジを検出し、
検出された前記微小エッジに強調処理を施すこと
を特徴とする請求項4記載の画像処理装置。 The second processing unit includes:
Detecting the background of the document from the image data;
Detect a minute edge close to the detected background of the document,
The image processing apparatus according to claim 4, wherein enhancement processing is performed on the detected minute edge.
入力される画像データに画像処理を施す機能と、
前記画像データから当該画像データに含まれる微小エッジを検出する機能と、
前記画像処理が施された画像データに検出された前記微小エッジのデータを重畳して出力する機能と
を実現させるプログラム。 On the computer,
A function to perform image processing on input image data;
A function of detecting minute edges included in the image data from the image data;
A program for realizing a function of superimposing and outputting the detected data of the minute edge on the image data subjected to the image processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006220335A JP2008048057A (en) | 2006-08-11 | 2006-08-11 | Image reader, image processor and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006220335A JP2008048057A (en) | 2006-08-11 | 2006-08-11 | Image reader, image processor and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008048057A true JP2008048057A (en) | 2008-02-28 |
Family
ID=39181392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006220335A Pending JP2008048057A (en) | 2006-08-11 | 2006-08-11 | Image reader, image processor and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008048057A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016192646A (en) * | 2015-03-31 | 2016-11-10 | ブラザー工業株式会社 | Computer program and image processing apparatus |
-
2006
- 2006-08-11 JP JP2006220335A patent/JP2008048057A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016192646A (en) * | 2015-03-31 | 2016-11-10 | ブラザー工業株式会社 | Computer program and image processing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8854641B2 (en) | Control device for controlling image processing system, image forming apparatus, image reading apparatus, control method, and computer-readable recording medium | |
JP5265479B2 (en) | Image reading apparatus and image forming apparatus | |
US11212406B2 (en) | Image forming apparatus, method of controlling the same, and storage medium | |
US20100123940A1 (en) | Image forming apparatus and image forming method | |
JP2009088692A (en) | Image reading apparatus and image forming apparatus | |
JP6047528B2 (en) | Image reading apparatus and image forming apparatus | |
JP2015159509A (en) | Image forming apparatus, control method of image forming apparatus, and program | |
JP4956350B2 (en) | Image reading apparatus and image forming apparatus | |
JP2016066836A (en) | Image reading apparatus, control method of the same, and program | |
JP2008048057A (en) | Image reader, image processor and program | |
JP2006140902A (en) | Image reading apparatus | |
JP2010028682A (en) | Image reading apparatus and image forming apparatus | |
JP2005268893A (en) | Image reading apparatus | |
JP2007036732A (en) | Image reading apparatus and image forming apparatus | |
JP6127810B2 (en) | Image forming system and image reading apparatus | |
JP4186796B2 (en) | Image reading device | |
JP2007019854A (en) | Image processing apparatus and image processing method | |
JP5027831B2 (en) | Image reading apparatus, image forming apparatus, and noise contamination factor detection method | |
JP2006191229A (en) | Image scanner and image forming apparatus | |
JP6885076B2 (en) | Image reader, image forming device, image processing device, and image processing method | |
JP2008022434A (en) | Image reading apparatus | |
JP2010245688A (en) | Document reader | |
JP5033566B2 (en) | Image reading apparatus and image forming apparatus | |
JP5069705B2 (en) | Image reading apparatus and image forming apparatus | |
JP2006191228A (en) | Image scanner and image forming apparatus |