JP2010157916A - Image reader, and wrinkle region determination method in the same, and program - Google Patents

Image reader, and wrinkle region determination method in the same, and program Download PDF

Info

Publication number
JP2010157916A
JP2010157916A JP2008335153A JP2008335153A JP2010157916A JP 2010157916 A JP2010157916 A JP 2010157916A JP 2008335153 A JP2008335153 A JP 2008335153A JP 2008335153 A JP2008335153 A JP 2008335153A JP 2010157916 A JP2010157916 A JP 2010157916A
Authority
JP
Japan
Prior art keywords
pixel
value
image
saturation
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008335153A
Other languages
Japanese (ja)
Inventor
Tomoki Negishi
知樹 根岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Electronics Inc
Original Assignee
Canon Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Electronics Inc filed Critical Canon Electronics Inc
Priority to JP2008335153A priority Critical patent/JP2010157916A/en
Publication of JP2010157916A publication Critical patent/JP2010157916A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To attain an image reading technology capable of detecting a wrinkle region from a read image in a colorless document. <P>SOLUTION: This image reader has: a reading means for reading the image from the document; a saturation detection means for detecting the saturation value of each pixel from image data read by the reading means; a determination means for determining whether or not each pixel is included in the wrinkle region on the basis of the saturation value detected by the saturation detection means; and a correction means for correcting data about the pixel determined to be included in the wrinkle region by the determination means, wherein the determination means determines, when the saturation value detected by the saturation detection means satisfies a predetermined condition for the colorless document, that the pixel with the saturation value is included in the wrinkle region. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、原稿から読み取った画像からしわ領域の有無を判定する技術に関する。   The present invention relates to a technique for determining the presence or absence of a wrinkle region from an image read from a document.

従来から、原稿中の画像情報を読み取り、読み取った画像情報を出力する画像読取装置が実用化されている。読み取られる画像情報は高品質な状態で表示や保存が行われることが望まれる。さらに近年、印字された文字を光学的に読み取って文字を認識するOCR等の画像読取処理が多用されるようになり、画像の読み取り精度や更なる品質の向上が望まれている。   Conventionally, an image reading apparatus that reads image information in a document and outputs the read image information has been put into practical use. It is desired that image information to be read is displayed and stored in a high quality state. Furthermore, in recent years, image reading processing such as OCR that optically reads printed characters and recognizes the characters has been frequently used, and further improvement in image reading accuracy and quality is desired.

ところで、最近多くの企業では、原稿を保管しておくためのスペース不足や、業務の効率化を図るために、文書を原稿(ハードコピー)ではなく電子情報として保存する、いわゆるペーパーレス化が進んでいる。これにより、カラー原稿やモノクロプリンタしかなかった時代の古い無彩色原稿まであらゆる原稿を読み取る機会が増加している。   By the way, recently, in many companies, in order to reduce the space for storing manuscripts and to improve the efficiency of business, so-called paperless printing, in which documents are stored as electronic information instead of manuscripts (hard copy), has progressed. Yes. As a result, there are increasing opportunities to read all originals, including color originals and old achromatic originals that had only monochrome printers.

特に、古い原稿などは、時間が経過していることもあり、傷付いたり、しわになっているものが多くある。このようなしわのある原稿をスキャナなどで読み取ると、原稿中のしわ部分における明暗の陰影が、読み取った画像に反映されてしまうという不都合がある。   In particular, old manuscripts and the like are often damaged and wrinkled because time has passed. When such a wrinkled document is read by a scanner or the like, there is a disadvantage that light and dark shadows at a wrinkled portion in the document are reflected in the read image.

一般的に安価なスキャナは、原稿を読み取る読取手段が1つの光源と受光部で構成され、光源が受光部に対して搬送方向の上流側又は下流側のいずれか一方に配置されている。そして、光を原稿表面に対して片側から斜めに照射して、受光部がその反射光を原稿表面に対して垂直な方向から読み取るようになっている。   In general, in an inexpensive scanner, a reading unit that reads a document includes a single light source and a light receiving unit, and the light source is arranged on either the upstream side or the downstream side in the transport direction with respect to the light receiving unit. Light is irradiated obliquely from one side to the document surface, and the light receiving section reads the reflected light from a direction perpendicular to the document surface.

このように光を片側から照射するスキャナでは、原稿のしわ部分の後方に光が届き難いため、原稿にしわによる陰影が発生し、読み取った画像は不要な陰影を含むものになってしまう。   In such a scanner that irradiates light from one side, it is difficult for light to reach the back of the wrinkled portion of the document. Therefore, a shadow due to the wrinkle is generated in the document, and the read image includes an unnecessary shadow.

このような不都合を回避するために、読取手段に2つの光源を持たせて、受光部を挟むように両側に2つの光源を配置し、原稿に対してその搬送方向の上流側及び下流側の両側から光を照射して、しわによる陰影が生じないようにすることが考えられる。しかしながら、光源が少なくとも2つ必要になるので、その分コスト高になる。   In order to avoid such inconvenience, the reading unit is provided with two light sources, two light sources are arranged on both sides so as to sandwich the light receiving unit, and upstream and downstream in the transport direction with respect to the document. It is conceivable to irradiate light from both sides so as not to cause shadows due to wrinkles. However, since at least two light sources are required, the cost increases accordingly.

また、例えば、特許文献1には、原稿中に形成されたしわの影響を軽減させるための技術が記載されている。特許文献1によると、原稿搬送路の幅方向に延在する基準面と、基準面に対向した押さえ部材とで原稿を押圧し、原稿面に形成されたしわを矯正する。そして、しわが矯正された原稿面を読み取ることで、画像へのしわの影響を軽減し、画像の高品質化を実現している。
特許第3912917号明細書
For example, Patent Document 1 describes a technique for reducing the influence of wrinkles formed in a document. According to Patent Document 1, a document is pressed by a reference surface extending in the width direction of the document conveyance path and a pressing member facing the reference surface, and wrinkles formed on the document surface are corrected. Then, by reading the original surface with the wrinkles corrected, the influence of wrinkles on the image is reduced, and the quality of the image is improved.
Japanese Patent No. 3912917

しかしながら、特許文献1に記載された技術では、原稿を押圧するための部材が必要になるので、画像の高品質化を実現するのと引き換えに、コスト高を招いてしまう。   However, the technique described in Patent Document 1 requires a member for pressing the document, and incurs high cost in exchange for realizing high image quality.

また、安価なコストで原稿中のしわの影響を軽減するには、読み取った画像からしわ領域を検出し、検出したしわ領域に対して何らかの画像処理を施すことが必要になるが、このような点に着目した技術は現状では見出されていない。   Further, in order to reduce the influence of wrinkles in a document at a low cost, it is necessary to detect a wrinkle area from the read image and perform some image processing on the detected wrinkle area. No technology that focuses on this point has been found at present.

本発明は、無彩色の原稿において、読み取り画像からしわ領域を検出できる画像読取装置を実現すること、検出したしわ領域の画素を効果的に補正できる画像読取装置を実現すること等の、少なくとも1つを目的とする。   The present invention provides at least one of realizing an image reading apparatus capable of detecting a wrinkle area from a read image in an achromatic document, and realizing an image reading apparatus capable of effectively correcting pixels of the detected wrinkle area. For one purpose.

上記課題を解決するために、本発明の画像読取装置は、原稿から画像を読み取る読取手段と、前記読取手段により読み取った画像データから各画素の彩度値を検出する彩度検出手段と、前記彩度検出手段により検出した彩度値に基づいて各画素がしわ領域に含まれているか判定する判定手段と、前記判定手段によりしわ領域に含まれていると判定された画素のデータを補正する補正手段とを有し、前記判定手段は、無彩色の原稿の画素について、前記彩度検出手段により検出された彩度値が所定の条件を満たす場合、当該画素がしわ領域に含まれていると判定する。   In order to solve the above problems, an image reading apparatus of the present invention includes a reading unit that reads an image from a document, a saturation detection unit that detects a saturation value of each pixel from image data read by the reading unit, Determination means for determining whether each pixel is included in the wrinkle area based on the saturation value detected by the saturation detection means, and correcting the data of the pixel determined to be included in the wrinkle area by the determination means A correction unit, and when the saturation value detected by the saturation detection unit satisfies a predetermined condition for a pixel of an achromatic document, the determination unit includes the pixel in the wrinkle region. Is determined.

また、本発明のしわ領域判定方法は、原稿から画像を読み取る画像読取装置におけるしわ領域判定方法であって、前記読み取った画像データから各画素の彩度値を検出する彩度検出工程と、前記検出した彩度値に基づいて各画素がしわ領域に含まれているか判定する判定工程と、前記しわ領域に含まれていると判定された画素のデータを補正する補正工程とを有し、前記判定工程では、無彩色の原稿の画素について、前記検出された彩度値が所定の条件を満たす場合、当該画素がしわ領域に含まれていると判定する。   Further, the wrinkle region determination method of the present invention is a wrinkle region determination method in an image reading apparatus that reads an image from a document, and includes a saturation detection step of detecting a saturation value of each pixel from the read image data, A determination step of determining whether each pixel is included in the wrinkle region based on the detected saturation value, and a correction step of correcting data of the pixel determined to be included in the wrinkle region, In the determination step, when the detected saturation value satisfies a predetermined condition for a pixel of an achromatic document, it is determined that the pixel is included in the wrinkle region.

本発明によれば、無彩色の原稿において、読み取り画像からしわ領域を検出できる。また、検出したしわ領域の画素データを補正できるので、安価なコストで高品質の画像が得られるようになる。   According to the present invention, a wrinkled region can be detected from a read image in an achromatic original. Further, since the pixel data of the detected wrinkle region can be corrected, a high quality image can be obtained at a low cost.

以下に、添付図面を参照して本発明を実施するための最良の形態について詳細に説明する。以下の実施の形態は、本発明の実現手段としての一例であり、本発明の趣旨を逸脱しない範囲において本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings. The following embodiments are examples as means for realizing the present invention, and should be appropriately modified or changed depending on the configuration of the apparatus to which the present invention is applied and various conditions without departing from the spirit of the present invention. The present invention is not limited to the following embodiments.

[画像読取装置の構成]
本発明に係る実施形態の画像読取装置の構成について説明する。
[Configuration of Image Reading Apparatus]
The configuration of the image reading apparatus according to the embodiment of the present invention will be described.

図1は本発明に係る実施形態の画像読取装置の構成を例示した模式図である。尚、図示の構成は概略であり、本発明はこの構成に限定されるものではない。   FIG. 1 is a schematic view illustrating the configuration of an image reading apparatus according to an embodiment of the invention. In addition, the structure of illustration is schematic and this invention is not limited to this structure.

図1に示すように、画像読取装置1は、原稿Dをピックアップするピックアップローラ2と、ピックアップローラ2によりピックアップされた原稿Dを装置内に給送する給送ローラ3と、ピックアップされた原稿Dを1枚ずつ分離する分離ローラ4とを備える。また、画像読取装置1は、原稿Dを搬送するため対になって配設されるレジストローラ対5と、原稿D上の画像情報を読み取る読取ユニット8と、読取ユニット8よりも下流側にある搬送ローラ対7と、原稿Dを検知するレジストセンサ10とを備える。   As shown in FIG. 1, the image reading apparatus 1 includes a pickup roller 2 that picks up a document D, a feeding roller 3 that feeds the document D picked up by the pickup roller 2, and a picked-up document D. And a separation roller 4 for separating the sheets one by one. Further, the image reading apparatus 1 is located on the downstream side of the reading unit 8, a registration roller pair 5 disposed in pairs for conveying the document D, a reading unit 8 for reading image information on the document D, and the like. A pair of conveyance rollers 7 and a registration sensor 10 that detects the document D are provided.

また、画像読取装置1は、上部フレーム81及び下部フレーム82から構成され、上部フレーム81が回動軸81aを中心に回動可能であり、搬送された原稿の紙詰まり等が発生した際に装置内に滞留した原稿を取り除くため、手動での装置の開閉が可能である。上部フレーム81には、読取ユニット8が固定されている。また、読取ユニット8にはラインイメージセンサ200と光源201が搭載されている。   The image reading apparatus 1 includes an upper frame 81 and a lower frame 82, and the upper frame 81 is rotatable about a rotation shaft 81a. In order to remove the document staying in the apparatus, the apparatus can be manually opened and closed. The reading unit 8 is fixed to the upper frame 81. The reading unit 8 includes a line image sensor 200 and a light source 201.

この画像読取装置は、光源201により原稿Dを照明して原稿画像をラインイメージセンサ200により読み取るが、光源201の光量むらやラインイメージセンサ200の感度むらがあるため、白色の色基準部材を読み取って補正する必要がある。
このため、光源201の発光量を適正化する光量調整処理と、ラインイメージセンサ200から出力される画像信号に対する増幅率を最適化するゲイン調整処理とを実行する際にシェーディング補正が行われる。このシェーディング補正は、光源201の光量むらやラインイメージセンサ200の感度むらをラインイメージセンサ200の画素セル単位で補正する処理である。
In this image reading apparatus, the original D is illuminated by the light source 201 and the original image is read by the line image sensor 200. However, since the light amount of the light source 201 and the sensitivity of the line image sensor 200 are uneven, the white color reference member is read. Need to be corrected.
For this reason, shading correction is performed when executing a light amount adjustment process for optimizing the light emission amount of the light source 201 and a gain adjustment process for optimizing the amplification factor for the image signal output from the line image sensor 200. This shading correction is a process of correcting the light amount unevenness of the light source 201 and the sensitivity unevenness of the line image sensor 200 for each pixel cell of the line image sensor 200.

本実施形態では、上記光量調整処理やゲイン調整処理等を含めて、ラインイメージセンサ200が原稿画像を一様に読み取るための補正処理を「シェーディング補正」と呼ぶ。ここではは、原稿Dを挟むようにラインイメージセンサ200や光源201と対向して配置される対向部材9の色を白色とし、この対向部材9を読み取ってシェーディング補正を行う。   In the present embodiment, a correction process for the line image sensor 200 to uniformly read a document image including the light amount adjustment process and the gain adjustment process is referred to as “shading correction”. Here, the color of the facing member 9 arranged facing the line image sensor 200 and the light source 201 so as to sandwich the document D is white, and the facing member 9 is read to perform shading correction.

上記のように構成された画像読取装置1は、以下に説明する原稿Dの画像読み取り動作を行う。   The image reading apparatus 1 configured as described above performs an image reading operation of the document D described below.

まず、後述するように、読取ユニット8は、対向部材9をラインイメージセンサ200により読み取り、シェーディング補正用の補正データを生成して画素ごとに記憶する。その後、原稿Dをピックアップローラ2と給送ローラ3によって装置内に給送し、分離ローラ4によって1枚ずつに分離する。原稿Dは、レジストローラ対5及び搬送ローラ対7により挟持され、副走査方向に搬送されつつ、その表面の画像を読取ユニット8にて主走査方向(副走査方向と直交する方向)に読み取られる。   First, as will be described later, the reading unit 8 reads the facing member 9 by the line image sensor 200, generates correction data for shading correction, and stores it for each pixel. Thereafter, the document D is fed into the apparatus by the pickup roller 2 and the feeding roller 3 and separated one by one by the separation roller 4. The document D is sandwiched between the registration roller pair 5 and the conveyance roller pair 7 and is conveyed in the sub-scanning direction, and the image on the surface is read by the reading unit 8 in the main scanning direction (a direction perpendicular to the sub-scanning direction). .

尚、前述した補正用のデータを参照して、読取ユニット8のラインイメージセンサ200の画像信号から生成した画像データをシェーディング補正する。   Note that the image data generated from the image signal of the line image sensor 200 of the reading unit 8 is subjected to shading correction with reference to the correction data described above.

画像を読み取った後、原稿Dは搬送ローラ対7によって挟持されて搬送されつつ装置外へ排出される。画像を読み取るタイミングは、原稿Dの先端部がレジストセンサ10を通過した後に読み取りを開始し、原稿Dが通過し終えた後に読み取りを終了するように設定されている。なお、原稿Dを検知するレジストセンサ10はラインイメージセンサ200に対して上流に位置しているため、原稿Dの先端部がレジストセンサ10上を通過してから一定時間経過後に原稿Dの読み取りを開始する。また、原稿Dの後端部がレジストセンサ10上を通過してから一定時間経過後に読み取りを終了する。これにより、読み取った画像の先端レジストと後端レジストとを調整する。   After the image is read, the document D is ejected out of the apparatus while being held and conveyed by the conveyance roller pair 7. The timing for reading the image is set so that the reading starts after the leading end of the document D passes through the registration sensor 10 and ends after the document D has passed. Since the registration sensor 10 that detects the document D is located upstream of the line image sensor 200, the document D is read after a predetermined time has elapsed after the leading edge of the document D passes over the registration sensor 10. Start. Further, the reading is finished after a lapse of a fixed time after the trailing edge of the document D passes over the registration sensor 10. Thereby, the leading edge resist and trailing edge resist of the read image are adjusted.

図2は本実施形態の画像読取装置の電気的構成を示すブロック図である。   FIG. 2 is a block diagram showing an electrical configuration of the image reading apparatus according to the present embodiment.

図2において、画像読取部102は、光源201、ラインイメージセンサ200およびA/D変換部を備える。原稿Dに光源201から光を照射して原稿Dから反射された光を、ラインイメージセンサ200により所定の解像度で画素に分解して光電変換した後、A/D変換部から所定の色深度の画像データとして出力される。   In FIG. 2, the image reading unit 102 includes a light source 201, a line image sensor 200, and an A / D conversion unit. The light reflected from the document D by irradiating the document D with the light source 201 is decomposed into pixels with a predetermined resolution by the line image sensor 200 and subjected to photoelectric conversion, and then the A / D conversion unit has a predetermined color depth. Output as image data.

画像処理部103は、不図示のシェーディング補正部や2値化部を備え、画像読取部102で読み取った画像データに対して画像処理を行う。尚、シェーディング補正部では、既知の方法を用いてシェーディング補正を行う。また、2値化部については後述する。   The image processing unit 103 includes a shading correction unit and a binarization unit (not shown), and performs image processing on the image data read by the image reading unit 102. The shading correction unit performs shading correction using a known method. The binarization unit will be described later.

彩度検出部104は、画像読取部102で読み取った画像を構成する各画素の彩度値を検出する。ここでの検出方法については後述する。   The saturation detection unit 104 detects the saturation value of each pixel constituting the image read by the image reading unit 102. The detection method here will be described later.

しわ領域判定部105は、彩度検出部104によって検出された彩度値が所定の条件を満たすか否かに基づき、注目画素がしわ領域に含まれているか否かを判定する。ここでの判定方法については後述する。   The wrinkle region determination unit 105 determines whether or not the target pixel is included in the wrinkle region based on whether or not the saturation value detected by the saturation detection unit 104 satisfies a predetermined condition. The determination method here will be described later.

データ補正部106は、画像読取部102で読み取った画像を構成する各画素が、しわ領域判定部105によってしわ領域に含まれている画素であると判定された場合、別のデータに補正する。ここでの補正方法については後述する。   The data correction unit 106 corrects to another data when each pixel constituting the image read by the image reading unit 102 is determined to be a pixel included in the wrinkle region by the wrinkle region determination unit 105. The correction method here will be described later.

制御部109は、不図示のCPU、ROM、RAMを備え、ROM内には画像読取装置としての基本処理プログラム等の各種プログラムが格納されているとともに、これらの各プログラムを実行するのに必要な各種データが格納されている。そして、不図示のCPUによりROM内のプログラムに基づいてRAMをワークメモリとして利用しつつ、装置1の各部を制御して画像読取装置としての基本処理を実行する。   The control unit 109 includes a CPU, a ROM, and a RAM (not shown). Various programs such as a basic processing program as an image reading device are stored in the ROM, and are necessary for executing these programs. Various data are stored. Then, a CPU (not shown) uses the RAM as a work memory based on a program in the ROM, and controls each part of the apparatus 1 to execute basic processing as an image reading apparatus.

出力部107は画像読取装置1が複写機等に適用される場合には、画像を記録紙に記録出力する記録部として機能し、ファクシミリやスキャナに適用される場合には、電話回線やPC等の外部ホスト装置と接続された通信部として機能する。   The output unit 107 functions as a recording unit that records and outputs an image on recording paper when the image reading apparatus 1 is applied to a copying machine or the like, and when applied to a facsimile or a scanner, the output unit 107 is a telephone line or a PC. It functions as a communication unit connected to the external host device.

記憶部108は、例えばRAM、ハードディスク、フラッシュメモリ等で構成され、制御部109による制御の下で画像情報や画像データの書き込みや読み出しが行われる。   The storage unit 108 includes, for example, a RAM, a hard disk, a flash memory, and the like, and image information and image data are written and read under the control of the control unit 109.

次に、彩度検出部104による彩度検出方法について、図4のフローを参照して説明する。   Next, a saturation detection method performed by the saturation detection unit 104 will be described with reference to the flow of FIG.

図4において、先ず、記憶部108に記憶している画像情報から画像サイズを取得して、このサイズを基に算出した画素数を変数Iに格納する(ステップS401)。次に、彩度値Sを画素ごとに格納するのに必要なメモリを確保する(ステップS402)。次に、次画素があるか否かを、Iが1以上か否かに基づき判定する(ステップS403)。次画素がある場合、先ずIをデクリメントして(ステップS404)、記憶部108に格納されている注目画素の画素データとしてのR値,G値,B値を読み出す(ステップS405)。   In FIG. 4, first, the image size is acquired from the image information stored in the storage unit 108, and the number of pixels calculated based on this size is stored in the variable I (step S401). Next, a memory necessary for storing the saturation value S for each pixel is secured (step S402). Next, it is determined whether there is a next pixel based on whether I is 1 or more (step S403). If there is a next pixel, I is first decremented (step S404), and the R value, G value, and B value as pixel data of the pixel of interest stored in the storage unit 108 are read (step S405).

ところで、RGB(赤緑青)からHSV(色相、彩度、明度)に変換する方法は、一般的に知られている下記の変換方法で行う。   By the way, the method of converting from RGB (red, green, blue) to HSV (hue, saturation, lightness) is performed by a generally known conversion method described below.

色相H=60*(G−B)/(MAX−MIN)+0 ・・・(MAX=Rの場合)
色相H=60*(B−R)/(MAX−MIN)+120 ・・・(MAX=Gの場合)
色相H=60*(R−G)/(MAX−MIN)+240 ・・・(MAX=Bの場合)
彩度S=(MAX−MIN)/MAX・・・(1)
明度V=MAX
MAXはR値,G値,B値のうちの最大値、MINはR値,G値,B値のうちの最小値である。
Hue H = 60 * (GB) / (MAX-MIN) +0 (when MAX = R)
Hue H = 60 * (BR) / (MAX-MIN) +120 (when MAX = G)
Hue H = 60 * (RG) / (MAX-MIN) +240 (when MAX = B)
Saturation S = (MAX−MIN) / MAX (1)
Lightness V = MAX
MAX is the maximum value among the R, G, and B values, and MIN is the minimum value among the R, G, and B values.

上記変換方法に従い、まず読み出した画素データのR値、G値、B値のうちの最大の値を変数MAXに代入し(ステップS406)、同様に最小値を変数MINに代入する(ステップS407)。また、MAX、MINを用いて、上記式1に従い当該画素の彩度値Sを計算する(ステップS408)。次に、彩度値Sを確保したメモリに格納する(ステップS409)。例えば、画素データが、(R、G、B)=(200、150、100)であった場合、MAX=200、MIN=100となり、彩度S=(200−100)/200=0.5になる。   In accordance with the conversion method, first, the maximum value among the R value, G value, and B value of the read pixel data is substituted into the variable MAX (step S406), and similarly, the minimum value is substituted into the variable MIN (step S407). . Further, the saturation value S of the pixel is calculated according to the above equation 1 using MAX and MIN (step S408). Next, the saturation value S is stored in the secured memory (step S409). For example, when the pixel data is (R, G, B) = (200, 150, 100), MAX = 200, MIN = 100, and saturation S = (200−100) /200=0.5. become.

彩度値Sを格納した後、再度ステップS403に戻って、次画素がなくなるまでこの処理を繰り返し行う。   After storing the saturation value S, the process returns to step S403 again, and this process is repeated until there is no next pixel.

次に、しわ領域判定部による105判定方法について説明するが、その前にしわのある無彩色原稿をカラーで読み取ったときに、色味が発生する理由について図3を参照して説明する。   Next, the 105 determination method by the wrinkle region determination unit will be described. The reason why the color tone is generated when an achromatic original having a wrinkle is read in color will be described with reference to FIG.

本来ならば、無彩色原稿をカラーで読み取った場合、読み取った画像データは彩度値Sが0に近い値になるはずであるが、しわのある無彩色原稿を読み取った場合、読み取った画像データには色味が発生する。   Originally, when an achromatic original is read in color, the read image data should have a saturation value S close to 0, but when a wrinkled achromatic original is read, the read image data There is a color.

図3(a)はしわのない無彩色原稿を読み取る場合を示し、光源201が原稿Dを照射する光の入射角をθ0とする。原稿Dにしわがない場合、原稿Dのどの部分を照射しても入射角はθ0になる。光源201をR、G、Bの順番でかわるがわる点灯させるとき、ラインセンサ200は、R成分、G成分、B成分の順番で受光する。このため受光する時間に時間差が生じる。受光途中でも原稿Dは搬送されているので、R光,G光,B光の受光に対してこの時間差分だけ原稿位置が異なる。但し、しわのない原稿であるため、どの位置で照射しても同一の入射角θ0になるので、その受光強度はR光,G光,B光とも同一になる。   FIG. 3A shows a case where an achromatic document without wrinkles is read, and the incident angle of light that the light source 201 irradiates the document D is θ0. When the original D is not wrinkled, the incident angle is θ0 no matter which part of the original D is irradiated. When the light source 201 is turned on in the order of R, G, and B, the line sensor 200 receives light in the order of the R component, the G component, and the B component. For this reason, a time difference occurs in the light receiving time. Since the document D is being conveyed even during light reception, the document position differs by this time difference with respect to reception of the R light, G light, and B light. However, since it is a wrinkle-free document, the same incident angle θ0 is applied regardless of the position, and the received light intensity is the same for R light, G light, and B light.

これに対して、しわのある無彩色原稿を読み取る場合は、原稿位置が若干異なると、図3(b)に示すようにR、G、Bの入射角が異なるので反射光の強度がR光,G光,B光ごとにバラバラであり、R値,G値,B値が等しい値にはならない。その結果、原稿Dの画像情報とは異なる色合い・色味を有する画像データが形成されてしまう。例えば原稿Dが白地の原稿であった場合には、低い彩度の有彩色の画像データになる。   On the other hand, when reading a wrinkled achromatic color original, if the original position is slightly different, the incident angles of R, G, and B are different as shown in FIG. , G light, and B light are different, and the R value, G value, and B value are not equal. As a result, image data having a hue / tint different from the image information of the document D is formed. For example, if the document D is a white document, the image data is chromatic color with low saturation.

上述した理由により、しわのある無彩色原稿をカラーで読み取った場合、しわ領域において若干の色味が発生する。   For the reasons described above, when a wrinkled achromatic original is read in color, a slight color tone is generated in the wrinkled region.

但し、無彩色原稿を読み取るとき色味が発生する他の原因もある。前述したように光源の照射をR、G、Bの順番でかわるがわる点灯させると、ラインイメージセンサ200は、R,G,B値の順番で受光するのに時間差が生じるため、読み取る原稿の位置が若干異なる。これにより、例えば原稿D上の細線等を読み取った場合、色ずれを起こす可能性がある。この場合は、低い彩度の有彩色ではなく、高い彩度の有彩色になるのでしわによる色味の発生とは区別できる。   However, there are other causes of color when reading an achromatic original. As described above, when the light source is turned on in the order of R, G, and B, the line image sensor 200 causes a time difference to receive light in the order of R, G, and B values. Slightly different. As a result, for example, when a fine line on the document D is read, color misregistration may occur. In this case, since it is not a chromatic color with low saturation but a chromatic color with high saturation, it can be distinguished from the occurrence of color due to wrinkles.

以上から、しわ領域判定部105は、彩度検出部104によって検出した彩度値Sを基に、注目画素の彩度値Sが、所定の第2値以上(彩度閾値Ts2、ここでは0.5とする)の場合、色ずれを起こしている画素と判定する。   From the above, the wrinkle region determination unit 105 determines that the saturation value S of the target pixel is equal to or greater than a predetermined second value (saturation threshold Ts2, here 0 based on the saturation value S detected by the saturation detection unit 104). .5), the pixel is determined to have a color shift.

また彩度値Sが、所定の第1値未満(彩度閾値Ts1、ここでは0.1とする)の場合、色味が発生していない画素なので、しわ領域に含まれていない画素と判定する。   When the saturation value S is less than the predetermined first value (saturation threshold Ts1, here 0.1), it is determined that the pixel is not included in the wrinkle region because no color is generated. To do.

また彩度値Sが、第1値以上(彩度閾値Ts1以上)で且つ第2値未満(彩度閾値Ts2未満)の場合、色味が発生している画素なのでしわ領域に含まれる画素と判定する。ちなみに彩度値Sは、上記式1から、最小値が0、最大値が1になり、0から1までの値をとることがわかる(図5)。   When the saturation value S is greater than or equal to the first value (saturation threshold value Ts1 or more) and less than the second value (less than the saturation threshold value Ts2), a pixel in which color is generated, judge. Incidentally, it can be seen from the above equation 1 that the saturation value S has a minimum value of 0 and a maximum value of 1 and takes values from 0 to 1 (FIG. 5).

ここでは、彩度閾値Ts1を0.1、彩度閾値Ts2を0.5としたが、他の値であっても良い。   Here, the saturation threshold Ts1 is 0.1 and the saturation threshold Ts2 is 0.5, but other values may be used.

次に、データ補正部106による補正方法について、図6及び図7を参照して説明する。   Next, a correction method by the data correction unit 106 will be described with reference to FIGS.

データ補正部106は、前述したしわ領域判定部105でしわ領域に含まれる画素と判定された画素のR,G,Bの各データを、それぞれ背景明度に対応するデータに置換する。補正処理の流れとしては、画像の左上端部を始点とし右下端部を終点として注目画素を変えながら走査していき、注目画素がしわ領域に含まれていたならば、背景明度に対応するデータに置換するという流れとなる。   The data correction unit 106 replaces the R, G, and B data of the pixels determined as the pixels included in the wrinkle region by the wrinkle region determination unit 105 described above with data corresponding to the background brightness. As the flow of the correction process, scanning is performed while changing the target pixel from the upper left end of the image as the start point and the lower right end as the end point, and if the target pixel is included in the wrinkle region, the data corresponding to the background lightness It becomes the flow of replacing with.

図6において、先ず記憶部108に記憶している画像情報から画像サイズを取得して、このサイズを基に算出した画素数を変数Iに格納する(ステップS601)。次に記憶部108に記憶されている画像データから明度ヒストグラムを作成して、背景明度Vb及び文字明度Vtを求める(ステップS602)。ここで、明度ヒストグラムの作成方法、背景明度及び文字明度の求め方については後述する。ここでは一例として、背景明度(第1の明度)Vb=200、文字明度(第2の明度)Vt=50となった場合について説明する。   In FIG. 6, first, an image size is acquired from the image information stored in the storage unit 108, and the number of pixels calculated based on this size is stored in a variable I (step S601). Next, a lightness histogram is created from the image data stored in the storage unit 108, and a background lightness Vb and a character lightness Vt are obtained (step S602). Here, a method for creating a lightness histogram, a method for obtaining background lightness, and character lightness will be described later. Here, as an example, a case where the background lightness (first lightness) Vb = 200 and the character lightness (second lightness) Vt = 50 will be described.

次に次画素があるか否かを、Iが1以上か否かにより判定する(ステップS603)。次画素がある場合、まずIをデクリメントして(ステップS604)、記憶部108に格納されている注目画素の彩度値S(I)を読み出す(ステップS605)。次にしわ領域判定部105により注目画素が色ずれ画素であるか判定し、色ずれ画素と判定されたならば(ステップS606でYES)、注目画素のR,G,Bの各データを、それぞれ文字明度Vtに対応するデータである50に置換する(S607)。一方、色ずれ画素でないならば、しわ領域判定部105により注目画素がしわ領域に含まれるか判定する(ステップS608)。その結果、しわ領域に含まれる画素と判定されたならば(ステップS608でYES)、注目画素のR,G,Bの各データを、それぞれ背景明度Vbに対応するデータである200に置換する(ステップS609)。   Next, whether or not there is a next pixel is determined based on whether or not I is 1 or more (step S603). If there is a next pixel, I is first decremented (step S604), and the saturation value S (I) of the pixel of interest stored in the storage unit 108 is read (step S605). Next, the wrinkle region determination unit 105 determines whether the pixel of interest is a color-shifted pixel. If it is determined that the pixel is a color-shifted pixel (YES in step S606), the R, G, and B data of the pixel of interest are The data corresponding to the character brightness Vt is replaced with 50 (S607). On the other hand, if the pixel is not a color shift pixel, the wrinkle region determination unit 105 determines whether the target pixel is included in the wrinkle region (step S608). As a result, if it is determined that the pixel is included in the wrinkle region (YES in step S608), the R, G, and B data of the target pixel are replaced with data 200 corresponding to the background lightness Vb, respectively ( Step S609).

一方、ステップS608でNOの場合、しわ領域判定部105が注目画素を、色ずれ画素でもなく、しわ領域に含まれる画素でもないと判定したものとし、処理を行わずにS603に戻り、次の画素がなくなるまでこの処理を繰り返し行う。   On the other hand, if NO in step S608, the wrinkle region determination unit 105 determines that the pixel of interest is not a color misregistration pixel or a pixel included in the wrinkle region, and returns to S603 without performing the process. This process is repeated until there are no more pixels.

図7は図6によるデータ補正処理の結果を例示しており、(a)は補正前の画素データ、(b)は画素データから検出した彩度値、(c)は補正後の画素データをそれぞれ示している。   FIG. 7 exemplifies the result of the data correction processing according to FIG. 6, (a) is the pixel data before correction, (b) is the saturation value detected from the pixel data, and (c) is the pixel data after correction. Each is shown.

本実施形態では、しわ領域に含まれる画素データを背景明度に等しい明度を有する画素データに置換したが、背景明度以外の、例えば背景よりも明るい明度(255)を有する画素データで置き換えても良い。   In the present embodiment, the pixel data included in the wrinkle region is replaced with pixel data having a brightness equal to the background brightness, but may be replaced with pixel data having a brightness (255) brighter than the background, for example, other than the background brightness. .

次に明度ヒストグラム作成方法について、図10のフローを参照して説明する。   Next, a lightness histogram creation method will be described with reference to the flow of FIG.

図10において、先ず明度ヒストグラム用のメモリを初期化する。ここでは一例として0から255までの256段階で明度の出現回数をカウントできるだけのメモリを確保する(S1000)。また、R値,G値,B値で構成される画素データから、前述の例示した方法で彩度値が算出され、記憶されているものとする。   In FIG. 10, first, the memory for the brightness histogram is initialized. Here, as an example, a memory capable of counting the number of appearances of lightness in 256 stages from 0 to 255 is secured (S1000). Further, it is assumed that the saturation value is calculated and stored from the pixel data composed of the R value, the G value, and the B value by the above-described method.

記憶部108に記憶されている画像情報から画像サイズを取得して、このサイズを基に算出した画素数を変数Iに格納する(ステップS1001)。次画素があるか否かを、Iが1以上か否かに基づき判定する(ステップS1002)。次画素がある場合、先ずIをデクリメントして(ステップS1003)、記憶部108に格納されている注目画素の彩度値S(I)を読み出す(ステップS1004)。   The image size is acquired from the image information stored in the storage unit 108, and the number of pixels calculated based on this size is stored in the variable I (step S1001). It is determined whether there is a next pixel based on whether I is 1 or more (step S1002). If there is a next pixel, I is first decremented (step S1003), and the saturation value S (I) of the target pixel stored in the storage unit 108 is read (step S1004).

次に注目画素の彩度値S(I)が0.1以下か否かを判定する(ステップS1005)。0.1未満であれば、注目画素のデータを読み出し(ステップS1006)、明度を求めてから明度値のカウンタをインクリメントする(ステップS1007)。その後、ステップS1002に戻り、次画素がなくなるまでこの処理を繰り返し行う。一方、ステップS1005で彩度値が0.1以上であった場合は、ステップS1002に戻る。   Next, it is determined whether or not the saturation value S (I) of the target pixel is 0.1 or less (step S1005). If it is less than 0.1, the data of the pixel of interest is read (step S1006), the brightness is obtained, and then the brightness value counter is incremented (step S1007). Thereafter, the process returns to step S1002, and this process is repeated until there is no next pixel. On the other hand, if the saturation value is 0.1 or more in step S1005, the process returns to step S1002.

次に背景明度及び文字明度の求め方(明度検出方法)について、図11を参照して説明する。図11は上記のようにして作成された明度ヒストグラムを例示したものであり、無彩色原稿の明度ヒストグラムは一般的に背景明度と文字明度の出現回数が多くなる。従って、明度0から255方向に向かって最初のピークの明度値を文字明度とし、明度255から0方向に向かって最初のピークの明度値を背景明度とする。ここでは、図11の最初のピークの明度値50が文字明度となり、最後のピーク値の明度値200が背景明度となる。   Next, how to obtain the background lightness and the character lightness (lightness detection method) will be described with reference to FIG. FIG. 11 exemplifies the lightness histogram created as described above, and the lightness histogram of an achromatic color document generally increases the number of appearances of background lightness and character lightness. Therefore, the lightness value of the first peak from the lightness 0 to 255 direction is the character lightness, and the lightness value of the first peak from the lightness 255 to the 0 direction is the background lightness. Here, the lightness value 50 of the first peak in FIG. 11 is the character lightness, and the lightness value 200 of the last peak value is the background lightness.

次に2値化方法について、図8のフローを参照して説明する。   Next, the binarization method will be described with reference to the flow of FIG.

図8において、記憶部108に記憶されている画像情報から画像サイズを取得して、このサイズを基に算出した画素数を変数Iに格納する(ステップS801)。次画素があるか否かを、Iが1以上か否かに基づき判定する(ステップS802)。次画素がある場合、先ずIをデクリメントして(ステップS803)、記憶部108に格納されている注目画素のデータを読み出す(ステップS804)。R値,G値,B値で構成される注目画素データから前述の例示した方法で明度値を算出するものとする。   In FIG. 8, the image size is acquired from the image information stored in the storage unit 108, and the number of pixels calculated based on this size is stored in the variable I (step S801). It is determined whether there is a next pixel based on whether I is 1 or more (step S802). If there is a next pixel, I is first decremented (step S803), and the data of the pixel of interest stored in the storage unit 108 is read (step S804). It is assumed that the brightness value is calculated from the target pixel data composed of the R value, the G value, and the B value by the method exemplified above.

次に注目画素のR値,G値,B値のいずれも2値化閾値180以上であるか判定する(ステップS805)。あるいは前述の例示した方法で算出した注目画素の明度値(MAX値)を判定してもよい。判定が180以上であるならば、注目画素を白とし(ステップS806)、180未満であるならば、注目画素を黒とする(ステップS807)。その後、ステップS802に戻って、次画素がなくなるまでこの処理を繰り返し行う。ここでは2値化閾値を180としているが、他の値でも良い。またR値、G値、B値のいずれも2値化閾値180以上であるか否かを判定したが、R値、G値、B値の平均値や自乗平均値を判定に利用してもよい。   Next, it is determined whether all of the R value, G value, and B value of the target pixel are equal to or higher than the binarization threshold value 180 (step S805). Alternatively, the brightness value (MAX value) of the target pixel calculated by the above-described method may be determined. If the determination is 180 or more, the target pixel is set to white (step S806), and if it is less than 180, the target pixel is set to black (step S807). Thereafter, the process returns to step S802, and this process is repeated until there is no next pixel. Although the binarization threshold is 180 here, other values may be used. Moreover, although it was determined whether all of the R value, the G value, and the B value are equal to or greater than the binarization threshold value 180, the average value or the mean square value of the R value, the G value, and the B value may be used for the determination. Good.

図9は図8による2値化データを例示しており、(a)は比較のために明度補正前データをそのまま2値化したと仮定した場合を示し、斜線部分の画素がしわ領域に含まれる陰影にあたる画素であるため、2値化すると黒画素として残ってしまう。これに対して、(b)は本発明により陰影にあたる画素の画素データを、背景部分に等しい明度を有する画素データに置換した後にデータを2値化した場合を示し、(a)にある陰影にあたる黒画素がなく良好な2値化結果となっている。   FIG. 9 illustrates the binarized data according to FIG. 8. FIG. 9A shows a case where it is assumed that the data before brightness correction is binarized as it is for comparison, and the pixels in the shaded area are included in the wrinkled region. Since it is a pixel corresponding to a shaded shadow, if it is binarized, it will remain as a black pixel. On the other hand, (b) shows the case where the pixel data of the pixel corresponding to the shadow according to the present invention is replaced with the pixel data having the same brightness as the background portion, and the data is binarized, and corresponds to the shadow shown in (a). There are no black pixels, and the binarization result is good.

最後に、本実施形態の画像読取装置による画像読取動作について、図12のフローを参照して説明する。   Finally, an image reading operation by the image reading apparatus according to the present embodiment will be described with reference to the flowchart of FIG.

制御部109は、ユーザにより画像読取装置1の不図示のスタートボタンが押下されるのを待ち(ステップS1200)、スタートボタンが押下されたことを検知したならば、原稿が不図示の原稿台にあるか否かを判定する(ステップS1201)。原稿がないならば、ステップS1200に戻り、原稿があるならば、後述の画像情報の読取時に行われるシェーディング補正用の補正データを作成する(ステップS1202)。   The control unit 109 waits for the user to press a start button (not shown) of the image reading apparatus 1 (step S1200). If the control unit 109 detects that the start button is pressed, the document is placed on the document table (not shown). It is determined whether or not there is (step S1201). If there is no original, the process returns to step S1200. If there is an original, correction data for shading correction that is performed when reading image information described later is created (step S1202).

制御部109は、補正データを作成した後、原稿を所定の位置まで搬送して、画像読取部102で画像情報を読み取り(ステップS1203)、明度ヒストグラムを作成して背景明度Vb及び文字明度Vtを求める(ステップS1204)。次に彩度検出部104で各画素の彩度値を検出する(ステップS1205)。   After creating the correction data, the control unit 109 conveys the document to a predetermined position, reads the image information by the image reading unit 102 (step S1203), creates a brightness histogram, and calculates the background brightness Vb and the text brightness Vt. Obtained (step S1204). Next, the saturation detection unit 104 detects the saturation value of each pixel (step S1205).

そして、しわ領域判定部105によりしわ領域に含まれると判定された画素のデータを、データ補正部106によって背景部分に等しい明度を有する画素データに置換する(ステップS1206)。その後、画像処理部103により2値化処理を行い(ステップS1207)、2値化データを不図示の外部機器に転送する(ステップS1208)。その後、ステップS1201に戻って、次画素がなくなるまでこの処理を繰り返し行う。   Then, the pixel data determined to be included in the wrinkle region by the wrinkle region determination unit 105 is replaced with pixel data having lightness equal to the background portion by the data correction unit 106 (step S1206). Thereafter, binarization processing is performed by the image processing unit 103 (step S1207), and the binarized data is transferred to an external device (not shown) (step S1208). Thereafter, the process returns to step S1201, and this process is repeated until there is no next pixel.

上述した実施形態によれば、無彩色の原稿において、読み取り画像からしわ領域を検出し、検出したしわ領域の画素データを補正できるので、安価なコストで高品質の画像が得られるようになる。尚、上述した実施形態では無彩色の原稿の画像データを、2値化の直前までR値,G値,B値で構成される画素データとして扱っているが、それ以前にグレースケールの画素データに変換しておき、データ補正部106によって背景部分に等しい明度を有するグレースケール画素データに置換してもよい。   According to the above-described embodiment, a wrinkle region can be detected from a read image and pixel data of the detected wrinkle region can be corrected in an achromatic document, so that a high-quality image can be obtained at a low cost. In the above-described embodiment, the image data of the achromatic document is handled as pixel data composed of R value, G value, and B value until just before binarization, but before that, grayscale pixel data is processed. The data correction unit 106 may replace the grayscale pixel data with the same brightness as that of the background portion.

尚、本発明は、上述した各フローによる処理をコンピュータに実行させるためのプログラムや当該プログラムを格納したコンピュータ可読記憶媒体としても適用可能である。
この場合、上述した各フローによる処理を実行するコンピュータプログラムが格納された記憶媒体を、画像読取装置のコンピュータに供給して、当該コンピュータが記憶媒体に格納されたプログラムコードを読み出して上記処理を実行する。また、本発明の上述した各フローによる処理の一部または全てを、ハードウエアによる処理に置き替えてもよい。また、画像読取装置に接続したPC等のホスト装置において、本発明の処理を行ってもよい。この場合は、画像読取装置とホスト装置を含む画像読取システムが本発明の画像読取装置に相当する。
The present invention can also be applied to a program for causing a computer to execute the processing according to each flow described above, and a computer-readable storage medium storing the program.
In this case, a storage medium storing a computer program for executing the processing according to each flow described above is supplied to the computer of the image reading apparatus, and the computer reads the program code stored in the storage medium and executes the above processing. To do. In addition, a part or all of the processing according to each flow of the present invention may be replaced with processing by hardware. Further, the processing of the present invention may be performed in a host device such as a PC connected to the image reading device. In this case, an image reading system including the image reading device and the host device corresponds to the image reading device of the present invention.

本発明に係る実施形態の画像読取装置の機械的構成を示す模式図である。1 is a schematic diagram illustrating a mechanical configuration of an image reading apparatus according to an embodiment of the present invention. 本実施形態の画像読取装置の電気的構成を示すブロック図である。1 is a block diagram illustrating an electrical configuration of an image reading apparatus according to an embodiment. しわ領域で色味が発生する原理を説明する図である。It is a figure explaining the principle which a color generate | occur | produces in a wrinkle area | region. 彩度検出方法を示すフローチャートである。It is a flowchart which shows the saturation detection method. しわ領域検出方法を説明する図である。It is a figure explaining a wrinkle area | region detection method. データ補正方法を示すフローチャートである。It is a flowchart which shows a data correction method. データ補正前後の画素データを例示する図である。It is a figure which illustrates the pixel data before and behind data correction. 2値化処理を示すフローチャートである。It is a flowchart which shows a binarization process. データ補正前後の2値化データを例示する図である。It is a figure which illustrates the binarized data before and behind data correction. ヒストグラム作成方法を示すフローチャートである。It is a flowchart which shows the histogram preparation method. 背景明度及び文字明度の検出方法を説明する図である。It is a figure explaining the detection method of background lightness and character lightness. 装置全体の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the whole apparatus.

符号の説明Explanation of symbols

1、100 画像読取装置
2 ピックアップローラ
3 給送ローラ
4 分離ローラ
5 レジストローラ対
7 搬送ローラ
8 読取ユニット
9 対向部材
10 レジストセンサ
81 上部フレーム
82 下部フレーム
102 画像読取部
103 画像処理部
104 彩度検出部
105 しわ領域判定部
106 データ補正部
107 出力部
108 記憶部
109 制御部
110 バス
200 ラインイメージセンサ
201 光源
DESCRIPTION OF SYMBOLS 1,100 Image reading apparatus 2 Pickup roller 3 Feeding roller 4 Separating roller 5 Registration roller pair 7 Conveying roller 8 Reading unit 9 Opposing member 10 Registration sensor 81 Upper frame 82 Lower frame 102 Image reading unit 103 Image processing unit 104 Saturation detection Unit 105 wrinkle region determination unit 106 data correction unit 107 output unit 108 storage unit 109 control unit 110 bus 200 line image sensor 201 light source

Claims (6)

原稿から画像を読み取る読取手段と、
前記読取手段により読み取った画像データから各画素の彩度値を検出する彩度検出手段と、
前記彩度検出手段により検出した彩度値に基づいて各画素がしわ領域に含まれているか判定する判定手段と、
前記判定手段によりしわ領域に含まれていると判定された画素のデータを補正する補正手段とを有し、
前記判定手段は、無彩色の原稿の画素について、前記彩度検出手段により検出された彩度値が所定の条件を満たす場合、当該画素がしわ領域に含まれていると判定することを特徴とする画像読取装置。
Reading means for reading an image from a document;
Saturation detecting means for detecting the saturation value of each pixel from the image data read by the reading means;
Determination means for determining whether each pixel is included in the wrinkle region based on the saturation value detected by the saturation detection means;
Correction means for correcting data of pixels determined to be included in the wrinkle region by the determination means,
The determination unit determines that a pixel of an achromatic document is included in the wrinkle region when the saturation value detected by the saturation detection unit satisfies a predetermined condition. An image reading apparatus.
前記彩度検出手段は、前記各画素のR,G,B値の最大値と最小値との差分に基づき彩度値を検出することを特徴とする請求項1に記載の画像読取装置。   The image reading apparatus according to claim 1, wherein the saturation detection unit detects a saturation value based on a difference between a maximum value and a minimum value of R, G, and B values of each pixel. 前記彩度値が所定の第1値未満の画素のデータから明度を求めてヒストグラムを作成するとともに、当該作成されたヒストグラムから所定の第1の明度となる背景明度と所定の第2の明度となる文字明度とを検出する明度検出手段を有し、
前記補正手段は、前記彩度値が所定の第2値以上の画素のデータを前記文字明度に対応するデータに置換し、前記彩度値が前記所定の第1値以上で前記所定の第2値未満の画素のデータを前記背景明度に対応するデータに置換することを特徴とする請求項1に記載の画像読取装置。
A histogram is created by calculating the brightness from data of pixels whose saturation value is less than a predetermined first value, and a background brightness that is a predetermined first brightness and a predetermined second brightness from the generated histogram. Lightness detecting means for detecting the character lightness
The correcting unit replaces data of pixels having a saturation value equal to or greater than a predetermined second value with data corresponding to the character brightness, and the saturation value is equal to or greater than the predetermined first value. The image reading apparatus according to claim 1, wherein pixel data less than a value is replaced with data corresponding to the background brightness.
前記補正手段により補正された画像データを2値化する2値化手段をさらに有することを特徴とする請求項1乃至3のいずれか1項に記載の画像読取装置。   4. The image reading apparatus according to claim 1, further comprising a binarizing unit that binarizes the image data corrected by the correcting unit. 原稿から画像を読み取る画像読取装置におけるしわ領域判定方法であって、
前記読み取った画像データから各画素の彩度値を検出する彩度検出工程と、
前記検出した彩度値に基づいて各画素がしわ領域に含まれているか判定する判定工程と、
前記しわ領域に含まれていると判定された画素のデータを補正する補正工程とを有し、
前記判定工程では、無彩色の原稿の画素について、前記検出された彩度値が所定の条件を満たす場合、当該画素がしわ領域に含まれていると判定することを特徴とするしわ領域判定方法。
A wrinkle region determination method in an image reading apparatus for reading an image from a document,
A saturation detection step of detecting a saturation value of each pixel from the read image data;
A determination step of determining whether each pixel is included in the wrinkle region based on the detected saturation value;
A correction step of correcting data of pixels determined to be included in the wrinkle region,
In the determination step, if the detected saturation value satisfies a predetermined condition for a pixel of an achromatic color document, it is determined that the pixel is included in the wrinkle region. .
請求項5に記載のしわ領域判定方法を画像読取装置のコンピュータに実行させるためのプログラム。   A program for causing a computer of an image reading apparatus to execute the wrinkle region determination method according to claim 5.
JP2008335153A 2008-12-26 2008-12-26 Image reader, and wrinkle region determination method in the same, and program Withdrawn JP2010157916A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008335153A JP2010157916A (en) 2008-12-26 2008-12-26 Image reader, and wrinkle region determination method in the same, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008335153A JP2010157916A (en) 2008-12-26 2008-12-26 Image reader, and wrinkle region determination method in the same, and program

Publications (1)

Publication Number Publication Date
JP2010157916A true JP2010157916A (en) 2010-07-15

Family

ID=42575475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008335153A Withdrawn JP2010157916A (en) 2008-12-26 2008-12-26 Image reader, and wrinkle region determination method in the same, and program

Country Status (1)

Country Link
JP (1) JP2010157916A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013090023A3 (en) * 2011-12-15 2013-10-03 Eastman Kodak Company Scanner with exception preview
US8717637B2 (en) 2011-11-30 2014-05-06 Kodak Alaris Inc. Method for scanning documents
US8730529B2 (en) 2011-11-30 2014-05-20 Kodak Alaris Inc. Document scanner
US8749801B2 (en) 2011-10-13 2014-06-10 Kodak Alaris Inc. Determining document characteristics prior to scanning
US9036222B2 (en) 2010-07-20 2015-05-19 Kodak Alaris Inc. Document scanner
JP2016158113A (en) * 2015-02-25 2016-09-01 京セラドキュメントソリューションズ株式会社 Image reading device and image forming apparatus
JP2017017533A (en) * 2015-07-01 2017-01-19 富士ゼロックス株式会社 Image reading device, image forming apparatus, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9036222B2 (en) 2010-07-20 2015-05-19 Kodak Alaris Inc. Document scanner
US8749801B2 (en) 2011-10-13 2014-06-10 Kodak Alaris Inc. Determining document characteristics prior to scanning
US8717637B2 (en) 2011-11-30 2014-05-06 Kodak Alaris Inc. Method for scanning documents
US8730529B2 (en) 2011-11-30 2014-05-20 Kodak Alaris Inc. Document scanner
WO2013090023A3 (en) * 2011-12-15 2013-10-03 Eastman Kodak Company Scanner with exception preview
US8860989B2 (en) 2011-12-15 2014-10-14 Kodak Alaris Inc. Scanner with exception preview
JP2016158113A (en) * 2015-02-25 2016-09-01 京セラドキュメントソリューションズ株式会社 Image reading device and image forming apparatus
JP2017017533A (en) * 2015-07-01 2017-01-19 富士ゼロックス株式会社 Image reading device, image forming apparatus, and program

Similar Documents

Publication Publication Date Title
JP7131415B2 (en) TILT DETECTION DEVICE, READING DEVICE, IMAGE PROCESSING DEVICE, AND TILT DETECTION METHOD
JP4495201B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
US20090268264A1 (en) Image processing apparatus, image scanning apparatus, and image processing method
US10187547B2 (en) Image reading system configured to detect document edge
JP2010157916A (en) Image reader, and wrinkle region determination method in the same, and program
US11069068B2 (en) Image processing apparatus that performs multi-crop processing, method of generating image in units of documents by multi-crop processing and storage medium
US20090109502A1 (en) Image processing apparatus, image scanning apparatus, and image processing method
JP2010166442A (en) Image reader and method of correcting wrinkle area thereof, and program
US8976414B2 (en) Image processing method, image processing apparatus and image forming apparatus including the same, image reading apparatus, and recording medium
JP2017158094A (en) Image reading device, control method, and control program
US11606467B2 (en) Information processing apparatus, output method, and non-transitory computer-readable storage medium which highlights an abnormality before correction
JP2022129816A (en) Image reading apparatus and image forming apparatus
JP6607019B2 (en) Document inclination amount detection apparatus and image processing apparatus
JP4808281B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
JP2016066836A (en) Image reading apparatus, control method of the same, and program
JPH10145556A (en) Image reader
US11146709B2 (en) Image reading apparatus, control method for controlling image reading apparatus, and storage medium
JP6391348B2 (en) Image processing apparatus, image processing method, and program
US12063337B2 (en) Image processing apparatus, scanner, image forming apparatus, data management system, and image processing method
JP2018019236A (en) Image reader and control method therefor
JP4479731B2 (en) Image reading apparatus and image reading processing program
JP3989687B2 (en) Color image processing method, color image processing apparatus, color image processing program, and recording medium
JP2017118349A (en) Image reader and its reading method, and copying apparatus
US20190342462A1 (en) Output information generating method of an image reading device, and an image reading device
JP6591840B2 (en) Image reading apparatus and control method thereof

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120306