JP4787776B2 - Image processing apparatus, image forming apparatus including the same, and image processing method - Google Patents

Image processing apparatus, image forming apparatus including the same, and image processing method Download PDF

Info

Publication number
JP4787776B2
JP4787776B2 JP2007061833A JP2007061833A JP4787776B2 JP 4787776 B2 JP4787776 B2 JP 4787776B2 JP 2007061833 A JP2007061833 A JP 2007061833A JP 2007061833 A JP2007061833 A JP 2007061833A JP 4787776 B2 JP4787776 B2 JP 4787776B2
Authority
JP
Japan
Prior art keywords
image
unit
area
white
read
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007061833A
Other languages
Japanese (ja)
Other versions
JP2008227825A (en
Inventor
平 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007061833A priority Critical patent/JP4787776B2/en
Publication of JP2008227825A publication Critical patent/JP2008227825A/en
Application granted granted Critical
Publication of JP4787776B2 publication Critical patent/JP4787776B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Description

本発明は、原稿面の表面と裏面の双方を読み取る読み取り装置を有する画像処理装置に係わり、特に、画像データ中の文字又は絵柄などを検出して適切な画像処理を施す画像処理装置及びこの画像処理装置を備えた画像形成装置に関する。   The present invention relates to an image processing apparatus having a reading device that reads both the front surface and the back surface of an original, and in particular, an image processing apparatus that detects characters or patterns in image data and performs appropriate image processing, and the image. The present invention relates to an image forming apparatus including a processing device.

従来、読み取られた原稿画像を像域分離して複数の画像領域、例えば、文字領域または絵柄領域、網点領域などに分類し、この分類にしたがって適宜の画像処理を実行して画像品質を向上させる画像処理技術は、種々提案されている。   Conventionally, a scanned original image is separated into image areas and classified into a plurality of image areas, for example, a character area, a picture area, and a halftone dot area, and image quality is improved by executing appropriate image processing according to the classification. Various image processing techniques have been proposed.

原稿の表面と裏面に形成された画像を読み取って、表裏面の画像品質の向上を図る従来技術して、特許文献1には、読み取られた表面画像データと裏面画像データの後処理を同じ後処理部において施すようにすることで表裏面の画像データにおける画質差を低減することが提案されている。   As a conventional technique for improving the image quality of the front and back surfaces by reading images formed on the front surface and the back surface of the document, Japanese Patent Application Laid-Open No. 2005-133867 discloses that post-processing of the read front surface image data and back surface image data is the same. It has been proposed to reduce the difference in image quality between the front and back image data by applying it in the processing unit.

また、特許文献2には、リニアセンサで画像を直接読み取るCIS(Contact Image Sensor)とCCDイメージセンサとを用いて、搬送路への原稿を一度の搬送によって、原稿における表裏両面の画像を読み取ることを可能にすることが開示されている。この特許文献2によると、CISのように複数の受光チップを並べて構成したラインセンサのギャップにおける画像データの補間を的確に行い得ることが示されている。   In Patent Document 2, a CIS (Contact Image Sensor) that directly reads an image with a linear sensor and a CCD image sensor are used to read images on both sides of the document by conveying the document to the conveyance path once. Is disclosed. According to Patent Document 2, it is shown that interpolation of image data in a gap of a line sensor configured by arranging a plurality of light receiving chips like CIS can be performed accurately.

また、特許文献2には、読み取られた原稿画像を像域分離して小さな文字と網点の切り分けを容易にして、画像品質の向上を図る画像処理技術が開示されている。
特開2006−13924号公報 特開2005−217467号公報 特開2003−46772号公報
Patent Document 2 discloses an image processing technique for improving image quality by separating an image area of a read original image to facilitate separation of small characters and halftone dots.
JP 2006-13924 A JP 2005-217467 A JP 2003-46772 A

従来より、原稿画像を読取り、その画像データの特性に基づいて判定を行い、複数の画像領域に分類する像域分離を行う画像処理装置が、例えば上記特許文献3などで知られている。このような従来の画像処理装置では、像域分離の結果にもとづいて画素ごとに適切な画像処理を切り替えて行うことにより、文字・絵柄、有彩・無彩などが混在した原稿において画像品質の向上を図ることができる。   2. Description of the Related Art Conventionally, an image processing apparatus that reads an original image, makes a determination based on the characteristics of the image data, and performs image area separation that classifies the image area into a plurality of image areas is known, for example, in Patent Document 3 described above. In such a conventional image processing apparatus, by switching the appropriate image processing for each pixel based on the result of the image area separation, the image quality can be improved in a document in which characters / pictures, chromatic / achromatic, etc. are mixed. Improvements can be made.

しかしながら、読取り原稿が両面原稿である場合、すなわち、表面と裏面ともに情報が描かれている場合、片方の面の像域分離を行う際に、他方の面からの裏映りの影響を受けて誤判定を起こしてしまうことがある。例えば、図10(a)のように原稿の表面に文字が書いてあり、かつ図10(b)のように原稿の裏面が濃度の高い絵柄である場合を考える。このとき、画像読取装置で読み取った表面の画像は、裏映りの影響を受けて図11のようになる。表面には、実際には文字しか描かれていないにもかかわらず、裏面の絵柄の影響を受けた画像も読み込まれている。その結果、表面で本来文字として判定される領域においても、絵柄と誤判定されてしまうことがある。裏面の影響度は、紙厚が薄いほど、裏面の絵柄の濃度が高いほど大きくなる。   However, when the original to be read is a double-sided document, that is, when information is drawn on both the front and back sides, when separating the image area on one side, there is an error due to the influence of the show-back from the other side. Judgment may occur. For example, let us consider a case where characters are written on the front side of a document as shown in FIG. 10A and the back side of the document has a high-density pattern as shown in FIG. 10B. At this time, the image of the surface read by the image reading device is affected by the show-back and becomes as shown in FIG. Although only characters are actually drawn on the front surface, an image influenced by the pattern on the back surface is also read. As a result, an area that is originally determined as a character on the surface may be erroneously determined as a picture. The degree of influence on the back surface increases as the paper thickness decreases and the back pattern density increases.

このように、原稿画像の片面を読み取ったとき、中間〜低濃度で読み取られたものは裏映りの影響である可能性があるが、それが裏映りの影響で読み取られたものであるのか、それとも表面に元々存在するものであるのかを判断することはできない。特に、紙が薄いものであるときは、裏映りの影響が大きく、誤判定の可能性が高くなる。   Thus, when one side of a document image is read, what is read at medium to low density may be the effect of show-through, but is it read by the effect of show-through? Or it cannot be judged whether it originally exists on the surface. In particular, when the paper is thin, the influence of the show-through is large and the possibility of erroneous determination is increased.

上記特許文献1は、表面のデータを補正するに際して裏面のデータを使用するものではなく、また、特許文献2に示す画像処理も画像データの補間は表裏面の双方のデータを用いて処理するものでなく、また、特許文献3は像域分離を行う際に原稿の片面のみの情報を用いたものであり、上述した裏移りの影響の配慮が欠けている。   The above-mentioned patent document 1 does not use the data on the back surface when correcting the data on the front surface, and the image processing shown in the patent document 2 also performs the interpolation of the image data using both the data on the front and back surfaces. In addition, Patent Document 3 uses information on only one side of an original when performing image area separation, and lacks consideration of the influence of the above-described offset.

本発明は、原稿の一方の面の像域分離を行う際に、一方の面及び他方の面の画像情報の双方を用いて、裏映りの影響による像域分離の誤判定を減らし、高画質な画像を提供することを主たる目的とする。   The present invention reduces image area separation misjudgment due to the influence of show-through and reduces image quality by using both image information on one side and the other side when performing image area separation on one side of a document. The main purpose is to provide simple images.

前記の課題を解決するために、本発明は主として次のような構成を採用する。
原稿の一方の面と他方の面の双方の面を読み取る画像読取装置と、読み取られた原稿画像を複数の画像領域に分類する像域分離装置と、を備え、前記読み取られた原稿画像は、両面原稿の画像であって、前記原稿の一方の面と他方の面に共に読み取られるべき情報が描かれており、前記像域分離装置が分類する複数の画像領域は、少なくとも文字領域と絵柄領域を含み、
前記像域分離装置は、原稿の一方の面の像域分離を行う際に、前記一方の面の読取り画像情報及び前記他方の面の画像情報の双方を用い、前記文字領域の判定を行う場合、前記一方の面及び前記他方の面の画像から読み取った濃度情報に基づいて、原稿の白領域であるか否かを判定する白領域抽出部を有し、前記白領域抽出部で白領域であると判定されたときに文字領域であると前記像域分離装置が判断し、前記一方の面の白領域を抽出する際に、前記他方の面の濃度情報を用いて、前記一方の面の白領域抽出基準を変更し、前記一方の面の白領域抽出基準を変更する際には、前記他方の面の濃度が所定の値よりも高いときには、前記一方の面が白領域であると判定されやすいように白領域抽出基準を変更する構成とする。
In order to solve the above problems, the present invention mainly adopts the following configuration.
An image reading device that reads both one surface of the document and the other surface, and an image area separation device that classifies the read document image into a plurality of image regions, and the read document image includes: An image of a double-sided document, on which information to be read is drawn on one side and the other side of the document, and the plurality of image areas classified by the image area separation device are at least a character area and a picture area Including
When the image area separation device performs image area separation on one side of a document, the character area is determined by using both read image information on the one side and image information on the other side. A white area extraction unit that determines whether the white area of the document is based on density information read from the images of the one side and the other side, and the white area extraction unit When it is determined that there is a character area, the image area separating apparatus determines that the white area of the one surface is extracted, and the density information of the other surface is used to extract the white area of the one surface. When changing the white area extraction criterion and changing the white area extraction criterion of the one surface, if the density of the other surface is higher than a predetermined value, the one surface is determined to be a white region. The white region extraction reference is changed so that it is easily performed .

また、前記画像処理装置において、前記一方の面の白領域抽出基準を変更するのは、前記一方の面の濃度がある特定の中間濃度範囲にあるときだけ変更する構成とする。


Moreover, Te the image processing apparatus odor, said to change the white area extracted reference on one surface, a configuration in which change only when a specific intermediate density range of the concentration of the one surface.


本発明によれば、原稿の一方(片方)の面の像域分離を行う際に、当該面及びその他方(反対)面の画像情報の双方を用いることにより、裏映りの影響による像域分離の誤判定を減らし、高画質な画像を提供することができる。さらに、特に、文字と絵柄の像域分離誤判定を減らすことができる。   According to the present invention, when image area separation is performed on one (one) surface of an original, both image information on the surface and the other (opposite) surface is used, so that image region separation due to the effect of show-through is achieved. It is possible to provide a high-quality image. Furthermore, in particular, it is possible to reduce erroneous image area separation determination between characters and pictures.

本発明の実施形態に係る画像処理装置について、図1〜図9を参照しながら以下詳細に説明する。図1は本発明の実施形態に係るデジタル式フルカラー画像処理装置の概略構成を示すブロック図である。図2は本実施形態に係る画像処理装置における、第一画像読取部及び第二画像読み取り部から画像受け取り部と像域分離前処理部を経てメモリ制御部に至るまでの画像フローを説明する図である。図3は本実施形態に係る画像処理装置における像域分離前処理部の詳細構成を示す図である。図4は本実施形態に関する像域分離前処理部の高濃度パターンマッチング部で参照する5×5画素を示す図である。   An image processing apparatus according to an embodiment of the present invention will be described in detail below with reference to FIGS. FIG. 1 is a block diagram showing a schematic configuration of a digital full-color image processing apparatus according to an embodiment of the present invention. FIG. 2 is a diagram illustrating an image flow from the first image reading unit and the second image reading unit to the memory control unit through the image receiving unit and the image area separation preprocessing unit in the image processing apparatus according to the present embodiment. It is. FIG. 3 is a diagram showing a detailed configuration of the image area separation pre-processing unit in the image processing apparatus according to the present embodiment. FIG. 4 is a diagram showing 5 × 5 pixels referred to in the high density pattern matching unit of the image area separation preprocessing unit according to the present embodiment.

また、図5は本実施形態に係る画像処理装置におけるスキャナ補正部の詳細構成を示す図である。図6は本実施形態に係る画像処理装置におけるプリンタ補正部の詳細構成を示す図である。図7は本実施形態に関するスキャナ補正部における像域分離部の詳細構成を示す図である。図8は本実施形態に関する像域分離部における白領域抽出部の詳細構成を示す図である。図9は本発明の実施形態に係るデジタル式フルカラー画像処理装置の他の構成例を示すブロック図である。   FIG. 5 is a diagram showing a detailed configuration of the scanner correction unit in the image processing apparatus according to the present embodiment. FIG. 6 is a diagram showing a detailed configuration of the printer correction unit in the image processing apparatus according to the present embodiment. FIG. 7 is a diagram showing a detailed configuration of the image area separation unit in the scanner correction unit according to the present embodiment. FIG. 8 is a diagram showing a detailed configuration of the white area extraction unit in the image area separation unit according to the present embodiment. FIG. 9 is a block diagram showing another configuration example of the digital full-color image processing apparatus according to the embodiment of the present invention.

図1において、フルカラー複写機として動作する場合、第一画像読取部1及び第二画像読取部2は原稿からR(レッド)、G(グリーン)、B(ブルー)に色分解した画像データを読み取り、この画像データ(アナログ信号)をデジタルデータに変換して出力する。ここで、生成したそれぞれの画像データは、画像データ受取り部3に入力される。   In FIG. 1, when operating as a full-color copying machine, the first image reading unit 1 and the second image reading unit 2 read image data color-separated into R (red), G (green), and B (blue) from a document. The image data (analog signal) is converted into digital data and output. Here, each of the generated image data is input to the image data receiving unit 3.

受け取られた画像データは、メモリ制御部5と像域分離前処理部4に入力される。像域分離前処理部4では、後述するスキャナ補正部6に含まれる像域分離部65(図5を参照)で像域分離を行う際に参照するデータX1,X2を生成する(図2、図3を参照)。   The received image data is input to the memory control unit 5 and the image area separation preprocessing unit 4. The image area separation pre-processing unit 4 generates data X1 and X2 to be referred to when image area separation is performed by an image area separation unit 65 (see FIG. 5) included in the scanner correction unit 6 described later (FIG. 2, FIG. 2). (See FIG. 3).

メモリ制御部5では、像域分離前処理部4で生成したデータX1,X2と、第一画像読取部1及び第二画像読取部2で読み取った画像データを同期させつつメモリに蓄積する。メモリ制御部5では、大量に画像データを扱う目的で図示しないストレージを持つ。このストレージに画像データ及び像域分離前処理部4で生成したデータX1,X2を蓄え、次の入力画像を受け取ったり、或いはハードコピーを行なうために蓄積してあった画像データをスキャナ補正部6に送出したりする。このとき、図示しない画像メモリコントロールを用いて、画像データの蓄積処理とストレージからの画像データの取り出しをコントロールする。本実施形態では、第一読取り手段1からの画像データを先に処理して、次に、第二読取り手段2からの画像データを処理する。連続して読み取りを行う場合は、第一画像読取部1で読み取られた画像データと第二画像読取部2で読み取られた画像データを、交互にスキャナ補正部6に送出することになる。   In the memory control unit 5, the data X1 and X2 generated by the image area separation preprocessing unit 4 and the image data read by the first image reading unit 1 and the second image reading unit 2 are stored in the memory while being synchronized. The memory control unit 5 has a storage (not shown) for the purpose of handling a large amount of image data. The image data and the data X1 and X2 generated by the image area separation preprocessing unit 4 are stored in the storage, and the next input image is received or the image data stored for hard copy is stored in the scanner correction unit 6. Or send it to. At this time, image data storage processing and image data extraction from the storage are controlled using an image memory control (not shown). In the present embodiment, the image data from the first reading unit 1 is processed first, and then the image data from the second reading unit 2 is processed. When reading continuously, the image data read by the first image reading unit 1 and the image data read by the second image reading unit 2 are alternately sent to the scanner correction unit 6.

スキャナ補正部6は、後で述べるように、スキャナで読み取ったRGB画像データ(デジタルデータ)について、スキャナγ補正処理をしたり、画像領域を文字・線画や絵柄などに分類(像域分離)したり、像域分離の判定結果に応じて、画像の文字部は強調し、画像の絵柄部は平滑化するフィルタ処理をしたり、などの画像処理を施してスキャナの特性を補正する。   As will be described later, the scanner correction unit 6 performs scanner γ correction processing on the RGB image data (digital data) read by the scanner and classifies the image area into characters, line drawings, patterns, etc. (image area separation). Depending on the determination result of image area separation, image processing such as emphasizing the character portion of the image and smoothing the image portion of the image is performed to correct the characteristics of the scanner.

圧縮処理部7は、スキャナ補正後の多値画像データを圧縮処理して、汎用バス8にデータを送出する。圧縮後の画像データは汎用バス8を通って、コントローラ9に送られる。コントローラ9は図示しない半導体メモリを持ち、送られたデータを蓄積するようになっている。蓄積されたデータは随時大容量の記憶装置であるハードディスクドライブ(HDD)10に書き込まれる。これはプリントアウト時に用紙が詰まり、出力が正常に終了しなかった場合でも再び原稿を読み直すのを避けるためや、複数の原稿画像データを並べ替える電子ソートを行うためや、読み取った原稿を蓄積しておき、必要なときに再出力するためである。本実施形態では画像データに対して圧縮を施すとしたが、汎用バス8の帯域が十分に広く、蓄積するHDDの容量が大きければ、非圧縮の状態でデータを扱っても良い。   The compression processing unit 7 compresses the multi-valued image data after the scanner correction and sends the data to the general-purpose bus 8. The compressed image data is sent to the controller 9 through the general-purpose bus 8. The controller 9 has a semiconductor memory (not shown) and accumulates sent data. The accumulated data is written to a hard disk drive (HDD) 10 which is a large capacity storage device as needed. This is because paper is jammed at the time of printout, so that it is possible to avoid re-reading the original even if the output does not end normally, to perform electronic sorting to rearrange multiple original image data, and to store the read original This is to re-output when necessary. In this embodiment, the image data is compressed. However, if the bandwidth of the general-purpose bus 8 is sufficiently wide and the capacity of the HDD to be stored is large, the data may be handled in an uncompressed state.

次に、コントローラ9は、HDD10の画像データを、汎用バス8を介して伸張処理部13に送出する。伸張処理部13は圧縮処理されていた画像データを元の多値データに伸張し、プリンタ補正部14に送出する。プリンタ補正部14では、プリンタγ補正処理、階調処理が行われ、プロッタ15の明暗特性の補正処理やプロッタ15の階調特性及び像域分離結果に応じた誤差拡散処理やディザ処理等による画像データの量子化が行われる。プロッタ15はレーザービーム書き込みプロセスを用いた転写紙印字ユニットで、画像データを感光体に潜像として描画し、トナーによる作像・転写処理後、転写紙にコピー画像を形成する。   Next, the controller 9 sends the image data of the HDD 10 to the decompression processing unit 13 via the general-purpose bus 8. The decompression processing unit 13 decompresses the compressed image data to the original multi-value data and sends it to the printer correction unit 14. The printer correction unit 14 performs printer γ correction processing and gradation processing, and performs image correction processing, dithering processing, etc. according to the gradation characteristics of the plotter 15 and the gradation characteristics and image area separation results of the plotter 15. Data quantization is performed. The plotter 15 is a transfer paper printing unit using a laser beam writing process. The plotter 15 draws image data as a latent image on a photoconductor, and forms a copy image on the transfer paper after image formation / transfer processing with toner.

ネットワークを介してPCに画像データを配信する配信スキャナとして動作する場合は、圧縮処理されるまでは複写機として動作する場合と同様の処理フローとなる。その後、コントローラ9に画像が送られる。コントローラ9ではフォーマット処理が行われ、フォーマット処理では、JPEGやTIFF、BMP形式への汎用画像フォーマット変換を行う。その後、画像データはNIC(ネットワーク・インタフェース・コントローラ)11を介して外部PC端末12に配信される。   When operating as a distribution scanner that distributes image data to a PC via a network, the processing flow is the same as when operating as a copier until compression processing is performed. Thereafter, an image is sent to the controller 9. The controller 9 performs format processing. In the format processing, general-purpose image format conversion to JPEG, TIFF, or BMP format is performed. Thereafter, the image data is distributed to the external PC terminal 12 via the NIC (network interface controller) 11.

図1に示す第一画像読取部1及び第二画像読取部2は、例えば、上記の特許文献2に開示されているような周知の原稿送り装置及び画像読取装置を用いれば実現できる。仮に、特許文献2に示す装置を採用すると、CCDイメージセンサにより原稿の第1面の読み取りを行う原稿の搬送時に、同時(時間の完全一致ではなく、同一の原稿搬送時程度の意味)にCIS(Contact Image Sensor)によって、原稿の第2面の読み取りを行うことが可能である。即ち、CCDイメージセンサとCISとを用いて、搬送路への原稿の一度の搬送で、この原稿における表裏両面の画像を読み取ることができる。   The first image reading unit 1 and the second image reading unit 2 shown in FIG. 1 can be realized, for example, by using a known document feeding device and image reading device as disclosed in Patent Document 2 above. If the apparatus shown in Patent Document 2 is adopted, CIS is simultaneously performed (meaning about the time of the same original conveyance, not the exact time coincidence) at the time of conveyance of the original for reading the first side of the original by the CCD image sensor. The second side of the document can be read with (Contact Image Sensor). That is, by using the CCD image sensor and the CIS, the images on both the front and back sides of the original can be read by one conveyance of the original to the conveyance path.

本実施形態では、CCDイメージセンサにより原稿の第1面の読み取りを行う部分が第一画像読取部1に相当し、CISを用いて第2面の読み取りを行う部分が、第二画像読取部2に相当する。ここで、CISとは、近年、装置の小型化を目的として、形状の小さいLED(Light Emitting Diode:発光ダイオード)を光源に利用し、レンズを介してリニアセンサで画像を直接読み取るCIS(Contact Image Sensor)と呼ばれるものである。カラー画像を読み込む場合には、LEDにR(赤)、G(緑)、B(青)の3色のLED光源を組み合わせ、ラインセンサユニットとしてRGB3色用の3列一組のセンサを用いれば良い。   In the present embodiment, the portion that reads the first surface of the document by the CCD image sensor corresponds to the first image reading portion 1, and the portion that reads the second surface using the CIS is the second image reading portion 2. It corresponds to. Here, CIS is a CIS (Contact Image) that uses an LED (Light Emitting Diode) having a small shape as a light source and directly reads an image with a linear sensor via a lens for the purpose of downsizing the apparatus. (Sensor). When reading a color image, a combination of LED light sources of three colors R (red), G (green), and B (blue) is used for the LED, and a set of three columns for RGB three colors is used as the line sensor unit. good.

次に、図2を用いて、第一画像読取部1及び第二画像読取部2から、画像受け取り部3と像域分離前処理部4を経てメモリ制御部5に至るまでの画像フローを説明する。第一画像読取部1及び第二画像読取部2からは、フルカラーRGB画像が読み取られる。ここでは、第一画像読取部1で読み取られたデータを(r1,g1,b1)、第二画像読取部2で読み取られた画像データを(r2,g2,b2)とする。これらの画像データが画像受け取り部3に入ってくる。このデータは、メモリ制御部5に送出されるが、像域分離前処理部4にも送出される。   Next, an image flow from the first image reading unit 1 and the second image reading unit 2 to the memory control unit 5 through the image receiving unit 3 and the image area separation preprocessing unit 4 will be described with reference to FIG. To do. A full color RGB image is read from the first image reading unit 1 and the second image reading unit 2. Here, the data read by the first image reading unit 1 is (r1, g1, b1), and the image data read by the second image reading unit 2 is (r2, g2, b2). These image data enter the image receiving unit 3. This data is sent to the memory control unit 5, but is also sent to the image area separation preprocessing unit 4.

像域分離前処理部4においては、後工程に存在する像域分離部65(図5を参照)が参照するデータX1,X2が生成される。第一画像読取部1で読み取られたデータを元に生成されるデータをX1、第二画像読取部2で読み取られたデータを元に生成されるデータをX2とする。像域分離部65では、第一画像読取部1で読み取られたデータの像域分離を行う際に、X2を参照し、第二画像読取部2で読み取られたデータの像域分離を行う際に、X1を参照する。これらの参照により、原稿の片側(一方)の面の像域分離を行う際に、その反対側(他方)の面の情報を参照することが出来るようになる。   In the image area separation pre-processing unit 4, data X1 and X2 that are referred to by the image area separation unit 65 (see FIG. 5) existing in the subsequent process are generated. Data generated based on the data read by the first image reading unit 1 is X1, and data generated based on the data read by the second image reading unit 2 is X2. The image area separation unit 65 refers to X2 when performing image area separation of the data read by the first image reading unit 1, and performs image area separation of the data read by the second image reading unit 2. Reference is made to X1. With these references, when image area separation is performed on one side (one side) of the document, information on the opposite side (the other side) can be referred to.

続いて、図3を用いて、像域分離前処理部4の詳細を説明する。以下の説明では、画像データの数値が大きい程、濃い画像であるものとして説明を行う。像域分離前処理部4は、裏面用二値化部41、高濃度パターンマッチング部42、膨張部43から構成される。   Next, details of the image area separation preprocessing unit 4 will be described with reference to FIG. In the following description, it is assumed that the larger the numerical value of the image data, the darker the image. The image area separation preprocessing unit 4 includes a back surface binarization unit 41, a high density pattern matching unit 42, and an expansion unit 43.

裏面用二値化部41では、RGB信号(r1,g1,b1)全てが閾値r_th1よりも大きいときにアクティブ信号r_h1を発生する。また、RGB信号(r2,g2,b2)全てが閾値r_th2よりも大きいときにアクティブ信号r_h2を発生する。高濃度パターンマッチング部42では、図4に示すような5×5画素を参照し、閾値r_th1が参照する5×5画素内で全てオン(ON)になっているときに、注目画素(図4の中央画素)にアクティブ信号R_H1を発生する。閾値r_th2が参照する5×5画素内で全てオン(ON)になっているときに、注目画素にアクティブ信号R_H2を発生する。   The back surface binarization unit 41 generates an active signal r_h1 when all the RGB signals (r1, g1, b1) are larger than the threshold value r_th1. Further, the active signal r_h2 is generated when all the RGB signals (r2, g2, b2) are larger than the threshold value r_th2. The high density pattern matching unit 42 refers to 5 × 5 pixels as shown in FIG. 4, and when all of the 5 × 5 pixels referred to by the threshold r_th1 are on (ON), the target pixel (FIG. 4). Active signal R_H1 is generated at the center pixel). When all the 5 × 5 pixels referred to by the threshold value r_th2 are on (ON), the active signal R_H2 is generated for the target pixel.

膨張部43では、注目画素でアクティブ信号R_H1が発生している場合に、それを中心として7×7画素の範囲にアクティブ信号X1を発生させる。また、注目画素でアクティブ信号R_H2が発生している場合に、それを中心として7×7画素の範囲にアクティブ信号X2を発生させる。X1,X2は原稿の高濃度領域を検出する。高濃度部分の反対面(他方面)では裏映りが発生する確率が高いので、そのような領域を、後述する像域分離部65で参照することになる。   When the active signal R_H1 is generated in the target pixel, the expansion unit 43 generates the active signal X1 in the range of 7 × 7 pixels centering on the active signal R_H1. Further, when the active signal R_H2 is generated in the target pixel, the active signal X2 is generated in the range of 7 × 7 pixels with the center as the active signal R_H2. X1 and X2 detect a high density area of the document. Since there is a high probability of show-through on the opposite surface (the other surface) of the high density portion, such an area is referred to by the image area separation unit 65 described later.

次に、図5を用いて、スキャナ補正部6の構成について以下説明する。スキャナ補正部6は、スキャナから入力したRGB画像データに基づき、原稿の画像領域(像域)が文字領域か、網点領域か、絵柄領域か、などを判定する像域分離部65と、スキャナの特性によるRGB画像データのデジタル値を、明度に比例するデジタル値に変換するスキャナγ補正部61と、像域分離の結果に基づいて画像データに鮮鋭化処理をかけたり、平滑化処理をかけたりするフィルタ処理部62と、RGBに色分解された画像データを、それとは異なる色空間であるC(シアン)、M(マゼンダ)、Y(イエロー)、K(Bk)(ブラック)の記録色情報を含むカラー画像データに変換する色補正部63と、入力画像における主走査方向の大きさを拡大・縮小して出力する変倍処理部64と、から構成される。なお、像域分離部65の機能、動作の詳細については後述する。   Next, the configuration of the scanner correction unit 6 will be described below with reference to FIG. The scanner correction unit 6 includes an image area separation unit 65 that determines whether an image area (image area) of a document is a character area, a halftone dot area, a pattern area, or the like based on RGB image data input from the scanner, and a scanner. A scanner γ correction unit 61 that converts a digital value of RGB image data based on characteristics of the image into a digital value proportional to lightness, and a sharpening process or a smoothing process is applied to the image data based on the image area separation result. Filter processing unit 62 and image data color-separated into R, G, and B, C (cyan), M (magenta), Y (yellow), and K (Bk) (black) recording colors, which are different color spaces. It comprises a color correction unit 63 that converts color image data including information, and a scaling unit 64 that outputs the input image with the size in the main scanning direction enlarged or reduced. The details of the function and operation of the image area separation unit 65 will be described later.

次に、図6を用いて、プリンタ補正部14の構成について以下に説明する。プリンタ補正部14は、図1に示す伸張処理部13を経たCMYKの画像データに対して、プロッタの周波数特性に応じてγ補正を行うプリンタγ補正部71と、ディザ処理・誤差拡散処理などの量子化を行う階調処理部72と、を備えており、プリンタ特性が補正されたCMYK画像データを出力する。この出力データがプロッタ15に送られ、プロッタ15は送られてきた画像データに基づいて作像を行い、作像された画像を用紙上に転写することで画像形成を行う。   Next, the configuration of the printer correction unit 14 will be described with reference to FIG. The printer correction unit 14 includes a printer γ correction unit 71 that performs γ correction on the CMYK image data that has undergone the expansion processing unit 13 illustrated in FIG. 1 according to the frequency characteristics of the plotter, and a dither process and an error diffusion process. A gradation processing unit 72 that performs quantization, and outputs CMYK image data in which printer characteristics are corrected. This output data is sent to the plotter 15, and the plotter 15 creates an image based on the sent image data, and forms the image by transferring the created image onto a sheet.

プリンタγ補正部71は、像域分離の判定結果が文字判定領域である場合は、コントラストを付けるようなγ補正を行い、像域分離の判定結果が絵柄である場合は、階調性の再現を重視するようなγ補正を行う。階調処理部72は、像域分離の判定結果が文字判定領域である場合は、文字鮮鋭性を重視するような中間調処理を行い、像域分離の判定結果が絵柄である場合は、画像の滑らかさを重視するような中間調処理を行う。   The printer γ correction unit 71 performs γ correction to add contrast when the determination result of the image area separation is a character determination area, and reproduces gradation when the determination result of the image area separation is a pattern. Γ correction that places importance on The gradation processing unit 72 performs halftone processing that places importance on character sharpness when the determination result of the image area separation is a character determination area, and when the determination result of the image area separation is a pattern, A halftone process that emphasizes smoothness is performed.

次に、図5に示したスキャナ補正部6に含まれる像域分離部65について、図7を参照しながら説明する。図7によると、像域分離部65は、フィルタ部81、エッジ抽出部82、網点抽出部83、白領域抽出部84、色判定部85、総合判定部86から構成される。各々の構成要素については、白領域抽出部84以外は既知の上記特許文献3(特開2003−46772号公報)に開示されているものと全く同一のものである。   Next, the image area separation unit 65 included in the scanner correction unit 6 shown in FIG. 5 will be described with reference to FIG. As shown in FIG. 7, the image area separation unit 65 includes a filter unit 81, an edge extraction unit 82, a halftone dot extraction unit 83, a white region extraction unit 84, a color determination unit 85, and an overall determination unit 86. About each component, except the white area extraction part 84, it is completely the same as what is disclosed by the said patent document 3 (Unexamined-Japanese-Patent No. 2003-46772) known.

フィルタ部81は、主に文字のエッジの抽出のために、スキャナが発生するG画像データを補正する。スキャナで読み取ったデータはレンズなどの性能でボケていることがあるのでエッジ強調フィルタをかける。ただ、複写機に広く普及している階調表現のための万線パターンを強調しない必要がある。現在処理対象の画素である注目画素の、フィルタ部81で処理した画像データ値として、エッジ抽出部82と白領域抽出部84に与えられる。   The filter unit 81 corrects the G image data generated by the scanner mainly for extracting the edge of the character. Since the data read by the scanner may be blurred due to the performance of the lens, an edge enhancement filter is applied. However, it is necessary not to emphasize the line pattern for gradation expression widely used in copying machines. The image data value processed by the filter unit 81 of the pixel of interest that is the current pixel to be processed is given to the edge extraction unit 82 and the white area extraction unit 84.

文字領域は高レベル濃度の画素(黒画素)と低レベル濃度の画素(白画素)が多く、且つエッジ部分ではこれらの黒画素及び白画素が連続している。エッジ抽出部82はこのような黒画素及び白画素及び白画素それぞれの連続性に基づいて文字エッジを検出する。   The character region has many high-level density pixels (black pixels) and low-level density pixels (white pixels), and these black pixels and white pixels are continuous at the edge portion. The edge extraction unit 82 detects a character edge based on the continuity of such black pixels, white pixels, and white pixels.

網点抽出部83は、G画像データを用いて所定の大きさの二次元局所領域内の画素濃度情報から、網点ドットの一部を形成する画素(網点ピーク画素)を検出する第1網点ピーク検出器と、B画像データを用いて網点ピーク検出する、第1網点ピーク検出器と同一機能を有する第2網点ピーク検出器(第1網点ピーク検出器ではG画像データを用いるので殆どの色に対して反応するが、Yに対しては反応しないので、B画像データを使用してYの網点ピークを検出することを目的とする)と、100線以下で65線(新聞の網点)以上の検出を目的とする第3網点ピーク検出器と、第1網点ピーク検出器と第2網点ピーク検出器のどちらかにより検出された山と谷の網点ピーク画素を所定の大きさの二次元の小領域毎に計数してその計数値に基づいて網点領域と判定する第1網点領域検出部と、第3網点ピーク検出器の検出結果が入力されて網点領域を判定する第2網点領域検出部と、第1と第2の網点領域検出部で判定結果を一時保存する一時記憶手段と、から構成される。本実施形態ではこの構成に限らず、網点を抽出する構成のものであれば良い。   The halftone dot extracting unit 83 detects the pixels (halftone peak pixels) that form part of the halftone dots from the pixel density information in the two-dimensional local region having a predetermined size using the G image data. A halftone dot detector and a second halftone peak detector that detects halftone dots using B image data and has the same function as the first halftone peak detector (G image data in the first halftone peak detector) Because it is used, it reacts to most colors, but does not react to Y. Therefore, it aims to detect halftone dot peaks of Y using B image data) and 65 below 100 lines. A third halftone peak detector for detecting lines (newspaper halftone dots) or more, and a peak and valley net detected by either the first halftone peak detector or the second halftone peak detector. The point peak pixel is counted for each two-dimensional small area of a predetermined size and the count value is A first halftone dot area detector that determines a halftone dot area, a second halftone dot area detector that receives a detection result of the third halftone dot peak detector and determines a halftone dot area, And a temporary storage means for temporarily storing the determination result by the halftone dot area detection unit. The present embodiment is not limited to this configuration, and any configuration that extracts halftone dots may be used.

色判定部85について説明する。原稿中の色(有彩)画素や黒(無彩)画素を検出する際には、R,G,Bの相対的な読み取りずれが、各色画像データのサンプリングや機械的精度のために存在する。有彩色領域を見つけるためのものである色判定部85は、色相分割部で入力データR,G,BをC,M,Y及び色判定用W(白)の信号に変換し、色画素判定するものである。   The color determination unit 85 will be described. When detecting color (chromatic) pixels and black (achromatic) pixels in a document, there is a relative reading shift of R, G, and B due to sampling of each color image data and mechanical accuracy. . The color determination unit 85 for finding a chromatic color region converts the input data R, G, B into C, M, Y and W (white) signals for color determination in the hue division unit, and performs color pixel determination. To do.

白領域抽出部84は、後述の図8を用いて説明するが、大きく分けて、2値化部とRGB白抽出部からなり、2値化部はフィルタ部81の画像濃度データ(G画像データ)のエッジ強調出力を閾値で2値化して、白データの生成のための2値化白判定信号を発生する。RGB白抽出部は、RGB白地検出、色画素検出、グレー画素検出を行って、画像データが白領域かグレー領域(中濃度領域)か否かを判定するものである。   The white area extraction unit 84 will be described with reference to FIG. 8 to be described later. Broadly speaking, the white region extraction unit 84 includes a binarization unit and an RGB white extraction unit. The binarization unit includes image density data (G image data of the filter unit 81). 2) is binarized with a threshold value to generate a binarized white determination signal for generating white data. The RGB white extraction unit performs RGB white background detection, color pixel detection, and gray pixel detection to determine whether the image data is a white area or a gray area (medium density area).

像域分離部65内の総合判定部86は、文字判定部、文字なか判定部、膨張処理部およびデコード部からなり、文字判定部では、エッジ抽出部82の結果がエッジ有りで、網点抽出部83の結果が網点無しで、白領域抽出部84の結果が白領域有りのときは、文字エッジと判定する。そうでないときには非文字エッジ(絵柄または文字なか)と判定し、その結果を膨張処理部に出力する。膨張処理することによって分離結果が異なって文字の領域が薄くなることがなくなる。デコード部が最終的に出力するC/P信号は文字エッジ信号であり、C/P信号が1のとき文字エッジ領域である。色判定部85からはB/C信号が出力され、カラー原稿か白黒原稿かの判定に参照する信号である。   The overall determination unit 86 in the image area separation unit 65 includes a character determination unit, a character determination unit, an expansion processing unit, and a decoding unit. In the character determination unit, the result of the edge extraction unit 82 is an edge, and halftone extraction is performed. When the result of the part 83 is no halftone dot and the result of the white area extracting part 84 is a white area, it is determined that the character edge. Otherwise, it is determined as a non-character edge (a pattern or a character), and the result is output to the expansion processing unit. By performing the expansion process, the separation result is different and the character area is not thinned. The C / P signal finally output by the decoding unit is a character edge signal. When the C / P signal is 1, it is a character edge region. A B / C signal is output from the color determination unit 85 and is a signal that is referred to when determining whether the original is a color document or a monochrome document.

像域分離部65は、出力として像域分離信号C/P信号及びB/C信号を発生する。C/P信号は2ビット信号であり、C/P=0の場合は絵柄領域、C/P=1の場合は文字領域、C/P=2の場合は網点領域、C/P=3の場合は低線数網点領域であることを意味する。ここで、文字領域であるためには、白領域であることが必要条件となっている。B/C信号は1ビット信号であり、B/C=0の場合は無彩領域、B/C=1の場合は有彩領域であることを示す。   The image area separation unit 65 generates an image area separation signal C / P signal and a B / C signal as outputs. The C / P signal is a 2-bit signal. When C / P = 0, the picture area, when C / P = 1, the character area, when C / P = 2, the halftone area, C / P = 3. In the case of, it means a low line number halftone dot region. Here, in order to be a character region, a white region is a necessary condition. The B / C signal is a 1-bit signal. When B / C = 0, it indicates an achromatic region, and when B / C = 1, it indicates a chromatic region.

次に、本実施形態に関する像域分離部65が既知の上記特許文献3(特開2003−46772号公報)に開示されている像域分離部と異なる点は、像域分離部の内部構成である白領域抽出部であるが、本実施形態に関する白領域抽出部84について、図8を用いて以下説明する。   Next, the image area separation unit 65 relating to the present embodiment is different from the known image area separation unit disclosed in Patent Document 3 (Japanese Patent Laid-Open No. 2003-46772) in the internal configuration of the image area separation unit. A white region extracting unit 84 relating to the present embodiment, which is a certain white region extracting unit, will be described below with reference to FIG.

本実施形態に関する白領域抽出部84は、RGB白地抽出部93、色画素検出部92、グレー画素検出部91、グレーパターンマッチング部95、グレー膨張部96、白判定部97、白パターンマッチング部98、白パターン補正部99、白膨張部100、白収縮部101、白補正部102、判定部103、2値化部95から構成される。この構成の内で、2値化部94とRGB白地抽出部93以外は、上記特許文献3に開示されているものと同一のものである。本実施形態に関する白領域抽出部84の上述した各構成要素の機能、動作は、2値化部94とRGB白地抽出部93を除いて、上記特許文献3に記載した通りのものであるが、その概略を以下説明する。   The white area extraction unit 84 according to the present embodiment includes an RGB white background extraction unit 93, a color pixel detection unit 92, a gray pixel detection unit 91, a gray pattern matching unit 95, a gray expansion unit 96, a white determination unit 97, and a white pattern matching unit 98. , White pattern correction unit 99, white expansion unit 100, white contraction unit 101, white correction unit 102, determination unit 103, and binarization unit 95. In this configuration, the components other than the binarization unit 94 and the RGB white background extraction unit 93 are the same as those disclosed in Patent Document 3. The functions and operations of the above-described components of the white area extraction unit 84 related to the present embodiment are as described in Patent Document 3 except for the binarization unit 94 and the RGB white background extraction unit 93. The outline will be described below.

図8に示す、グレー画素検出部91、色画素検出部92、RGB白地抽出部93から構成されるRGB白抽出部の各構成要素にR,G,Bの各画像データが入力される。グレー画素検出部91の出力はグレーパターンマッチング部95に入力され、グレーパターンマッチングのパターンマッチング結果はグレー膨張部96に入力され、膨張処理を行った後に判定部103に入力される。また、白判定部97には色画素検出部92、RGB白地抽出部93、2値化部94の出力が入力され、白判定部97の判定結果は白パターンマッチング部98に入力され、そのパターンマッチング結果は、白パターン補正部99および白補正部102に入力される。白パターン補正部99の補正結果は白膨張部100および白収縮部101で処理された後に判定部103に入力され、また、白補正部102の処理結果はそのまま判定部103に入力される。色画素検出部92は薄い色を白背景と判定しないようにするために、色画素(色地)を検出する。   R, G, and B image data are input to each component of the RGB white extraction unit that includes the gray pixel detection unit 91, the color pixel detection unit 92, and the RGB white background extraction unit 93 shown in FIG. The output of the gray pixel detection unit 91 is input to the gray pattern matching unit 95, the pattern matching result of the gray pattern matching is input to the gray expansion unit 96, and is input to the determination unit 103 after performing expansion processing. In addition, the outputs of the color pixel detection unit 92, the RGB white background extraction unit 93, and the binarization unit 94 are input to the white determination unit 97, and the determination result of the white determination unit 97 is input to the white pattern matching unit 98. The matching result is input to the white pattern correction unit 99 and the white correction unit 102. The correction result of the white pattern correction unit 99 is input to the determination unit 103 after being processed by the white expansion unit 100 and the white contraction unit 101, and the processing result of the white correction unit 102 is input to the determination unit 103 as it is. The color pixel detection unit 92 detects a color pixel (color background) so as not to determine a light color as a white background.

また、白パターンマッチング部98、白パターン補正部99、白膨張部100、白収縮部101および白補正部102は、白と白でない境界領域を検出するための構成であり、白補正部102の出力は線幅を示し、白収縮部101の出力は白領域を示し、グレー膨張部96の出力は中濃度であることを示す。判定部103では、これら3つの出力に対して優先順位を付けて判定し、判定結果を後段に出力する。この場合、優先順位1は白補正部102からの線幅情報であり、優先順位2はグレー膨張部96からの中濃度情報であり、優先順位3は白収縮部101からの白領域情報である。   The white pattern matching unit 98, the white pattern correction unit 99, the white expansion unit 100, the white contraction unit 101, and the white correction unit 102 are configured to detect a border region that is not white and white. The output indicates the line width, the output of the white contraction portion 101 indicates a white area, and the output of the gray expansion portion 96 indicates medium density. The determination unit 103 determines the priority by assigning priority to these three outputs, and outputs the determination result to the subsequent stage. In this case, priority order 1 is line width information from the white correction unit 102, priority order 2 is medium density information from the gray expansion unit 96, and priority order 3 is white area information from the white shrinking unit 101. .

2値化部94の基本的な機能は、フィルタ部81の画像濃度データ(G画像データ)のエッジ強調出力を、閾値thwsbで2値化して、白パターンマッチング部98が参照する白データの生成のための2値化白判定信号を発生する。ここで、エッジ強調出力は、例えば、0(濃度の無い白)から255の256階調であり、閾値thwsbを50とすると、エッジ強調出力の値が閾値thwsb=50より小さければ2値化部94が「2値化白」と判定し、2値化白判定信号「1」を発生する。   The basic function of the binarization unit 94 is to binarize the edge emphasis output of the image density data (G image data) of the filter unit 81 with a threshold value thwsb, and generate white data that the white pattern matching unit 98 refers to A binarized white determination signal is generated for Here, the edge emphasis output is, for example, 256 gradations from 0 (white without density) to 255, and when the threshold thwsb is 50, if the value of the edge emphasis output is smaller than the threshold thwsb = 50, the binarization unit 94 determines “binarized white” and generates a binarized white determination signal “1”.

本実施形態における2値化部94においては、閾値thwsbの値を、X1またはX2信号がアクティブか否かによって切り替える。すなわち、第一画像読取部1で読み取ったRGB画像(r1、g1、b1)は、像域分離前処理部4で生成したX2信号と同期して送られてくるが、X2信号がアクティブな場合は、アクティブでない時よりもthwsbの値を高くする。thwsbの値は、大きいほど白領域として判定されやすくなるものであるので、X2信号がアクティブなとき、すなわち、第二画像読取部2で読み取った画像が高濃度であるため、第一画像読取部1に裏映り画像として影響を与える可能性が高いときに、本来白領域として抽出されるべき領域が、白領域として判定されやすいようにしている。従って、白地上の文字が裏映りの影響で文字判定されなくなる可能性を低減することができる。なお、第二画像読取部2で読み取ったRGB画像(r2、g2、b2)に対しては、X1信号がアクティブな場合に、アクティブでない時よりも閾値thwsbの値を高くする。   In the binarization unit 94 in the present embodiment, the value of the threshold thwsb is switched depending on whether the X1 or X2 signal is active. That is, the RGB image (r1, g1, b1) read by the first image reading unit 1 is sent in synchronization with the X2 signal generated by the image area separation preprocessing unit 4, but the X2 signal is active. Increases the value of thwsb than when it is not active. The larger the value of thwsb is, the easier it is to determine as a white region. Therefore, when the X2 signal is active, that is, the image read by the second image reading unit 2 has a high density, the first image reading unit When there is a high possibility of having an influence on the image 1 as a show-through image, an area that should originally be extracted as a white area is easily determined as a white area. Therefore, it is possible to reduce the possibility that characters on the white ground will not be determined due to the influence of the show-through. For the RGB image (r2, g2, b2) read by the second image reading unit 2, when the X1 signal is active, the threshold value thwsb is set higher than when the X1 signal is not active.

RGB白地抽出部93の基本的な機能は、R,G,B画像データで白地領域を抽出することにより白背景分離の動作をアクティブにする。すなわち、白背景分離の処理を起動する。具体的には、画素マトリックスのR,G,B画像データのすべてが閾値thwssより小さければ、画素マトリックスの中心画素である注目画素を白領域と判定して白パターンマッチング部98をアクティブにする。このことは、或る程度の広がりの白画素領域があるかを抽出するものである。ここで、R,G,B画像データのそれぞれが0から255の256階調であり、閾値thwss<閾値thwsbであって、閾値thwssを40とすると、R,G,B画像データのすべてが閾値thwss=40より小さいと、「白地」と判定し白地判定信号「1」を発生する。R,G,B画像データのいずれかが閾値thwss=40以上のときは、「白地」と判定し白地判定信号「0」を発生する。   The basic function of the RGB white background extraction unit 93 is to activate a white background separation operation by extracting a white background region from R, G, and B image data. That is, the white background separation process is started. Specifically, if all of the R, G, and B image data of the pixel matrix are smaller than the threshold value thwss, the target pixel that is the central pixel of the pixel matrix is determined as a white region, and the white pattern matching unit 98 is activated. This is to extract whether there is a certain extent of white pixel region. Here, each of the R, G, and B image data has 256 gradations from 0 to 255, and the threshold value thwss <the threshold value thwsb, where the threshold value thwss is 40, all of the R, G, and B image data are threshold values. If it is smaller than thwss = 40, it is determined as “white background” and a white background determination signal “1” is generated. When any of the R, G, and B image data is greater than or equal to the threshold thwss = 40, it is determined as “white background” and a white background determination signal “0” is generated.

本実施形態におけるRGB白地抽出部93においては、閾値thwssの値を、X1またはX2信号がアクティブか否かによって切り替える。すなわち、第一画像読取部1で読み取ったRGB画像(r1、g1、b1)は、像域分離前処理部4で生成したX2信号と同期して送られてくるが、X2信号がアクティブな場合は、アクティブでない時よりもthwssの値を高くする。thwssの値は、大きいほど白領域として判定されやすくなるものであるので、X2信号がアクティブなとき、すなわち、第二画像読取部2で読み取った画像が高濃度であるため、第一画像読取部1に裏映り画像として影響を与える可能性が高いときに、本来白領域として抽出されるべき領域が、白領域として判定されやすくしている。従って、白地上の文字が裏映りの影響で文字判定されなくなる可能性を低減することができる。なお、第二画像読取部2で読み取ったRGB画像(r2、g2、b2)に対しては、X1信号がアクティブな場合に、アクティブでない時よりも閾値thwssの値を高くする。   In the RGB white background extraction unit 93 in the present embodiment, the value of the threshold thwss is switched depending on whether the X1 or X2 signal is active. That is, the RGB image (r1, g1, b1) read by the first image reading unit 1 is sent in synchronization with the X2 signal generated by the image area separation preprocessing unit 4, but the X2 signal is active. Increases the value of thwss than when it is not active. The larger the value of thwss, the more easily it is determined as a white region. Therefore, when the X2 signal is active, that is, the image read by the second image reading unit 2 has a high density, the first image reading unit When there is a high possibility of affecting the image 1 as a show-through image, an area that should originally be extracted as a white area is easily determined as a white area. Therefore, it is possible to reduce the possibility that characters on the white ground will not be determined due to the influence of the show-through. For the RGB image (r2, g2, b2) read by the second image reading unit 2, the threshold value thwss is set higher when the X1 signal is active than when it is not active.

次に、本発明の他の実施形態に係る画像処理装置について以下説明する。本発明の他の実施形態に係る画像処理装置においては、白領域抽出部84の2値化部94において、閾値thwsbの値を切り替える条件として、X信号以外に、G信号の値も条件に加える。すなわち、第一画像読取部1で読み取ったRGB画像(r1、g1、b1)に対して、X2信号がアクティブな場合、かつ、LowG1<g1<UpG1であるときに限り、そうでないときよりも閾値thwsbの値を高くする。ここで、LowG1及びUpG1は、予めパラメータとして与えておく定数である。   Next, an image processing apparatus according to another embodiment of the present invention will be described below. In the image processing apparatus according to another embodiment of the present invention, in addition to the X signal, the value of the G signal is also added to the condition as a condition for switching the value of the threshold thwsb in the binarization unit 94 of the white region extraction unit 84. . That is, the threshold value is higher than that when the X2 signal is active for the RGB image (r1, g1, b1) read by the first image reading unit 1 and when LowG1 <g1 <UpG1. Increase the value of thwsb. Here, LowG1 and UpG1 are constants given in advance as parameters.

一般に、像域分離を行おうとしている画像で、裏映りの影響による誤判定が起きるのは、原稿の反対面に濃い絵柄が存在し、その裏映りにより表側に中間濃度部が発生している場合である。その濃度範囲内にないときにも閾値thwsbの値を反対面の濃度に応じて切り替えるということは、副作用による悪影響があることが考えられる。したがって、像域分離を行う面が裏映りの影響である可能性がある濃度範囲内のみで、閾値thwsbの値を切り替えることにより、誤判定を減らす効果がある。   In general, in an image that is going to be image-region-separated, an erroneous determination due to the effect of show-through occurs because there is a dark pattern on the opposite side of the document, and an intermediate density portion occurs on the front side due to the show-through Is the case. Switching the threshold value thwsb in accordance with the density on the opposite surface even when not in the density range is considered to have an adverse effect due to side effects. Therefore, there is an effect of reducing erroneous determination by switching the value of the threshold value thwsb only within the density range in which the surface on which the image area separation is performed may be the influence of the show-through.

また、第二画像読取部2で読み取ったRGB画像(r2、g2、b2)に対しては、X1信号がアクティブな場合、かつ、LowG2<g2<UpG2であるときに限り、そうでないときよりも閾値thwsbの値を高くする。ここで、LowG2及びUpG2は、予めパラメータとして与えておく定数である。   In addition, for the RGB image (r2, g2, b2) read by the second image reading unit 2, only when the X1 signal is active and when LowG2 <g2 <UpG2 is satisfied than when it is not. The threshold value thwsb is increased. Here, LowG2 and UpG2 are constants given in advance as parameters.

同様にして、白領域抽出部84のRGB白地抽出部93においても、第一画像読取部1で読み取ったRGB画像(r1、g1、b1)に対して、X2信号がアクティブな場合、かつ、LowG1<g1<UpG1であるときに限り、そうでないときよりも閾値thwsbの値を高くする。また、第二画像読取部2で読み取ったRGB画像(r2、g2、b2)に対しては、X1信号がアクティブな場合、かつ、LowG2<g2<UpG2であるときに限り、そうでないときよりも閾値thwssの値を高くする。   Similarly, in the RGB white background extraction unit 93 of the white region extraction unit 84, when the X2 signal is active for the RGB image (r1, g1, b1) read by the first image reading unit 1, and LowG1 Only when <g1 <UpG1, the value of the threshold thwsb is set higher than when it is not. In addition, for the RGB image (r2, g2, b2) read by the second image reading unit 2, only when the X1 signal is active and when LowG2 <g2 <UpG2 is satisfied than when it is not. The threshold value thwss is increased.

以上説明した本発明の実施形態では、CCDイメージセンサにより原稿の第1面の読み取りを行う原稿の搬送時に、同時にCISによって、原稿の第2面の読み取りを行っている。即ち、CCDイメージセンサとCISとを用いて、搬送路への原稿の一度の搬送で、この原稿における表裏両面の画像を読み取る例を挙げているが、本発明の実施形態は、必ずしもこのような二つの読取り手段を用いるものに限らない。   In the embodiment of the present invention described above, the second surface of the document is read by the CIS at the same time when the document is transported to read the first surface of the document by the CCD image sensor. That is, an example is given in which images on both the front and back sides of a document are read by a single conveyance of a document to a conveyance path using a CCD image sensor and a CIS. However, embodiments of the present invention are not necessarily limited to such a case. The invention is not limited to using two reading means.

本発明の実施形態に係る画像処理装置において、上記特許文献2(特開2005−217467号公報)に示されている原稿送り装置及び画像読取装置を採用してスイッチバック方式の画像読取装置で読み取れば、CCDイメージセンサのみで原稿の表裏両面を読み取ることができる。スイッチバック方式の画像読取装置で両面原稿の双方の面を読み取る方法は、上記特許文献2にも開示されているが、この読み取り方法を採用したときのフルカラー画像処理装置の概略構成を図9に示す。   An image processing apparatus according to an embodiment of the present invention employs a document feeding apparatus and an image reading apparatus disclosed in Patent Document 2 (Japanese Patent Laid-Open No. 2005-217467) and can be read by a switchback type image reading apparatus. For example, both the front and back sides of the document can be read only by the CCD image sensor. A method for reading both sides of a double-sided document with a switchback type image reading apparatus is also disclosed in the above-mentioned Patent Document 2. FIG. 9 shows a schematic configuration of a full-color image processing apparatus when this reading method is adopted. Show.

図9は本発明の実施形態に係るデジタル式フルカラー画像処理装置の他の構成例を示すブロック図である。図9に示す本実施形態の他の構成例において、スキャナ補正部113以降は、図1に示す構成と全く同一の構成となっているが、スキャナ補正部113に至るまでの処理の仕方について相違している。すなわち、両面画像読取部110は、スイッチバック方式の画像読取装置であり、両面原稿の双方の面を交互に読み取り、像域分離前処理部111にRGBデジタル画像データを送出する。像域分離前処理部111では、片方の面の画像データが入力され、図1に示す構成と同様の処理がなされる。その後、Xデータはメモリ制御部112に出力される。Xデータがアクティブであるとき、原稿の濃度が高い部分であることを示す。   FIG. 9 is a block diagram showing another configuration example of the digital full-color image processing apparatus according to the embodiment of the present invention. In another configuration example of the present embodiment illustrated in FIG. 9, the scanner correction unit 113 and the subsequent components have the same configuration as that illustrated in FIG. 1, but the processing method up to the scanner correction unit 113 is different. is doing. That is, the double-sided image reading unit 110 is a switchback type image reading device, and alternately reads both sides of a double-sided document, and sends RGB digital image data to the image area separation preprocessing unit 111. The image area separation pre-processing unit 111 receives image data of one side and performs the same processing as the configuration shown in FIG. Thereafter, the X data is output to the memory control unit 112. When the X data is active, it indicates that the document has a high density.

本実施形態の構成例のように、スイッチバック方式の画像読取装置110を用いた場合は、原稿の第1面に関するRGBデータに第2面のXデータを同期させてスキャナ補正部113に出力するため、第1面のRGBデータ及びXデータを一時的に図示しないストレージに蓄積しておくことになる。その後、原稿の第2面に関するRGBデータが読み取られ、像域分離前処理部111で第2面のXデータが生成され、メモリ制御部112に出力される。メモリ制御部112では、図示しない画像メモリコントロールを用いて、画像データの蓄積処理とストレージからの画像データの取り出しをコントロールする。   When the switchback type image reading apparatus 110 is used as in the configuration example of the present embodiment, the X data on the second surface is synchronized with the RGB data on the first surface of the document and output to the scanner correction unit 113. For this reason, the RGB data and X data of the first surface are temporarily stored in a storage (not shown). Thereafter, RGB data relating to the second side of the document is read, and X data of the second side is generated by the image area separation preprocessing unit 111 and output to the memory control unit 112. The memory control unit 112 uses image memory control (not shown) to control image data accumulation processing and image data extraction from the storage.

そこで、第1面のRGBデータと第2面のXデータを同期させ、スキャナ補正部113に出力する。続いて、第2面のRGBデータと第1面のXデータを同期させ、スキャナ補正部113に出力する。スキャナ補正部113への出力はシーケンシャルに行われるので、スキャナ補正部113以降の処理は、図1に示す構成と同様のものになる。また、図9に示す本実施形態に構成例ではスキャナ補正部113への出力はシーケンシャルとしたが、スキャナ補正部113を二つ備えてパラレルに処理を行ってもよい。   Therefore, the RGB data of the first surface and the X data of the second surface are synchronized and output to the scanner correction unit 113. Subsequently, the RGB data of the second surface and the X data of the first surface are synchronized and output to the scanner correction unit 113. Since the output to the scanner correction unit 113 is performed sequentially, the processing after the scanner correction unit 113 is the same as that shown in FIG. In the configuration example of the present embodiment shown in FIG. 9, the output to the scanner correction unit 113 is sequential, but two scanner correction units 113 may be provided to perform processing in parallel.

また、本発明は、原稿の一方の面の像域分離を行う際に一方の面及び他方の面の画像情報の双方を用いて裏映りの影響による像域分離の誤判定を減らすことを主たる課題としているが、このような課題は、本実施形態の機能を有するソフトウェアのプログラムコードを記録した記憶媒体又は記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが記憶媒体に格納されたプログラムコードを読み出し、実行することによっても、達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は、本発明の実施形態を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した本実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステムなどが実際の処理の一部または全部を行い、その処理によって前述した本実施形態の機能が実現される場合も本発明の実施形態に含まれる。   In addition, the present invention mainly reduces image area separation misjudgment due to the effect of show-through using both image information on one surface and the other surface when performing image region separation on one surface of a document. Although this is an issue, such a problem is that a storage medium or recording medium in which a program code of software having the functions of the present embodiment is recorded is supplied to the system or apparatus, and the computer of the system or apparatus stores the storage medium in the storage medium. It is also achieved by reading and executing the programmed program code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the embodiment of the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiment are realized, but also the operating system running on the computer based on the instruction of the program code is actually A case where the function of this embodiment described above is realized by performing part or all of the processing and the processing is also included in the embodiment of the present invention.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した本実施形態の機能が実現される場合も本実施形態に含まれる。   Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. This embodiment includes a case where the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the present embodiment described above are realized by the processing.

以上説明したように、本発明の実施形態の主たる特徴を挙げると次のようになる。すなわち、本実施形態は、特に文字又は絵柄の像域分離誤判定を減らして高画質な画像を提供でき、文字判定を行う際に、白地上の文字であるか否かを判定する像域分離装置を備え、その白地抽出の結果を判定する際に、原稿の双方の面を読み取った結果を用いることにより、裏映りの影響による像域分離の誤判定を減らすことができる。また、一方の面の白領域抽出に際して、他方の面の濃度情報を基に、一方の面の白領域抽出の判断基準を変更することで、像域分離の判定精度をあげ、裏映りの影響による誤判定を減らすことができる。   As described above, the main features of the embodiment of the present invention are as follows. That is, the present embodiment can provide a high-quality image by reducing erroneous image area separation determination of characters or pictures, and image area separation for determining whether or not the character is a white ground character when performing character determination. By using the result of reading both sides of the original when determining the result of white background extraction provided with the apparatus, it is possible to reduce erroneous determination of image area separation due to the effect of show-through. Also, when extracting the white area on one side, the criteria for extracting the white area on one side are changed based on the density information on the other side, so that the accuracy of image area separation is improved and the effect of show-through It is possible to reduce misjudgment due to.

本発明の実施形態に係るデジタル式フルカラー画像処理装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a digital full-color image processing apparatus according to an embodiment of the present invention. 本実施形態に係る画像処理装置における、第一画像読取部及び第二画像読み取り部から画像受け取り部と像域分離前処理部を経てメモリ制御部に至るまでの画像フローを説明する図である。It is a figure explaining the image flow from the 1st image reading part and the 2nd image reading part in the image processing apparatus which concerns on this embodiment to an image receiving part and an image area separation pre-processing part to a memory control part. 本実施形態に係る画像処理装置における像域分離前処理部の詳細構成を示す図である。It is a figure which shows the detailed structure of the image area separation pre-processing part in the image processing apparatus which concerns on this embodiment. 本実施形態に関する像域分離前処理部の高濃度パターンマッチング部で参照する5×5画素を示す図である。It is a figure which shows 5x5 pixel referred in the high density pattern matching part of the image area separation pre-processing part regarding this embodiment. 本実施形態に係る画像処理装置におけるスキャナ補正部の詳細構成を示す図である。It is a figure which shows the detailed structure of the scanner correction | amendment part in the image processing apparatus which concerns on this embodiment. 本実施形態に係る画像処理装置におけるプリンタ補正部の詳細構成を示す図である。FIG. 3 is a diagram illustrating a detailed configuration of a printer correction unit in the image processing apparatus according to the present embodiment. 本実施形態に関するスキャナ補正部における像域分離部の詳細構成を示す図である。It is a figure which shows the detailed structure of the image area separation part in the scanner correction | amendment part regarding this embodiment. 本実施形態に関する像域分離部における白領域抽出部の詳細構成を示す図である。It is a figure which shows the detailed structure of the white area extraction part in the image area separation part regarding this embodiment. 本発明の実施形態に係るデジタル式フルカラー画像処理装置の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the digital type full color image processing apparatus which concerns on embodiment of this invention. 原稿表面に文字を描き、且つ原稿裏面に絵柄を描いた原稿を示す図である。FIG. 3 is a diagram showing a document in which characters are drawn on the front side of the document and a pattern is drawn on the back side of the document. 読み取った原稿表面の画像が裏面絵柄の影響を受けたことを示す説明図である。FIG. 6 is an explanatory diagram showing that a read image on the front side of the document is influenced by a back side pattern.

符号の説明Explanation of symbols

1:第一画像読取部、2:第二画像読取部、3:画像受け取り部、4:像域分離前処理部、5:メモリ制御部、6:スキャナ補正部、7:圧縮処理部、8:汎用バス、9:コントローラ、10:HDD、11:NIC(ネットワークインタフェースコントローラ)、12:外部PC端末、13:伸長処理部、14:プリンタ補正部、15:プロッタ、41:裏面用二値化部、42:高濃度パターンマッチング部、43:膨張部、61:スキャナγ補正部、62:フィルタ処理部、63:色補正部、64:変倍処理部、65:像域分離部、71:プリンタγ補正部、72:階調処理部、81:フィルタ部、82:エッジ抽出部、83:網点抽出部、84:白領域抽出部、85:色判定部、86:総合判定部、91:グレー画素検出部、92:色画素検出部、93:RGB白地抽出部、94:二値化部、95:グレーパターンマッチング部、96:グレー膨張部、97:白判定部、98:白パターンマッチング部、99:白パターン補正部、100:白膨張部、101:白圧縮部、102:白補正部、103:判定部、110:両画面像読取部、111:像域分離前処理部、112:メモリ制御部、113:スキャナ補正部、114:圧縮処理部、115:汎用バス、116:コントローラ、117:HDD、118:NIC(ネットワークインタフェースコントローラ)、119:外部PC端末、120:伸長処理部、121:プリンタ補正部、122:プロッタ、 1: first image reading unit, 2: second image reading unit, 3: image receiving unit, 4: image area separation preprocessing unit, 5: memory control unit, 6: scanner correction unit, 7: compression processing unit, 8 : General-purpose bus, 9: Controller, 10: HDD, 11: NIC (network interface controller), 12: External PC terminal, 13: Decompression processing unit, 14: Printer correction unit, 15: Plotter, 41: Binarization for back side Section: 42: high density pattern matching section, 43: expansion section, 61: scanner γ correction section, 62: filter processing section, 63: color correction section, 64: scaling processing section, 65: image area separation section, 71: Printer γ correction unit, 72: gradation processing unit, 81: filter unit, 82: edge extraction unit, 83: halftone dot extraction unit, 84: white area extraction unit, 85: color determination unit, 86: comprehensive determination unit, 91 : Gray pixel detection unit, 92: Color image Element detection unit, 93: RGB white background extraction unit, 94: binarization unit, 95: gray pattern matching unit, 96: gray expansion unit, 97: white determination unit, 98: white pattern matching unit, 99: white pattern correction unit , 100: White expansion unit, 101: White compression unit, 102: White correction unit, 103: Determination unit, 110: Dual screen image reading unit, 111: Image area separation preprocessing unit, 112: Memory control unit, 113: Scanner Correction unit, 114: compression processing unit, 115: general-purpose bus, 116: controller, 117: HDD, 118: NIC (network interface controller), 119: external PC terminal, 120: decompression processing unit, 121: printer correction unit, 122 : Plotter,

Claims (8)

原稿の一方の面と他方の面の双方の面を読み取る画像読取装置と、読み取られた原稿画像を複数の画像領域に分類する像域分離装置と、を備え、
前記読み取られた原稿画像は、両面原稿の画像であって、前記原稿の一方の面と他方の面に共に読み取られるべき情報が描かれており、
前記像域分離装置が分類する複数の画像領域は、少なくとも文字領域と絵柄領域を含み、
前記像域分離装置は、原稿の一方の面の像域分離を行う際に、前記一方の面の読取り画像情報及び前記他方の面の画像情報の双方を用い、前記文字領域の判定を行う場合、前記一方の面及び前記他方の面の画像から読み取った濃度情報に基づいて、原稿の白領域であるか否かを判定する白領域抽出部を有し、前記白領域抽出部で白領域であると判定されたときに文字領域であると前記像域分離装置が判断し
前記一方の面の白領域を抽出する際に、前記他方の面の濃度情報を用いて、前記一方の面の白領域抽出基準を変更し、
前記一方の面の白領域抽出基準を変更する際には、前記他方の面の濃度が所定の値よりも高いときには、前記一方の面が白領域であると判定されやすいように白領域抽出基準を変更する
ことを特徴とする画像処理装置。
An image reading device that reads both one surface and the other surface of the document, and an image area separation device that classifies the read document image into a plurality of image regions,
The read document image is a double-sided document image, and information to be read is drawn on one side and the other side of the document,
The plurality of image areas classified by the image area separation device includes at least a character area and a picture area,
The image area separation device, when in performing the image area separation of one surface of the document, using both of the image information of the read image information and the other surface of the one surface, it is determined the character area A white area extraction unit that determines whether the white area of the document is based on density information read from the images of the one side and the other side, and the white area extraction unit When it is determined that there is a character region, the image region separation device determines that the character region
When extracting the white region of the one surface, the density information of the other surface is used to change the white region extraction reference of the one surface,
When changing the white area extraction standard of the one surface, when the density of the other surface is higher than a predetermined value, the white area extraction standard is set so that the one surface is easily determined to be a white area. An image processing apparatus characterized in that
請求項において、
前記一方の面の白領域抽出基準を変更するのは、前記一方の面の濃度がある特定の中間濃度範囲にあるときだけ変更することを特徴とする画像処理装置。
In claim 1 ,
The image processing apparatus according to claim 1, wherein the white area extraction reference for the one surface is changed only when the density of the one surface is within a certain intermediate density range.
請求項1または2に記載の画像処理装置から出力された画像データに基づいて作像を行い、前記作像された画像を用紙上に転写することで画像形成を行う画像形成手段を有することを特徴とする画像形成装置。 An image forming unit that forms an image based on image data output from the image processing apparatus according to claim 1 and that forms the image by transferring the image formed on a sheet. An image forming apparatus. 原稿の一方の面と他方の面の双方の面を読み取る画像読取ステップと、読み取られた原稿画像を複数の画像領域に分類する像域分離ステップと、を備え、
前記読み取られた原稿画像は、両面原稿の画像であって、前記原稿の一方の面と他方の面に共に読み取られるべき情報が描かれており、さらに、前記像域分離装置が分類する複数の画像領域は、少なくとも文字領域と絵柄領域を含むものであり、
前記像域分離ステップは、原稿の一方の面の像域分離を行う際に、前記一方の面の読取り画像情報及び前記他方の面の画像情報の双方を用い、前記文字領域の判定を行う場合、前記一方の面及び前記他方の面の画像から読み取った濃度情報に基づいて、原稿の白領域であるか否かを判定するステップと、当該判定するステップで白領域であると判定されたときに文字領域であると判断するステップと、を有し
前記一方の面の白領域を抽出する際に、前記他方の面の濃度情報を用いて、前記一方の面の白領域抽出基準を変更するステップを有し、
前記一方の面の白領域抽出基準を変更する際には、前記他方の面の濃度が所定の値よりも高いときには、前記一方の面が白領域であると判定されやすいように白領域抽出基準を変更するステップを有する
ことを特徴とする画像処理方法。
An image reading step for reading both the one side and the other side of the document, and an image area separating step for classifying the read document image into a plurality of image areas,
The read document image is a double-sided document image, in which information to be read is drawn on one side and the other side of the document, and a plurality of images classified by the image area separation device The image area includes at least a character area and a picture area.
In the image area separation step, when performing image area separation on one side of a document, the character area is determined using both read image information on the one side and image information on the other side. , Based on the density information read from the image on the one side and the other side, when determining whether or not it is a white area of the document, and when the white area is determined in the determining step Determining that it is a character area ,
When extracting the white region of the one surface, using the density information of the other surface, changing the white region extraction reference of the one surface,
When changing the white area extraction standard of the one surface, when the density of the other surface is higher than a predetermined value, the white area extraction standard is set so that the one surface is easily determined to be a white area. An image processing method comprising the step of changing
請求項に記載の画像処理方法を記載したプログラム。 The program which described the image processing method of Claim 4 . 請求項に記載のプログラムを記録した記憶媒体。 A storage medium on which the program according to claim 5 is recorded. 画像読取部で読み取られた原稿の画像データに対して所定の処理を施して出力するスキャナ補正部を備えた画像処理装置において、
前記読み取られる原稿は、一方の面と他方の面に共に読み取られるべき情報が描かれた両面原稿であり、
前記画像読取部は、前記一方の面の読み取りを行う第一画像読取部と前記他方の面の読み取りを行う第二画像読取部とを備え、
前記スキャナ補正部は、前記読み取られた原稿のRGB画像データに対してγ補正を行うスキャナγ補正部と、前記読み取られた原稿の画像領域が文字領域又は絵柄領域かを判定する像域分離部と、前記像域分離部の判定結果に応じて前記読み取られた画像の文字を強調し又は絵柄を平滑化するフィルタ処理部と、を少なくとも備え、
前記像域分離部は、黒画素と白画素それぞれの連続性に基づいて文字エッジを検出するエッジ抽出部と、画素マトリックスのRGB画像データのすべてが閾値よりも小さいときに白領域と判定する白領域抽出部と、を少なくとも備え、
前記白領域抽出部は、RGB画像データを入力するとともに、前記第一画像読取部と前記第二画像読取部によって読み取られた原稿の一方の面と他方の面の画像濃度情報を入力し、前記一方の面の白領域抽出に際して、前記他方の面の画像濃度情報に基づいて前記閾値を変更し、前記閾値の変更によって前記一方の面の白領域が、前記他方の面からの画像裏映りの影響を排除して白領域と判定され易くする機能を有する
ことを特徴とする画像処理装置。
An image processing apparatus including a scanner correction unit that performs predetermined processing on image data of a document read by an image reading unit and outputs the processed image data.
The original to be read is a double-sided original on which information to be read is drawn on one side and the other side,
The image reading unit includes a first image reading unit that reads the one side and a second image reading unit that reads the other side,
The scanner correction unit includes a scanner γ correction unit that performs γ correction on the RGB image data of the read original, and an image area separation unit that determines whether the image area of the read original is a character area or a picture area And at least a filter processing unit that emphasizes characters of the read image or smoothes a pattern according to a determination result of the image area separation unit,
The image area separation unit includes an edge extraction unit that detects a character edge based on the continuity of black pixels and white pixels, and a white region that is determined as a white region when all of the RGB image data of the pixel matrix is smaller than a threshold value. An area extraction unit,
The white area extraction unit inputs RGB image data, and inputs image density information of one side and the other side of the document read by the first image reading unit and the second image reading unit , When extracting the white region of one surface, the threshold value is changed based on the image density information of the other surface, and the white region of the one surface is changed from the other surface by changing the threshold value. An image processing apparatus having a function of eliminating an influence and making it easy to determine a white area.
請求項において、
前記白領域抽出部における閾値の変更は、前記一方の面の濃度が所定の中間濃度範囲内にあるときに限って行うことを特徴とする画像処理装置。
In claim 7 ,
The image processing apparatus according to claim 1, wherein the change of the threshold value in the white area extracting unit is performed only when the density of the one surface is within a predetermined intermediate density range.
JP2007061833A 2007-03-12 2007-03-12 Image processing apparatus, image forming apparatus including the same, and image processing method Expired - Fee Related JP4787776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007061833A JP4787776B2 (en) 2007-03-12 2007-03-12 Image processing apparatus, image forming apparatus including the same, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007061833A JP4787776B2 (en) 2007-03-12 2007-03-12 Image processing apparatus, image forming apparatus including the same, and image processing method

Publications (2)

Publication Number Publication Date
JP2008227825A JP2008227825A (en) 2008-09-25
JP4787776B2 true JP4787776B2 (en) 2011-10-05

Family

ID=39845916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007061833A Expired - Fee Related JP4787776B2 (en) 2007-03-12 2007-03-12 Image processing apparatus, image forming apparatus including the same, and image processing method

Country Status (1)

Country Link
JP (1) JP4787776B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5023035B2 (en) * 2008-10-01 2012-09-12 シャープ株式会社 Image processing apparatus, image forming apparatus including the image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the image processing program
JP4849166B2 (en) * 2009-09-30 2012-01-11 ブラザー工業株式会社 Image reading device
CN115187743A (en) * 2022-07-29 2022-10-14 江西科骏实业有限公司 Subway station internal environment arrangement prediction and white mold acquisition method and system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270220A (en) * 1999-03-12 2000-09-29 Ricoh Co Ltd Image processor, image processing method, and computer readable medium recorded with program to be executed by computer and read by the computer
JP4010434B2 (en) * 2000-03-23 2007-11-21 株式会社リコー Image processing, forming and color copying equipment
JP4063480B2 (en) * 2000-06-26 2008-03-19 株式会社リコー Image processing device
JP2003244439A (en) * 2002-02-19 2003-08-29 Sharp Corp Image reader
JP2004135217A (en) * 2002-10-15 2004-04-30 Ricoh Co Ltd Image forming device
JP3987850B2 (en) * 2004-10-29 2007-10-10 京セラミタ株式会社 Image processing apparatus and image forming apparatus

Also Published As

Publication number Publication date
JP2008227825A (en) 2008-09-25

Similar Documents

Publication Publication Date Title
US7986837B2 (en) Image processing apparatus, image forming apparatus, image distributing apparatus, image processing method, computer program product, and recording medium
US9734439B2 (en) Image processing apparatus and method thereof
JP3436828B2 (en) Image processing device
JP4861967B2 (en) Image processing apparatus, image processing method, image processing program, image forming apparatus, and storage medium
US7376268B2 (en) Image processing apparatus for transmitting image data to an external device
JP3176052B2 (en) Image processing device
US10115011B2 (en) Document type recognition apparatus, image forming apparatus, document type recognition method, and computer program product
US7295341B2 (en) System for processing monochrome and full-color digital image data
US20110052078A1 (en) Image inspection apparatus, image inspection method, and computer program product
US7433082B2 (en) Method of, apparatus for, and computer program for image processing
US6088130A (en) Image processing apparatus and method
US9948824B2 (en) Image compressing device, image forming apparatus, image compressing method, and recording medium
US20040179239A1 (en) Apparatus for and method of processing image, and computer product
JP4787776B2 (en) Image processing apparatus, image forming apparatus including the same, and image processing method
JP6693310B2 (en) Image processing apparatus, image processing method and program
JP3073837B2 (en) Image region separation device and image region separation method
JP4963559B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program for causing computer to execute the method
JP2006270148A (en) Image processing method, image processor and image forming apparatus
US20100188670A1 (en) Image processing apparatus, image processing method and program executing the image processing method
JP3988970B2 (en) Image processing apparatus, image processing method, and storage medium
JP4961310B2 (en) Image processing apparatus and image forming apparatus
US11283963B2 (en) Image processing apparatus and image processing method and storage medium
JP2007189275A (en) Image processor
JP2006262258A (en) Image processor, and image processing method and program
JP2006041792A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110715

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees