JP2006262215A - Image processor, image processing method, image processing program and recording medium with the program recorded thereon - Google Patents

Image processor, image processing method, image processing program and recording medium with the program recorded thereon Download PDF

Info

Publication number
JP2006262215A
JP2006262215A JP2005078250A JP2005078250A JP2006262215A JP 2006262215 A JP2006262215 A JP 2006262215A JP 2005078250 A JP2005078250 A JP 2005078250A JP 2005078250 A JP2005078250 A JP 2005078250A JP 2006262215 A JP2006262215 A JP 2006262215A
Authority
JP
Japan
Prior art keywords
pixel
halftone dot
region
image data
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005078250A
Other languages
Japanese (ja)
Other versions
JP4320309B2 (en
Inventor
Taira Matsuoka
平 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005078250A priority Critical patent/JP4320309B2/en
Publication of JP2006262215A publication Critical patent/JP2006262215A/en
Application granted granted Critical
Publication of JP4320309B2 publication Critical patent/JP4320309B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve black character quality in particular and to improve image quality by lowering the probability of erroneously determining a black character rather than a color character. <P>SOLUTION: A dot area detecting part 263 receives gpk, bpk and iro. At iro=1, that is, when a pixel under consideration is determined to be chromatic, an OR operation of gpk and bpk is regarded as a dot peak pixel, the number of dot peak pixels is counted in each small two-dimensional area of a prescribed size, and the total sum of dot peak pixels of a mountain and a valley is defined as a count value P. At iro=0, that is, when a pixel under consideration is determined to be achromatic, an AND operation of gpk and bpk is regarded as a dot peak pixel, the number of dot peak pixels is counted in each small two-dimensional area of a prescribed size, and the total sum of the dot peak pixels of a mountain and a valley is defined as a count value P. When the count value P is larger than a threshold Pth, the small two-dimensional area is determined to be a dot area. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、例えばコピー機、MFP(multi-function printer)など、画像データの入力を受け、入力された画像データに所定の画像処理を行って出力する機能を備えた画像処理装置、画像処理方法、画像処理プログラム、および該プログラムを記録した記録媒体に関する。   The present invention relates to an image processing apparatus and an image processing method having a function of receiving input of image data, performing predetermined image processing on the input image data, and outputting the input image data, such as a copying machine and an MFP (multi-function printer) The present invention relates to an image processing program and a recording medium on which the program is recorded.

従来より、画像読取部から読み込んだ画像について、各画像領域が文字領域であるか絵柄領域であるかを判定する像域分離部を有し、それぞれ異なる画像処理を施すカラー画像処理装置がある。
こうした画像処理装置では、文字の中でも黒文字と色文字を考えた場合、スキャナのRGB読取位置ずれで黒文字が色付いたり、プロッタの各色における版ずれが発生したりすると、判読性は著しく落ちてしまう。したがって、黒文字については輝度に相当する信号をもとに、Bk単色データにて出力する処理が行われており、この処理のことを黒文字処理と呼ぶ。
2. Description of the Related Art Conventionally, there is a color image processing apparatus that includes an image area separation unit that determines whether each image area is a character area or a picture area for an image read from an image reading unit, and performs different image processing.
In such an image processing apparatus, when black characters and color characters are considered, if the black characters are colored due to the RGB reading position shift of the scanner or the plate misregistration occurs in each color of the plotter, the legibility is significantly deteriorated. Therefore, for black characters, a process of outputting Bk single color data based on a signal corresponding to luminance is performed, and this process is called black character processing.

また、こうした像域分離を行う従来の技術として、本出願人により先に出願されている特許文献1のものでは、網点領域検出手段の注目する局所領域の近傍の特徴情報に応じて、網点領域の検出に用いる閾値を可変とするようにしている。   In addition, as a conventional technique for performing such image area separation, the technique disclosed in Patent Document 1 previously filed by the applicant of the present invention is based on the feature information in the vicinity of the local area of interest of the dot area detecting means. The threshold used for detecting the point area is made variable.

また、本出願人により先に出願されている特許文献2のものでは、画像の低濃度領域を検出する白地検出手段と、高濃度領域を検出する黒地検出手段とを含む画像認識手段の判定に応じて、高画質にするための処理を画像データに施す手段を備えるようにしている。
特開平5−292312号公報 特開2001−292316号公報
Further, in the case of Patent Document 2 previously filed by the present applicant, the image recognition means includes a white background detection means for detecting a low density area of an image and a black background detection means for detecting a high density area. Accordingly, there is provided means for applying a process for improving the image quality to the image data.
JP-A-5-29212 JP 2001-292316 A

上述した従来の画像処理装置では、スキャナで読み取られた原稿画像データについて、網点ピーク画素の小領域中の分布数を計数し、計数値を閾値と比較して、その小領域が網点領域であるか否かを判定していた。この判定時に文字を誤判定しないような閾値が選択されていたが、実際には7級程度の小さな文字、あるいは縮小変倍された文字は、網点領域と共通の特徴を有するため、ある程度の誤判定が発生してしまう虞があった。   In the above-described conventional image processing apparatus, the number of distributions in a small area of halftone dot peak pixels is counted for the original image data read by the scanner, and the counted value is compared with a threshold value. It was determined whether or not. Although a threshold value was selected so as not to misdetermine the character at the time of this determination, in reality, a small character of grade 7 or a reduced scaled character has characteristics common to the halftone dot region, There was a risk of erroneous determination.

また従来技術では、RGBの入力画像のうち、カラー画像の黒濃度に敏感な信号はG信号であるため、網点領域検出手段への入力信号は、G信号がしばしば用いられる。しかしG信号は原稿の黄色に感度がないため、黄色網点を網点判定するためにB信号も用いられている。これにより、網点領域の検出確度は高まったが、従来技術では、網点ピークの係数時に、G信号またはB信号で網点ピークが検出されていれば、注目画素を網点ピーク画素としていたため、スキャナのRGB読取位置ずれの影響を受けて文字領域における網点ピーク数が増加してしまう虞があった。   In the prior art, a signal sensitive to the black density of a color image among RGB input images is a G signal. Therefore, a G signal is often used as an input signal to the halftone dot region detection means. However, since the G signal is not sensitive to the yellow color of the document, the B signal is also used to determine the halftone dot. As a result, the detection accuracy of the halftone dot region is increased. However, in the conventional technique, if the halftone dot peak is detected in the G signal or the B signal at the time of the halftone dot coefficient, the target pixel is set as the halftone dot peak pixel. Therefore, there is a possibility that the number of halftone dots in the character area may increase due to the influence of the RGB reading position shift of the scanner.

本件発明者は、こうして黒文字が誤判定された場合、上述した黒文字処理が施されず、文字品質が著しく落ちてしまため、像域分離により画質を高めるためには、色文字よりも誤判定する確率を下げる必要があることを知見した。   When the black character is erroneously determined in this way, the present inventor does not perform the above-described black character processing, and the character quality is remarkably deteriorated. Therefore, in order to improve the image quality by image area separation, the present inventor makes an erroneous determination rather than the color character. It was found that the probability needs to be lowered.

上述した特許文献1、特許文献2のものは、こうした色文字よりも黒文字を誤判定する確率を下げることについてまで考慮されたものではなかった。   The above-mentioned Patent Documents 1 and 2 have not been taken into consideration to reduce the probability of erroneously determining a black character rather than such a color character.

そこで本発明は、色文字よりも黒文字を誤判定する確率を下げることで、特に黒文字品質を向上させ、画像品質を向上させることができる画像処理装置、画像処理方法、画像処理プログラム、および該プログラムを記録した記録媒体を提供することを目的とする。   Therefore, the present invention provides an image processing device, an image processing method, an image processing program, and the program capable of improving the quality of black characters and improving the image quality by reducing the probability of erroneously determining a black character rather than a color character. An object of the present invention is to provide a recording medium on which is recorded.

かかる目的を達成するために、本発明の第1の態様としての画像処理装置は、画像を読み取る画像読取手段と、読取手段により読み取られた画像データ中から白黒以外の色を含む有彩領域を検出する有彩領域検出手段と、読取手段により読み取られた画像データ中の二次元小領域を参照し、該二次元小領域中の注目画素の濃度と当該注目画素周辺の周辺画素群の濃度差の絶対値が、おのおの予め定められた閾値よりも大きいか否かを判定する比較判定手段と、上記した濃度差の絶対値が閾値よりも大きいと比較判定手段により判定された注目画素を、網点の一部を形成する網点ピーク画素とする網点ピーク画素検出手段と、網点ピーク画素検出手段により検出された網点ピーク画素および当該網点ピーク画素周辺で検出された網点ピーク画素の関係から、当該網点ピーク画素を含む所定の大きさの二次元小領域を網点領域として検出する網点領域検出手段と、を備え、網点領域検出手段は、有彩領域検出手段による検出結果に応じて網点領域の検出結果を変えることを特徴とする。   In order to achieve such an object, an image processing apparatus according to a first aspect of the present invention includes an image reading unit that reads an image, and a chromatic region that includes colors other than black and white from image data read by the reading unit. The chromatic area detecting means for detecting, and the two-dimensional small area in the image data read by the reading means, and the density difference between the pixel of interest in the two-dimensional small area and the surrounding pixel group around the pixel of interest Comparison determination means for determining whether or not the absolute value of each pixel is larger than a predetermined threshold value, and the target pixel determined by the comparison determination means that the absolute value of the density difference is larger than the threshold value. Halftone peak pixel detection means for forming halftone dot pixels forming part of a point, halftone dot peak pixels detected by the halftone dot pixel detection means, and halftone dot peak pixels detected around the halftone peak pixel A halftone dot area detecting means for detecting a two-dimensional small area of a predetermined size including the halftone dot peak pixel as a halftone dot area from the relationship, and the halftone dot area detecting means is detected by the chromatic area detecting means. The halftone dot detection result is changed according to the result.

上記した読取手段により読み取られたカラー画像データに含まれる各色成分のうち、黒濃度に敏感な第1画像データと、該第1画像データで感度が低い色成分に対して高い感度がある第2画像データとの、少なくとも2つの画像データを用いて、読取手段により読み取られたカラー画像データ中から網点領域を検出する色利用網点領域検出手段を備えたことが好ましい。   Among the color components included in the color image data read by the reading means described above, the first image data sensitive to the black density, and the second image having high sensitivity with respect to the color component having low sensitivity in the first image data. It is preferable that the image processing apparatus further includes color-use halftone area detection means for detecting a halftone area from color image data read by the reading means using at least two pieces of image data.

上記した第1画像データは、RGB各色成分におけるG画像データであることが好ましい。   The first image data described above is preferably G image data for each color component of RGB.

上記した第2画像データは、RGB各色成分におけるB画像データであることが好ましい。   The second image data described above is preferably B image data in each of RGB color components.

上記した網点領域検出手段は、有彩領域検出手段により有彩領域と判定された領域について、第1画像データでの網点ピーク画素検出結果と、第2画像データでの網点ピーク画素検出結果との論理和を用いて、所定の大きさの二次元小領域を網点領域として検出することが好ましい。   The above-described halftone dot area detection means detects halftone dot peak pixel detection results in the first image data and halftone dot peak pixel detection in the second image data for the area determined as the chromatic area by the chromatic area detection means. It is preferable to detect a two-dimensional small region having a predetermined size as a halftone dot region using a logical sum with the result.

上記した網点領域検出手段は、有彩領域検出手段により無彩領域と判定された領域について、第1画像データでの網点ピーク画素検出結果と、第2画像データでの網点ピーク画素検出結果との論理積を用いて、所定の大きさの二次元小領域を網点領域として検出することが好ましい。   The above-described halftone dot area detection means detects the halftone dot peak pixel detection result in the first image data and the halftone dot peak pixel detection in the second image data for the area determined as the achromatic area by the chromatic area detection means. It is preferable to detect a two-dimensional small region having a predetermined size as a halftone dot region using a logical product with the result.

また、本発明の第2の態様としての画像処理方法は、画像信号の入力を受ける画像入力工程と、画像入力工程により入力された画像データ中から白黒以外の色を含む有彩領域を検出する有彩領域検出工程と、画像入力工程により入力された画像データ中の二次元小領域を参照し、該二次元小領域中の注目画素の濃度と当該注目画素周辺の周辺画素群の濃度差の絶対値が、おのおの予め定められた閾値よりも大きいか否かを判定する比較判定工程と、上記した濃度差の絶対値が閾値よりも大きいと比較判定工程により判定された注目画素を、網点の一部を形成する網点ピーク画素とする網点ピーク画素検出工程と、網点ピーク画素検出工程により検出された網点ピーク画素および当該網点ピーク画素周辺で検出された網点ピーク画素の関係から、当該網点ピーク画素を含む所定の大きさの二次元小領域を網点領域として検出する網点領域検出工程と、を備え、網点領域検出工程は、有彩領域検出工程による検出結果に応じて網点領域の検出結果を変えることを特徴とする。   The image processing method according to the second aspect of the present invention detects an chromatic area including a color other than black and white from the image input process that receives the input of the image signal and the image data input by the image input process. Referring to the two-dimensional small region in the image data input by the chromatic region detection step and the image input step, the density difference between the pixel of interest in the two-dimensional small region and the surrounding pixel group around the pixel of interest A comparison / determination step for determining whether the absolute value is larger than a predetermined threshold value, and a pixel of interest determined by the comparison / determination step when the absolute value of the density difference is larger than the threshold value. A halftone dot pixel detection step that forms a halftone dot pixel that forms a part of the halftone dot pixel, a halftone dot peak pixel detected by the halftone dot peak pixel detection step, and a halftone dot peak pixel detected around the halftone dot peak pixel. From relationship A halftone dot region detecting step for detecting a two-dimensional small region of a predetermined size including the halftone dot peak pixel as a halftone dot region, and the halftone dot region detecting step corresponds to a detection result by the chromatic region detecting step. And changing the detection result of the halftone dot region.

上記した画像入力工程により入力されたカラー画像データに含まれる各色成分のうち、黒濃度に敏感な第1画像データと、該第1画像データで感度が低い色成分に対して高い感度がある第2画像データとの、少なくとも2つの画像データを用いて、画像入力工程により入力されたカラー画像データ中から網点領域を検出する色利用網点領域検出工程を備えたことが好ましい。   Among the color components included in the color image data input by the image input process described above, the first image data that is sensitive to the black density and the first image data that has a high sensitivity to the color components that are low in sensitivity. It is preferable to include a color-use halftone area detection step of detecting a halftone area from the color image data input by the image input step using at least two pieces of image data of the two image data.

上記した網点領域検出工程では、有彩領域検出工程により有彩領域と判定された領域について、第1画像データでの網点ピーク画素検出結果と、第2画像データでの網点ピーク画素検出結果との論理和を用いて、所定の大きさの二次元小領域を網点領域として検出することが好ましい。   In the above-described halftone dot area detection step, the halftone dot peak pixel detection result in the first image data and the halftone dot peak pixel detection in the second image data for the area determined as the chromatic area by the chromatic area detection step. It is preferable to detect a two-dimensional small region having a predetermined size as a halftone dot region using a logical sum with the result.

上記した網点領域検出工程では、有彩領域検出工程により無彩領域と判定された領域について、第1画像データでの網点ピーク画素検出結果と、第2画像データでの網点ピーク画素検出結果との論理積を用いて、所定の大きさの二次元小領域を網点領域として検出することが好ましい。   In the above-described halftone dot region detection step, the halftone dot peak pixel detection result in the first image data and the halftone dot peak pixel detection in the second image data for the region determined as the achromatic region by the chromatic region detection step. It is preferable to detect a two-dimensional small region having a predetermined size as a halftone dot region using a logical product with the result.

また、本発明の第3の態様としての画像処理プログラムは、コンピュータに、上述した本発明の第2の態様としての画像処理方法の何れかに記載の工程による処理を実行させることを特徴とする。   An image processing program according to a third aspect of the present invention causes a computer to execute processing according to any of the steps described in any of the above-described image processing methods according to the second aspect of the present invention. .

また、本発明の第4の態様としての画像処理プログラムを記録した記録媒体は、上述した本発明の第3の態様としての画像処理プログラムが記録されたことを特徴とする。   A recording medium recording an image processing program according to the fourth aspect of the present invention is characterized in that the image processing program according to the third aspect of the present invention described above is recorded.

以上のように、本発明によれば、色文字よりも黒文字を誤判定する確率を下げることができる。このため、特に黒文字品質を向上させることができ、画像品質を向上させることができる。   As described above, according to the present invention, the probability of erroneously determining a black character rather than a color character can be reduced. For this reason, especially the quality of black characters can be improved and the image quality can be improved.

次に、本発明に係る画像処理装置、画像処理方法、画像処理プログラム、および該プログラムを記録した記録媒体を適用した一実施形態について、図面を用いて詳細に説明する。   Next, an image processing apparatus, an image processing method, an image processing program, and a recording medium storing the program according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本実施形態に係るデジタル式のフルカラー画像処理装置の概略構成を示したブロック図である。フルカラー複写機として動作する場合、スキャナ11は原稿からR(レッド)、G(グリーン)、B(ブルー)に色分解した画像データを読み取り、当該画像データ(アナログ信号)をデジタルデータに変換して出力する。   FIG. 1 is a block diagram showing a schematic configuration of a digital full-color image processing apparatus according to the present embodiment. When operating as a full-color copying machine, the scanner 11 reads image data color-separated into R (red), G (green), and B (blue) from a document, and converts the image data (analog signal) into digital data. Output.

スキャナ補正部12は、後で述べるように、スキャナ11で読み取ったRGB画像データ(デジタルデータ)について、スキャナγ補正処理をしたり、画像領域を文字・線画や絵柄などに分類(像域分離)したり、画像の文字部は強調して絵柄部は平滑化するフィルタ処理をしたり、などの画像処理を施してスキャナ11の特性を補正する。   As will be described later, the scanner correction unit 12 performs scanner γ correction processing on the RGB image data (digital data) read by the scanner 11, and classifies the image area into characters, line drawings, designs, etc. (image area separation). The characteristics of the scanner 11 are corrected by performing image processing such as emphasizing the character portion of the image and smoothing the pattern portion.

圧縮処理部13は、スキャナ補正後の多値画像データを圧縮処理して、汎用バスにデータを送出する。圧縮後の画像データは汎用バスを通って、コントローラ14に送られる。コントローラ14は図示しない半導体メモリを持ち、送られたデータを蓄積するようになっている。   The compression processing unit 13 compresses the multivalued image data after scanner correction, and sends the data to the general-purpose bus. The compressed image data is sent to the controller 14 through the general-purpose bus. The controller 14 has a semiconductor memory (not shown) and accumulates sent data.

蓄積されたデータは随時大容量の記憶装置であるハードディスクドライブ(HDD)15に書き込まれる。これはプリントアウト時に用紙が詰まり、出力が正常に終了しなかった場合でも再び原稿を読み直すのを避けるためや、複数の原稿画像データを並べ替える電子ソートを行うためや、読み取った原稿を蓄積しておき、必要なときに再出力するためである。
なお、以上の説明では、画像データに対し圧縮を施すとしたが、汎用バスの帯域が十分に広く、蓄積するHDDの容量が大きければ、非圧縮の状態でデータを扱っても良い。
The accumulated data is written to a hard disk drive (HDD) 15 which is a large capacity storage device as needed. This is because paper is jammed at the time of printout, so that it is possible to avoid re-reading the original even if the output does not end normally, to perform electronic sorting to rearrange multiple original image data, and to store the read original This is to re-output when necessary.
In the above description, the image data is compressed. However, if the general-purpose bus has a sufficiently wide bandwidth and the capacity of the HDD to be stored is large, the data may be handled in an uncompressed state.

次にコントローラ14は、HDD15の画像データを、汎用バスを介して伸張処理部17に送出する。伸張処理部17は圧縮処理されていた画像データを元の多値データに伸張し、プリンタ補正部18に送出する。プリンタ補正部18では、プリンタγ補正処理、階調処理が行われ、プロッタ19の明暗特性の補正処理やプロッタ19の階調特性及び像域分離結果に応じた誤差拡散処理やディザ処理等による画像データの量子化が行われる。   Next, the controller 14 sends the image data of the HDD 15 to the decompression processing unit 17 via the general-purpose bus. The decompression processing unit 17 decompresses the image data that has been subjected to compression processing to the original multi-value data, and sends it to the printer correction unit 18. The printer correction unit 18 performs printer gamma correction processing and gradation processing, and performs image correction processing, dithering processing, etc. according to the light-darkness correction processing of the plotter 19 and the gradation characteristics of the plotter 19 and the image area separation result. Data quantization is performed.

プロッタ19は、レーザービーム書き込みプロセスを用いた転写紙印字ユニットで、画像データを感光体に潜像として描画し、トナーによる作像/転写処理後、転写紙にコピー画像を形成する。   The plotter 19 is a transfer paper printing unit using a laser beam writing process. The plotter 19 draws image data as a latent image on a photoconductor, and forms a copy image on the transfer paper after image formation / transfer processing with toner.

ネットワークを介してPCに画像データを配信する配信スキャナとして動作する場合は、複写機として動作する場合と同じように原稿画像がスキャナ11から読み込まれ、スキャナ補正部12から圧縮処理部13を経て、コントローラ14に画像が送られる。コントローラ14ではフォーマット処理が行われ、フォーマット処理では、JPEGやTIFF、BMP形式への汎用画像フォーマット変換を行う。
その後、画像データはNIC(ネットワーク・インタフェース・コントローラ)16を介して外部PC端末に配信される。
When operating as a distribution scanner that distributes image data to a PC via a network, an original image is read from the scanner 11 as in the case of operating as a copier, and from the scanner correction unit 12 through the compression processing unit 13, An image is sent to the controller 14. The controller 14 performs format processing. In the format processing, general-purpose image format conversion to JPEG, TIFF, or BMP format is performed.
Thereafter, the image data is distributed to an external PC terminal via a NIC (network interface controller) 16.

スキャナ補正部12の構成について、以下に説明する。図2に示すように、スキャナ補正部12は、スキャナ11から入力したRGB画像データに基づき、原稿の画像領域(像域)が文字領域か、網点文字領域か、絵柄領域か、などを判定する像域分離部125と、スキャナ11の特性によるRGB画像データのデジタル値を、明度に比例するデジタル値に変換するスキャナγ補正部121と、像域分離の結果に基づいて画像データに鮮鋭化処理をかけたり、平滑化処理をかけたりするフィルタ処理部122と、RGBに色分解された画像データを、それとは異なる色空間であるC(シアン)、M(マゼンダ)、Y(イエロー)、K(ブラック)の記録色情報を含むカラー画像データに変換する色補正部123と、入力画像における主走査方向の大きさを拡大・縮小して出力する変倍処理部124と、を備えて構成される。   The configuration of the scanner correction unit 12 will be described below. As shown in FIG. 2, the scanner correction unit 12 determines, based on the RGB image data input from the scanner 11, whether the image area (image area) of the document is a character area, a halftone character area, a design area, or the like. The image area separation unit 125, the scanner γ correction unit 121 that converts the digital value of the RGB image data according to the characteristics of the scanner 11 into a digital value proportional to the brightness, and the image data is sharpened based on the result of the image area separation A filter processing unit 122 that performs processing or smoothing processing, and image data that has been color-separated into RGB are converted into C (cyan), M (magenta), Y (yellow), A color correction unit 123 that converts to color image data including K (black) recording color information, and a scaling unit 124 that outputs the input image by enlarging or reducing the size in the main scanning direction. Configured to include a.

プリンタ補正部18の構成について、以下に説明する。プリンタ補正部18は、図3に示すように、伸張処理部17を経たCMYKの画像データに対して、プロッタ19の周波数特性に応じてγ補正を行うプリンタγ補正部181と、ディザ処理・誤差拡散処理などの量子化を行う階調処理部182と、を備えており、C”M”Y”K”各色の画像データを出力する。   The configuration of the printer correction unit 18 will be described below. As shown in FIG. 3, the printer correction unit 18 includes a printer γ correction unit 181 that performs γ correction on the CMYK image data that has passed through the expansion processing unit 17 according to the frequency characteristics of the plotter 19, and a dither processing / error. A gradation processing unit 182 that performs quantization such as diffusion processing, and outputs image data of each color of C ″ M ″ Y ″ K ″.

像域分離部125の全体ブロック図を図4に示す。像域分離部125は、大別すると、フィルタ部251、白領域抽出部253、網点分離部255、エッジ抽出部252、色判定部254、総合判定部256からなり、2bit信号C/P及び1bit信号B/Cを発生する。これらのC/P及びB/C信号は、RGBまたはCMYK色分解された画像データに同期して、スキャナ補正部12の各処理部に入力され、必要に応じて参照される。画像データとともに圧縮・伸張処理をなされた後に、プリンタ補正部18にも入力され、プリンタ補正部18の各処理部において必要に応じて参照される。   An overall block diagram of the image area separation unit 125 is shown in FIG. The image area separation unit 125 is roughly divided into a filter unit 251, a white region extraction unit 253, a halftone dot separation unit 255, an edge extraction unit 252, a color determination unit 254, and an overall determination unit 256, and a 2-bit signal C / P and A 1-bit signal B / C is generated. These C / P and B / C signals are input to each processing unit of the scanner correction unit 12 in synchronization with RGB or CMYK color-separated image data, and are referred to as necessary. After the compression / decompression process is performed together with the image data, it is also input to the printer correction unit 18 and is referred to as necessary by each processing unit of the printer correction unit 18.

次に、像域分離部125のフィルタ部251、白領域抽出部253、エッジ抽出部252、色判定部254について、図5の原稿認識部320を備えた構成例により説明する。
すなわち、図5の原稿認識部320を備えた構成例におけるフィルタ部321、白領域抽出部323、エッジ抽出部322、色判定部325は、本発明の実施形態における像域分離部125のフィルタ部251、白領域抽出部253、エッジ抽出部252、色判定部254とそれぞれ同様のものとなっている。
以下の、図5の原稿認識部320を備えた構成例による説明では、スキャナの読み取り密度が600dpiの場合を例として説明する。また、フィルタ部においては、Gデータが入力され、画像データのエッジを強調することによりMTF特性の劣化を補正したGデータを出力する。
Next, the filter unit 251, the white region extraction unit 253, the edge extraction unit 252, and the color determination unit 254 of the image area separation unit 125 will be described using a configuration example provided with the document recognition unit 320 of FIG. 5.
That is, the filter unit 321, the white region extraction unit 323, the edge extraction unit 322, and the color determination unit 325 in the configuration example including the document recognition unit 320 of FIG. 5 are the filter units of the image area separation unit 125 in the embodiment of the present invention. 251, the white area extraction unit 253, the edge extraction unit 252, and the color determination unit 254 are similar to each other.
In the following description of the configuration example including the document recognition unit 320 of FIG. 5, a case where the reading density of the scanner is 600 dpi will be described as an example. In the filter unit, G data is input, and G data in which deterioration of the MTF characteristics is corrected by enhancing the edge of the image data is output.

図5に、原稿認識部320の機能をブロック区分で示す。原稿認識部320は、文字エッジ検出、絵柄検出および有彩/無彩検出を行って、文字エッジ領域あるいは絵柄領域を表すC/P信号および有彩領域/無彩領域を表すB/C信号を発生する。   FIG. 5 shows the function of the document recognition unit 320 in block sections. The document recognition unit 320 performs character edge detection, pattern detection, and chromatic / achromatic detection, and outputs a C / P signal representing a character edge area or a pattern area and a B / C signal representing a chromatic area / achromatic area. appear.

原稿認識部320は、大別すると、フィルタ部321、エッジ抽出部322、白領域抽出部323、網点抽出部324、色判定部325および総合判定部326からなる。なお、ここでは、スキャナ11の読み取り密度が600dpi程度の場合を例として説明する。   The document recognition unit 320 is roughly divided into a filter unit 321, an edge extraction unit 322, a white region extraction unit 323, a halftone dot extraction unit 324, a color determination unit 325, and an overall determination unit 326. Here, a case where the reading density of the scanner 11 is about 600 dpi will be described as an example.

フィルタ部321は、主に文字のエッジの抽出ために、スキャナ11が発生するG画像データを補正する。ここで、スキャナ11で読み取ったデータは、レンズなどの性能でボケていることがあるので、エッジ強調フィルタをかける。ただ、ここでは、単純に原稿上のエッジを強調し、複写機に広く普及している階調表現のための万線パターンを強調しない必要がある。万線パターンを強調してしまうと、絵柄(万線パターンによる階調表現領域)をエッジとして抽出して、最終的に文字エッジと誤判定する可能性があるので、強調しないようにする必要がある。また、図9に示すように、600dpiの万線パターンAと400dpiの万線パターンBは、繰返し周期が異なるので、同一のフィルタ係数で強調しないようにするのは難しい。そのため、画像パターンの周期を検出して、フィルタの係数を切換える。なお、図9において、主走査方向xの白1ブロック幅とそれに接する黒1ブロック幅との和が、万線ピッチ(定幅:所定数の画素)すなわち万線周期であり、低濃度中間調の時には白ブロック幅が広がり黒ブロック幅が狭くなる。高濃度中間調になるにつれて、白ブロック幅が狭くなり黒ブロック幅が広がる。   The filter unit 321 corrects the G image data generated by the scanner 11 mainly for extracting the edge of the character. Here, since the data read by the scanner 11 may be blurred due to the performance of a lens or the like, an edge enhancement filter is applied. However, here, it is necessary to simply emphasize the edge on the original and not to emphasize the line pattern for gradation expression that is widely used in copying machines. If the line pattern is emphasized, it is necessary to extract the picture (gradation expression area by the line pattern) as an edge and eventually misidentify it as a character edge. is there. Also, as shown in FIG. 9, the 600 dpi line pattern A and the 400 dpi line pattern B have different repetition periods, so it is difficult to avoid enhancement with the same filter coefficient. Therefore, the cycle of the image pattern is detected and the filter coefficient is switched. In FIG. 9, the sum of the width of one white block in the main scanning direction x and the width of one black block adjacent thereto is a line pitch (constant width: a predetermined number of pixels), that is, a line cycle. In this case, the white block width is widened and the black block width is narrowed. As the density becomes higher, the white block width becomes narrower and the black block width becomes wider.

この図5の原稿認識部320を備えた構成例では、フィルタ部321の画素マトリクスを、主走査方向xの画素数7×副走査方向y(スキャナ11の機械的な原稿走査方向)の画素数5として、図5上のフィルタ部321のブロックに示すように、各画素宛てに各重み付け係数a1〜a7、b1〜b7、c1〜c7、d1〜d7、e1〜e7を宛てた2組の係数グループ(係数マトリクス)A、Bがある。次の係数グループAは、図9の600dpiの万線パターンAの強調は抑制し、しかも文字のエッジを強調するフィルタ処理用の係数であり、係数グループBは、図9の400dpiの万線パターンBの強調は抑制し、しかも文字のエッジを強調するフィルタ処理用の係数である。   In the configuration example including the document recognition unit 320 in FIG. 5, the pixel matrix of the filter unit 321 is composed of the number of pixels in the main scanning direction x × the number of pixels in the sub-scanning direction y (the mechanical document scanning direction of the scanner 11). 5, as shown in the block of the filter unit 321 on FIG. 5, two sets of coefficients addressed to the respective weighting coefficients a1 to a7, b1 to b7, c1 to c7, d1 to d7, and e1 to e7. There are groups (coefficient matrices) A and B. The next coefficient group A is a filter processing coefficient that suppresses the enhancement of the 600 dpi line pattern A in FIG. 9 and emphasizes the edge of the character, and the coefficient group B is a 400 dpi line pattern in FIG. B is a coefficient for filtering that suppresses emphasis and emphasizes the edge of a character.

フィルタ処理とは、係数グループA、またはBとの演算結果/16+注目画素である。このことにより、画像データを強調する。
係数グループA0−10−20−100−10−20−100−1−120−1−100−10−20−100−10−20−10。
The filter process is a calculation result with the coefficient group A or B / 16 + the target pixel. This enhances the image data.
Coefficient group A0-10-20-100-100-20-20-100-1-120-1-100-10-20-20-100-10-20-10.

係数グループB−100−200−1−100−200−1−10−120−10−1−100−200−1−100−200−1。   Coefficient group B-100-200-1-100-200-1-10-120-10-1-100-200-1-100-200-1.

なお、横方向が主走査方向xの並び、縦方向が副走査方向yの並びである。係数グループA、Bの、グループ内第1行の係数が、図5上のフィルタ321のブロックの係数マトリクスの、第1行の係数a1〜a7であり、係数グループA、Bの第3行の中央の「20」が、フィルタ部321のブロックの係数マトリクスの第3行c1〜c7の中央の画素の係数即ち注目画素の係数c4である。係数マトリクスの各係数に、それに宛てられる画素の画像データが表す値を乗算した積(総計7×5=35個)の総和(積和値)が、注目画素(c4が宛てられた画素)の、フィルタ部321で処理した画像データ値として、エッジ抽出部322および白領域抽出部323に与えられる。ここで注目画素とは、現在処理対象の画素であり、それが順次にx方向にそしてy方向に位置が異なるものに更新される。   Note that the horizontal direction is the alignment in the main scanning direction x, and the vertical direction is the alignment in the sub-scanning direction y. The coefficients in the first row of the coefficient groups A and B are the coefficients a1 to a7 in the first row of the coefficient matrix of the block of the filter 321 in FIG. The center “20” is the coefficient of the pixel in the center of the third row c1 to c7 of the coefficient matrix of the block of the filter unit 321, that is, the coefficient c4 of the target pixel. The sum (product sum value) of products (total 7 × 5 = 35) obtained by multiplying each coefficient of the coefficient matrix by the value represented by the image data of the pixel addressed to the coefficient is the pixel of interest (pixel addressed to c4). The image data values processed by the filter unit 321 are given to the edge extraction unit 322 and the white area extraction unit 323. Here, the pixel of interest is a pixel that is currently processed, and it is updated to pixels that are sequentially different in the x direction and in the y direction.

係数グループAは、図9に示す600dpiの万線パターンAの万線ピッチで負の係数(小さい値の係数)が分布しそれらの間に0(やや大きい値の係数)が分布し、そしてエッジ強調のために注目画素には20(極めて大きな係数)が宛てられている。これにより、画像データ(注目画素)が万線パターンAの領域の黒/白間エッジである時には、それにあてて導出される加重平均値(積和値)は、万線パターンAでない文字エッジである時に比べて、かなり低い値になる。   In the coefficient group A, negative coefficients (small coefficient values) are distributed at the line pitch of the 600 dpi line pattern A shown in FIG. 9, and 0 (slightly large coefficient) is distributed between them. For emphasis, 20 (very large coefficient) is assigned to the target pixel. As a result, when the image data (target pixel) is the black / white edge of the line pattern A region, the weighted average value (product sum value) derived therefrom is the character edge that is not the line pattern A. Compared to a certain time, the value is considerably lower.

係数グループBは、図9に示す400dpiの万線パターンBの万線ピッチで負の係数(小さい値の係数)が分布し、それらの間に0(やや大きい値の係数)が分布し、そして、エッジ強調のために注目画素には20(極めて大きな係数)が宛てられている。これにより、画像データ(注目画素)が万線パターンBの領域の黒/白間エッジである時には、それにあてて導出される加重平均値(積和値)は、万線パターンBでない文字エッジである時に比べて、かなり低い値になる。   In coefficient group B, negative coefficients (small value coefficients) are distributed at the line pitch of 400 dpi line pattern B shown in FIG. 9, and 0 (slightly large coefficient) is distributed between them, and For the edge enhancement, 20 (very large coefficient) is assigned to the target pixel. As a result, when the image data (target pixel) is the black / white edge of the line pattern B region, the weighted average value (product sum value) derived therefrom is the character edge that is not the line pattern B. Compared to a certain time, the value is considerably lower.

なお、フィルタ部321では、下記条件1、2のどちらかが成立したとき、即ち、図9の400dpiの万線パターンBである可能性が高い時に、係数グループBによるフィルタ処理を行い、そうでないときに係数グループAによるフィルタ処理を行なう。   Note that the filter unit 321 performs the filter processing by the coefficient group B when one of the following conditions 1 and 2 is satisfied, that is, when there is a high possibility that the line pattern B of 400 dpi in FIG. Sometimes filter processing by coefficient group A is performed.

〈条件1〉〔400dpi系の万線パターンBの薄いところ(図9上の白区間)かを見る条件〕
(D[3][1]<D[3][2])&(D[3][7]<D[3][6])&(ABS(D[3][2]−D[3][4])
>ABS(D[3][4]−D[3][1]))&(ABS(D[3][6]−D[3][4])
>ABS(D[3][4]−D[3][7]))
<Condition 1> [Condition to see if the 400 dpi line pattern B is thin (white section in FIG. 9)]
(D [3] [1] <D [3] [2]) & (D [3] [7] <D [3] [6]) & (ABS (D [3] [2] -D [3 ] [4])
> ABS (D [3] [4] -D [3] [1])) & (ABS (D [3] [6] -D [3] [4])
> ABS (D [3] [4] -D [3] [7]))

〈条件2〉〔400dpi系の万線パターンBの濃いところ(図9上の黒区間)かを見る条件〕
(D[3][1]>D[3][2])&(D[3][7]>D[3][6])&(ABS(D[3][2]− D[3][4])
>ABS(D[3][4]−D[3][1]))&(ABS(D[3][6]−D[3][4])
>ABS(D[3][4]−D[3][7]))
<Condition 2> [Condition for checking whether the 400 dpi line pattern B is dark (black section in FIG. 9)]
(D [3] [1]> D [3] [2]) & (D [3] [7]> D [3] [6]) & (ABS (D [3] [2] -D [3 ] [4])
> ABS (D [3] [4] -D [3] [1])) & (ABS (D [3] [6] -D [3] [4])
> ABS (D [3] [4] -D [3] [7]))

なお、D[i][j]は、x、y分布の画素マトリクス上の、x=i、y=jの位置の画素の画像データが表す値を意味し、例えば、D[3][1]は、図5上のフィルタ部321のブロックに示す係数マトリクスの係数a3が宛てられる画素の画像データが表す値である。「&」は「論理積:AND」を意味し、「ABS」は、絶対値演算子を意味する。注目画素は、D[4][3]である。   Note that D [i] [j] means a value represented by image data of a pixel at a position of x = i, y = j on a pixel matrix of x, y distribution, for example, D [3] [1 ] Is a value represented by image data of a pixel to which the coefficient a3 of the coefficient matrix shown in the block of the filter unit 321 in FIG. 5 is addressed. “&” Means “logical product: AND”, and “ABS” means an absolute value operator. The target pixel is D [4] [3].

上記条件1または2が成立すると、その時の注目画素が、図9に示す600dpi読み取り時の400dpiの万線パターンBの領域のものである、と見なして、係数グループBを用いて文字エッジ強調のフィルタ処理を行う。条件1および2のいずれも成立しないと、図9に示す600dpi読み取り時の600dpiの万線パターンAが強調されるのを避ける係数グループAを用いて文字エッジ強調のフィルタ処理を行う。即ち、画像周期(ピッチ)を検出して、特定周期の画像パターンを強調しないようにしている。万線パターンを強調せずに、文字のエッジを強調することが可能となる。なお、図5には、エッジ処理にG画像データを参照する態様を示すが、G画像データに限らず、輝度データであってもよい。濃い薄いを表現する信号なら適応可能である。   When the above condition 1 or 2 is satisfied, it is assumed that the pixel of interest at that time is in the 400 dpi line pattern pattern B area at the time of 600 dpi reading shown in FIG. Perform filtering. If neither of the conditions 1 and 2 is satisfied, the character edge emphasis filter process is performed using the coefficient group A that avoids emphasizing the 600 dpi line pattern A at the time of 600 dpi reading shown in FIG. That is, the image period (pitch) is detected so that the image pattern of a specific period is not emphasized. It is possible to emphasize the edge of a character without emphasizing the line pattern. FIG. 5 shows an aspect in which G image data is referred to for edge processing, but it is not limited to G image data, and may be luminance data. Any signal expressing dark and light can be applied.

エッジ抽出部322について説明する。
文字領域は、高レベル濃度の画素と低レベル濃度の画素(以下、黒画素、白画素と呼ぶ)が多く、かつ、エッジ部分では、これらの黒画素および白画素が連続している。エッジ抽出部322は、このような黒画素および白画素それぞれの連続性に基づいて文字エッジを検出する。
The edge extraction unit 322 will be described.
The character area has many high-level density pixels and low-level density pixels (hereinafter referred to as black pixels and white pixels), and these black pixels and white pixels are continuous at the edge portion. The edge extraction unit 322 detects a character edge based on the continuity of each of such black pixels and white pixels.

3値化部322aについて説明する。
まず、3値化部322aで、2種の閾値TH1およびTH2を用いて、フィルタ部321が文字エッジ強調のフィルタ処理をしたG画像データ(エッジ抽出部322の入力データ)を3値化する。閾値TH1およびTH2は、例えば、画像データが0から255までの256階調(0=白)を表す場合、例えばTH1=20、TH2=80に設定する。3値化部322aでは、入力データ<TH1であると、該データが宛てられる画素を白画素と表す3値化データに入力データを変換し、TH1≦入力データ<TH2であると中間調画素と表す3値化データに入力データを変換し、TH2≦入力データであると黒画素と表す3値化データに入力データを変換する。
The ternary unit 322a will be described.
First, the ternarization unit 322a uses the two thresholds TH1 and TH2 to trinify the G image data (input data of the edge extraction unit 322) that the filter unit 321 has performed the filter processing for character edge emphasis. For example, when the image data represents 256 gradations (0 = white) from 0 to 255, the thresholds TH1 and TH2 are set to TH1 = 20 and TH2 = 80, for example. The ternary unit 322a converts the input data into ternary data that represents the pixel to which the data is addressed as a white pixel if the input data <TH1, and the halftone pixel if TH1 ≦ input data <TH2. The input data is converted into ternary data to be expressed, and the input data is converted into ternary data to be expressed as a black pixel if TH2 ≦ input data.

黒画素連続検出部322b、白画素連続検出部322cについて説明する。
黒画素連続検出部322bおよび白画素連続検出部322cが、3値化データに基づいて黒画素が連続する箇所および白画素が連続する箇所を、それぞれパターンマッチングにより検出する。このパターンマッチングには、この図5の原稿認識部320を備えた構成例では、図10に示す3×3画素マトリクスのパターンBPa〜BPdおよびWPa〜WPdを用いる。図10に示すパターンにおいて、黒丸は前述の黒画素であることを示し、白丸は前述の白画素であることを示し、いずれの丸印もない空白画素は、黒画素、中間調画素、白画素のいずれであるか問わないものである。3×3画素マトリクスの中心の画素が注目画素である。
The black pixel continuous detection unit 322b and the white pixel continuous detection unit 322c will be described.
The black pixel continuation detection unit 322b and the white pixel continuation detection unit 322c detect a location where the black pixels are continuous and a location where the white pixels are continuous based on the ternary data, respectively, by pattern matching. For the pattern matching, in the configuration example including the document recognition unit 320 of FIG. 5, the patterns BPa to BPd and WPa to WPd of the 3 × 3 pixel matrix shown in FIG. 10 are used. In the pattern shown in FIG. 10, black circles indicate the above-described black pixels, white circles indicate the above-described white pixels, and blank pixels without any circles are black pixels, halftone pixels, white pixels It does not matter whether it is any of the above. The pixel at the center of the 3 × 3 pixel matrix is the target pixel.

黒画素連続検出部322bは、3値化データの内容の分布が、図10に示す黒画素分布パターンBPa〜BPdのいずれかにマッチングすると、その時の注目画素を「黒連続画素」としてそれを表すデータを該注目画素に与える。同様に、白画素連続検出部322cは、図10に示す白画素分布パターンWPa〜WPdのいずれかにマッチングすると、その時の注目画素を「白連続画素」としてそれをあらわすデータを該注目画素に与える。   When the distribution of the content of the ternary data matches one of the black pixel distribution patterns BPa to BPd shown in FIG. 10, the black pixel continuous detection unit 322b represents the target pixel at that time as “black continuous pixels”. Data is given to the pixel of interest. Similarly, when the white pixel continuous detection unit 322c matches any of the white pixel distribution patterns WPa to WPd shown in FIG. 10, the target pixel at that time is set as a “white continuous pixel” and data representing it is given to the target pixel. .

近傍画素検出部322dについて説明する。
次の近傍画素検出部322dは、黒画素連続検出部322bおよび白画素連続検出部322cの検出結果について、この近傍画素検出部322dでの注目画素の近傍に黒連続画素または白連続画素があるか否かを調べることにより、該注目画素が、エッジ領域と非エッジ領域のいずれにあるかを判定する。より具体的に述べれば、図5の原稿認識部320を備えた構成例にあっては、5×5画素マトリクスのブロックで、その内部に黒連続画素と白連続画素がそれぞれ1つ以上存在するときに、そのブロックをエッジ領域と判定し、そうでないときに、そのブロックを非エッジ領域と判定する。
The neighboring pixel detection unit 322d will be described.
The next neighboring pixel detection unit 322d determines whether there are black continuous pixels or white continuous pixels in the vicinity of the target pixel in the neighboring pixel detection unit 322d with respect to the detection results of the black pixel continuous detection unit 322b and the white pixel continuous detection unit 322c. By checking whether or not the pixel of interest is in the edge region or the non-edge region, it is determined. More specifically, in the configuration example provided with the document recognizing unit 320 in FIG. 5, the block is a 5 × 5 pixel matrix, and one or more black continuous pixels and one or more white continuous pixels exist therein. Sometimes the block is determined to be an edge region, otherwise it is determined to be a non-edge region.

孤立点除去部322eについて説明する。
さらに、文字エッジは連続して存在するので、孤立点除去部322eにて孤立しているエッジを非エッジ領域に補正する。そして、エッジ領域と判定した画素に対して“1”(エッジ領域)なるedge信号を出力し、非エッジ領域と判定した画素に対して“0”(非エッジ領域)なるedge信号を出力する。
The isolated point removing unit 322e will be described.
Furthermore, since the character edge exists continuously, the isolated edge removing unit 322e corrects the isolated edge to a non-edge region. Then, an edge signal “1” (edge area) is output to a pixel determined as an edge area, and an edge signal “0” (non-edge area) is output to a pixel determined as a non-edge area.

図5における白領域抽出部323は、図19に示すように2値化部323a、RGB白抽出部323b、白判定部323c、白パターンマッチング部323d、白パターン補正部323j、白膨張部323h、白収縮部323l、白補正部323g、グレーパターンマッチング部323h、グレー膨張部323iおよび判定部323mからなる。なお、図5における白領域抽出部323は図19のMの部分を置換したものである。   As shown in FIG. 19, the white area extraction unit 323 in FIG. 5 includes a binarization unit 323a, an RGB white extraction unit 323b, a white determination unit 323c, a white pattern matching unit 323d, a white pattern correction unit 323j, a white expansion unit 323h, It comprises a white contraction unit 323l, a white correction unit 323g, a gray pattern matching unit 323h, a gray expansion unit 323i, and a determination unit 323m. Note that the white region extraction unit 323 in FIG. 5 is obtained by replacing the portion M in FIG.

2値化部323aは、フィルタ部321の画像濃度データ(G画像データ)のエッジ強調出力を、閾値thwsbで2値化して、白パターンマッチング部323d(の処理を表す図6のステップSS7)が参照する白データの生成のための2値化白判定信号を発生する。なお、エッジ強調出力は、この図5の原稿認識部320を備えた構成例では0から255の256階調であり、0が濃度の無い白であり、閾値thwsbの一例は50であって、エッジ強調出力の値がthwsb=50より小さければ、2値化部323aが「2値化白」と判定し、2値化白判定信号「1」を発生する。エッジ強調出力の値がthwsb=50以上のときは2値化白判定信号「0」を発生する。   The binarization unit 323a binarizes the edge emphasis output of the image density data (G image data) of the filter unit 321 with the threshold value thwsb, and the white pattern matching unit 323d (step SS7 in FIG. 6 representing the processing) A binary white determination signal for generating white data to be referred to is generated. The edge emphasis output is 256 gradations from 0 to 255 in the configuration example provided with the document recognition unit 320 of FIG. 5, 0 is white without density, and an example of the threshold value thwsb is 50. If the value of the edge enhancement output is smaller than thwsb = 50, the binarization unit 323a determines “binarized white” and generates a binarized white determination signal “1”. When the value of the edge emphasis output is thwsb = 50 or more, a binarized white determination signal “0” is generated.

RGB白抽出部323bは、1)RGB白地検出、2)色地検出、3)グレー画素検出を行って、画像データが白領域かグレー領域(中濃度領域)か否かを判定する。   The RGB white extraction unit 323b performs 1) RGB white background detection, 2) color background detection, and 3) gray pixel detection to determine whether the image data is a white area or a gray area (medium density area).

1)RGB白地検出 該RGB白地検出では、R,G,B画像データで白地領域を検出することにより、白背景分離の動作をアクティブにする。すなわち白背景分離の処理を起動する。具体的には、図11のパターンWBPに示すように、3×3画素マトリックスのR,G,B画像データのすべてが閾値thwssより小さければ、注目画素(3×3画素マトリックスの中心画素)を白領域と判定して白パターンマッチング部323d(の処理を表す図11のステップS3が参照する白地判定信号)をアクティブ(「1」)にする。これは、ある程度の広がりの白画素領域があるかを検出するものである。なお、R,G,B画像データのそれぞれも、この図5の原稿認識部320を備えた構成例では0から255の256階調であり、0が濃度の無い基底レベルであり、閾値thwss<thwsbであって、thwssの一例は40であって、R,G,B画像データのすべてがthwss=40より小さいと、「白地」と判定し白地判定信号「1」を発生する。R,G,B画像データのいずれかがthwss=40以上のときは白地判定信号「0」を発生する。 1) RGB White Background Detection In the RGB white background detection, the white background separation operation is activated by detecting a white background area from R, G, B image data. That is, the white background separation process is started. Specifically, as shown in the pattern WBP of FIG. 11, if all of the R, G, B image data of the 3 × 3 pixel matrix is smaller than the threshold thwss, the target pixel (the central pixel of the 3 × 3 pixel matrix) is determined. The white area is determined and the white pattern matching unit 323d (white background determination signal referred to in step S3 in FIG. 11 representing the process) is activated (“1”). This is to detect whether there is a white pixel region of a certain extent. Each of the R, G, and B image data has 256 gradations from 0 to 255 in the configuration example provided with the document recognition unit 320 in FIG. 5, 0 is a base level without density, and threshold thwss < An example of thwsb, thwss, is 40, and if all of the R, G, and B image data are smaller than thwss = 40, it is determined as “white background” and a white background determination signal “1” is generated. When any of the R, G, and B image data is thwss = 40 or more, a white background determination signal “0” is generated.

2)色地検出 薄い色を白背景と判定しないようにするために、色地を検出する。 2) Color Background Detection Color background is detected so that a light color is not determined as a white background.

A. ここでは先ず、注目画素を中心とする5×5画素マトリックスの各画素の符号を、図12のパターンMPpに示すものとすると、注目画素となる中心画素c3(MCa〜MCdの×印画素)のRGB差(1画素宛てのR,G,B画像データの最大値と最小値との差)が閾値thcより大きいと色画素判定信号aを「1」(色画素)とし、閾値thc以下のときは「0」(白黒画素)とする。 A. Here, first, assuming that the sign of each pixel of the 5 × 5 pixel matrix centered on the pixel of interest is shown in the pattern MPp of FIG. 12, the center pixel c3 (× marked pixels of MCa to MCd) serving as the pixel of interest. When the RGB difference (difference between the maximum value and the minimum value of R, G, B image data addressed to one pixel) is larger than the threshold value thc, the color pixel determination signal a is set to “1” (color pixel), and is equal to or less than the threshold value thc. Is “0” (monochrome pixel).

B. 注目画素の片側の周辺画素群△(図12のMCa〜MCdの中)のいずれかの画素のR,G,B画像データがすべて閾値thwc以下であると、一方側白判定信号bを「1」(白画素)とし、閾値thwcを超えるときは「0」(非白画素)とする。閾値thwcは例えば20である。 B. If the R, G, B image data of any pixel in the peripheral pixel group Δ (in MCa to MCd in FIG. 12) on one side of the target pixel is all equal to or less than the threshold thwc, the one-side white determination signal b is set to “1”. ”(White pixel), and“ 0 ”(non-white pixel) when the threshold value thwc is exceeded. The threshold thwc is 20, for example.

C. 注目画素の他方側の周辺画素群□(図12のMCa〜MCdの中)のいずれかの画素のR,G,B画像データがすべて閾値thwc以下であると他方側白判定信号cを「1」(白画素)とし、閾値thwcを超えるときは「0」(非白画素)とする。 C. If the R, G, B image data of any pixel in the peripheral pixel group □ (in MCa to MCd in FIG. 12) on the other side of the target pixel is all equal to or less than the threshold thwc, the other side white determination signal c is set to “1”. ”(White pixel), and“ 0 ”(non-white pixel) when the threshold value thwc is exceeded.

D. 図12のパターンMCa〜MCdのいずれかにおいて、
a AND (bとcのエクスクルーシブノア)=「1」
が成立すると、すなわち、a=「1」(注目画素が色画素)、かつ、bとcが一致(注目画素の両側ともに白画素、または、両側ともに非白画素)のとき、注目画素宛ての色地判定信号dを「1」(色地)とする。この色地判定信号dは、白パターンマッチング部323d(の処理を表す図11のステップS6)で参照される。
D. In any of the patterns MCa to MCd in FIG.
a AND (exclusive NOR of b and c) = "1"
That is, when a = “1” (the pixel of interest is a color pixel) and b and c match (a white pixel on both sides of the pixel of interest or a non-white pixel on both sides), The color background determination signal d is set to “1” (color background). This color ground determination signal d is referred to by the white pattern matching unit 323d (step S6 in FIG. 11 representing the processing).

前述のパターンマッチングA〜Dを行うのは、黒文字のまわりがRGB読取り位置ずれでわずかながらに色付きになるとき、そこを色と拾わないためである。黒文字のまわりの色付きの位置では、(bとcのエクスクルーシブノア)か゛「0」(注目画素の両側の一方が白画素、他方が非白画素)となり、この場合は、色地判定信号d=「0」(非色地)となる。加えて、注目画素が、周辺を白地で囲まれた色画素のときには、色地判定信号d=「1」(色地)となり、線が込み入ったところでも、薄い色画素を色地として検出することができる。   The above-described pattern matching A to D is performed because when the surroundings of the black characters are slightly colored due to the RGB reading position shift, they are not picked up as colors. At a colored position around the black character, (exclusive NOR of b and c) or “0” (one pixel on both sides of the target pixel is a white pixel and the other is a non-white pixel). In this case, the color gamut determination signal d = “0” (non-colored background). In addition, when the pixel of interest is a color pixel whose periphery is surrounded by a white background, the color background determination signal d = “1” (color background), and even when the line is intricate, a light color pixel is detected as the color background. be able to.

すなわち、線が込み入ったところでは、本来白いところが完全に白に読取られないが、上記処理A.でRGB差が小さい場合には色画素と判定しないので、閾値thwcを、濃度を見るべき白地よりも厳しく設定して(たとえばthwss=40、thwsb=50に対し、thwc=20)、B〜Dの処理で白背景か否を厳密にチエックして薄い色画素を色地として正確に検出することができる。   That is, when the line is intricate, the originally white portion is not completely read in white. When the RGB difference is small, the pixel is not determined as a color pixel. Therefore, the threshold thwc is set to be stricter than the white background for which the density is to be viewed (for example, thws = 20 for thwss = 40 and thwsb = 50). In this process, it is possible to accurately check whether a white background is present and to accurately detect a light color pixel as a color background.

なお、色時検出に際し、谷白画素検出を行う場合もある。谷白画素検出は、上記RGB白地検出で検出できない小さな白領域の谷白画素を図11に示すG画像データの5×5画素マトリクス分布RDPaおよびRDPbに基づいて検出する。   In addition, in the case of color detection, valley white pixel detection may be performed. The valley white pixel detection detects valley white pixels in a small white area that cannot be detected by the above-described RGB white background detection based on the 5 × 5 pixel matrix distributions RDPa and RDPb of the G image data shown in FIG.

具体的には、5×5画素マトリクス分布RDPaに基づいて、
miny=min(G[1][2]、G[1][3]、G[1][4]、G[5][2]、G[5][3]、G[5][4])
を算出する。即ち、図11に示す5×5画素マトリクス分布RDPaの、黒丸を付した画素群の中の最低濃度minyを摘出する。そして、
maxy=max(G[3][2]、G[3][3]、G[3][4])
を算出する。即ち、図11に示す5×5画素マトリクス分布RDPaの、白丸を付した画素群の中の最高濃度maxyを摘出する。次に、
mint=min(G[2][1]、G[3][1]、G[4][1]、G[2][5]、G[3][5]、G[4][5])
を算出する。即ち、図11に示すもう1つの5×5画素マトリクス分布RDPbの、黒丸を付した画素群の中の最低濃度mintを摘出する。そして、
maxt=max(G[2][3]、G[3][3]、G[4][3])
を算出する。即ち、図11に示す5×5画素マトリクス分布RDPbの、白丸を付した画素群の中の最高濃度maxtを摘出する。ここで、min( )は最小値を検出する関数である。max( )は、最大値を検出する関数である。次に、
OUT=((miny−maxy)>0) # ((mint−maxt)>0)
を算出する。即ち、(miny−maxy)と(mint−maxt)のうち、正値であって大きいほうの値を谷検出値OUTとし、このOUTの値がある閾値以上であると、注目画素(RDPaまたはRDPbの中心画素)を谷白画素と検出する。
このように画像の谷状態を検出して、1)RGB白地検出では、検出しにくいところを補う。なお、#は論理和(オア:または)を意味する。
Specifically, based on the 5 × 5 pixel matrix distribution RDPa,
miny = min (G [1] [2], G [1] [3], G [1] [4], G [5] [2], G [5] [3], G [5] [4 ])
Is calculated. That is, the minimum density miny in the pixel group with black circles in the 5 × 5 pixel matrix distribution RDPa shown in FIG. 11 is extracted. And
maxy = max (G [3] [2], G [3] [3], G [3] [4])
Is calculated. That is, the maximum density maxy in the pixel group with white circles in the 5 × 5 pixel matrix distribution RDPa shown in FIG. 11 is extracted. next,
mint = min (G [2] [1], G [3] [1], G [4] [1], G [2] [5], G [3] [5], G [4] [5 ])
Is calculated. That is, the lowest density mint in the pixel group with black circles in another 5 × 5 pixel matrix distribution RDPb shown in FIG. 11 is extracted. And
maxt = max (G [2] [3], G [3] [3], G [4] [3])
Is calculated. That is, the maximum density maxt in the pixel group with white circles in the 5 × 5 pixel matrix distribution RDPb shown in FIG. 11 is extracted. Here, min () is a function for detecting the minimum value. max () is a function for detecting the maximum value. next,
OUT = ((miny-maxy)> 0) # ((mint-maxt)> 0)
Is calculated. That is, of (miny-maxy) and (mint-maxt), the larger positive value is defined as a valley detection value OUT, and if the value of OUT is equal to or greater than a certain threshold, the target pixel (RDPa or RDPb Are detected as valley white pixels.
In this way, the valley state of the image is detected, and 1) RGB white background detection compensates for difficult detection. Note that # means a logical sum (OR: or).

白判定部323cについて説明する。
ここでは、白判定に用いる状態変数MS、SS[I]の更新を行う。その内容を図6のフローチャートに示す。ここで、状態変数MSは処理対象ライン(注目ライン)の画素宛てのもの、状態変数SS[I]は処理対象ラインの1ライン前(処理済ライン)の画素宛てのものであり、いずれも白地の白の程度を表す4bitの白地情報であり、図6のフローチャートに示す処理によって生成されるものである。状態変数MSおよびSS[I]が表す値の最高値は15に定めており、これが最も白い程度を意味し、最低値は0である。すなわち状態変数MSおよびSS[I]は、白の程度を示すデータであり、それが表す値が大きいほど、強い白を意味する。複写動作開始時に、状態変数MSおよびSS[I]は共に0に初期化される。
The white determination unit 323c will be described.
Here, the state variables MS and SS [I] used for white determination are updated. The contents are shown in the flowchart of FIG. Here, the state variable MS is addressed to the pixel of the processing target line (target line), and the state variable SS [I] is addressed to the pixel one line before the processing target line (processed line). This is 4-bit white background information representing the degree of white, and is generated by the processing shown in the flowchart of FIG. The maximum value represented by the state variables MS and SS [I] is set to 15, which means the whitest degree, and the minimum value is 0. That is, the state variables MS and SS [I] are data indicating the degree of white, and the larger the value represented, the stronger the white. At the start of the copying operation, the state variables MS and SS [I] are both initialized to 0.

図6の処理においてはまず、処理対象である注目画素の1ライン前の状態変数すなわち白地情報SS[I]と注目画素の同一ライン上の1画素前の画素(先行画素:処理済画素)の状態変数すなわち白地情報MSとを比較して(ステップS1)、1ライン前の白地情報SS[I]の方が大きければ、それを注目画素の仮の白地情報MSとする(ステップS2)が、そうでないと先行画素の状態変数MSを注目画素の仮の白地情報MSとする。これは、周辺画素の白地情報の、より白に近い情報を選択することを意味する。   In the process of FIG. 6, first, the state variable of the target pixel to be processed one line before, that is, the white background information SS [I] and the pixel one pixel before the target pixel on the same line (previous pixel: processed pixel). The state variable, that is, the white background information MS is compared (step S1). If the white background information SS [I] one line before is larger, this is used as the temporary white background information MS of the target pixel (step S2). Otherwise, the state variable MS of the preceding pixel is set as the temporary white background information MS of the target pixel. This means that information closer to white of the white background information of the peripheral pixels is selected.

複写動作を開始してから、上記1)RGB白地検出で白領域すなわち白地を検出すると〔上記1)RGB白地検出の出力である白地判定信号=「1」〕、注目画素の1ライン前の画素の白地情報SS[I]を15に更新し(ステップS3、4)、注目画素の白地情報MSも15とする(ステップS5)。そして、注目画素の白地情報MSは、図13に示すラインメモリLMPの現ライン(注目ライン)用のラインメモリの注目画素の主走査位置(F)に書込み、1ライン前の画素宛ての白地情報SS[I]は、図13に示すラインメモリLMPの前1ライン用のラインメモリの注目画素の主走査位置(F)に書込む(ステップS3、4、5)。次に、1ライン前の画素宛ての白地情報SS[I]を、1ライン前の画素に、次のように、伝搬させる(ステップS14〜17)。なお、[I]は注目画素の主走査位置を意味し、[I−1]は主走査方向xでそれより1画素前の画素(注目画素の直前の画素)の位置を意味する。   When a white area, that is, a white background is detected by the above-described 1) RGB white background detection after starting the copying operation, [1) White background determination signal = “1”, which is the output of the RGB white background detection, the pixel one line before the target pixel The white background information SS [I] is updated to 15 (steps S3 and S4), and the white background information MS of the target pixel is also set to 15 (step S5). Then, the white background information MS of the target pixel is written in the main scanning position (F) of the target pixel in the line memory for the current line (target line) of the line memory LMP shown in FIG. SS [I] is written in the main scanning position (F) of the target pixel of the line memory for the previous one line of the line memory LMP shown in FIG. 13 (steps S3, 4, 5). Next, the white background information SS [I] addressed to the previous pixel is propagated to the previous pixel as follows (steps S14 to S17). [I] means the main scanning position of the target pixel, and [I-1] means the position of the pixel one pixel before (in the main scanning direction x) (the pixel immediately before the target pixel).

SS[I−1]<SS[I]−1の時、SS[I−1]=SS[I]−1をラインメモリにセットする(ステップS14、15)。即ち、注目画素より1ライン前のラインにおいて、主走査方向で注目画素の位置(F)より1画素前(E)の白地情報SS[I−1]よりも注目画素の位置(F)の白地情報SS[I]から1を減算した値「SS[I]−1」のほうが大きい(白程度が強い)と、1ライン前のライン上の注目画素の位置(F)より1画素前の画素(E)宛ての白地情報SS[I−1]を、注目画素の位置(F)の白地情報SS[I]より1だけ白強度を下げた値に更新する。   When SS [I-1] <SS [I] -1, SS [I-1] = SS [I] -1 is set in the line memory (steps S14 and S15). That is, in the line one line before the target pixel, the white background at the position (F) of the target pixel from the white background information SS [I-1] one pixel before (E) from the position (F) of the target pixel in the main scanning direction. If the value “SS [I] −1” obtained by subtracting 1 from the information SS [I] is larger (whiteness is stronger), the pixel one pixel before the position (F) of the target pixel on the line one line before The white background information SS [I-1] addressed to (E) is updated to a value obtained by lowering the white intensity by 1 from the white background information SS [I] at the position (F) of the target pixel.

次に、SS[I−2]<SS[I]−2の時、SS[I−2]=SS[I]−2をラインメモリにセットする(ステップS16、17−14、15);次に、SS[I−3]<SS[I]−3の時、SS[I−3]=SS[I]−3をラインメモリにセットする(ステップS16、17−14、15)。   Next, when SS [I-2] <SS [I] -2, SS [I-2] = SS [I] -2 is set in the line memory (steps S16, 17-14, 15); When SS [I-3] <SS [I] -3, SS [I-3] = SS [I] -3 is set in the line memory (steps S16, 17-14, 15).

以下同様にして、最後に、SS[I−15]<SS[I]−15の時、SS[I−15]=SS[I]−15をラインメモリにセットする(ステップS16、17−14、15)。これらの白地情報SS[I]の値の下限値MINは0であり、0未満になるときには、0にとどめる。これは後述のステップS13においても同様である。   Similarly, finally, when SS [I-15] <SS [I] -15, SS [I-15] = SS [I] -15 is set in the line memory (steps S16, 17-14). 15). The lower limit value MIN of the value of the white background information SS [I] is 0, and when it is less than 0, it is kept at 0. The same applies to step S13 described later.

これらのステツプ14〜17の処理により、1ライン前かつ注目画素の主走査位置より前の白地情報SSが、注目画素の白地情報MSを、それから主走査方向xの1画素の位置ずれにつき1の低減率で下げた値に更新され、注目画素の白地情報が1ライン前の主走査方向xで主走査の後方に、上記低減率で伝搬する(白伝搬処理)。ただしこれは、1ライン前の白地情報のほうが小さい値である場合である。例えば1ライン前の画素が、上記1.)RGB白地検出で白地(白領域)と検出したものであるときにはそれの白地情報は15であって最高値であるので書換えは行われない。   By the processing of these steps 14 to 17, the white background information SS one line before and before the main scanning position of the target pixel is changed to one for the positional deviation of one pixel in the main scanning direction x. The value is updated to a value reduced by the reduction rate, and the white background information of the target pixel is propagated at the reduction rate in the main scanning direction x one line before the main scanning (white propagation processing). However, this is a case where the white background information one line before has a smaller value. For example, the pixel in the previous line is 1. ) When a white background (white area) is detected by RGB white background detection, the white background information is 15 and is the highest value, so rewriting is not performed.

注目画素を更新してそれが白地でないものになると〔上記1)RGB白地検出の出力である白地判定信号=「0」〕、ステップS3からステップS6以下に進み、注目画素が、色地〔上記2)色地検出の出力である色地判定信号d=「1」〕でなく(非色地であり)、2値化白〔上記2値化部323aの出力である2値化白判定信号=「1」〕であり、しかも、ステツプ1、2で仮に定めた注目画素の状態変数すなわち白地情報MSが閾値thw1(例えば13)以上、である時に、注目画素宛ての白地情報MSを+1する(ステップS6〜10)。すなわち、1だけ白程度が強い値に更新する。白地情報MSの最高値maxは15に定めており、15を超える時には15にとどめる(ステップS9、10)。この経路を進んできたときにも、前述のステップS5および14〜17を実行する。すなわち、白伝搬処理を行う。   When the pixel of interest is updated and becomes a non-white background [1) White background determination signal = “0”, which is the output of RGB white background detection, the process proceeds from step S3 to step S6 and subsequent steps, and the pixel of interest changes to the color background [above. 2) Not a color gamut determination signal d = “1” which is an output of color gamut detection (a non-color gamut), binarized white [binary white determination signal which is an output of the binarization unit 323a] = “1”], and when the state variable of the target pixel tentatively determined in Steps 1 and 2, that is, the white background information MS is equal to or greater than the threshold thw1 (eg, 13), the white background information MS addressed to the target pixel is incremented by one. (Steps S6 to 10). That is, the white level is updated to a strong value by 1. The maximum value max of the white background information MS is set to 15, and when it exceeds 15, it is limited to 15 (steps S9 and S10). Even when the route is advanced, the above-described steps S5 and 14 to 17 are executed. That is, white propagation processing is performed.

注目画素が非色地かつ2値化白ではあるが、白地情報MSがthw1(たとえば7)未満、thw2(例えば1)以上、かつ、谷白画素である時には、状態変数MSをそのままの値に保持する(ステップS8、11、12)。この経路を進んできたときにも、前述のステップS5および14〜17を実行する。すなわち、白伝搬処理を行う。   When the target pixel is non-colored and binary white, but the white background information MS is less than thw1 (for example, 7), thw2 (for example, 1) or more, and is a valley white pixel, the state variable MS is set to the value as it is. Hold (steps S8, 11, 12). Even when the route is advanced, the above-described steps S5 and 14 to 17 are executed. That is, white propagation processing is performed.

上記条件のいずれにも一致しないとき、すなわち注目画素が色地または非2値化白のときは、注目画素の白地情報MSを−1する(ステップS13)。すなわち、白程度が1だけ弱い白地情報に更新する。白地情報MSの最低値MINは0であり、0未満になる時には0にとどめる。この経路を進んできたときにも、前述のステップS5および14〜17を実行する。すなわち、白伝搬処理を行う。   If none of the above conditions is met, that is, if the target pixel is a color background or non-binary white, the white background information MS of the target pixel is decremented by 1 (step S13). In other words, the white level information is updated to white background information weak by one. The minimum value MIN of the white background information MS is 0, and is kept at 0 when it is less than 0. Even when the route is advanced, the above-described steps S5 and 14 to 17 are executed. That is, white propagation processing is performed.

以上の白地情報MSの生成により、ラインメモリLMP上において、状態変数(白地情報)MSを介して周辺画素に白情報を伝搬させることができる。この白地情報MSの生成は前述のように、色データ(R,G,B画像データのすべて)が閾値thwss=40より小さいとき白地と表すRGB白地判定信号に基づいた図6のステップS3−4−5−14〜17の系統の色対応の白地情報MSの生成を含み、しかも、濃度データ(G画像データ)のエッジ強調出力(フィルタ部321の出力)が、閾値thwsb=50より小さいとき、白地と2値化白判定信号に基づいた図6のステップS7〜13−5−14〜17の系統の濃度対応の白地情報MSの生成を含む。   By generating the white background information MS as described above, the white information can be propagated to the peripheral pixels via the state variable (white background information) MS on the line memory LMP. As described above, the white background information MS is generated in step S3-4 in FIG. 6 based on the RGB white background determination signal that represents a white background when the color data (all of the R, G, and B image data) is smaller than the threshold thwss = 40. Including generation of white background information MS corresponding to colors of -5-14 to 17 and when the edge emphasis output of density data (G image data) (output of the filter unit 321) is smaller than the threshold thwsb = 50, This includes the generation of white background information MS corresponding to the density of the system in steps S7 to 13-5-14 to 17 in FIG. 6 based on the white background and the binarized white determination signal.

この白判定部323cは、まずRGB白抽出部323bの中の1)RGB白地検出で、白領域を検出するまで、すなわち上記1)RGB白地検出が白地判定信号「1」を発生しこれに対応して色対応の白地情報MSの生成(ステップS3−4−5−14〜17)を開始するまでは動作(ステップS4の実行)を行わない。これは、白領域との判定が得られない領域をフィルタ部321のエッジ強調処理後G画像データの後述する白パターンマッチングにて白画素(白ブロック)と誤判定することを防ぐためである。   The white determination unit 323c first detects 1) RGB white background in the RGB white extraction unit 323b until a white area is detected, that is, 1) RGB white background detection generates a white background determination signal “1” and responds to this. The operation (execution of step S4) is not performed until the generation of the color-corresponding white background information MS (steps S3-4-5-14 to 17) is started. This is to prevent a region that cannot be determined as a white region from being erroneously determined as a white pixel (white block) in white pattern matching (to be described later) of the G image data after edge enhancement processing by the filter unit 321.

薄い色地上の文字にエッジ強調フィルタ部321をかけると、文字周辺のデータが本来の画像データ(色地)よりレベルの低い値(白)となるので、フィルタ部321のエッジ強調処理後のデータで白パターンマッチングをすると、すなわち、濃度対応の白地情報MSの生成(ステップS7〜13−5−14〜17)のみに基づいて白領域判定をすると、色地上の文字周辺を白地と誤判定しやすいが、前述の色対応の白地情報MSの生成(ステップS3−4−5−14〜17)によって白領域との判定が得られる領域に後述する白画素(白ブロック)を判定するための白パターンマッチングを適用するように白地情報MSを最高値とし、ステツプ3で白地でないときには、更にステップS6以下で詳細に白地条件をチエックして白パターンマッチングを適用するか否を決定するための1つのパラメータである白地情報MSを調整するので、フィルタ部321のエッジ強調処理後G画像データの後述する白パターンマッチングにて白画素(白ブロック)と誤判定することを防いでいる。   When the edge emphasis filter unit 321 is applied to a light color ground character, the data around the character becomes a value (white) having a lower level than the original image data (color ground), so the data after the edge emphasis processing of the filter unit 321 is performed. When white pattern matching is performed, that is, when white area determination is performed based only on generation of density-corresponding white background information MS (steps S7-13-5-14-17), the character ground around the color ground is erroneously determined as white. Although it is easy, white for determining a white pixel (white block) to be described later in an area that can be determined as a white area by generating the white background information MS corresponding to the color (steps S3-4-5-14 to 17). If the white background information MS is set to the highest value so that pattern matching is applied, and the white background is not white at step 3, the white background condition is checked in detail in step S6 and subsequent steps. Since the white background information MS, which is one parameter for determining whether to apply ching, is adjusted, white pixels (white blocks) are detected by white pattern matching (to be described later) of the G image data after edge enhancement processing by the filter unit 321. This prevents misjudgment.

例えば、色画素の可能性が高いときには、白地情報MSを下げ(ステップS13)、色画素の疑いもあり得るときには白地情報MSをホールド(変更無し)にして(ステップS11〜13)、後述する白パターンマッチングによって白画素(白ブロック)と誤判定することを防ぎ、文字周辺のデータが本来の画像データ(色地)よりレベルの低い値(白)となるのを防止している。   For example, when the possibility of a color pixel is high, the white background information MS is lowered (step S13), and when there is a suspicion of a color pixel, the white background information MS is held (no change) (steps S11 to 13). Pattern matching prevents erroneous determination as a white pixel (white block), and prevents data around the character from having a lower level (white) than the original image data (color background).

文字が密なところは前述の処理(ステップS3〜5、6〜10および14〜17)によって白地情報MSを更新し伝搬させるので、密な文字領域が絵柄と誤判定される可能性が低減する。また、込み入った文字(例えば、「書」)などの文字の中は、1)RGB白地検出で白検出ができない場合があるが、そのときには、3)谷白画素検出によって白と検出し、白地情報MSをステップS12のYES出力がステップS5に直進する経路でホールドして白地傾向にとどめるので、込み入った文字の中が絵柄と誤判定される可能性が低くなる。   When the character is dense, the white background information MS is updated and propagated by the above-described processing (steps S3 to 5, 6 to 10, and 14 to 17), so that the possibility that the dense character region is erroneously determined as a pattern is reduced. . In addition, among characters such as complicated characters (for example, “call”), there are cases where 1) white detection cannot be performed by RGB white background detection. In that case, 3) white is detected by valley white pixel detection, and white background is detected. Since the information MS is held by the route in which the YES output of step S12 goes straight to step S5 and remains in a white background tendency, the possibility that a complicated character is erroneously determined as a design is reduced.

また、先に触れたように、注目画素が周辺を白地で囲まれた色画素のときには、上記2)色地検出の出力である色地判定信号d=「1」(色地)となり、線が込み入ったところでも、薄い色画素を色地として検出することができ、注目画素周辺が白かを見る閾値thwcを低く設定して(thwc=20)、薄い色画素(注目画素)の周辺が白背景か否を厳密にチエックして薄い色画素を色地として検出することができるので、込み入った文字の中が絵柄と誤判定される可能性を更に低くすることができる。   As described above, when the pixel of interest is a color pixel surrounded by a white background, the color gamut determination signal d = “1” (color gamut), which is the output of the above 2) color gamut detection, is obtained. Even in a complicated area, a light color pixel can be detected as a color background, and a threshold thwc for determining whether the periphery of the target pixel is white is set low (thwc = 20), and the periphery of the light color pixel (target pixel) is Since it is possible to detect a light color pixel as a color background by strictly checking whether the background is a white background, it is possible to further reduce the possibility that a complicated character is erroneously determined as a design.

前述のように、薄い色画素を色地としてより厳密に検出できることにより、色地と検出したときには図6のステップS6からステップS13に進んで、状態変数MSを下げて色地を白と判定する可能性を低くできるのに加えて、ステップS3で参照する白地判定信号を生成する時の閾値thwss(例えば40)に対して、ステップS7で参照する2値化白判定信号を生成する時の閾値thwsb(例えば50)を大きい値として、色地と判定しなかった場合(ステップS6:NO)には、上記2値化部323aで白と見なす確率を高くして、図6のステップS7から10に進んで状態変数MSを上げて白領域と判定する可能性を高くしている。   As described above, since a light color pixel can be detected more precisely as a color background, when a color background is detected, the process proceeds from step S6 to step S13 in FIG. 6, and the state variable MS is lowered to determine the color background as white. In addition to being able to reduce the possibility, in addition to the threshold thwss (eg, 40) when generating the white background determination signal referred to in step S3, the threshold when generating the binary white determination signal referred to in step S7 If thwsb (for example, 50) is set to a large value and the color background is not determined (step S6: NO), the probability that the binarization unit 323a regards it as white is increased, and steps S7 to S10 in FIG. The state variable MS is increased to increase the possibility of determining a white area.

すなわち、上記1)RGB白地検出で閾値thwss=40で、白と判定する確率が低い厳しい白判定を行って、そこで白地と判定すると、図6のステップS3から4以下の処理により、状態変数MSを上げて文字背景を白と判定する可能性を高くしている。上記厳しい白判定で白地との判定が出なかったときには、逆に色地であるかの薄い色画素も色地として検出する信頼性が高い厳しい色地判定、すなわち、上記2)色地検出の結果を参照し、それが色地との判定にならないときには、もう一度、今度は白と判定する確率が高い閾値thwsb=50の甘い白判定、すなわち、上記2値化部323aを参照してそれが白の判定であると、状態変数MSを上げて文字背景を白と判定する可能性を高くしている(ステップS7〜10)。   That is, in the above-described 1) RGB white background detection, the threshold value thwss = 40, and a strict white determination with a low probability of determining white is performed. When the white background is determined there, the state variable MS is obtained by the processing from step S3 to step 4 in FIG. To increase the possibility of judging the character background to be white. If the white background is not determined by the above strict white determination, conversely, a strict color gamut determination with high reliability for detecting a thin color pixel as a color gamut as a color gamut, that is, the above 2) color gamut detection. When the result is referred to and it is not determined to be a color background, once again, a sweet white determination with a threshold thwsb = 50 having a high probability of determining white, that is, referring to the binarization unit 323a, If the determination is white, the state variable MS is increased to increase the possibility that the character background is determined to be white (steps S7 to S10).

上述したステップS6〜10の処理があるので、色地と検出される薄い色画素よりも更に薄い背景濃度ムラ、例えば裏映りのような原稿の地にムラがある場合に、原稿の細かい地ムラに連動して状態変数MSが2値的に大きく変化するのが抑制され、次の白パターンマッチング部323dでの白画素か否かの判定が走査方向に細かく変動するのが抑制される。その結果、背景が薄い色地のときに、裏映りのような原稿の細かい地ムラに連動して細かい色抜け(白背景)が現われることがなくなる。   Since the processing in steps S6 to S10 described above is performed, if the background density unevenness is thinner than the color background and the detected light color pixel, for example, if there is unevenness in the background of the document such as show-through, the fine background unevenness of the document. As a result, it is possible to prevent the state variable MS from significantly changing in binary, and to prevent the next white pattern matching unit 323d from determining whether or not the pixel is a white pixel in the scanning direction. As a result, when the background is a light color background, fine color loss (white background) does not appear in conjunction with the fine background unevenness of the document such as show-through.

白パターンマッチング部323dについて説明する。
注目画素を中心とする5×5画素単位のブロックで連続した白画素が存在するか否かで、背景が白かを判断する。そのために、注目画素に関して、次式が満たされる時に、注目画素を白画素と仮に定めて、下記の条件式により白パターンマッチングを行う。
(非色画素&(白地情報MS≧thw1(13))&2値化白)#(非色画素&(白地情報MS≧thw2(1))&谷白画素&2値化白)
ここで、この条件式を満たすかのチエックを行う注目画素は、図6のステップS5および14〜17の白伝搬処理の対象となってその処理過程を経たものであり、上記条件式の中の「白地情報MS」が、白伝搬処理後の上記チエックを行う注目画素の白地情報MS[I]である。ただし、このMS[I]は白伝搬処理を終えた白地情報であって、そのIは、上記チエックを行う注目画素の主走査方向xの位置であり、前述の白判定部323cで状態変数MSを算出する注目画素の主走査方向xの位置とは別物である。
The white pattern matching unit 323d will be described.
Whether the background is white is determined by whether or not there is a continuous white pixel in a 5 × 5 pixel unit block centered on the target pixel. Therefore, regarding the target pixel, when the following expression is satisfied, the target pixel is temporarily determined as a white pixel, and white pattern matching is performed according to the following conditional expression.
(Non-color pixel & (white background information MS ≧ thw1 (13)) & binarized white) # (Non-color pixel & (white background information MS ≧ thw2 (1)) & valley white pixel & binarized white)
Here, the target pixel for checking whether or not this conditional expression is satisfied is the target of the white propagation processing in steps S5 and 14 to 17 in FIG. “White background information MS” is the white background information MS [I] of the pixel of interest for which the above check after the white propagation process is performed. However, MS [I] is the white background information after the white propagation processing, and I is the position in the main scanning direction x of the target pixel to be checked, and the white determination unit 323c described above performs the state variable MS. This is different from the position in the main scanning direction x of the pixel of interest for which is calculated.

上記条件式の中の、「非色画素」は上記2)色地検出の出力である色地判定信号dが「0」であること、「2値化白」は上記2値化部323aの2値化白判定信号が「1」(2値化白)であること、および、「谷白画素」は、上記3)谷白画素検出の検出結果が谷白画素であること、をそれぞれ意味し、#は論理和(オア:または)を意味する。白パターンマッチングは、上記条件式で判定した出力(白画素か否)に対し、図13の縦横斜めの連続性パターンPMPa〜PMPdのいずれかに該当するかをチェックするものである。パターンPMPa〜PMPdに付した白丸は、白画素であることを意味する。他の空白画素は、白画素であるか否か不問である。   In the conditional expression, “non-color pixel” indicates that the color gamut determination signal d, which is the output of 2) color gamut detection, is “0”, and “binary white” indicates that the binarization unit 323a The binarized white determination signal is “1” (binarized white), and “valley white pixel” means that the detection result of the above 3) valley white pixel detection is a valley white pixel. And # means logical OR (or :). The white pattern matching is for checking whether the output (whether it is a white pixel) determined by the above conditional expression corresponds to one of the vertical and horizontal diagonal continuity patterns PMPa to PMPd in FIG. White circles attached to the patterns PMPa to PMPd mean white pixels. It does not matter whether the other blank pixels are white pixels.

注目画素を中心とする5×5画素マトリクスの白画素分布が図13のパターンPMPa,PMPb,PMPcまたはPMPdに該当すると、注目画素が白パターン画素であると判定する。   If the white pixel distribution of the 5 × 5 pixel matrix centered on the target pixel corresponds to the pattern PMPa, PMPb, PMPc, or PMPd in FIG. 13, it is determined that the target pixel is a white pattern pixel.

グレー画素検出として、R,G,B,Y,M,C,Bkの色相分割を行い、色相毎に濃度の低い画素を検出する。色相分割は、後述する色判定と同一である。ここで、フィルタ後のGデータをthgrと比較して、Gデータより大きいか、RGB白抽出の色画素検出で色画素であるかのどちらかを満たしていれば、下記の演算を行い、下記条件を満たしていれば、グレー画素とする。ここで、色毎に閾値を変えているのは各インクの最大濃度が異なるためである。   As gray pixel detection, hue division of R, G, B, Y, M, C, and Bk is performed, and a pixel having a low density is detected for each hue. Hue division is the same as color determination described later. Here, the filtered G data is compared with thgr, and if it is larger than the G data or if it is a color pixel in RGB white extraction color pixel detection, the following calculation is performed. If the condition is satisfied, the pixel is a gray pixel. Here, the threshold is changed for each color because the maximum density of each ink is different.

4.1)R−Y色相領域境界(ry)
R−2 * G+B>04.2)Y−G色相領域境界(yg)
11*R−8*G−3*B>04.3)GーC色相領域境界(gc)
1*R−5*G+4*B<04.4)CーB色相領域境界(cb)
8*R−14*G+6*B<04.5)BーM色相領域境界(bm)
9*R−2*G−7*B<04.6)MーR色相領域境界(mr)
R+5*G−6*B<04.8)Y画素画素判定(gry)
(色画素である)&(ry==1)&(yg==0)&(RGBの最大値<thmaxy)
4.9)G画素判定(grg)
(色画素である)&(yg==1)&(gc==0)&(RGBの最大値<thmaxg)
4.10)C画素判定(grc)
(色画素である)&(gc==1)&(cb==0)&(RGBの最大値<thmaxc)
4.11)B画素判定(grb)
(色画素である)&(cb==1)&(bm==0)&(RGBの最大値<thmaxb)
4.12)M画素判定(grm)
(色画素である)&(bm==1)&(mr==0)&RGBの最大値<thmaxm)
4.13)R画素判定(grr)
(色画素である)&(mr==1)&(ry==0)&(RGBの最大値 <thmaxr)
4.14)色画素でない時(grbk)
(RGBの最大値<thmaxbk)
4.15)グレー画素判定4.8)〜4.15)のいずれかの条件を満たす時にグレー画素とする。なお、「==」はC言語の表記である。
4.1) RY hue region boundary (ry)
R-2 * G + B> 04.2) Y-G hue region boundary (yg)
11 * R-8 * G-3 * B> 04.3) GC hue region boundary (gc)
1 * R-5 * G + 4 * B <04.4) CB hue region boundary (cb)
8 * R-14 * G + 6 * B <04.5) B-M hue area boundary (bm)
9 * R-2 * G-7 * B <04.6) MR hue region boundary (mr)
R + 5 * G-6 * B <04.8) Y pixel pixel determination (gry)
(It is a color pixel) & (ry == 1) & (yg == 0) & (Maximum RGB value <thmaxy)
4.9) G pixel determination (grg)
(It is a color pixel) & (yg == 1) & (gc == 0) & (Maximum RGB value <thmaxg)
4.10) C pixel determination (grc)
(It is a color pixel) & (gc == 1) & (cb == 0) & (Maximum RGB value <thmaxc)
4.11) B pixel determination (grb)
(It is a color pixel) & (cb == 1) & (bm == 0) & (Maximum RGB value <thmaxb)
4.12) M pixel determination (grm)
(It is a color pixel) & (bm == 1) & (mr == 0) & RGB maximum value <thmaxm)
4.13) R pixel determination (grr)
(It is a color pixel) & (mr == 1) & (ry == 0) & (Maximum RGB value <thmaxr)
4.14) When not a color pixel (grbk)
(RGB maximum value <thmaxbk)
4.15) Gray pixel determination When satisfying any of the conditions 4.8) to 4.15), a gray pixel is determined. Note that “==” is a C language notation.

上述の処理は、図19に示すグレー画素検出部323b−1で行われる。前述のようにRGB白抽出部323bをグレー画素検出部323b−1、色画素検出部323b−2、RGB白地検出部323b−3から構成し、これら各部にR,G,Bの各画像データを入力する。グレー画素検出部323b−1の出力はグレーパターンマッチング部323hに入力され、グレーパターンマッチングのパターンマッチング結果はグレー膨張部323iに入力され、膨張処理を行った後、判定部323mに入力される。   The above-described processing is performed by the gray pixel detection unit 323b-1 illustrated in FIG. As described above, the RGB white extraction unit 323b includes the gray pixel detection unit 323b-1, the color pixel detection unit 323b-2, and the RGB white background detection unit 323b-3, and R, G, and B image data are stored in these units. input. The output of the gray pixel detection unit 323b-1 is input to the gray pattern matching unit 323h, and the pattern matching result of the gray pattern matching is input to the gray expansion unit 323i. After performing expansion processing, the output is input to the determination unit 323m.

また、白判定部323cには、色画素検出部323b−2、RGB白地検出部323b−3および2値化部323aの出力が入力され、白判定部323cの判定結果は白パターンマッチング部323dに入力され、そのパターンマッチング結果は、白パターン補正部323jおよび白補正部323gに入力される。白パターン補正部323hの補正結果はさらに白膨張部323kおよび白収縮部323lで処理された後、判定部323mに入力され、また、白補正部323gの処理結果はそのまま判定部323mに入力される。   In addition, the outputs of the color pixel detection unit 323b-2, the RGB white background detection unit 323b-3, and the binarization unit 323a are input to the white determination unit 323c, and the determination result of the white determination unit 323c is input to the white pattern matching unit 323d. The pattern matching result is input to the white pattern correction unit 323j and the white correction unit 323g. The correction result of the white pattern correction unit 323h is further processed by the white expansion unit 323k and the white contraction unit 323l and then input to the determination unit 323m, and the processing result of the white correction unit 323g is input to the determination unit 323m as it is. .

なお、グレー膨張部323iで膨張処理する前に、収縮処理を施しておけば、孤立点の除去が可能となる。また、白パターンマッチング部323d、白パターン補正部323j、白膨張部323k、白収縮部323lおよび白補正部323gは、白と白でない境界領域を検出するための構成で、白補正部323gの出力は線幅を示し、白収縮部323lの出力は白領域を示し、上記グレー膨張部323iの出力は中濃度であることを示す。そこで、判定部323mでは、これら3つの出力に対して優先順位を付けて判定し、判定結果を後段に出力する。この場合、優先順位1は白補正部323gからの線幅情報であり、優先順位2はグレー膨張部323iからの中濃度情報であり、優先順位3は、白収縮部323lからの白領域情報である。   It should be noted that the isolated points can be removed by performing a contraction process before the gray expansion unit 323i performs the expansion process. The white pattern matching unit 323d, the white pattern correction unit 323j, the white expansion unit 323k, the white contraction unit 323l, and the white correction unit 323g are configured to detect a boundary region that is not white and white, and are output from the white correction unit 323g. Indicates the line width, the output of the white contraction part 323l indicates a white region, and the output of the gray expansion part 323i indicates a medium density. Therefore, the determination unit 323m makes a determination by assigning priorities to these three outputs, and outputs the determination result to the subsequent stage. In this case, priority 1 is line width information from the white correction unit 323g, priority 2 is medium density information from the gray expansion unit 323i, and priority 3 is white area information from the white contraction unit 323l. is there.

グレーパターンマッチング部323hでは、Dをグレー画素として、bkはグレー画素より濃いところとして下記パターンマッチングを行う。複写原稿は、薄い200線の万線パターン、300銭の万線であるので、複写原稿もグレー検出するように下記のようなパターンを採用している。   The gray pattern matching unit 323h performs the following pattern matching assuming that D is a gray pixel and bk is darker than the gray pixel. Since the copied original has a thin line pattern of 200 lines and a 300-line line, the following pattern is adopted so that the copied original is also detected in gray.

下記パターンに一致したものは、グレー画素となる。図20(a)、図20(b)にこのときのパターンを示す。図20(a)は200線用のパターンであり、図20(b)は300線用のパターンである。
( D15 & D25 & D35 & D32 & D45 & D38 & !BK41 & D42 & !BK43 & !BK44 & D55 & !BK46 & !BK47& D48 & !BK49 D52 & D65 & D58 & D75 & D85 & D95 )#( D05 & D15 & D25 & D31 & D33 & D35 & D37 & D38& D41 & !BK42 & D43 & !BK44 & D45 & !BK46 & D47 & !BK48 & D48 && D51 & D53 & D55 & D57 & D58 & D65 & D75 & D85 )
A pixel that matches the following pattern is a gray pixel. FIG. 20A and FIG. 20B show patterns at this time. FIG. 20A shows a pattern for 200 lines, and FIG. 20B shows a pattern for 300 lines.
(D15 & D25 & D35 & D32 & D45 & D38 &! BK41 & D42 &! BK43 &! BK44 & D55 &! BK46 &! BK47 & D48 &! BK49 D52 & D65 & D58 & D75 & D85 & D95) # (D05 & D15 & D25 & D31 & D33 & D35 & D37 & D38 & D41 &! BK42 & D43 &! BK44 & D45 &! BK46 & D47 &! BK48 & D48 && D51 & D53 & D55 & D57 & D58 & D65 & D75 & D85)

白パターン補正部323jでは、白画素パターンマッチングで孤立(1×1、1×2、2×1、2×2、1×3、3×1の白画素)しているアクティブ画素を非アクティブにする。このことにより、孤立している画素を除去する。   The white pattern correction unit 323j deactivates active pixels that are isolated (white pixels of 1 × 1, 1 × 2, 2 × 1, 2 × 2, 1 × 3, and 3 × 1) by white pixel pattern matching. To do. This removes isolated pixels.

白膨張部323kでは、 白画素パターンマッチングの補正の結果を7×41のORを行う。   In the white expansion unit 323k, the result of white pixel pattern matching correction is ORed by 7 × 41.

白収縮部323lでは、白膨張部323hにおける白膨張の結果の1×33のANDを行う。白膨張と白収縮を行うことにより、白画素パターンマッチング部323dでの補正結果に対して膨張と小面積で存在する非アクティブ画素を除去する。この判定結果は、白地と境界部分に対して、非白地側の境界領域を含む結果となる。言いかえれば、白地よりも大きな領域となる。   The white contraction part 323l performs 1 × 33 AND of the result of white expansion in the white expansion part 323h. By performing white expansion and white contraction, inactive pixels existing in a small area with expansion are removed from the correction result in the white pixel pattern matching unit 323d. The determination result includes a boundary area on the non-white background side with respect to the white background and the boundary portion. In other words, the area is larger than the white background.

白補正部323gでは、図13のブロックパターンBCPの“×”を付した注目画素を中心とした15×11画素において、四隅の各6×4画素領域それぞれに1つ以上の白候補ブロックが存在するときに、注目ブロックに白ブロック補正データを与える。このことにより、白地に囲まれた領域を白領域とする。   In the white correction unit 323g, one or more white candidate blocks exist in each of the 6 × 4 pixel regions at the four corners in the 15 × 11 pixel centered on the target pixel marked with “×” in the block pattern BCP of FIG. The white block correction data is given to the target block. As a result, a region surrounded by a white background is set as a white region.

グレー膨張部323iでは、グレーパターンマッチングの結果に対して、11×11のOR処理をする。このことにより、グレー領域に対してやや大きな領域となる。   The gray expansion unit 323i performs 11 × 11 OR processing on the gray pattern matching result. This makes the area slightly larger than the gray area.

判定部323mでは、白補正部323gの結果がアクティブまたは、白収縮部323lの結果がアクティブでかつグレー膨張部323iの結果が非アクティブの時に白背景とする。式で表現すると次式のようになる。
白補正の結果 # (白収縮の結果 & !グレー膨張の結果)
ここで、白補正の結果では、白地に囲まれた領域を確実に白領域と判定して、白収縮の結果 & !グレー膨張の結果の結果では、濃い黒文字周辺を白領域として、濃度の薄いところを非白領域としている。
The determination unit 323m sets the white background when the result of the white correction unit 323g is active or when the result of the white contraction unit 323l is active and the result of the gray expansion unit 323i is inactive. It can be expressed as the following equation.
White correction result # (white shrinkage result &! Gray expansion result)
Here, in the result of white correction, the area surrounded by the white background is definitely determined as the white area, and the result of white shrinking &! As a result of the gray expansion, a dark black character periphery is set as a white area, and a low density area is set as a non-white area.

色判定部325について説明する。
原稿中の色(有彩)画素や黒(無彩)画素を検出する際には、R,G,Bの相対的な読み取りずれが、各色画像データのサンプリングや機械的精度のために存在する。図14を用いて説明する。図14の(a)は、画像濃度信号で、黒濃度信号は理想的には、R,B,G濃度信号ともレベルの高低が一致したとき理想の黒である。ところが、実際の画像データは、レンズ206でCCD207上に画像を結像し、CCD207の画像信号をデジタル化したもので、図14の(b)が理想の高低波形となる。しかし、一般的なスキャナでは、3ラインCCDセンサを用いているため、画像データのR,G,Bの各画像を時間的に同時に読み取るのではなく、R,G,Bの各ラインセンサは等間隔で配置され、時間的に同時に読むことができないので、どうしても読み取り位置ずれが生じてしまう。例えば、図14の(b)に示すレベル変化の黒を表すR,G,B各色濃度信号は、図14の(c)に示すように相対的にずれる。このずれが大きいと、黒領域の周縁に色ずれが現われる。
The color determination unit 325 will be described.
When detecting color (chromatic) pixels and black (achromatic) pixels in a document, there is a relative reading shift of R, G, and B due to sampling of each color image data and mechanical accuracy. . This will be described with reference to FIG. FIG. 14A shows an image density signal. The black density signal is ideally black when the levels of the R, B, and G density signals coincide with each other. However, the actual image data is obtained by forming an image on the CCD 207 with the lens 206 and digitizing the image signal of the CCD 207. FIG. 14B shows an ideal high and low waveform. However, since a general scanner uses a three-line CCD sensor, the R, G, B line sensors are not read simultaneously in time, but the R, G, B line sensors are equal. Since they are arranged at intervals and cannot be read simultaneously in time, the reading position will inevitably shift. For example, the R, G, B color density signals representing the level-change black shown in FIG. 14B are relatively shifted as shown in FIG. 14C. If this shift is large, a color shift appears at the periphery of the black area.

色相分割部325aについて説明する。
色判定部325は、有彩色領域を見つけるものである。入力データR,G,Bは、色相分割部25aにて、c,m,yおよび色判定用w(白)の信号に変換される。色相分割の例としては、それぞれの色の境界を求め、1画素内のR,G,Bそれぞれの画像データの最大値と最小値の差をRGB差と定義して、以下のようにした。ここでは、R,G,B画像データは、数字が大きくなると黒くなる(濃くなる)。
The hue division unit 325a will be described.
The color determination unit 325 finds a chromatic color region. The input data R, G, B is converted into signals of c, m, y and color determination w (white) by the hue dividing unit 25a. As an example of hue division, each color boundary is obtained, and the difference between the maximum value and the minimum value of R, G, and B image data in one pixel is defined as an RGB difference, and the following is performed. Here, the R, G, B image data becomes black (darkens) as the number increases.

1)R−Y色相領域境界(ry) R−2*G+B>0
2)Y−G色相領域境界(yg) 11*R−8*G−3*B>0
3)G−C色相領域境界(gc) 1*R−5*G+4*B<0
4)C−B色相領域境界(cb) 8*R−14*G+6*B<0
5)B−M色相領域境界(bm) 9*R−2*G−7*B<0
6)M−R色相領域境界(mr) R+5*G−6*B<0
7)色判定用w(白)画素判定:(R<thwa)&(G<thwa)&(B<thwa)
ならば、y=m=c=0とする。thwaは閾値である。
1) RY hue region boundary (ry) R-2 * G + B> 0
2) YG hue region boundary (yg) 11 * R-8 * G-3 * B> 0
3) GC hue region boundary (gc) 1 * R-5 * G + 4 * B <0
4) CB hue region boundary (cb) 8 * R-14 * G + 6 * B <0
5) BM hue region boundary (bm) 9 * R-2 * G-7 * B <0
6) MR hue region boundary (mr) R + 5 * G-6 * B <0
7) Color determination w (white) pixel determination: (R <thwa) & (G <thwa) & (B <thwa)
Then, y = m = c = 0. thwa is a threshold value.

8)Y画素判定:(ry==1)&(yg==0)&(RGB差>thy)
ならば、y=1、m=c=0とする。thyは閾値である。
8) Y pixel determination: (ry == 1) & (yg == 0) & (RGB difference> thy)
Then, y = 1 and m = c = 0. thy is a threshold value.

9)G画素判定:(yg==1)&(gc==0)&(RGB差>thg)
ならば、c=y=1、m=0とする。thgは閾値である。
9) G pixel determination: (yg == 1) & (gc == 0) & (RGB difference> thg)
Then, c = y = 1 and m = 0. thg is a threshold value.

10)C画素判定:(gc==1)&(cb==0)&(RGB差>thc)
ならば、c=1、m=y=0とする。thcは閾値である。
10) C pixel determination: (gc == 1) & (cb == 0) & (RGB difference> thc)
Then, c = 1 and m = y = 0. thc is a threshold value.

11)B画素判定:(cb==1)&(bm==0)&(RGB差>thb)
ならば、m=c=1、y=0とする。thbは閾値である。
11) B pixel determination: (cb == 1) & (bm == 0) & (RGB difference> thb)
Then, m = c = 1 and y = 0. thb is a threshold value.

12)M画素判定:(bm==1)&(mr==0)&(RGB差>thm)
ならば、m=1、y=c=0とする。thmは閾値である。
12) M pixel determination: (bm == 1) & (mr == 0) & (RGB difference> thm)
Then, m = 1 and y = c = 0. thm is a threshold value.

13)R画素判定:(mr==1)&(ry==0)&(RGB差>thr)
ならば、y=m=1、c=0とする。thrは閾値である。
13) R pixel determination: (mr == 1) & (ry == 0) & (RGB difference> thr)
Then, y = m = 1 and c = 0. thr is a threshold value.

14)BK画素判定:7)〜13)に該当しない時、y=m=c=1とする。 14) BK pixel determination: When not corresponding to 7) to 13), y = m = c = 1.

さらに、色判定用w画素の判定を行う。条件は、
(R<thw)&(G<thw)&(B<thw)
ならば、色画素用w画素とし、wとして出力する。thwは閾値である。ここで、7)〜14)の優先順位は、数の小さい方を優先する。前述の閾値thwa、thy、thm、thc、thr、thg、thbは、複写(処理)前に決まる閾値である。thwとthwaの関係は、thw>thaとなっている。出力信号は、c,m,yに各1ビットの3ビットデータと、さらに、色判定用色画素検出のwの1ビットである。ここで色相毎に閾値をかえているのは、色相領域毎に、有彩範囲が異なる時に色相領域に応じた閾値を決定する。この色相分割は、一例であって、どんな式を使用してもよい。
Further, the color determination w pixel is determined. condition is,
(R <thw) & (G <thw) & (B <thw)
Then, it is set as a w pixel for a color pixel and is output as w. thw is a threshold value. Here, the priority of 7) to 14) is given priority to the smaller number. The above-described threshold values thwa, thy, thm, thc, thr, thg, thb are threshold values determined before copying (processing). The relationship between thw and thwa is thw> tha. The output signal is 3 bits of data of 1 bit for each of c, m, and y, and 1 bit of w for color pixel detection for color determination. Here, the threshold is changed for each hue because the threshold corresponding to the hue area is determined for each hue area when the chromatic range is different. This hue division is an example, and any formula may be used.

色相分割部325aの出力c,m,y,wは、ラインメモリ325b〜325eに5ライン蓄え、色画素判定部325fに入力する。   Output lines c, m, y, and w of the hue division unit 325a are stored in five lines in the line memories 325b to 325e and input to the color pixel determination unit 325f.

色画素判定部325fについて説明する。
図7に、色画素判定部325fの内容を示す。5ライン分のc,m,y,wのデータは、パターンマッチング部325f5〜325f7と、カウント部325f1〜325f4に入力する。ここでまず、B/C信号を求める流れの中のパターンマッチング部325f6について説明する。
The color pixel determination unit 325f will be described.
FIG. 7 shows the contents of the color pixel determination unit 325f. The data of c, m, y, and w for five lines are input to the pattern matching units 325f5 to 325f7 and the count units 325f1 to 325f4. First, the pattern matching unit 325f6 in the flow for obtaining the B / C signal will be described.

パターンマッチング部325f6について説明する。
色画素用w画素が存在する時は、その画素のc=m=y=0に補正する。この補正により、注目画素を中心とする5×5画素マトリクスの白レベルが大きくなる。次に注目画素が、色相分割部325aで判定した画素のc,m,yの全てが1(c=m=y=1)または全てが0(c=m=y=0)以外の画素(色画素)であるかを、該5×5画素マトリクスが次のパターンにマッチングするかをチェックすることによつて、判定する。
The pattern matching unit 325f6 will be described.
When the color pixel w pixel exists, the pixel is corrected to c = m = y = 0. This correction increases the white level of the 5 × 5 pixel matrix centered on the pixel of interest. Next, the pixel of interest is a pixel other than all of c, m, y determined by the hue dividing unit 325a being 1 (c = m = y = 1) or all being 0 (c = m = y = 0) ( It is determined by checking whether the 5 × 5 pixel matrix matches the next pattern.

1)色画素パターン群
1―1) パターン1―1(pm1) D23 & D33 & D43
1―2) パターン1―2(pm2) D32 & D33 & D34
1―3) パターン1―3(pm3) D22 & D33 & D44
1―4) パターン1―4(pm4) D24 & D33 & D42
1) Color pixel pattern group 1-1) Pattern 1-1 (pm1) D23 & D33 & D43
1-2) Pattern 1-2 (pm2) D32 & D33 & D34
1-3) Pattern 1-3 (pm3) D22 & D33 & D44
1-4) Pattern 1-4 (pm4) D24 & D33 & D42

中心画素(注目画素)はD33である。図15にこれらのパターンpm1〜pm4を示す。これらのパターン上の白丸は、c,m,yの少なくとも一者が1であることを示す。パターンマッチングを採用するのは、孤立点などを拾わないようにするためである。逆に、網点などの、小面積色検出する際には、中心画素が1(c=m=y=1)または全てが0(c=m=y=0)以外の画素(色画素)であるかで、判定すればよい。   The central pixel (target pixel) is D33. FIG. 15 shows these patterns pm1 to pm4. White circles on these patterns indicate that at least one of c, m, and y is 1. Pattern matching is used to prevent picking up isolated points. On the other hand, when detecting a small area color such as a halftone dot, the central pixel is a pixel (color pixel) other than 1 (c = m = y = 1) or all 0 (c = m = y = 0). It may be determined whether or not.

2)色細線用パターン群白に囲まれた色線を検出する。これに用いるパターンを図16に示す。図16において、白丸を付した画素は、c,m,yが全て0の画素である。注目画素(中心画素)を中心とする5×5画素マトリクスのデータ(c,m,y)の分布が、図16のパターンpw11a〜pw14dのいずれかにマッチングすると、そのときの注目画素(中心画素)を色線画素と見なす。 2) Detect a color line surrounded by a pattern group for color fine lines. The pattern used for this is shown in FIG. In FIG. 16, pixels with white circles are pixels in which c, m, and y are all 0. If the distribution of the data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches any of the patterns pw11a to pw14d in FIG. 16, the target pixel (center pixel) at that time ) Is regarded as a color line pixel.

2―1)パターン2―1(pw11a〜pw11d)
((D12&D13&D14)&(D42&D43&D44))#((D12&D13&D14)&(D52&D53&D54))#((D22&D23&D42)&(D42&D43&D44))#((D22&D23&D42)&(D52&D53&D54))
2―2)パターン2―2(pw12a〜pw12d)
((D21&D31&D41)&(D24&D34&D44))#((D21&D31&D41)&(D25&D35&D45))#((D22&D23&D24)&(D24&D34&D44))#((D22&D23&D24)&(D25&D35&D45))
2―3)パターン2―3(pw13a〜pw13d)
((D11&D21&D12)&(D35&D44&D53))#((D11&D21&D12)&(D45&D44&D55))#((D13&D22&D31)&(D35&D44&D53))#((D13&D22&D31)&(D45&D44&D55))
2―4)パターン2―4(pw14a〜pw14d)
((D13&D24&D35)&(D41&D51&D52))#((D14&D15&D25)&(D41&D51&D52))#((D13&D24&D35)&(D31&D42&D53))#((D14&D15&D25)&(D31&D42&D53))
2-1) Pattern 2-1 (pw11a to pw11d)
((D12 & D13 & D14) & (D42 & D43 & D44)) # ((D12 & D13 & D14) & (D52 & D53 & D54)) # ((D22 & D23 & D42) & (D42 & D43 & D44)) # ((D22 & D23 & D42) & (D52 & D53 & D54))
2-2) Pattern 2-2 (pw12a to pw12d)
((D21 & D31 & D41) & (D24 & D34 & D44)) # ((D21 & D31 & D41) & (D25 & D35 & D45)) # ((D22 & D23 & D24) & (D24 & D34 & D44)) # ((D22 & D23 & D24) & (D25 & D35 & D45))
2-3) Pattern 2-3 (pw13a to pw13d)
((D11 & D21 & D12) & (D35 & D44 & D53)) # ((D11 & D21 & D12) & (D45 & D44 & D55)) # ((D13 & D22 & D31) & (D35 & D44 & D53)) # ((D13 & D22 & D31) & (D45 & D44 & D55))
2-4) Pattern 2-4 (pw14a to pw14d)
(((D13 & D24 & D35) & (D41 & D51 & D52)) # ((D14 & D15 & D25) & (D41 & D51 & D52)) # ((D13 & D24 & D35) & (D31 & D42 & D53)) # ((D14 & D15 & D25) & (D31 & D42 & D53)

3)白領域パターン群c,m,yが全て0のところのパターンマッチングを行う。これに用いるパターンを図17に示す。図17において、白丸を付した画素は、c,m,yが全て0の画素である。注目画素(中心画素)を中心とする5×5画素マトリクスのデータ(c,m,y)の分布が、図17のパターンpw21a〜pw24dのいずれかにマッチングすると、そのときの注目画素(中心画素)を白領域画素と見なす。 3) Perform pattern matching where all white area pattern groups c, m, and y are zero. The pattern used for this is shown in FIG. In FIG. 17, pixels with white circles are pixels in which c, m, and y are all 0. When the distribution of the data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches any of the patterns pw21a to pw24d in FIG. 17, the target pixel (center pixel) at that time ) Is regarded as a white area pixel.

3―1)パターン3―1(pw21a〜pw21d)
(D21&D31&D41)#(D22&D32&D42)#(D24&D34&D44)#(D25&D35&D45)
3―2)パターン3―2(pw22a〜pw22d)
(D12&D13&D14)#(D22&D23&D24)#(D42&D43&D44)#(D52&D53&D54)
3―3)パターン3―3(pw23a〜pw23d)
(D52&D51&D41)#(D53&D42&D31)#(D35&D24&D13)#(D25&D15&D14)
3―4)パターン3―4(pw24a〜pw24d)
(D54&D55&D45)#(D53&D44&D35)#(D31&D22&D13)#(D21&D11&D12)
3-1) Pattern 3-1 (pw21a to pw21d)
(D21 & D31 & D41) # (D22 & D32 & D42) # (D24 & D34 & D44) # (D25 & D35 & D45)
3-2) Pattern 3-2 (pw22a to pw22d)
(D12 & D13 & D14) # (D22 & D23 & D24) # (D42 & D43 & D44) # (D52 & D53 & D54)
3-3) Pattern 3-3 (pw23a to pw23d)
(D52 & D51 & D41) # (D53 & D42 & D31) # (D35 & D24 & D13) # (D25 & D15 & D14)
3-4) Pattern 3-4 (pw24a to pw24d)
(D54 & D55 & D45) # (D53 & D44 & D35) # (D31 & D22 & D13) # (D21 & D11 & D12)

4)色画素候補2の判定上記で抽出したパターンマッチング結果が以下のパターンに一致すれば、注目画素を、色判定用色画素候補2とする: ((pm1 ==1) & ((pw11 ==1) # (pw21 !=1))) # ((pm2 ==1) & ((pw12 ==1) # (pw22 !=1))) # ((pm3 ==1) & ((pw13 ==1) # (pw23 !=1))) # ((pm4 ==1) & ((pw14 ==1) # (pw24 !=1))) 4) Determination of color pixel candidate 2 If the pattern matching result extracted above matches the following pattern, the pixel of interest is set as color pixel candidate 2 for color determination: ((pm1 == 1) & ((pw11 = = 1) # (pw21! = 1))) # ((pm2 == 1) & ((pw12 == 1) # (pw22! = 1))) # ((pm3 == 1) & ((pw13 = = 1) # (pw23! = 1))) # ((pm4 == 1) & ((pw14 == 1) # (pw24! = 1)))

ここで、(pm1 ==1)は、注目画素を中心とするデータ分布が、パターンpm1にマッチングすることを意味し、(pw11 ==1)はパターンpw11a〜pw11dのいずれかにマッチングすることを意味し、(pw21!=1)はパターンpw21a〜pw21dのいずれかにマッチングすることを意味する。&は論理積を、#は論理和を意味する。このパターンマッチングにより、白領域に囲まれた色画素を色画素候補として、それ以外で白領域が存在する時は、色画素としない。白領域がない色画素パターンマッチングで一致したものは、色画素候補となる。   Here, (pm1 == 1) means that the data distribution centered on the target pixel matches the pattern pm1, and (pw11 == 1) means that it matches any of the patterns pw11a to pw11d. This means that (pw21! = 1) matches with any of the patterns pw21a to pw21d. & Means logical product, and # means logical sum. With this pattern matching, a color pixel surrounded by a white area is set as a color pixel candidate, and when there is a white area other than that, it is not set as a color pixel. A color pixel candidate that matches in color pixel pattern matching without a white area is a color pixel candidate.

カウント部325f1について説明する。
注目画素を中心とする5×5画素マトリクス内に、色判定用w画素が存在する時は、その画素の色相分割部325aで判定したc,m,yデータをc=m=y=0に補正する。この補正により、該画素マトリクスの白レベルが大きくなる。そして、該画素マトリクス内の各画素のc,m,yの1(c=1、m=1、y=1)の数をカウントする。c,m,yそれぞれについてのカウント値の最大値と最小値との差が、thcnt以上でかつ最小値がthmin未満ならば、色画素候補1とする。thcnt、thminは、複写(処理)前に設定する閾値である。y,m,cにプレーン展開して、N×Nのマトリクスにおいてのそれぞれのプレーン毎に数を数えて、最少値をブラックと仮定している。このことにより、黒画素の読み取りが漏れても補正が可能となる。そして最大値と最小値の差で有彩画素を判定している。このことにより、黒画素が読取りから外れた画素を補正して、有彩画素を抽出する。注目画素を中心とする5×5画素マトリクス内に一定画素の有彩画素があると注目画素を有彩画素としている。
The count unit 325f1 will be described.
When there are w pixels for color determination in the 5 × 5 pixel matrix centered on the pixel of interest, the c, m, y data determined by the hue division unit 325a of the pixel is set to c = m = y = 0. to correct. This correction increases the white level of the pixel matrix. Then, the number of 1 of c, m, and y (c = 1, m = 1, y = 1) of each pixel in the pixel matrix is counted. If the difference between the maximum value and the minimum value of the count values for c, m, and y is greater than or equal to thcnt and the minimum value is less than thmin, color pixel candidate 1 is determined. thcnt and thmin are threshold values set before copying (processing). The plane is expanded to y, m, and c, the number is counted for each plane in the N × N matrix, and the minimum value is assumed to be black. This makes it possible to correct even if black pixel reading fails. A chromatic pixel is determined based on the difference between the maximum value and the minimum value. This corrects a pixel from which a black pixel is not read, and extracts a chromatic pixel. If there is a chromatic pixel of a certain pixel in a 5 × 5 pixel matrix centered on the pixel of interest, the pixel of interest is a chromatic pixel.

色画素判定部325f8について説明する。
パターンマッチング部325f6とカウント部325f1の出力にもとづいて、色画素判定部325f8で、色画素か否かを判定する。色画素候補1でかつ色画素候補2であれば、色画素1とする。
The color pixel determination unit 325f8 will be described.
Based on the outputs of the pattern matching unit 325f6 and the count unit 325f1, the color pixel determination unit 325f8 determines whether the pixel is a color pixel. If the color pixel candidate 1 and the color pixel candidate 2, the color pixel 1 is assumed.

ブロック化部325f9について説明する。
色画素判定部325f8の出力をブロック化部325f9にてブロック化をする。ブロック化とは、4×4画素のマトリックスにおいて、1画素以上の色画素1があれば、該4×4画素マトリックス全体を色画素1ブロックとして出力するものである。ブロック化部325f9以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。
The blocking unit 325f9 will be described.
The output of the color pixel determination unit 325f8 is blocked by the blocking unit 325f9. Blocking means that if there is one or more color pixels 1 in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as one color pixel block. In the processing after the block forming unit 325f9, 4 × 4 pixels are regarded as one block and output in block units.

孤立点除去部325f10について説明する。
ブロック化したデータを孤立点除去部325f10にて、注目ブロックの隣り合うブロックに色画素1ブロックがなければ孤立点として、除去する。
The isolated point removing unit 325f10 will be described.
The isolated data is removed as an isolated point by the isolated point removing unit 325f10 if there is no color pixel block in the adjacent block of the target block.

膨張部325f11について説明する。
孤立点除去部325f10の出力を、膨張部325f11にて、色画素1ブロックが存在する場合は、5×5ブロックに膨張する。膨張するのは、色画素の周辺を黒文字処理をしないようにするためである。ここで、出力するB/C信号は、色画素1ブロックの時にL(有彩)を出力し、それ以外の時は、H(無彩)を出力する。
The inflating part 325f11 will be described.
The output of the isolated point removing unit 325f10 is expanded to 5 × 5 blocks in the expansion unit 325f11 when there is one color pixel block. The reason for the expansion is to prevent black character processing around the color pixel. Here, the output B / C signal outputs L (chromatic) when the color pixel is one block, and outputs H (achromatic) at other times.

カウント部325f2について説明する。
注目画素を中心とする5×5画素マトリクス内に色判定用w画素が存在する時は、その画素の色相分割部325aで判定したc,m,yデータをc=m=y=0に補正する。この補正により、該画素マトリクスの白レベルが大きくなる。そして、該画素マトリクス内の各画素の、c,m,yの1(c=1,m=1,y=1)の数をカウントする。c,m,yそれぞれについてのカウント値の最大値と最小値との差が、thacnt以上でかつ最小値がthamin未満ならば、注目画素を色画素候補1とする。thacnt、thaminは、複写(処理)前に設定する閾値である。
The count unit 325f2 will be described.
When a w determination pixel exists in the 5 × 5 pixel matrix centered on the target pixel, the c, m, y data determined by the hue division unit 325a of the pixel is corrected to c = m = y = 0. To do. This correction increases the white level of the pixel matrix. Then, the number of c, m, and y of 1 (c = 1, m = 1, y = 1) of each pixel in the pixel matrix is counted. If the difference between the maximum value and the minimum value of the count values for c, m, and y is greater than or equal to thacnt and the minimum value is less than thatmin, the pixel of interest is set as color pixel candidate 1. “thacnt” and “thamin” are threshold values set before copying (processing).

色画素判定部325f12について説明する。
パターンマッチング部325f6とカウント部325f2の出力にもとづいて、色画素判定部325f12で、色画素か否かを判定する。色画素候補1でかつ色画素候補2であれば、色画素2とする。
The color pixel determination unit 325f12 will be described.
Based on the outputs of the pattern matching unit 325f6 and the count unit 325f2, the color pixel determination unit 325f12 determines whether the pixel is a color pixel. If it is the color pixel candidate 1 and the color pixel candidate 2, it is set as the color pixel 2.

ブロック化部325f13について説明する。
色画素判定部325f12の出力をブロック化部325f13にてブロック化をする。即ち、4×4画素のマトリックスにおいて、1画素以上の色画素2があれば、該4×4画素マトリックの全体を色画素2ブロックとして、出力する。ブロック化部325f13以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。
The blocking unit 325f13 will be described.
The output of the color pixel determination unit 325f12 is blocked by the blocking unit 325f13. That is, if there is one or more color pixels 2 in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a color pixel 2 block. In the processing after the block forming unit 325f13, 4 × 4 pixels are set as one block and output in block units.

密度部325f14について説明する。
孤立ブロックの除去のために、3×3ブロックの中のアクティブ条件(色画素2ブロック)が3個以上あり、注目ブロックがアクティブ(色画素)ならば、注目ブロックをアクティブブロック(色画素2ブロック)とする。
The density part 325f14 will be described.
In order to remove an isolated block, if there are three or more active conditions (color pixel 2 blocks) in the 3 × 3 block and the target block is active (color pixel), the target block is defined as an active block (color pixel 2 block). ).

カウント部325f3について説明する。
注目画素を中心とする5×5画素マトリクス内の各画素のc,m,yの1(c=1、m=1、y=1)の数をカウントする。c,m,yそれぞれについてのカウント値の最大値と最小値との差が、tha1cnt以上で、かつカウントしたc,m,yの最小値が、tha1min未満ならば、色画素候補3とする。tha1cnt、tha1minは、複写(処理)前に設定する閾値である。
The count unit 325f3 will be described.
The number of c, m, y of 1 (c = 1, m = 1, y = 1) of each pixel in the 5 × 5 pixel matrix centered on the target pixel is counted. If the difference between the maximum value and the minimum value of c, m, and y for each of c, m, and y is equal to or greater than tha1cnt, and the counted minimum value of c, m, and y is less than tha1min, color pixel candidate 3 is determined. tha1cnt and tha1min are threshold values set before copying (processing).

パターンマッチング部325f5について説明する。
色画素検出で判定した画素(c,m,y)が色画素かどうかを5×5画素マトリクスを用いるパターンマッチングで判定する。パターンはパターンマッチング部325f6のものと同じである。パターンマッチングで一致した画素は、色画素候補4とする。
The pattern matching unit 325f5 will be described.
Whether the pixel (c, m, y) determined by the color pixel detection is a color pixel is determined by pattern matching using a 5 × 5 pixel matrix. The pattern is the same as that of the pattern matching unit 325f6. The pixel matched by pattern matching is set as a color pixel candidate 4.

色画素判定部325f15について説明する。
色画素候補3でかつ色画素候補4であれば、色画素3とする。
The color pixel determination unit 325f15 will be described.
If it is the color pixel candidate 3 and the color pixel candidate 4, it is set as the color pixel 3.

ブロック化部325f16について説明する。
色画素判定部325f15の出力をブロック化部325f16にてブロック化をする。すなわち、4×4画素のマトリックスにおいて、1画素以上の色画素3があれば、該4×4画素マトリックスの全体を色画素3ブロックとして、出力する。ブロック化部325f16以降の処理は、4×4を1ブロックとしてブロック単位出力する。
The blocking unit 325f16 will be described.
The output of the color pixel determination unit 325f15 is blocked by the blocking unit 325f16. That is, if there is one or more color pixels 3 in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a color pixel 3 block. The processing after the block forming unit 325f16 outputs 4 × 4 as one block.

密度部325f17について説明する。
孤立ブロックの除去のために、3×3ブロックの中のアクティブ条件(色画素3ブロック)が3個以上あり、注目ブロックがアクティブ(色画素3)ならば、注目ブロックをアクティブブロック(色画素3ブロック)とする。
The density part 325f17 will be described.
If there are three or more active conditions (color pixel 3 blocks) in the 3 × 3 block for removing the isolated block and the target block is active (color pixel 3), the target block is changed to the active block (color pixel 3). Block).

カウント部325f4について説明する。
注目画素を中心とする5×5画素マトリクス内の各画素の、色相分割部325aで判定したc、m、yの1(c=1、m=1、y=1)の数をカウントする。
The count unit 325f4 will be described.
The number of 1 of c, m, and y (c = 1, m = 1, y = 1) determined by the hue dividing unit 325a of each pixel in the 5 × 5 pixel matrix centered on the target pixel is counted.

c、m、yの各カウント値の最小値が、thabk以上ならば、注目画素を黒画素候補1とする。thabkは、複写(処理)前に設定する閾値である。   If the minimum value of the count values of c, m, and y is greater than or equal to thabk, the pixel of interest is set as a black pixel candidate 1. thabk is a threshold value set before copying (processing).

パターンマッチング部325f7について説明する。
注目画素を中心とする5×5画素マトリクスにおいて、c=m=y=1の画素のパターンマッチングを行う。
The pattern matching unit 325f7 will be described.
In a 5 × 5 pixel matrix centered on the pixel of interest, pattern matching is performed on pixels with c = m = y = 1.

1―1)パターン1―1(pm1) D23&D33&D43
1―2)パターン1―2(pm2) D32&D33&d34
1―3)パターン1―3(pm3) D22&D33&D44
1―4)パターン1―4(pm4) D42&D33&D24
これらのパターンは図15に示すものであり、図中に丸印を付した画素が、c=m=y=1の画素である。これらのパターンのどれかに一致した時に、注目画素を黒画素候補2とする。
1-1) Pattern 1-1 (pm1) D23 & D33 & D43
1-2) Pattern 1-2 (pm2) D32 & D33 & d34
1-3) Pattern 1-3 (pm3) D22 & D33 & D44
1-4) Pattern 1-4 (pm4) D42 & D33 & D24
These patterns are shown in FIG. 15, and the pixels with circles in the figure are pixels with c = m = y = 1. When matching with any of these patterns, the target pixel is set as a black pixel candidate 2.

無彩判定部325f18について説明する。
注目画素が、黒画素候補1でかつ黒画素候補2であれば、黒画素とする。
The achromatic determination unit 325f18 will be described.
If the pixel of interest is black pixel candidate 1 and black pixel candidate 2, it is determined as a black pixel.

ブロック化部325f19について説明する。
黒画素の出力をブロック化部325f19にてブロック化をする。ここでのブロック化とは、4×4画素のマトリックスにおいて、1画素以上の黒画素があれば、該4×4画素マトリックスの全体を黒画素ブロックとして、出力する。ブロック化部325f19以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。
The blocking unit 325f19 will be described.
The black pixel output is blocked by the blocking unit 325f19. In this block formation, if there is one or more black pixels in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a black pixel block. The processing after the block forming unit 325f19 outputs 4 × 4 pixels as one block and outputs in blocks.

膨張部325f203について説明する。
×3ブロックのマトリックス内において、注目ブロックがアクティブ(黒画素ブロック)で、その周辺画素がノンアクティブ(非黒画素)ならば、注目ブロックをノンアクティブ(非黒画素ブロック)にする。
The expansion part 325f203 will be described.
If the block of interest is active (black pixel block) and its surrounding pixels are non-active (non-black pixel) in the × 3 block matrix, the block of interest is made non-active (non-black pixel block).

総合色画素判定部325f21について説明する。
注目ブロックが、色画素判定部325f12でアクティブ(色画素2)と判定されかつ無彩判定部325f18でアクティブ(黒画素)と判定されていなければ、注目ブロックは色(色ブロック)と判定する。また、色画素判定部325f15がアクティブ(色画素)の時も色と判定する。
The general color pixel determination unit 325f21 will be described.
If the target block is determined to be active (color pixel 2) by the color pixel determination unit 325f12 and not determined to be active (black pixel) by the achromatic determination unit 325f18, the target block is determined to be a color (color block). Also, when the color pixel determination unit 325f15 is active (color pixel), the color is determined.

膨張部325f22について説明する。
総合色画素判定部325f21で、色と判定したブロックに対して小さな文字を連続と見なすために、注目ブロックを中心とする9×9ブロックのマトリックス内に1ブロックでもアクティブブロックがあれば、注目ブロックをアクティブブロックとする。ここで、大きく膨張させるのは、文字同士のすき間を埋めるためである。
The inflating part 325f22 will be described.
In order for the integrated color pixel determination unit 325f21 to consider a small character as continuous for a block determined to be a color, if there is even one active block in the 9 × 9 block matrix centered on the target block, the target block Is the active block. Here, the reason for the large expansion is to fill the gap between the characters.

連続カウント部325f23について説明する。
連続カウント部325f23では、色画素ブロックの連続性を見て、カラー原稿か白黒原稿かを判定する。膨張部325f22の出力データ(色画素ブロック)の中の色画素の連続数をカウントすることにより、カラー原稿かどうか判定する。
The continuous count unit 325f23 will be described.
The continuous counting unit 325f23 determines whether the original is a color document or a monochrome document by looking at the continuity of the color pixel blocks. By counting the number of continuous color pixels in the output data (color pixel block) of the expansion unit 325f22, it is determined whether the document is a color document.

図8に、この判定処理の内容を示す。注目画素が色画素ブロックにある時に注目画素の左上、上、右上および左の画素の色画素連続数を参照して、注目画素の色画素連続数を算出する(ステップS21〜26)。ここで、注目画素を、例えば図12の5×5画素分布パターンMPpのc3画素とすると、左上、上、右上および左の画素はそれぞれ、b2,b3,b4およびc2の画素である。注目画素が色画素ブロックにないときには、それには0なる色画素連続数を与える(ステップS21〜27)。   FIG. 8 shows the contents of this determination process. When the target pixel is in the color pixel block, the number of continuous color pixels of the target pixel is calculated with reference to the number of continuous color pixels of the upper left, upper, upper right, and left pixels of the target pixel (steps S21 to S26). Here, if the target pixel is, for example, the c3 pixel of the 5 × 5 pixel distribution pattern MPp in FIG. 12, the upper left, upper, upper right, and left pixels are the pixels b2, b3, b4, and c2, respectively. When the pixel of interest is not in the color pixel block, a continuous color pixel number of 0 is given to it (steps S21 to S27).

注目画素が色画素ブロックにある場合は、先ず注目画素(c3)の上画素(b3)の色画素連続数をチェックして(ステップS22)、それが0であると、参照値Aに右上画素(b4)の色画素連続数に1を加えた値を与え(ステップS24)、上画素(b3)の色画素連続数が0であると参照値Aに右上画素(b4)の色画素連続数を与える(ステップS23)。次に、参照値Bに左上画素(b2)の色画素連続数に1を加えた値を与え、参照値Cには上画素(b3)の色画素連続数に1を加えた値を与え、また参照値Dには左画素(c2)の色画素連続数に1を加えた値を与える(ステップS25)。そして、参照値A、B、CおよびDのうちの最高値を注目画素(c3)の色画素連続数とする(ステップS26)。   When the target pixel is in the color pixel block, first, the number of continuous color pixels of the upper pixel (b3) of the target pixel (c3) is checked (step S22). A value obtained by adding 1 to the number of continuous color pixels of (b4) is given (step S24), and the number of continuous color pixels of the upper right pixel (b4) is added to the reference value A when the number of continuous color pixels of the upper pixel (b3) is 0. (Step S23). Next, a value obtained by adding 1 to the number of continuous color pixels of the upper left pixel (b2) is given to the reference value B, and a value obtained by adding 1 to the number of continuous color pixels of the upper pixel (b3) is given to the reference value B. Further, a value obtained by adding 1 to the number of continuous color pixels of the left pixel (c2) is given to the reference value D (step S25). Then, the highest value among the reference values A, B, C, and D is set as the number of consecutive color pixels of the target pixel (c3) (step S26).

注目画素(c3)に色画素連続数を前述のように与えると、この色画素連続数が設定値THACS以上であるかをチエックして(ステップS28)、THACS以上であると、カラー原稿であると決定して(ステップS29)、そこで連続カウント部325f23の処理を終える。色画素連続数が設定値THACS未満であると、注目画素を走査方向x、yの次の画素に更新して、前述の処理を繰返す。原稿全面について前述の処理をした結果、最後まで色画素連続数が設定値THACS未満であったときには(ステップS30〜34)、原稿は白黒画像であると決定する。   When the number of continuous color pixels is given to the target pixel (c3) as described above, it is checked whether the number of continuous color pixels is equal to or greater than the set value THACS (step S28). Is determined (step S29), and the processing of the continuous count unit 325f23 is ended there. If the number of continuous color pixels is less than the set value THACS, the target pixel is updated to the next pixel in the scanning directions x and y, and the above-described processing is repeated. As a result of performing the above-described processing on the entire surface of the document, if the number of continuous color pixels is less than the set value THACS until the end (steps S30 to S34), it is determined that the document is a monochrome image.

前述の色画素連続数は、ほぼ縦の色付き線分と横の色付き線分の和となる。右上の色画素連続数が、他と異なるのは二重カウントを防ぐためである。色画素連続数の具体的なデータを図18に示した。図18に示す数字を入れた小四角が色画素であり、数字が該画素に与えた色画素連続数である。数字を入れた小四角が連なったブロックが色画素群であり、同一原稿上のどれかの色画素群のなかの色画素連続数が1つでも設定値THACS以上になるとそこで、カラー原稿であるとカラーか白黒かの判定を確定する(ステップS28、29)。   The number of continuous color pixels is substantially the sum of vertical colored line segments and horizontal colored line segments. The number of consecutive color pixels in the upper right is different from others because it prevents double counting. Specific data on the number of continuous color pixels is shown in FIG. A small square including a number shown in FIG. 18 is a color pixel, and a number is a continuous number of color pixels given to the pixel. A block consisting of a series of small squares with numbers is a color pixel group, and even if one continuous color pixel in any color pixel group on the same document exceeds the set value THACS, it is a color document. The determination of color or black and white is confirmed (steps S28 and 29).

色画素判定部1〜3(325f8−325f15)と分けたのは、カラー原稿か白黒原稿かの判定精度を高くするためである。黒文字処理のための色画素判定は、誤判定をしても局所的でさほど目立たない。しかし、カラー原稿か白黒原稿かの判定は、誤判定をすると原稿全体に影響する。そこで、カウント部325f1−f4を独立とした。本来ならば、色相分割部325aから独立にした方がよいが色相分割部325aを独立にすると、パターンマッチング部325f5−f7のメモリが増えるので、好ましくない。カウント部325f1−f4のパラメータ(色画素候補1、3、黒画素候補1)で、色画素のパラメータ(色画素1−3)を変更している事により、メモリ量の増加を少なくしている。色画素判定部2,3(325f12、325f15)を設けているのは蛍光ペンの黄色のような濃度の低い色を検出するためで、さらに、無彩判定(黒画素判定)部325f18を備えたのは濃度を低くすると誤検出した際に補正するためである。蛍光ペンなど濃度の薄い色は、ある程度の幅で黒データで補正しても問題はない。複数の色画素を抽出する際に、w(白)のレベルを変えているだけなので、色画素検出のために2つ分のメモリを持つ必要がなく、1つ分+1ラインの容量で可能である。   The reason why it is divided from the color pixel determination units 1 to 3 (325f8 to 325f15) is to increase the accuracy of determining whether a color document or a monochrome document. The color pixel determination for black character processing is local and not so noticeable even if an erroneous determination is made. However, the determination of whether the original is a color original or a monochrome original affects the entire original if an erroneous determination is made. Therefore, the counting units 325f1-f4 are independent. Originally, it is better to make the hue dividing unit 325a independent. However, making the hue dividing unit 325a independent is not preferable because the memory of the pattern matching units 325f5-f7 increases. The increase in the amount of memory is reduced by changing the color pixel parameter (color pixel 1-3) with the parameters (color pixel candidate 1, 3 and black pixel candidate 1) of the count unit 325f1-f4. . The color pixel determination units 2 and 3 (325f12 and 325f15) are provided to detect a low density color such as yellow of a fluorescent pen, and further include an achromatic determination (black pixel determination) unit 325f18. This is because correction is made in the case of erroneous detection if the density is lowered. Light colors such as highlighters can be corrected with black data to a certain extent without any problem. When extracting multiple color pixels, only the level of w (white) is changed, so there is no need to have two memories for color pixel detection, and a capacity of one + 1 line is possible. is there.

連続カウント部325f23で、1ライン前のカウントデータと現在のラインのカウントデータを参照してカウント値を数えているので、確実に周辺画素の連続を正確に数えることができ、これにより色画素の連続を数えることが可能となる。図5の原稿認識部320を備えた構成例では、R,G,B画像データに対して色相判定を行ったが、R,G,B画像データに限定するものではなく、輝度色差(例えばLab)などに対して、色相判定することは、容易である。   Since the count value is counted by the continuous count unit 325f23 by referring to the count data of the previous line and the count data of the current line, it is possible to accurately count the continuity of the peripheral pixels. It is possible to count continuations. In the configuration example including the document recognition unit 320 in FIG. 5, the hue determination is performed on the R, G, and B image data, but the present invention is not limited to the R, G, and B image data. ) Etc., it is easy to determine the hue.

以上のように、本発明の実施形態における像域分離部125のフィルタ部251、白領域抽出部253、エッジ抽出部252、色判定部254は、上述した図5の原稿認識部320を備えた構成例におけるフィルタ部321、白領域抽出部323、エッジ抽出部322、色判定部325と同様のものとして構成される。
ただし、本実施形態における白領域抽出部253は、注目画素が白領域と判定した場合、二値信号wh=1を出力し、白領域でないと判定した場合、二値信号wh=0を出力する。最終的な白背景分離結果whは、白地と境界部分に対して、非白地側の境界領域を含む結果となる。言いかえれば、原稿上の実際の白地よりも大きな領域となる。
また、本実施形態における色判定部254は、上述した図5の原稿認識部320を備えた構成例における色判定部325で、注目画素が有彩画素であると判定した場合には二値信号iro=1を出力し、無彩画素であると判定した場合には二値信号iro=0を出力するものとする。
As described above, the filter unit 251, the white region extraction unit 253, the edge extraction unit 252, and the color determination unit 254 of the image area separation unit 125 according to the embodiment of the present invention include the document recognition unit 320 of FIG. 5 described above. The filter unit 321, the white region extraction unit 323, the edge extraction unit 322, and the color determination unit 325 in the configuration example are configured in the same manner.
However, the white region extraction unit 253 according to the present embodiment outputs a binary signal wh = 1 when the target pixel is determined to be a white region, and outputs a binary signal wh = 0 when it is determined that the target pixel is not a white region. . The final white background separation result wh includes a boundary region on the non-white background side with respect to the white background and the boundary portion. In other words, the area is larger than the actual white background on the document.
The color determination unit 254 according to the present embodiment is a binary signal when the color determination unit 325 in the configuration example including the document recognition unit 320 in FIG. 5 described above determines that the pixel of interest is a chromatic pixel. When iro = 1 is output and it is determined that the pixel is an achromatic pixel, a binary signal iro = 0 is output.

次に、本実施形態における網点分離部255について、図21を参照して説明する。
網点分離部255は、第1網点ピーク検出部261、第2網点ピーク検出部262、網点領域検出部263および網点総合判定部264を備えて構成される。
第1網点ピーク検出部261および第2網点ピーク検出部262には、G画像データおよびB画像データが入力される。G画像データはカラー画像の黒濃度に敏感な(感度の高い)画像データであり、画像データを輝度信号などへ変換する必要がなくなる。ただしG画像データは、Y(イエロー:黄色)に対して感度がなく、それに基づいたピーク検出はYピークが漏れたものとなる。B画像データはYに感度があるので、それに基づいたピーク検出がG信号を用いるピーク検出の漏れを補うことができる。したがって網点検出の精度が高くなる。
Next, the halftone dot separation unit 255 in the present embodiment will be described with reference to FIG.
The halftone dot separation unit 255 includes a first halftone dot peak detection unit 261, a second halftone dot peak detection unit 262, a halftone dot region detection unit 263, and a halftone dot total determination unit 264.
G image data and B image data are input to the first halftone peak detector 261 and the second halftone peak detector 262. The G image data is image data that is sensitive (high sensitivity) to the black density of the color image, and it is not necessary to convert the image data into a luminance signal or the like. However, the G image data is not sensitive to Y (yellow: yellow), and the peak detection based on it is a leak of the Y peak. Since the B image data is sensitive to Y, the peak detection based on it can compensate for the leakage of the peak detection using the G signal. Therefore, the accuracy of halftone dot detection is increased.

第1網点ピーク検出部261は検出結果として二値信号gpkを出力し、第2網点ピーク検出部262はbpkを出力する。網点領域検出部263にはgpk、bpk及び色判定部の有彩画素検出結果iroが入力され、網点領域検出結果として二値信号amiを発生する。
後述する通り、iroの値によって、gpk及びbpkの扱いが異なるため、網点検出結果amiも異なるものとなる。網点総合判定部264にはamiが入力され、最終的な網点分離結果htを出力する。
The first halftone peak detector 261 outputs a binary signal gpk as a detection result, and the second halftone peak detector 262 outputs bpk. The halftone dot region detection unit 263 receives gpk, bpk, and the chromatic pixel detection result iro of the color determination unit, and generates a binary signal ami as the halftone dot region detection result.
As will be described later, since the handling of gpk and bpk varies depending on the value of iro, the halftone detection result ami also varies. Ami is input to the halftone dot total determination unit 264, and the final halftone dot separation result ht is output.

第1網点ピーク検出部261は、画像データを用いて所定の大きさの二次元局所領域内の画素濃度情報から、網点ドットの一部を形成する画素(網点ピーク画素と呼ぶ)を検出する。局所領域に関して次に示す〈条件1〉及び〈条件2〉が同時に成り立つときに、領域の中心画素を網点ピーク画素として検出し、gpk=1を出力する。それ以外の場合は、gpk=0を出力する。   The first halftone dot peak detection unit 261 uses a pixel density information in a two-dimensional local region having a predetermined size using image data to form a pixel that forms part of a halftone dot (referred to as a halftone dot peak pixel). To detect. When <Condition 1> and <Condition 2> shown below are satisfied simultaneously for the local region, the center pixel of the region is detected as a halftone dot pixel, and gpk = 1 is output. Otherwise, gpk = 0 is output.

〈条件1〉中心画素の濃度レベルが局所領域内で最大(山ピーク)または最小(谷ピーク)である。
〈条件2〉中心画素に対し点対称関係にある全ての画素のペアについて、画素ペアの濃度レベルの平均と中心画素の濃度レベルとの差の絶対値が、閾値Th以上である。
<Condition 1> The density level of the central pixel is maximum (mountain peak) or minimum (valley peak) in the local region.
<Condition 2> The absolute value of the difference between the average density level of the pixel pair and the density level of the central pixel is equal to or greater than the threshold value Th for all pixel pairs that are point-symmetric with respect to the central pixel.

図22および図23を参照して、第1網点ピーク検出部261の検出処理を具体的に説明する。局所領域として図22に示すようなM×M画素マトリクスを採用する。本実施形態ではM=5の場合について説明するが、これはM=5の場合に限るものではない。   With reference to FIG. 22 and FIG. 23, the detection process of the 1st halftone peak detection part 261 is demonstrated concretely. An M × M pixel matrix as shown in FIG. 22 is adopted as the local region. In the present embodiment, the case of M = 5 will be described, but this is not limited to the case of M = 5.

M×M画素マトリクスの各画素の符号を、図23のパターンに示すものとすると、注目画素となる中心画素c3の濃度Lcが、その周辺画素(図23のMPaおよびMPb中に四角形で示す)の濃度L1〜L8と比較して最大または最小であるとともに、
abs(2Lc−L1−L8)≧ Th かつ
abs(2Lc−L2−L7)≧ Th かつ
abs(2Lc−L3−L6)≧ Th かつ
abs(2Lc−L4−L5)≧ Th
の時に、中心画素(Lc)を網点ピーク画素として検出し、網点ピーク検出信号gpk=1を発生する。それ以外の場合は、gpk=0を発生する。ここにabs関数は、引数の絶対値をとることを意味する。Thは閾値(固定値)である。
If the sign of each pixel of the M × M pixel matrix is as shown in the pattern of FIG. 23, the density Lc of the center pixel c3 that is the target pixel is the surrounding pixel (indicated by squares in MPa and MPb of FIG. 23). And the maximum or minimum compared to the concentrations L1 to L8 of
abs (2Lc-L1-L8) ≥Th and abs (2Lc-L2-L7) ≥Th and abs (2Lc-L3-L6) ≥Th and abs (2Lc-L4-L5) ≥Th
At this time, the center pixel (Lc) is detected as a halftone dot peak pixel, and a halftone dot detection signal gpk = 1 is generated. Otherwise, gpk = 0 is generated. Here, the abs function means taking the absolute value of the argument. Th is a threshold value (fixed value).

具体的には、図23に示す周辺画素分布パターンMPa、MPbに基づいた、網点ピーク画素検出のどちらかが網点ピーク画素と検出した時に、そのときの注目画素(中心画素c3)に網点ピーク検出信号pk=1を与える。2つのパターンを用いるのは、網点の線数に幅広く対応するためである。   Specifically, when one of the halftone peak pixel detections based on the peripheral pixel distribution patterns MPa and MPb shown in FIG. 23 is detected as a halftone peak pixel, the target pixel (center pixel c3) at that time is halftone. A point peak detection signal pk = 1 is given. The reason for using the two patterns is to deal with a wide range of halftone dot lines.

パターンMPaは、
L1=b2、L2=b3、L3=b4、L4=c2、L5=c4、L6=d2、L7=d3、L8=d4、
と定めたものである。ここで、L1=b2とは、画素b2の濃度を、前述の網点ピーク画素検出演算のL1の値とすることを意味する。
The pattern MPa is
L1 = b2, L2 = b3, L3 = b4, L4 = c2, L5 = c4, L6 = d2, L7 = d3, L8 = d4,
It is determined. Here, L1 = b2 means that the density of the pixel b2 is set to the value of L1 in the above-described halftone peak pixel detection calculation.

パターンMPbは、
L1=b2、L2=a3、L3=b4、L4=c1、L5=c5、L6=d2、L7=e3、L8=d4、
と定めたものである。
The pattern MPb is
L1 = b2, L2 = a3, L3 = b4, L4 = c1, L5 = c5, L6 = d2, L7 = e3, L8 = d4,
It is determined.

複写機として動作する場合、副走査方向の縮小または拡大は、スキャナ11の原稿走査速度の大小により調節する。この時スキャナ11からは、副走査方向に縮小または拡大された画像がスキャナ補正部12に入力される。この場合は、上記の2つのパターンを変更することで対応する。具体的には、縮小画像が入力された場合には、パターンMPc及びパターンMPdを用い、拡大画像が入力された場合には、パターンMPe及びパターンMPfを用いる。周辺画素としては、図中の四角形で表示された画素を用いるが、拡大画像入力時は、三角形で表示された画素を周辺画素に加えてもよい。   When operating as a copying machine, reduction or enlargement in the sub-scanning direction is adjusted according to the size of the document scanning speed of the scanner 11. At this time, an image reduced or enlarged in the sub-scanning direction is input from the scanner 11 to the scanner correction unit 12. This case can be dealt with by changing the above two patterns. Specifically, the pattern MPc and the pattern MPd are used when the reduced image is input, and the pattern MPe and the pattern MPf are used when the enlarged image is input. As the peripheral pixel, a pixel displayed in a rectangle in the figure is used, but when inputting an enlarged image, a pixel displayed in a triangle may be added to the peripheral pixel.

第2網点ピーク検出部262は、第1網点ピーク検出部261でG信号が入力された代わりにB信号が入力される。内部のピーク検出処理は、第1網点ピーク検出部261と全く同じものである。ただし、領域の中心画素を網点ピーク画素として検出した場合、bpk=1を出力する。それ以外の場合は、bpk=0を出力する。   The second halftone dot peak detection unit 262 receives the B signal instead of the G signal input by the first halftone peak detection unit 261. The internal peak detection process is exactly the same as the first halftone peak detection unit 261. However, when the center pixel of the region is detected as a halftone dot peak pixel, bpk = 1 is output. Otherwise, bpk = 0 is output.

網点領域検出部263には、gpk、bpk及びiroが入力される。この網点領域検出部263による網点領域検出処理について、図24のフローチャートを参照して説明する。   The halftone dot area detection unit 263 receives gpk, bpk, and iro. The dot area detection processing by the dot area detection unit 263 will be described with reference to the flowchart of FIG.

[1]iro=1の時、すなわち注目画素が有彩判定されている時(ステップS41)
この場合には、gpk=1またはbpk=1である画素(gpkとbpkの論理和)を網点ピーク画素とみなし、その画素数を所定の大きさの二次元小領域毎に計数し、山及び谷の網点ピーク画素の合計を計数値Pとする。この計数値Pが閾値Pthよりも大きいときに、その二次元小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。これにより網点領域と判定された場合、ami=1を出力する。そうでない場合は、ami=0を出力する。[1]の場合はgpkとbpkの論理和をとることにより、画像データの黒濃度に敏感なG信号には感度のない色相にある網点(例えば黄色網点)を網点領域として検出できる。
[1] When iro = 1, that is, when the target pixel is determined to be chromatic (step S41)
In this case, a pixel with gpk = 1 or bpk = 1 (logical sum of gpk and bpk) is regarded as a halftone dot pixel, and the number of pixels is counted for each two-dimensional small region having a predetermined size. The sum of the halftone dot peak pixels of the valley is defined as a count value P. When the count value P is larger than the threshold value Pth, all the pixels in the two-dimensional small area (or in the case of pixel unit processing, only the central pixel of the small area) are determined as halftone dot areas. As a result, when it is determined as a halftone dot region, ami = 1 is output. Otherwise, output ami = 0. In the case of [1], by taking the logical sum of gpk and bpk, a halftone dot (for example, a yellow halftone dot) having a hue insensitive to the G signal sensitive to the black density of the image data can be detected as a halftone dot region. .

[2]iro=0の時、すなわち注目画素が無彩判定されている時(ステップS42)
この場合には、gpk=1かつbpk=1である画素(gpkとbpkの論理積)を網点ピーク画素とみなし、その画素数を所定の大きさの二次元小領域毎に計数し、山及び谷の網点ピーク画素の合計を計数値Pとする。この計数値Pが閾値Pthよりも大きいときに、その二次元小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。これにより網点領域と判定された場合、ami=1を出力する。そうでない場合は、ami=0を出力する。[2]の場合は、注目画素が無彩画素であるから、画像データの黒濃度に敏感なG信号だけで、本来は網点領域を検出することができる。従来技術では、黄色網点に対する感度を上げるために、常にgpkとbpkの論理和を網点ピーク画素としてきたが、これには黒文字を網点領域と誤判定しやすくなる、という欠点があった。特にスキャナ11のRGB読取位置ずれの影響が大きい場合には、文字領域における網点ピーク数が増加してしまい、結果として文字を網点領域と誤判定する確率が高くなってしまう。ここでは、[2]の場合にgpkとbpkの論理積を網点ピーク画素としたが、スキャナRGBの読み取り位置ずれが大きい場合には、網点検出性能が落てしまう可能性がある。この時は、gbkのみを網点ピーク画素とみなして網点領域検出を行えばよい。
[2] When iro = 0, that is, when the target pixel is determined to be achromatic (step S42)
In this case, a pixel with gpk = 1 and bpk = 1 (logical product of gpk and bpk) is regarded as a halftone dot pixel, and the number of pixels is counted for each two-dimensional small region having a predetermined size. The sum of the halftone dot peak pixels of the valley is defined as a count value P. When the count value P is larger than the threshold value Pth, all the pixels in the two-dimensional small area (or in the case of pixel unit processing, only the central pixel of the small area) are determined as halftone dot areas. As a result, when it is determined as a halftone dot region, ami = 1 is output. Otherwise, output ami = 0. In the case of [2], since the pixel of interest is an achromatic pixel, a halftone dot region can be originally detected only by the G signal sensitive to the black density of the image data. In the prior art, the logical sum of gpk and bpk has always been used as a halftone dot pixel in order to increase the sensitivity to yellow halftone dots, but this has the disadvantage that black characters are easily misidentified as halftone dots. . In particular, when the influence of the RGB reading position shift of the scanner 11 is large, the number of halftone dots in the character area increases, and as a result, the probability that the character is erroneously determined as the halftone area increases. Here, in the case of [2], the AND of gpk and bpk is the halftone dot peak pixel. However, when the reading position deviation of the scanner RGB is large, the halftone dot detection performance may be lowered. At this time, halftone dot region detection may be performed by regarding only gbk as halftone dot peak pixels.

なお、本実施形態では、黒文字を網点と誤判定する確率は低められるが、色文字を網点と誤判定する確率は低められない。ただし一般には、黒文字を誤判定して黒文字処理できない時の方が画像品質の劣化が大きいと認められる。したがって、黒文字を誤判定する確率が低まることは重要であると言える。   In this embodiment, the probability of erroneously determining a black character as a halftone dot is reduced, but the probability of erroneously determining a color character as a halftone dot is not reduced. However, in general, it is recognized that the deterioration of image quality is greater when black characters cannot be determined due to erroneous determination of black characters. Therefore, it can be said that it is important to reduce the probability of erroneously determining a black character.

上述のようにして[1][2]で検出された網点領域検出結果amiは、網点総合判定部264に入力される。実際に原稿の網点領域にある網点ピーク画素は、ある程度の大きさを持つかたまりとして検出されるが、孤立してgpk=1またはbpk=1である画素が検出された場合は、文字に起因するもの、あるいは単なる画像のノイズによるものである確率が高い。そこで閾値Pthの値を上げることにより、孤立して存在するgpk=1である画素、または孤立して存在するbpk=1である画素を網点領域として判定する確率を低められる。   The halftone dot region detection result ami detected in [1] and [2] as described above is input to the halftone dot total determination unit 264. The halftone dot peak pixels actually in the halftone dot area of the original are detected as a cluster having a certain size, but when isolated pixels with gpk = 1 or bpk = 1 are detected, There is a high probability that it is caused by noise or mere image noise. Therefore, by increasing the value of the threshold value Pth, the probability that an isolated pixel having gpk = 1 or an isolated pixel having bpk = 1 is determined as a halftone dot region can be reduced.

網点総合判定部264には、網点領域検出部263の検出結果amiが入力される。注目している所定の大きさの二次元小領域内において、ami=1である画素数を計数し、その合計値AmiPが予め定められた閾値Amithよりも大きい場合に、網点総合判定部264は、注目している二次元小領域(注目小領域)が最終的に網点領域にあると判定し、網点検出信号ht=1を出力する。そうでない場合は、非網点領域と判定し、網点検出信号ht=0を出力する。上記閾値Amithについては、注目小領域の近傍における特徴情報に応じて変化させるものとする。すなわち、注目小領域近傍において、注目小領域よりも前に処理された領域(処理済み領域)において網点総合判定部264が出力した結果htに応じて、閾値Amithを変化させる。   The halftone dot comprehensive determination unit 264 receives the detection result ami of the halftone dot region detection unit 263. In a two-dimensional small region of a predetermined size of interest, the number of pixels with ami = 1 is counted, and when the total value AmiP is larger than a predetermined threshold value Amith, a halftone dot total determination unit 264 Determines that the target two-dimensional small region (target small region) is finally in the halftone dot region, and outputs a halftone dot detection signal ht = 1. Otherwise, it is determined as a non-halftone area and a halftone detection signal ht = 0 is output. The threshold value Amith is changed according to feature information in the vicinity of the target small region. That is, in the vicinity of the target small region, the threshold value Amith is changed in accordance with the result ht output from the halftone dot total determination unit 264 in the region processed before the target small region (processed region).

本実施形態においては、閾値Amithとして、2つの値TH1、TH2(ただしTH1>TH2)が用意され、網点総合判定部264に入力された注目小領域近傍における、処理済み領域の網点総合判定結果htに応じて、その一方の値を選択する。すなわち、近傍の処理済み領域が非網点領域と判定されている(ht=0)ことが多い場合には、注目小領域は、網点領域ではない可能性が高いので、誤検出を減らすために条件が厳しくなるTH1のほうを閾値Amithとして選択する。これに対し、近傍の処理済み領域が網点領域であると判定されている(ht=1)ことが多い場合には、その注目小領域は、網点領域である可能性が高いので、条件が緩くなるTH2のほうを閾値Amithとして用いる。なお、網点総合判定部264に初めて画像データが入力された時点では、ht=1と判定されている画素は存在しない。したがって、閾値Amithの初期値としてはTH1を選択する。そこで所定の注目領域においてami=1である画素の合計数AmiPと、閾値Amith(=TH1)との比較を行う。   In the present embodiment, two values TH1 and TH2 (TH1> TH2) are prepared as the threshold value Amith, and the halftone dot comprehensive determination of the processed region in the vicinity of the small region of interest input to the halftone dot total determination unit 264 One value is selected according to the result ht. That is, when the processed area in the vicinity is often determined to be a non-halftone area (ht = 0), the small area of interest is likely not to be a halftone area, so that false detection is reduced. The threshold value Amith is selected as TH1 where the condition becomes severe. On the other hand, if it is often determined that the nearby processed area is a halftone dot area (ht = 1), the target small area is likely to be a halftone dot area. TH2 for which the value becomes loose is used as the threshold value Amith. It should be noted that when image data is first input to the halftone dot total determination unit 264, there is no pixel determined as ht = 1. Therefore, TH1 is selected as the initial value of the threshold value Amith. Therefore, a comparison is made between the total number AmiP of pixels with ami = 1 in a predetermined region of interest and the threshold value Amith (= TH1).

具体例を、図25を参照して説明する。図25は、前述の小領域(所定の大きさの二次元小領域)の分布であり、小領域分布パターンにおけるT1〜T9のそれぞれは、T5が注目している小領域、T1、T2、T3およびT4は処理済みの小領域であるとする。T1、T2、T3およびT4のすべての領域についてht=1と判定されている時には、T5の網点領域判定のための閾値AmithとしてTH2(例えば4)が選択される。T1、T2、T3およびT4のうち1つでもht=0と判定されているときは、閾値PthとしてTH1(例えば7)が選択される。ただしこれは一例であって、T1、T2、T3およびT4のいずれか1つの小領域でも網点領域と判定されたときにTH2を選択し、すべてが非網点領域と判定されたときにのみTH1を選択するようにしてもよい。さらに、閾値を選択する際に参照する近傍領域をT1のみ、あるいはT2のみとすることもできる。   A specific example will be described with reference to FIG. FIG. 25 shows the distribution of the above-described small regions (two-dimensional small regions of a predetermined size), and each of T1 to T9 in the small region distribution pattern is a small region to which T5 is focused, T1, T2, T3. And T4 are processed small areas. When it is determined that ht = 1 for all the regions T1, T2, T3, and T4, TH2 (for example, 4) is selected as the threshold value Amith for determining the halftone dot region of T5. If any one of T1, T2, T3, and T4 is determined to be ht = 0, TH1 (for example, 7) is selected as the threshold value Pth. However, this is an example, and TH2 is selected when any one of T1, T2, T3, and T4 is determined to be a halftone dot region, and only when all are determined to be non-halftone dot regions. You may make it select TH1. Furthermore, the neighborhood area to be referred to when selecting the threshold value can be T1 only or T2.

総合判定部256は、図26に示すように文字判定部271、膨張処理部272、およびデコード部273からなる。
文字判定部271では、原稿領域がエッジ判定され、かつ白地判定され、かつ網点判定されていない時、すなわちedge=1かつwt=1かつht=0の時は、原稿領域が文字エッジにあると判定する。文字エッジと判定した場合は、二値信号moji=1を出力し、そうでない場合はmoji=0を出力する。判定結果であるmojiが膨張処理部272に入力される。
The overall determination unit 256 includes a character determination unit 271, an expansion processing unit 272, and a decoding unit 273 as shown in FIG.
In the character determination unit 271, when the document area is edge-detected, white background is determined, and halftone dot is not determined, that is, when edge = 1, wt = 1, and ht = 0, the document area is at the character edge. Is determined. If the character edge is determined, the binary signal moji = 1 is output, otherwise moji = 0 is output. The determination result moji is input to the expansion processing unit 272.

膨張処理部272では、文字判定部271の結果を8×8ブロックのOR処理をして、その後に3×3ブロックのAND処理をして4ブロックの膨張処理を行う。すなわち、注目ブロックを中心とする8×8ブロックのいずれかのブロックが文字エッジであると、注目ブロックも文字エッジブロックであると仮定し、該注目ブロックを中心とする3×3ブロックのすべてが文字エッジであると注目ブロックを文字エッジと確定し、そして、注目ブロックとそれに隣接する3ブロック、計4ブロックを文字エッジと見なす。OR処理してからAND処理するのは、特に黒文字の場合、黒文字の領域の周辺に小領域の非黒文字領域が存在すると、処理の差により違和感が感じられることがあるからである。例えば黒が薄く見えることがある。これを防ぐために、OR処理で非黒文字領域を大きくしている。AND処理は、望むべき膨張量にするために行っている。   In the expansion processing unit 272, the result of the character determination unit 271 is subjected to OR processing of 8 × 8 blocks, and then AND processing of 3 × 3 blocks is performed to perform expansion processing of 4 blocks. That is, if any block of the 8 × 8 block centered on the target block is a character edge, it is assumed that the target block is also a character edge block, and all 3 × 3 blocks centered on the target block are If it is a character edge, the target block is determined as the character edge, and the target block and three blocks adjacent to the target block are regarded as the character edge. The reason for performing the AND process after the OR process is that, particularly in the case of a black character, if a small non-black character area exists around the black character area, a sense of incongruity may be felt due to a difference in processing. For example, black may appear light. In order to prevent this, the non-black character area is enlarged by OR processing. The AND process is performed to obtain a desired expansion amount.

デコード部273が最終的に出力するC/P信号は、以下の表のようになる。なお、C/P信号=2となる場合は、本実施形態においては存在しない。   The C / P signal finally output by the decoding unit 273 is as shown in the following table. In addition, when C / P signal = 2, it does not exist in this embodiment.

Figure 2006262215
Figure 2006262215

色判定結果を示す信号であるiroについては、そのままiro=1であればB/C=1を出力し、iro=0であれば、B/C=0を出力する。   As for iro which is a signal indicating the color determination result, B / C = 1 is output if iro = 1, and B / C = 0 is output if iro = 0.

次に、再度図2及び図3を参照して説明する。像域分離部が発生するC/P信号およびB/C信号は、フィルタ処理部122、色補正部123、変倍処理部124、プリンタγ補正部181および階調処理部182に、画像データに同期してカスケードに与えられる。フィルタ処理部122は、RGBデータのMTFを補正するフィルタであり、N×Nの画素マトリックスに対応する係数マトリクスと、各係数に各画像データを乗じて重み付け平均値を得るロジックで構成されている。C/P信号が1を表すもの(文字領域)である時には、鮮鋭化処理用の係数マトリクスを用い、0または3を表すもの(絵柄領域、網点領域)である時には平滑化処理用の係数マトリクスを用いて、重み付け平均値を導出し、色補正部123に出力する。ここで平滑化フィルタは、絵柄領域、網点領域の順に平滑化量が強くなる。これは、網点は平滑を強くしないと網点構造が残り、モアレの原因となるためのである。   Next, description will be made with reference to FIGS. 2 and 3 again. The C / P signal and B / C signal generated by the image area separation unit are converted into image data by the filter processing unit 122, the color correction unit 123, the scaling processing unit 124, the printer γ correction unit 181 and the gradation processing unit 182. Synchronously given to the cascade. The filter processing unit 122 is a filter that corrects the MTF of RGB data, and includes a coefficient matrix corresponding to an N × N pixel matrix, and logic that multiplies each coefficient by each image data to obtain a weighted average value. . When the C / P signal represents 1 (character area), a coefficient matrix for sharpening processing is used, and when it represents 0 or 3 (design area, halftone dot area), coefficients for smoothing processing A weighted average value is derived using the matrix and is output to the color correction unit 123. Here, the smoothing filter has a smoothing amount that increases in the order of the picture area and the halftone dot area. This is because a halftone dot structure remains unless the smoothness of the halftone dot is increased, resulting in moire.

色補正部123では、R,G,Bデータを1次のマスキング処理等でC,M,Yデータに変換し、さらにUCR処理がなされる。このUCR処理により、画像データの色再現を向上させることができる。UCR処理では、C,M,Yデータの共通部分を下色除去処理してBkデータを生成し、それにより色補正部123は、C,M,Y,Bkデータを出力する。ここで、C/P信号が1(文字領域)である時は、フルブラック処理を行う。さらにC/P信号が1であって、なおかつB/C信号が0(無彩領域)の時は、C,M,Yのデータをイレースする。これは、黒文字の時、黒成分のみで表現するためである。   The color correction unit 123 converts the R, G, and B data into C, M, and Y data by a primary masking process or the like, and further performs UCR processing. By this UCR processing, color reproduction of image data can be improved. In the UCR process, the common part of the C, M, Y data is subjected to under color removal processing to generate Bk data, and the color correction unit 123 thereby outputs the C, M, Y, Bk data. Here, when the C / P signal is 1 (character area), full black processing is performed. Further, when the C / P signal is 1 and the B / C signal is 0 (achromatic region), the C, M, and Y data are erased. This is because black characters are expressed only by the black component.

プリンタγ補正部181は、プロッタ19の周波数特性やC/P信号に応じてγカーブを変更する処理をする。C/P信号が0または3(絵柄領域または網点領域)である時は画像を忠実に再現するγカーブを用い、C/P信号が1(文字領域)である時は、γカーブを立たせてコントラストを強調する。   The printer γ correction unit 181 performs processing to change the γ curve according to the frequency characteristics of the plotter 19 and the C / P signal. When the C / P signal is 0 or 3 (picture area or halftone dot area), a γ curve that faithfully reproduces the image is used. When the C / P signal is 1 (character area), the γ curve is set up. To emphasize contrast.

階調処理部182は、プロッタ19の階調特性やC/P信号に応じて、ディザ処理、誤差拡散処理等の量子化を行う。Bk作像の時は、C/P信号が0または3(絵柄領域または網点領域)である時は階調重視の処理を行い、C/P信号が1(文字領域)である時は解像力重視の処理を行う。Bk以外の作像の時は、C/P信号が0(絵柄領域)の時は階調重視の処理を行い、それ以外の時は解像力重視の処理を行う。以上の処理をしたC”M”Y”K”各色の画像データは、プリンタ補正部18からプロッタ19に、その画像データ書込み動作に同期して、与えられる。   The gradation processing unit 182 performs quantization such as dither processing and error diffusion processing according to the gradation characteristics of the plotter 19 and the C / P signal. During Bk image formation, gradation-oriented processing is performed when the C / P signal is 0 or 3 (picture area or halftone area), and resolution is achieved when the C / P signal is 1 (character area). Perform important processing. For image formation other than Bk, gradation-oriented processing is performed when the C / P signal is 0 (picture area), and resolution-oriented processing is performed otherwise. The image data of each color “C” M ”Y” K ”subjected to the above processing is given from the printer correction unit 18 to the plotter 19 in synchronization with the image data writing operation.

以上のように、上述した本発明の実施形態によれば、特に黒文字による文字領域と網点領域とを精度よく切り分けることができるため、両者間で画像処理を切り換えることにより、画像品質を向上させることができる。   As described above, according to the above-described embodiment of the present invention, it is possible to accurately separate a character area and a halftone dot area in particular with black characters, so that image quality is improved by switching image processing between the two. be able to.

また、上述した本発明の実施形態では、原稿画像読取手段と、読取手段により取得したカラー画像データ中から有彩領域を検出する有彩領域検出手段と、読取手段により取得した画像データの二次元小領域を参照し、注目画素の濃度と周辺画素群の濃度差の絶対値が、おのおの予め設定した閾値よりも大きいか否かを判定する比較判定手段と、比較判定手段により、濃度差の絶対値が閾値よりも大きいと判定された該注目画素を網点ピーク画素とする網点ピーク画素検出手段と、網点ピーク画素検出手段により検出された網点ピーク画素と、その周辺部において網点ピーク画素検出手段により検出された網点ピーク画素との関係から、画像データの注目小領域を含む近傍画素を網点領域として検出する網点領域検出手段と、を備え、さらにはその網点領域検出手段が、有彩領域検出結果に応じて、網点領域検出結果を変えるようにしている。
このため、上述した実施形態によれば、原稿画像データ中の小さな文字を網点と誤判定する確率について、色文字よりも黒文字を誤判定する確率を下げ、黒文字品質を向上させることができる。
In the above-described embodiment of the present invention, the original image reading means, the chromatic area detecting means for detecting a chromatic area from the color image data acquired by the reading means, and the two-dimensional image data acquired by the reading means. A comparison determination unit that determines whether or not the absolute value of the density difference between the target pixel and the surrounding pixel group is larger than a preset threshold value with reference to the small area, and the comparison determination unit A halftone dot pixel detection unit having the pixel of interest determined to be larger than the threshold as a halftone dot peak pixel, a halftone dot peak pixel detected by the halftone dot pixel detection unit, and a halftone dot at the periphery thereof A halftone dot area detecting means for detecting a neighboring pixel including a target small area of the image data as a halftone dot area from the relationship with the halftone dot peak pixel detected by the peak pixel detecting means; and The dot region detecting means, depending on the chromatic region detection result, so that changing the dot region detection result.
For this reason, according to the above-described embodiment, the probability of erroneously determining a small character in document image data as a halftone dot can be reduced by reducing the probability of erroneously determining a black character rather than a color character, thereby improving black character quality.

また、上述した本発明の実施形態では、読取手段により取得したカラー画像データのうち、カラー画像の黒濃度に敏感な第1画像データと、その第1画像データの感度が低い色成分に感度がある第2画像データの、少なくとも2つの画像データを用いて、カラー画像データ中から網点領域を検出する網点領域検出手段とを備えている。
このため、上述した実施形態によれば、原稿画像データ中の全ての色に感度があるような信号を用いつつ、黒文字品質を向上させることができる。
Further, in the above-described embodiment of the present invention, among the color image data acquired by the reading unit, the first image data sensitive to the black density of the color image and the color component having low sensitivity of the first image data are sensitive. And a halftone dot area detecting unit for detecting a halftone dot area from the color image data using at least two pieces of image data of certain second image data.
For this reason, according to the above-described embodiment, it is possible to improve the quality of black characters while using a signal such that all colors in the document image data are sensitive.

また、上記の第1画像データがG画像データであるため、原稿画像データ中の黒濃度に感度が高いデータとしてこのG信号を用いることにより、入力画像データから輝度信号などへの信号変換処理をする必要性を省くことができる。   In addition, since the first image data is G image data, signal conversion processing from input image data to a luminance signal or the like is performed by using the G signal as data having high sensitivity to black density in the document image data. The need to do so can be eliminated.

また、上記の第2画像データがB画像データであるため、輝度信号に対して感度が低いY信号に対する感度があるこのB信号を用いることにより、輝度信号だけを用いる網点検出よりも精度の高い網点検出を行いつつ、黒文字品質を向上させることができる。   In addition, since the second image data is B image data, by using this B signal that is sensitive to the Y signal, which is less sensitive to the luminance signal, more accurate than halftone detection using only the luminance signal. Black character quality can be improved while performing high halftone dot detection.

また、上述した本発明の実施形態では、有彩領域検出結果により有彩判定された領域においては、第1画像データの網点ピーク検出結果と第2画像データの網点ピーク検出結果の論理和を用いて、網点領域検出手段により網点領域と判定された場合に、該注目画素を網点領域と判定すると共に、有彩領域検出結果により無彩判定された領域においては、第1画像データの網点ピーク検出結果と第2画像データの網点ピーク検出結果の論理積を用いて、網点領域検出手段により網点領域と判定された場合に、該注目画素を網点領域と判定するようにしている。
このため、上述した実施形態によれば、有彩判定に基づいて、網点領域検出の基準を変えることにより、黒文字を網点と誤判定する確率を、色文字を網点と誤判定する確率よりも下げることにより、黒文字品質を向上させることができる。
Further, in the above-described embodiment of the present invention, the logical sum of the halftone dot detection result of the first image data and the halftone peak detection result of the second image data in the region chromatically determined by the chromatic region detection result. When the halftone dot detection unit determines that the target pixel is a halftone dot region, the first image is determined in the region that is determined to be a halftone dot region and determined achromatic by the chromatic region detection result. If the halftone dot detection unit determines that the target pixel is a halftone dot region using the logical product of the halftone dot detection result of the data and the halftone dot detection result of the second image data, the target pixel is determined to be a halftone dot region. Like to do.
Therefore, according to the above-described embodiment, the probability that a black character is erroneously determined as a halftone dot and the probability that a color character is erroneously determined as a halftone dot are changed by changing the reference for halftone dot region detection based on the chromatic determination. By lowering the value, the quality of black characters can be improved.

また、本実施形態により得られる上述した効果は、前述した実施形態の機能を有するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが記憶媒体に格納されたプログラムコードを読み出し、実行することによっても、同様に得ることができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
この記録媒体としては、例えば、フロッピー(登録商標)ディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROM,EEPROM等を用いてよい。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステムなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれるものである。
Further, the above-described effect obtained by the present embodiment is that a storage medium (or recording medium) in which a program code of software having the function of the above-described embodiment is recorded is supplied to the system or apparatus, and the computer of the system or apparatus Can also be obtained by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
As this recording medium, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, EEPROM, or the like may be used.
Further, by executing the program code read out by the computer, not only the functions of the above-described embodiments are realized, but also an operating system running on the computer based on the instruction of the program code performs actual processing. In some cases, the functions of the above-described embodiments are realized by performing part or all of the above.
Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. This includes a case where the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

この本発明に係るプログラムを記録した記録媒体としては、例えば、画像処理のプログラムコードを記録した記録媒体であって、上記プログラムコードは、画像信号を入力する画像入力工程のコードと、上記画像入力工程により入力されたカラー画像データ中から有彩領域を検出する有彩領域検出工程と、上記画像入力工程により入力された画像の所定領域における注目画素の濃度と周辺画素群の濃度差の絶対値が、おのおの予め設定した閾値よりも大きいか否かを判定する比較判定工程のコードと、上記比較判定工程により、上記濃度差の絶対値が閾値よりも大きいと判定された該注目画素を網点ピーク画素と判定する網点ピーク検出工程と、上記網点ピーク検出工程により検出された網点ピーク画素と、注目小領域を含む近傍で検出された網点ピーク画素との関係から、画像データの注目小領域を含む近傍画素を網点領域として検出する網点領域検出工程と、を有し、さらには、その網点領域検出工程においては、上記有彩領域検出工程の結果に応じて、上記網点領域検出工程の結果を変えるものなどであってもよい。   As the recording medium on which the program according to the present invention is recorded, for example, a recording medium on which an image processing program code is recorded, the program code includes an image input process code for inputting an image signal, and the image input A chromatic area detecting step for detecting a chromatic area from the color image data input in the step, and an absolute value of the density difference between the pixel of interest and the density of surrounding pixels in the predetermined area of the image input in the image input step. Each of which is determined to be larger than a preset threshold value and the pixel of interest whose absolute value of the density difference is determined to be larger than the threshold value by the comparison and determination step. A halftone dot peak detection step for determining a pixel as a peak pixel, a halftone dot peak pixel detected by the halftone dot peak detection step, and a neighborhood including a small area of interest. A halftone dot region detecting step for detecting a neighboring pixel including a target small region of the image data as a halftone dot region from the relationship with the halftone dot peak pixel, and in the halftone dot region detecting step, Depending on the result of the chromatic area detection process, the result of the halftone area detection process may be changed.

また、上記画像入力工程により取得したカラー画像データのうち、カラー画像の黒濃度に敏感な第1画像データと、その第1画像データの感度が低い色成分に感度がある第2画像データの、少なくとも2つの画像データを用いて、上記カラー画像データ中から網点領域を検出する網点領域検出工程とを備えてもよい。   Of the color image data acquired by the image input step, the first image data sensitive to the black density of the color image, and the second image data sensitive to the color component having low sensitivity of the first image data, And a halftone dot region detecting step of detecting a halftone dot region from the color image data using at least two pieces of image data.

また、上記有彩領域検出工程により有彩判定された領域においては、第1画像データの網点ピーク検出結果と第2画像データの網点ピーク検出結果の論理和を用いて、上記網点領域検出工程により網点領域と判定された場合に、該注目画素を網点領域と判定するものであってもよい。   Further, in the area determined to be chromatic by the chromatic area detection step, the halftone dot area is obtained by using a logical sum of the halftone dot peak detection result of the first image data and the halftone peak detection result of the second image data. When the detection step determines that the area is a halftone dot area, the target pixel may be determined as a halftone dot area.

また、上記有彩領域検出工程により無彩判定された領域においては、第1画像データの網点ピーク検出結果と第2画像データの網点ピーク検出結果の論理積を用いて、上記網点領域検出工程により網点領域と判定された場合に、該注目画素を網点領域と判定するものであってもよい。   Further, in the region determined to be achromatic by the chromatic region detection step, the halftone dot region is obtained by using a logical product of the halftone peak detection result of the first image data and the halftone peak detection result of the second image data. When the detection step determines that the area is a halftone dot area, the target pixel may be determined as a halftone dot area.

この本発明に係るプログラムや、そのプログラムを記録した記録媒体によれば、当該プログラムによって制御される装置に、上述した本発明に係る各実施形態としての画像処理装置における各機能を実現させることができる。   According to the program according to the present invention and the recording medium on which the program is recorded, each function in the image processing apparatus as each embodiment according to the present invention described above can be realized in an apparatus controlled by the program. it can.

本発明の実施形態としての画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus as an embodiment of the present invention. 該画像処理装置におけるスキャナ補正部12の構成を示すブロック図である。2 is a block diagram illustrating a configuration of a scanner correction unit 12 in the image processing apparatus. FIG. 該画像処理装置におけるプリンタ補正部18の構成を示すブロック図である。2 is a block diagram illustrating a configuration of a printer correction unit 18 in the image processing apparatus. FIG. 該スキャナ補正部12における像域分離部125の構成を示すブロック図である。3 is a block diagram illustrating a configuration of an image area separation unit 125 in the scanner correction unit 12. FIG. 原稿認識部320を備えた構成例における原稿認識部320を示す機能ブロック図である。3 is a functional block diagram illustrating a document recognition unit 320 in a configuration example including a document recognition unit 320. FIG. 該構成例での白判定に用いる状態変数MS、SS[I]の更新の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of update of state variables MS and SS [I] used for the white determination in this structural example. 該構成例での色画素判定部の内容を示す機能ブロック図である。It is a functional block diagram which shows the content of the color pixel determination part in this structural example. 該構成例での連続カウント部におけるカラー原稿か白黒原稿かを判定する判定処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the determination process which determines whether it is a color original or a monochrome original in the continuous count part in this structural example. 該構成例での600dpiの万線パターンと400dpiの万線パターンを比較して示す図である。It is a figure which compares and compares the 600 dpi line pattern and the 400 dpi line pattern in this structural example. 該構成例での黒画素連続検出部および白画素連続検出部で行うパターンマッチングに使用する3×3画素マトリクスのパターンを示す図である。It is a figure which shows the pattern of a 3x3 pixel matrix used for the pattern matching performed in the black pixel continuous detection part in this structural example, and a white pixel continuous detection part. 該構成例でのRGB白地検出部の白背景分離に使用するパターン例を示す図である。It is a figure which shows the example of a pattern used for the white background isolation | separation of the RGB white background detection part in this structural example. 該構成例での色地検出時に使用するパターン例を示す図である。It is a figure which shows the example of a pattern used at the time of the color ground detection in this structural example. 該構成例でのラインメモリLMPの現ライン(注目ライン)を模式的に示す図である。It is a figure which shows typically the present line (target line) of the line memory LMP in this structural example. 該構成例での色判定部の処理を説明するための図である。It is a figure for demonstrating the process of the color determination part in this structural example. 該構成例での色画素判定におけるパターンマッチングを説明するための図である。It is a figure for demonstrating the pattern matching in the color pixel determination in this structural example. 該構成例での白に囲まれた色線を検出する色細線用パターンを示す図である。It is a figure which shows the pattern for color thin lines which detects the color line surrounded by white in this structural example. 該構成例でのc,m,yが全て0のところのパターンマッチングを行うための白領域パターンを示す図である。It is a figure which shows the white area | region pattern for performing the pattern matching in which c, m, and y are all 0 in this structural example. 該構成例での色画素連続数の具体的なデータを示す図である。It is a figure which shows the specific data of the color pixel continuous number in this structural example. 該構成例での白領域抽出部の詳細を示すブロック図である。It is a block diagram which shows the detail of the white area | region extraction part in this structural example. 該構成例でのグレー画素を検出するための万線パターンとのパターンマッチングのパターン例を示す図で、(a)は200線用のパターンであり、(b)は300線用のパターンである。It is a figure which shows the example of a pattern matching with the line pattern for detecting the gray pixel in this structural example, (a) is a pattern for 200 lines, (b) is a pattern for 300 lines . 図4の像域分離部125における網点分離部255の構成を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration of a halftone dot separation unit 255 in the image area separation unit 125 in FIG. 4. 第1網点ピーク検出部261が用いるM×M画素マトリクス例を示す図である。6 is a diagram illustrating an example of an M × M pixel matrix used by a first halftone peak detection unit 261. FIG. 該M×M画素マトリクスの具体的なパターン例を示す図である。It is a figure which shows the example of a specific pattern of this MxM pixel matrix. 網点領域検出部263による網点領域検出処理を示すフローチャートである。10 is a flowchart showing a halftone dot region detection process by a halftone dot region detector 263. 小領域分布パターン例を示す図である。It is a figure which shows the example of a small area distribution pattern. 図4の像域分離部125における総合判定部256の構成を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration of a comprehensive determination unit 256 in the image area separation unit 125 of FIG. 4.

符号の説明Explanation of symbols

11 スキャナ
12 スキャナ補正部
13 圧縮処理部
14 コントローラ
15 HDD
16 NIC
17 伸張処理部
18 プリンタ補正部
19 プロッタ
121 スキャナγ補正部
122 フィルタ処理部
123 色補正部
124 変倍処理部
125 像域分離部
181 プリンタγ補正部
182 階調処理部
251 フィルタ部
252 エッジ抽出部
253 白領域抽出部
254 色判定部
255 網点分離部
256 総合判定部
261 第1網点ピーク検出部
262 第2網点ピーク検出部
263 網点領域検出部(網点領域検出手段の一例かつ色利用網点領域検出手段の一例)
264 網点総合判定部
271 文字判定部
272 膨張処理部
273 デコード部
11 Scanner 12 Scanner Correction Unit 13 Compression Processing Unit 14 Controller 15 HDD
16 NIC
Reference Signs List 17 Decompression processing unit 18 Printer correction unit 19 Plotter 121 Scanner γ correction unit 122 Filter processing unit 123 Color correction unit 124 Scaling processing unit 125 Image area separation unit 181 Printer γ correction unit 182 Tone processing unit 251 Filter unit 252 Edge extraction unit 253 White region extraction unit 254 Color determination unit 255 Halftone dot separation unit 256 Total determination unit 261 First halftone peak detection unit 262 Second halftone peak detection unit 263 Halftone region detection unit (an example and color of halftone region detection means An example of using halftone dot area detection means)
H.264 halftone dot determination unit 271 character determination unit 272 expansion processing unit 273 decoding unit

Claims (12)

画像を読み取る画像読取手段と、
前記読取手段により読み取られた画像データ中から白黒以外の色を含む有彩領域を検出する有彩領域検出手段と、
前記読取手段により読み取られた画像データ中の二次元小領域を参照し、該二次元小領域中の注目画素の濃度と当該注目画素周辺の周辺画素群の濃度差の絶対値が、おのおの予め定められた閾値よりも大きいか否かを判定する比較判定手段と、
前記濃度差の絶対値が前記閾値よりも大きいと前記比較判定手段により判定された注目画素を、網点の一部を形成する網点ピーク画素とする網点ピーク画素検出手段と、
前記網点ピーク画素検出手段により検出された網点ピーク画素および当該網点ピーク画素周辺で検出された網点ピーク画素の関係から、当該網点ピーク画素を含む所定の大きさの二次元小領域を網点領域として検出する網点領域検出手段と、を備え、
前記網点領域検出手段は、前記有彩領域検出手段による検出結果に応じて網点領域の検出結果を変えることを特徴とする画像処理装置。
Image reading means for reading an image;
Chromatic area detecting means for detecting a chromatic area including colors other than black and white from the image data read by the reading means;
With reference to the two-dimensional small area in the image data read by the reading means, the absolute value of the density difference between the pixel of interest in the two-dimensional small area and the surrounding pixel group around the pixel of interest is predetermined. Comparison determination means for determining whether or not the threshold value is greater than
Halftone dot pixel detection means for setting the target pixel determined by the comparison determination means that the absolute value of the density difference is larger than the threshold value as a halftone dot peak pixel forming a part of a halftone dot;
Based on the relationship between the halftone dot peak pixel detected by the halftone dot peak pixel detection unit and the halftone dot peak pixel detected around the halftone dot peak pixel, a two-dimensional small region having a predetermined size including the halftone peak pixel A halftone dot region detecting means for detecting a halftone dot region as a halftone dot region,
The image processing apparatus according to claim 1, wherein the halftone dot region detection unit changes a halftone dot region detection result in accordance with a detection result from the chromatic region detection unit.
前記読取手段により読み取られたカラー画像データに含まれる各色成分のうち、黒濃度に敏感な第1画像データと、該第1画像データで感度が低い色成分に対して高い感度がある第2画像データとの、少なくとも2つの画像データを用いて、前記読取手段により読み取られたカラー画像データ中から網点領域を検出する色利用網点領域検出手段を備えたことを特徴とする請求項1記載の画像処理装置。   Of the color components included in the color image data read by the reading means, the first image data sensitive to the black density and the second image having high sensitivity to the color component having low sensitivity in the first image data. 2. A color-use halftone area detecting means for detecting a halftone area from color image data read by said reading means using at least two pieces of image data. Image processing apparatus. 前記第1画像データは、RGB各色成分におけるG画像データであることを特徴とする請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the first image data is G image data for each of RGB color components. 前記第2画像データは、RGB各色成分におけるB画像データであることを特徴とする請求項2または3記載の画像処理装置。   4. The image processing apparatus according to claim 2, wherein the second image data is B image data for each of RGB color components. 前記網点領域検出手段は、前記有彩領域検出手段により有彩領域と判定された領域について、前記第1画像データでの網点ピーク画素検出結果と、前記第2画像データでの網点ピーク画素検出結果との論理和を用いて、前記所定の大きさの二次元小領域を網点領域として検出することを特徴とする請求項2から4の何れか1項に記載の画像処理装置。   The halftone dot region detection means includes a halftone dot pixel detection result in the first image data and a halftone dot peak in the second image data for the region determined to be a chromatic region by the chromatic region detection portion. 5. The image processing apparatus according to claim 2, wherein the two-dimensional small region having the predetermined size is detected as a halftone dot region using a logical sum with a pixel detection result. 前記網点領域検出手段は、前記有彩領域検出手段により無彩領域と判定された領域について、前記第1画像データでの網点ピーク画素検出結果と、前記第2画像データでの網点ピーク画素検出結果との論理積を用いて、前記所定の大きさの二次元小領域を網点領域として検出することを特徴とする請求項2から5の何れか1項に記載の画像処理装置。   The halftone dot region detection means includes a halftone dot pixel detection result in the first image data and a halftone dot peak in the second image data for an area determined as an achromatic region by the chromatic region detection means. 6. The image processing apparatus according to claim 2, wherein the two-dimensional small region having the predetermined size is detected as a halftone dot region using a logical product with a pixel detection result. 画像信号の入力を受ける画像入力工程と、
前記画像入力工程により入力された画像データ中から白黒以外の色を含む有彩領域を検出する有彩領域検出工程と、
前記画像入力工程により入力された画像データ中の二次元小領域を参照し、該二次元小領域中の注目画素の濃度と当該注目画素周辺の周辺画素群の濃度差の絶対値が、おのおの予め定められた閾値よりも大きいか否かを判定する比較判定工程と、
前記濃度差の絶対値が前記閾値よりも大きいと前記比較判定工程により判定された注目画素を、網点の一部を形成する網点ピーク画素とする網点ピーク画素検出工程と、
前記網点ピーク画素検出工程により検出された網点ピーク画素および当該網点ピーク画素周辺で検出された網点ピーク画素の関係から、当該網点ピーク画素を含む所定の大きさの二次元小領域を網点領域として検出する網点領域検出工程と、を備え、
前記網点領域検出工程は、前記有彩領域検出工程による検出結果に応じて網点領域の検出結果を変えることを特徴とする画像処理方法。
An image input process for receiving an image signal;
A chromatic region detection step of detecting a chromatic region including a color other than black and white from the image data input by the image input step;
With reference to the two-dimensional small region in the image data input by the image input step, the absolute value of the density difference between the pixel of interest in the two-dimensional small region and the surrounding pixel group around the pixel of interest is previously determined. A comparison and determination step of determining whether or not the threshold is greater than a predetermined threshold;
A halftone dot pixel detection step in which the pixel of interest determined by the comparison determination step when the absolute value of the density difference is larger than the threshold value is a halftone dot peak pixel that forms a part of a halftone dot;
Based on the relationship between the halftone dot peak pixel detected by the halftone dot peak pixel detection step and the halftone dot peak pixel detected around the halftone dot peak pixel, a two-dimensional small region having a predetermined size including the halftone peak pixel And a halftone dot region detecting step for detecting a halftone dot region,
The halftone dot region detecting step changes the halftone dot region detection result according to the detection result of the chromatic region detecting step.
前記画像入力工程により入力されたカラー画像データに含まれる各色成分のうち、黒濃度に敏感な第1画像データと、該第1画像データで感度が低い色成分に対して高い感度がある第2画像データとの、少なくとも2つの画像データを用いて、前記画像入力工程により入力されたカラー画像データ中から網点領域を検出する色利用網点領域検出工程を備えたことを特徴とする請求項7記載の画像処理方法。   Among the color components included in the color image data input in the image input step, the second image having high sensitivity to the first image data sensitive to black density and the color component having low sensitivity in the first image data. A color-use halftone dot region detecting step for detecting a halftone dot region from the color image data input by the image input step using at least two pieces of image data with image data. 8. The image processing method according to 7. 前記網点領域検出工程では、前記有彩領域検出工程により有彩領域と判定された領域について、前記第1画像データでの網点ピーク画素検出結果と、前記第2画像データでの網点ピーク画素検出結果との論理和を用いて、前記所定の大きさの二次元小領域を網点領域として検出することを特徴とする請求項8記載の画像処理方法。   In the halftone dot region detecting step, a halftone dot pixel detection result in the first image data and a halftone dot peak in the second image data for the region determined as the chromatic region by the chromatic region detecting step. 9. The image processing method according to claim 8, wherein the two-dimensional small area having the predetermined size is detected as a halftone dot area using a logical sum with a pixel detection result. 前記網点領域検出工程では、前記有彩領域検出工程により無彩領域と判定された領域について、前記第1画像データでの網点ピーク画素検出結果と、前記第2画像データでの網点ピーク画素検出結果との論理積を用いて、前記所定の大きさの二次元小領域を網点領域として検出することを特徴とする請求項8または9記載の画像処理方法。   In the halftone dot region detection step, a halftone dot peak pixel detection result in the first image data and a halftone dot peak in the second image data for the region determined as an achromatic region by the chromatic region detection step 10. The image processing method according to claim 8, wherein the two-dimensional small area having the predetermined size is detected as a halftone dot area using a logical product with a pixel detection result. コンピュータに、請求項7から10の何れか1項に記載の工程による処理を実行させることを特徴とする画像処理プログラム。   An image processing program that causes a computer to execute processing according to any one of claims 7 to 10. 請求項11記載の画像処理プログラムが記録されたことを特徴とする画像処理プログラムを記録した記録媒体。   12. A recording medium on which the image processing program according to claim 11 is recorded.
JP2005078250A 2005-03-17 2005-03-17 Image processing apparatus, image processing method, image processing program, and recording medium recording the program Expired - Fee Related JP4320309B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005078250A JP4320309B2 (en) 2005-03-17 2005-03-17 Image processing apparatus, image processing method, image processing program, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005078250A JP4320309B2 (en) 2005-03-17 2005-03-17 Image processing apparatus, image processing method, image processing program, and recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2006262215A true JP2006262215A (en) 2006-09-28
JP4320309B2 JP4320309B2 (en) 2009-08-26

Family

ID=37100936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005078250A Expired - Fee Related JP4320309B2 (en) 2005-03-17 2005-03-17 Image processing apparatus, image processing method, image processing program, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4320309B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009111645A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program
JP2009206888A (en) * 2008-02-28 2009-09-10 Ricoh Co Ltd Image-forming device, image-forming method, image-forming program and recording medium
CN112950588A (en) * 2021-03-02 2021-06-11 江苏阿瑞斯智能设备有限公司 Image processing method and device, electronic equipment and medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009111645A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program
JP2009206888A (en) * 2008-02-28 2009-09-10 Ricoh Co Ltd Image-forming device, image-forming method, image-forming program and recording medium
CN112950588A (en) * 2021-03-02 2021-06-11 江苏阿瑞斯智能设备有限公司 Image processing method and device, electronic equipment and medium

Also Published As

Publication number Publication date
JP4320309B2 (en) 2009-08-26

Similar Documents

Publication Publication Date Title
JP4137890B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP3983101B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus
JP2002354242A (en) Image processor, image reader, image forming device, and color copying machine
JP4115999B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP2017175213A (en) Manuscript type recognition device, image forming apparatus, manuscript type recognition method and program
JP4637054B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
US7880927B2 (en) Image forming apparatus, image forming method, program, and recording medium
US9948824B2 (en) Image compressing device, image forming apparatus, image compressing method, and recording medium
JP4320309B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the program
JP4695472B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and storage medium
JP4047356B2 (en) Image processing device
JP4963559B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program for causing computer to execute the method
JP3989636B2 (en) Image processing device
JP4833893B2 (en) Image processing apparatus, image processing method, image reading apparatus, image forming apparatus, copying apparatus, program, and computer-readable recording medium
JP7413751B2 (en) Image processing systems and programs
JP2004104625A (en) Image processing, reading and forming device and color copying machine
JP2005051353A (en) Image processor, image reader, image forming apparatus, computer program, and recording medium
JPH11127353A (en) Image processor and image processing method
JP4059600B2 (en) Image processing apparatus and image processing method
JP2007006526A (en) Image processor, low-linear-density dot region detecting unit, image scanner, image forming apparatus and color copier
JP2006014094A (en) Image processor, image reader, image forming device, color copier, image processing program, and recording medium
JP2007189275A (en) Image processor
JP3999420B2 (en) Image processing apparatus and image processing method
JPH1127518A (en) Image-processing apparatus and image-processing method
JP2009111645A (en) Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090526

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090601

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120605

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130605

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees