JP4695472B2 - Image processing apparatus, image forming apparatus, image processing method, program, and storage medium - Google Patents
Image processing apparatus, image forming apparatus, image processing method, program, and storage medium Download PDFInfo
- Publication number
- JP4695472B2 JP4695472B2 JP2005271110A JP2005271110A JP4695472B2 JP 4695472 B2 JP4695472 B2 JP 4695472B2 JP 2005271110 A JP2005271110 A JP 2005271110A JP 2005271110 A JP2005271110 A JP 2005271110A JP 4695472 B2 JP4695472 B2 JP 4695472B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- white
- color
- unit
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Description
本発明は、カラーデジタル複写機、配信スキャナ、カラープリンタ、ファクシミリ等で利用される画像処理装置、画像形成装置、画像処理方法、プログラム及び記憶媒体に関し、より詳細には、原稿から読み取った画像データに基づいて原稿がカラー原稿であるか、又は、白黒原稿であるかを判定する画像処理装置、画像形成装置、画像処理方法、プログラム及び記憶媒体に関する。 The present invention relates to an image processing apparatus, an image forming apparatus, an image processing method, a program, and a storage medium used in a color digital copying machine, a distribution scanner, a color printer, a facsimile, and the like, and more specifically, image data read from a document. The present invention relates to an image processing apparatus, an image forming apparatus, an image processing method, a program, and a storage medium that determine whether a document is a color document or a monochrome document based on the above.
近年、カラーデジタル複写機、配信スキャナ、カラープリンタ、ファクシミリ等で利用される画像形成装置は、高機能化、高品質化がさらに要求されてきている。これら画像形成装置には、原稿をプレスキャンすることによりその画像データを読み取り、読み取った画像データから原稿が無彩色情報のみからなる白黒画像であるか、又は、有彩色情報を含むカラー原稿であるかを自動的に判別する原稿種類判別機構を備えたものがある。 In recent years, image forming apparatuses used in color digital copying machines, distribution scanners, color printers, facsimiles, and the like have been further required to have higher functions and higher quality. In these image forming apparatuses, image data is read by pre-scanning a document, and the document is a monochrome image including only achromatic information from the read image data, or a color document including chromatic color information. Some have a document type discriminating mechanism for automatically discriminating whether or not.
係る原稿種類判別機構は、読み取った画像データをメモリに記憶し、記憶された画像データの画素毎にC(シアン)、M(マゼンタ)及びY(イエロー)の成分比を検出し、その検出結果に基づいて原稿の種類を判別する。そして、原稿が無彩画素のみからなる白黒原稿であると判断すると、Bk(ブラック)トナーだけで白黒コピーを実行し、原稿が有彩画素を含む原稿であると判断すると、C、M、Y及びBkの4色のトナーでカラーコピーを実行する。白黒だけの単色モードとフルカラーモードとでは、使用するトナーの量及びコストが大きく異なり、また、転写紙に転写される画像の出力結果も大きく異なるため、モードの切り替えは非常に重要である。モードの切り替えにおいては、上述のように原稿が有彩原稿であるか無彩原稿であるかを自動的に識別し、その識別結果に応じて複写機の動作モードを自動的に切り替える技術が知られている(例えば、特許文献1参照。)。 The document type discrimination mechanism stores the read image data in the memory, detects the component ratio of C (cyan), M (magenta), and Y (yellow) for each pixel of the stored image data, and the detection result The type of the document is determined based on the above. If it is determined that the document is a monochrome document including only achromatic pixels, black and white copy is executed using only Bk (black) toner. If it is determined that the document is a document including chromatic pixels, C, M, Y And color copying with four color toners of Bk and Bk. Switching between modes is very important because the amount and cost of toner used differ greatly between the monochrome mode and the full color mode, and the output result of the image transferred to the transfer paper is also greatly different. In switching modes, as described above, a technique for automatically identifying whether a document is a chromatic document or an achromatic document and automatically switching the operation mode of the copier according to the identification result is known. (For example, refer to Patent Document 1).
しかし、読み取った画像データの有彩(色)画素や無彩(黒)画素を検出する際には、3ラインCCD(Charge Coupled Device)センサによるデジタルサンプリングやADF(Auto Document Feeder)等の機械的精度に起因する画像の読み取りずれに注意する必要がある。ADFとは、コピー機やファクシミリ装置の原稿読み取りの際に光学系を固定しながら原稿を移動させ、一枚一枚原稿をコンタクトガラス上に載せ換える煩わしさを解消する自動原稿送り装置である。例えば、一般的な3ラインCCDセンサでは、原稿のR、G、Bのそれぞれの成分を同時に読み取ることができず、読み取りを順次行うために読み取りずれが発生する場合がある。また、読み取りの走査速度を変化させることで読取画像の変倍を行う画像形成装置において、走査速度の速い縮小変倍時に読み取りずれが発生する場合がある。このような場合には、黒文字の縁部に1ライン分程度の色細線を伴った画像を読取画像として認識してしまう等、白黒原稿であるにもかかわらず、C、M、Y及びBkによるフルカラー作像が行われてしまい、使用するトナーの量も増加してしまうという問題がある。 However, when detecting chromatic (color) pixels and achromatic (black) pixels in the read image data, mechanical sampling such as digital sampling by a 3-line CCD (Charge Coupled Device) sensor or ADF (Auto Document Feeder) is used. It is necessary to pay attention to image reading deviation caused by accuracy. An ADF is an automatic document feeder that eliminates the hassle of moving documents one by one on a contact glass by moving the document while fixing the optical system when reading a document by a copying machine or a facsimile machine. For example, in a general 3-line CCD sensor, the R, G, and B components of the original cannot be read at the same time, and reading deviation may occur due to sequential reading. Further, in an image forming apparatus that changes the read image by changing the scanning speed of reading, there may be a case where a reading shift occurs at the time of zooming with a high scanning speed. In such a case, an image having a color line of about one line at the edge of a black character is recognized as a read image. For example, although it is a black and white original, it is based on C, M, Y, and Bk. There is a problem that full-color image formation is performed and the amount of toner to be used increases.
反対に、このようなショックジター等により無彩原稿が有彩原稿であると誤判定されるのを避けるべく有彩原稿を検出する感度を低下させると、彩度の低い有彩原稿が無彩原稿であると判定され、有彩原稿がBk版で作像されてしまうという問題がある。 On the other hand, if the sensitivity of detecting a chromatic original is reduced to avoid erroneous determination that the achromatic original is a chromatic original due to such a shock jitter, a chromatic original with low saturation will be achromatic. There is a problem that it is determined that the document is a document and a chromatic document is imaged in the Bk version.
また、読み取った画像データの所定領域が、文字領域、絵柄領域、有彩領域又は無彩領域の何れであるかを判定する画像形成装置においては、文字の中でも特に黒文字を判定する精度が重要となる。プロッタ等による出力の際の微小な版ずれが文字の判読性を著しく低下させてしまうからである。なお、黒文字の出力は、輝度に相当する信号に基づいて、Bk単色による出力処理(以下、「黒文字処理」という。)が一般的に利用されている。また、黒文字処理を利用しない場合であっても、黒文字部分の墨量を多くすることにより、黒文字の判読性を高める処理が利用されている。 In addition, in an image forming apparatus that determines whether a predetermined area of read image data is a character area, a pattern area, a chromatic area, or an achromatic area, it is particularly important to have an accuracy of determining a black character among characters. Become. This is because minute misregistration at the time of output by a plotter or the like significantly reduces the legibility of characters. For the output of black characters, an output process using Bk single color (hereinafter referred to as “black character processing”) is generally used based on a signal corresponding to luminance. Even when black character processing is not used, processing for improving the readability of black characters by increasing the black amount of the black character portion is used.
このように画素の種類を正確に判定することは、読み取りずれを補正し、或いは、出力処理を適切に行うために極めて重要である。 Thus, it is extremely important to accurately determine the type of pixel in order to correct reading deviation or to appropriately perform output processing.
画素の種類を判定する技術としては、例えば、読み取った原稿を画素単位でC、M、Y、R、G、B、Bk及びW(ホワイト)の8つから成る3ビットの信号に分類した後に、当該信号を3つのビットプレーンに割り付け、各ビットプレーンの所定領域内にある値を計数し、計数結果が所定の条件に合致する場合に当該画素が無彩画素であると判定する技術が知られている(例えば、特許文献2参照。)。
しかしながら、特許文献2に記載された画像形成装置においては、色細線を有する有彩原稿と、読み取りずれにより生じた色細線を有する無彩原稿とを適切に判定することが困難であるという問題がある。 However, the image forming apparatus described in Patent Document 2 has a problem that it is difficult to appropriately determine a chromatic original having a fine color line and an achromatic original having a fine color line caused by reading deviation. is there.
上記課題に鑑み、本発明は、色細線を有する有彩原稿と、読み取りずれにより生じた色細線を有する無彩原稿とを適切に判定できる画像処理装置、画像形成装置、画像処理方法、プログラム及び記憶媒体を提供することを目的とする。 In view of the above-described problems, the present invention provides an image processing apparatus, an image forming apparatus, an image processing method, a program, and an image processing apparatus that can appropriately determine a chromatic original having a fine color line and an achromatic original having a fine color line caused by reading deviation. An object is to provide a storage medium.
上記目的を達成するために、第1の発明に係る画像処理装置は、原稿から読み取った読取画像の画素を白画素、黒画素及び非白黒画素に分類する画素分類手段と、所定数連続する非白黒画素の両脇に白画素が配置される複数の識別パターンと、前記読取画像における注目画素を含み縦横の画素数が前記所定数以上である領域を前記読取画像から抽出する領域抽出手段と、前記識別パターンの1つと、前記領域抽出手段が抽出した前記領域における前記白画素及び前記非白黒画素の配置とが一致するか否かを照合するパターン照合手段と、前記パターン照合手段の照合結果に基づいて前記注目画素が有彩画素であるか否かを判定する有彩画素判定手段と、を有することを特徴とする。 In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention includes a pixel classification unit that classifies pixels of a read image read from a document into white pixels, black pixels, and non-monochrome pixels, and a predetermined number of non-continuous pixels. A plurality of identification patterns in which white pixels are arranged on both sides of the black and white pixels, and an area extracting means for extracting from the read image an area including the target pixel in the read image and having a number of vertical and horizontal pixels equal to or greater than the predetermined number; One of the identification patterns and a pattern matching unit that collates whether or not the arrangement of the white pixel and the non-monochrome pixel in the region extracted by the region extracting unit matches, and the matching result of the pattern matching unit And chromatic pixel determining means for determining whether or not the pixel of interest is a chromatic pixel.
第2の発明は、第1の発明に係る画像処理装置であって、前記領域にある前記黒画素、前記非白黒画素の数をそれぞれ計数する第1計数手段を有し、前記有彩画素判定手段は、前記第1計数手段の計数結果と、前記パターン照合手段の照合結果とに基づいて前記注目画素が有彩画素であるか否かを判定することを特徴とする。 A second invention is an image processing apparatus according to the first invention, comprising first counting means for counting the number of the black pixels and the non-monochrome pixels in the region, and the chromatic pixel determination. The means determines whether or not the pixel of interest is a chromatic pixel based on the counting result of the first counting means and the matching result of the pattern matching means.
第3の発明は、第1の発明に係る画像処理装置であって、原稿から読み取った読取画像の各画素からC(シアン)、M(マゼンタ)、Y(イエロー)、R(レッド)、G(グリーン)、Bk(黒)、W(白)を表す3ビット信号を生成し、更にこれらの3ビット信号から3つのビットプレーンを形成するビットプレーン形成手段と、前記領域で各ビットプレーンにおける値を計数する第2計数手段と、を有し、前記有彩画素判定手段は、前記第2計数手段の計数結果と、前記パターン照合手段の照合結果とに基づいて前記注目画素が有彩画素であるか否かを判定することを特徴とする。 A third invention is an image processing apparatus according to the first invention, wherein C (cyan), M (magenta), Y (yellow), R (red), G from each pixel of a read image read from a document. (Green), Bk (Black), W (White) representing a 3-bit signal, and further, bit plane forming means for forming three bit planes from these 3-bit signals, and values in each bit plane in the region A chromatic pixel determination unit, wherein the pixel of interest is a chromatic pixel based on a counting result of the second counting unit and a matching result of the pattern matching unit. It is characterized by determining whether or not there is.
第4の発明は、第1乃至第3の発明に係る画像処理装置であって、前記有彩画素判定手段の判定結果に基づいて前記読取画像が有彩画像であるか否かを判定する有彩画像判定手段を有することを特徴とする。 A fourth invention is an image processing apparatus according to the first to third inventions, wherein it is determined whether or not the read image is a chromatic image based on a determination result of the chromatic pixel determining means. It has a chromatic image determination means.
第5の発明は、第1乃至第4の発明に係る画像処理装置を有する画像形成装置である。 A fifth invention is an image forming apparatus having the image processing apparatus according to the first to fourth inventions.
第6の発明に係る画像処理方法は、所定数連続する非白黒画素の両脇に白画素が配置される複数の識別パターンを有する画像処理方法であって、原稿を読み取る原稿読取ステップと、前記原稿読取ステップにおいて取得した読取画像の画素を白画素、黒画素及び非白黒画素に分類する画素分類ステップと、前記読取画像における注目画素を含み縦横の画素数が前記所定数以上である領域を前記読取画像から抽出する領域抽出ステップと、前記識別パターンの1つと、前記領域抽出手段が抽出した前記領域における前記白画素及び前記非白黒画素の配置とが一致するか否かを照合するパターン照合ステップと、前記パターン照合ステップにおける照合結果に基づいて前記注目画素が有彩画素であるか否かを判定する有彩画素判定ステップとを有することを特徴とする。 An image processing method according to a sixth aspect of the present invention is an image processing method having a plurality of identification patterns in which white pixels are arranged on both sides of a predetermined number of non-monochrome pixels, a document reading step for reading a document, A pixel classification step for classifying pixels of the read image acquired in the document reading step into white pixels, black pixels, and non-monochrome pixels, and an area in which the number of vertical and horizontal pixels including the target pixel in the read image is equal to or greater than the predetermined number A region extracting step for extracting from the read image; and a pattern matching step for verifying whether one of the identification patterns matches the arrangement of the white pixel and the non-monochrome pixel in the region extracted by the region extracting means. And a chromatic pixel determining step for determining whether or not the target pixel is a chromatic pixel based on the matching result in the pattern matching step. And wherein the Rukoto.
第7の発明は、第6の発明に係る画像処理方法をコンピュータに実行させるプログラムである。 A seventh invention is a program for causing a computer to execute the image processing method according to the sixth invention.
第8の発明は、第7の発明に係るプログラムを記録したコンピュータが読取可能な記憶媒体である。 The eighth invention is a computer-readable storage medium storing the program according to the seventh invention.
本発明により、色細線を有する有彩原稿と、読み取りずれにより生じた色細線を有する無彩原稿とを適切に判定できる画像処理装置、画像形成装置、画像処理方法、プログラム及び記憶媒体を提供することが可能となる。 According to the present invention, there are provided an image processing apparatus, an image forming apparatus, an image processing method, a program, and a storage medium capable of appropriately determining a chromatic original having a fine color line and an achromatic original having a fine color line caused by reading deviation. It becomes possible.
以下、図面を参照しつつ、幾つかの実施例に分けて、本発明を実施するための最良の形態の説明を行う。 Hereinafter, the best mode for carrying out the present invention will be described in several embodiments with reference to the drawings.
図1は、実施例1に係るデジタル式のフルカラー画像形成装置の概略構成を示したブロック図である。図1のフルカラー画像形成装置100は、スキャナ1、スキャナ補正部2、圧縮処理部3、コントローラ4、HDD(Hard Disk Drive)5、NIC(Network Interface Card)6、伸張処理部7、プリンタ補正部8、プロッタ9及び汎用バス10から構成される。原稿読取手段であるスキャナ1は、原稿11からR、G及びBに色分解した画像データを読み取り、当該画像データ(アナログ信号)をデジタルデータに変換する。スキャナ補正部2は、スキャナ1で読み取ったRGB画像データ(デジタルデータ)に対してγ補正を行うスキャナγ補正処理、画像領域を文字、線画若しくは絵柄等に分類する像域分離処理、又は、画像における文字部の強調若しくは絵柄部の平滑化のためのフィルタ処理等の画像処理を行う。圧縮処理部3は、スキャナ補正後の多値画像データを圧縮処理して汎用バス10を介してデータをコントローラ4に送出する。コントローラ4は、半導体メモリ(図示せず。)等を有し、圧縮処理部3から送出された画像データを当該メモリに一時的に蓄積する等の制御を行う。また、コントローラ4は、画像データのフォーマット処理を実行し、JPEG(Joint Photographic Experts Group)、TIFF(Tag Image File Format)又はBMP(Bit MaP)等の汎用画像フォーマットへの変換を行う。HDD5は、半導体メモリに一時的に蓄積された画像データを随時記憶する。これは、プリントアウト時に用紙が詰まる等、出力が正常に終了しなかった場合にも再度原稿を読み取ることなく出力できるようにしたり、複数の原稿の画像データを並び替えたりする電子ソートを実行できるようにしたり、或いは、既に読み取った原稿の画像データを蓄積しておいて必要なときに再出力できるようにしたりするためである。なお、圧縮処理部3は画像データを圧縮するとしたが、汎用バス10の帯域が十分に広く、画像データを記憶するHDD5の容量が十分大きい場合には、画像データを非圧縮の状態で扱ってもよい。また、コントローラ4は、汎用バス10を介してHDD5にある画像データを伸張処理部7に送出する。NIC6は、画像データを外部PC端末12に配信する。NIC6は、画像形成装置100がネットワークを介して外部PC端末12に画像データを配信する配信スキャナとして動作する場合等に利用される。伸張処理部7は、圧縮されている画像データを元の多値画像データに伸張し、プリンタ補正部8に送出する。プリンタ補正部8は、プリンタγ補正処理、階調処理、プロッタ9の明暗特性の補正処理、並びに、プロッタ9の階調特性、像域分離結果に応じた誤差拡散処理及びディザ処理等による画像データの量子化を行う。プロッタ9は、レーザービーム書き込みプロセスを用いた転写紙印字ユニットであり、画像データを感光体に潜像として描画し、トナーによる作像及び転写処理の後、転写紙にコピー画像13を形成する。 FIG. 1 is a block diagram illustrating a schematic configuration of a digital full-color image forming apparatus according to the first embodiment. 1 includes a scanner 1, a scanner correction unit 2, a compression processing unit 3, a controller 4, an HDD (Hard Disk Drive) 5, a NIC (Network Interface Card) 6, an expansion processing unit 7, and a printer correction unit. 8 and a plotter 9 and a general-purpose bus 10. A scanner 1 serving as a document reading unit reads image data color-separated into R, G, and B from a document 11 and converts the image data (analog signal) into digital data. The scanner correction unit 2 performs scanner γ correction processing for performing γ correction on the RGB image data (digital data) read by the scanner 1, image region separation processing for classifying the image region into characters, line drawings, patterns, or the like. Image processing such as filter processing for emphasizing the character portion or smoothing the pattern portion is performed. The compression processing unit 3 compresses the multivalued image data after scanner correction, and sends the data to the controller 4 via the general-purpose bus 10. The controller 4 has a semiconductor memory (not shown) and the like, and performs control such as temporarily storing the image data sent from the compression processing unit 3 in the memory. Further, the controller 4 executes a format process of the image data, and performs conversion into a general-purpose image format such as JPEG (Joint Photographic Experts Group), TIFF (Tag Image File Format), or BMP (Bit MaP). The HDD 5 stores image data temporarily stored in the semiconductor memory as needed. This enables electronic sorting to be performed without reading the document again even when the output is not completed normally, such as when paper is jammed at the time of printout, or to rearrange the image data of multiple documents. This is because the image data of the already read original is accumulated so that it can be re-output when necessary. Although the compression processing unit 3 compresses the image data, if the bandwidth of the general-purpose bus 10 is sufficiently wide and the capacity of the HDD 5 that stores the image data is sufficiently large, the image data is handled in an uncompressed state. Also good. Further, the controller 4 sends the image data in the HDD 5 to the decompression processing unit 7 via the general-purpose bus 10. The NIC 6 distributes the image data to the external PC terminal 12. The NIC 6 is used when the image forming apparatus 100 operates as a distribution scanner that distributes image data to the external PC terminal 12 via a network. The decompression processing unit 7 decompresses the compressed image data to the original multi-value image data and sends it to the printer correction unit 8. The printer correction unit 8 is a printer γ correction process, a gradation process, a light / dark characteristic correction process of the plotter 9, and an image data obtained by an error diffusion process and a dither process according to the gradation characteristic of the plotter 9 and the image area separation result. Quantize. The plotter 9 is a transfer paper printing unit using a laser beam writing process. The plotter 9 draws image data as a latent image on a photoconductor, and forms a copy image 13 on the transfer paper after image formation and transfer processing with toner.
図2は、スキャナ補正部2の構成例を示す図である。スキャナ補正部2は、スキャナγ補正部20、像域分離部21、フィルタ処理部22、色補正部23及び変倍処理部24から構成される。スキャナγ補正部20は、スキャナ1によるRGB画像データのデジタル値を明度に比例するデジタル値に変換する。像域分離部21は、原稿11の画像領域(像域)が文字領域、網点文字領域又は絵柄領域等の何れであるかを判定する。フィルタ処理部21は、像域分離の結果に基づいて画像データに鮮鋭化処理又は平滑化処理等を行う。色補正部23は、RGBに色分解された画像データを、異なる色空間であるC、M、Y、Bkの記録色情報を含むカラー画像データに変換する。変倍処理部24は、入力する画像データの主走査方向の大きさを拡大又は縮小して画像データを出力する。また、像域分離部21は、原稿11が有彩原稿であるか否かの判定結果である2値信号yusaiを出力する。yusai信号は、図1のコントローラ4に送信され、yusaiの値が「1」の場合、コントローラ4は、プロッタ9に対しCMYBkの4色の版で作像を行うように命令し、yusaiの値が「0」の場合、コントローラ4は、プロッタ9に対しBk版のみで作像を行うように命令する。 FIG. 2 is a diagram illustrating a configuration example of the scanner correction unit 2. The scanner correction unit 2 includes a scanner γ correction unit 20, an image area separation unit 21, a filter processing unit 22, a color correction unit 23, and a scaling processing unit 24. The scanner γ correction unit 20 converts the digital value of the RGB image data from the scanner 1 into a digital value proportional to the brightness. The image area separation unit 21 determines whether the image area (image area) of the document 11 is a character area, a halftone character area, a design area, or the like. The filter processing unit 21 performs a sharpening process or a smoothing process on the image data based on the image area separation result. The color correction unit 23 converts the image data color-separated into RGB into color image data including recording color information of C, M, Y, and Bk that are different color spaces. The scaling processing unit 24 enlarges or reduces the size of the input image data in the main scanning direction and outputs the image data. Further, the image area separation unit 21 outputs a binary signal yusai which is a determination result of whether or not the document 11 is a chromatic document. The yusai signal is transmitted to the controller 4 in FIG. 1. When the value of yusai is “1”, the controller 4 instructs the plotter 9 to perform image formation with four color plates of CMYBk, and the value of yusai Is “0”, the controller 4 instructs the plotter 9 to perform image formation using only the Bk version.
図3は、プリンタ補正部8の構成例を示す図である。プリンタ補正部8は、プリンタγ補正部30及び階調処理部31から構成される。プリンタγ補正部30は、伸張処理部7を経たCMYBkの画像データに対してプロッタ9の周波数特性に応じたγ補正を実行する。階調処理部31は、ディザ処理、誤差拡散処理等の量子化を実行する。また、プリンタ補正部8は、プロッタ9に対しC、M、Y、Bkを補正した信号C’’、M’’、Y’’、Bk’’を出力する。 FIG. 3 is a diagram illustrating a configuration example of the printer correction unit 8. The printer correction unit 8 includes a printer γ correction unit 30 and a gradation processing unit 31. The printer γ correction unit 30 performs γ correction corresponding to the frequency characteristics of the plotter 9 on the CMYBk image data that has passed through the expansion processing unit 7. The gradation processing unit 31 performs quantization such as dither processing and error diffusion processing. The printer correction unit 8 outputs signals C ″, M ″, Y ″, and Bk ″ obtained by correcting C, M, Y, and Bk to the plotter 9.
図4は、画像処理装置である像域処理部21の構成例を示す図である。像域処理部21は、フィルタ部40、色判定部41、白領域抽出部42、エッジ抽出部43、網点分離部44及び総合判定部45から構成される。 FIG. 4 is a diagram illustrating a configuration example of the image area processing unit 21 which is an image processing apparatus. The image area processing unit 21 includes a filter unit 40, a color determination unit 41, a white region extraction unit 42, an edge extraction unit 43, a halftone separation unit 44, and an overall determination unit 45.
フィルタ部40は、主に文字のエッジ抽出のために、スキャナ1が生成するG画像データを補正する。ここで、スキャナ1で読み取った画像データは、レンズなどの性能により鮮明でない場合があるので、エッジ強調フィルタを適用する。但し、ここでは、単純に原稿上のエッジだけを強調し、複写機に広く普及している階調表現のための万線パターンを強調しないようにする必要がある。万線パターンを強調してしまうと、絵柄(万線パターンによる階調表現領域)をエッジとして抽出して、最終的に文字エッジと誤判定する可能性があるからである。また、図8に示すように、600dpiの万線パターンAと400dpiの万線パターンBは、繰返し周期が異なるので、同一のフィルタ係数で強調しないようにするのは難しい。そのため、画像パターンの周期を検出して、フィルタの係数を切換える。なお、図8において、主走査方向xの白1ブロック幅とそれに接する黒1ブロック幅との和が、万線ピッチ(定幅:所定数の画素)即ち万線周期であり、低濃度中間調のときには白ブロック幅が広くなり、黒ブロック幅が狭くなる。高濃度中間調になるにつれて、白ブロック幅が狭くなり、黒ブロック幅が広くなる。 The filter unit 40 corrects G image data generated by the scanner 1 mainly for character edge extraction. Here, since the image data read by the scanner 1 may not be clear depending on the performance of the lens or the like, an edge enhancement filter is applied. However, here, it is necessary to emphasize only the edges on the document and not to emphasize the line pattern for gradation expression that is widely used in copying machines. This is because if the line pattern is emphasized, a picture (a gradation expression area by the line pattern) is extracted as an edge, and may eventually be erroneously determined as a character edge. Also, as shown in FIG. 8, the 600 dpi line pattern A and the 400 dpi line pattern B have different repetition periods, so it is difficult to avoid enhancement with the same filter coefficient. Therefore, the cycle of the image pattern is detected and the filter coefficient is switched. In FIG. 8, the sum of the width of one white block in the main scanning direction x and the width of one black block adjacent thereto is a line pitch (constant width: a predetermined number of pixels), that is, a line cycle. In this case, the white block width is widened and the black block width is narrowed. As the density becomes higher, the white block width becomes narrower and the black block width becomes wider.
この実施例では、フィルタ部40の画素マトリクスを、主走査方向xの画素数7、副走査方向y(スキャナ1の機械的な原稿走査方向)の画素数5の7×5画素マトリクスとして、図4上のフィルタ部40のブロックに示すように、各画素宛てに各重み付け係数a1乃至a7、b1乃至b7、c1乃至c7、d1乃至d7、e1乃至e7を宛てた2組の係数グループ(係数マトリクス)A、Bがある。次の係数グループAは、図8の600dpiの万線パターンAの強調を抑制しながら、文字のエッジを強調するフィルタ処理用の係数であり、係数グループBは、図8の400dpiの万線パターンBの強調を抑制しながら、文字のエッジを強調するフィルタ処理用の係数である。 In this embodiment, the pixel matrix of the filter unit 40 is a 7 × 5 pixel matrix having 7 pixels in the main scanning direction x and 5 pixels in the sub-scanning direction y (the mechanical document scanning direction of the scanner 1). 4, two sets of coefficient groups (coefficient matrix) addressing the respective weighting coefficients a1 to a7, b1 to b7, c1 to c7, d1 to d7, and e1 to e7 are addressed to each pixel. ) There are A and B. The next coefficient group A is a coefficient for filter processing that emphasizes the edge of the character while suppressing the enhancement of the 600 dpi line pattern A in FIG. 8, and the coefficient group B is the 400 dpi line pattern in FIG. This is a filter processing coefficient that emphasizes the edge of a character while suppressing the emphasis of B.
フィルタ処理とは、係数グループA又はBとの演算結果を16で除して注目画素の値を加える処理をいう。これにより、画像データを強調する。係数グループAは、 The filter process is a process of adding the value of the pixel of interest by dividing the calculation result of the coefficient group A or B by 16. Thereby, the image data is emphasized. Coefficient group A is
なお、横方向が主走査方向xの並び、縦方向が副走査方向yの並びである。係数グループA、Bのグループ内第1行の係数が、図4上のフィルタ部40の係数マトリクスの、第1行の係数a1乃至a7であり、係数グループA、Bの第3行の中央の「20」が、フィルタ部40のブロックの係数マトリクスの第3行c1乃至c7の中央の画素の係数即ち注目画素の係数c4である。係数マトリクスの各係数に、それに宛てられる画素の画像データが表す値を乗算した積(総計7×5=35個)の総和(積和値)が、注目画素(c4が宛てられた画素)における、フィルタ部40で処理した画像データ値として、エッジ抽出部43及び白領域抽出部42に与えられる。ここで注目画素とは、現在処理対象の画素であり、それがx方向にそしてy方向に推移しながら順次更新される。 Note that the horizontal direction is the alignment in the main scanning direction x, and the vertical direction is the alignment in the sub-scanning direction y. The coefficients in the first row of the coefficient groups A and B are the coefficients a1 to a7 in the first row of the coefficient matrix of the filter unit 40 in FIG. “20” is the coefficient of the pixel in the center of the third row c1 to c7 of the coefficient matrix of the block of the filter unit 40, that is, the coefficient c4 of the target pixel. The sum (product sum value) of products (total 7 × 5 = 35) obtained by multiplying each coefficient of the coefficient matrix by the value represented by the image data of the pixel addressed to the coefficient is the pixel of interest (pixel addressed to c4). The image data values processed by the filter unit 40 are given to the edge extraction unit 43 and the white area extraction unit 42. Here, the target pixel is a pixel to be processed at present, and is sequentially updated while moving in the x direction and the y direction.
係数グループAは、図8に示す600dpiの万線パターンAの万線ピッチに相当する部分に負の係数(小さい値の係数)が宛てられ、それらの間に0(やや大きい値の係数)が宛てられ、エッジ強調のために注目画素には20(極めて大きな係数)が宛てられている。これにより、画像データ(注目画素)が万線パターンAの領域の黒/白間エッジであるときには、導出される加重平均値(積和値)は、万線パターンAでない文字エッジであるときに比べてかなり低い値になる。 In the coefficient group A, a negative coefficient (small value coefficient) is assigned to a part corresponding to the line pitch of the 600 dpi line pattern A shown in FIG. 8, and 0 (a slightly large value coefficient) is present between them. 20 (very large coefficient) is assigned to the pixel of interest for edge enhancement. Thereby, when the image data (pixel of interest) is a black / white edge of the line pattern A region, the derived weighted average value (product sum value) is a character edge that is not the line pattern A. Compared to a very low value.
係数グループBは、図8に示す400dpiの万線パターンBの万線ピッチに相当する部分に負の係数(小さい値の係数)が宛てられ、それらの間に0(やや大きい値の係数)が宛てられ、エッジ強調のために注目画素には20(極めて大きな係数)が宛てられている。これにより、画像データ(注目画素)が万線パターンBの領域の黒/白間エッジであるときには、導出される加重平均値(積和値)は、万線パターンBでない文字エッジであるときに比べてかなり低い値になる。 In the coefficient group B, a negative coefficient (small value coefficient) is assigned to a portion corresponding to the line pitch of the 400 dpi line pattern B shown in FIG. 8, and 0 (a slightly large value coefficient) is present between them. 20 (very large coefficient) is assigned to the pixel of interest for edge enhancement. As a result, when the image data (pixel of interest) is the black / white edge of the line pattern B region, the derived weighted average value (product sum value) is the character edge that is not the line pattern B. Compared to a very low value.
なお、フィルタ部40では、下記条件1、2のどちらかが成立したとき、即ち、図8の400dpiの万線パターンBである可能性が高いときに、係数グループBによるフィルタ処理を行い、そうでないときに係数グループAによるフィルタ処理を行う。条件1〔400dpi系の万線パターンBの薄いところ(図8上の白区間)を判定する条件〕は、(D[3][1]<D[3][2])&(D[3][7]<D[3][6])&(ABS(D[3][2]−D[3][4])>ABS(D[3][4]−D[3][1]))&(ABS(D[3][6]−D[3][4])>ABS(D[3][4]−D[3][7]))であり、条件2〔400dpi系の万線パターンBの濃いところ(図8上の黒区間)を判定する条件〕は、(D[3][1]>D[3][2])&(D[3][7]>D[3][6])&(ABS(D[3][2]− D[3][4])>ABS(D[3][4]−D[3][1]))&(ABS(D[3][6]−D[3][4])>ABS(D[3][4]−D[3][7]))である。なお、D[i][j]は、x、y分布の画素マトリクス上の、x=i、y=jの位置の画素の画像データが表す値を意味し、例えば、D[3][1]は、図4上のフィルタ部40のブロックに示す係数マトリクスの係数a3が宛てられる画素の画像データが表す値である。「&」は「論理積:AND」を意味し、「ABS」は、絶対値演算子を意味する。注目画素は、D[4][3]である。 The filter unit 40 performs the filtering process by the coefficient group B when one of the following conditions 1 and 2 is satisfied, that is, when there is a high possibility that the line pattern B is 400 dpi in FIG. If not, filter processing by coefficient group A is performed. Condition 1 [a condition for determining a thin portion of the 400 dpi line pattern B (white section in FIG. 8)] is (D [3] [1] <D [3] [2]) & (D [3 ] [7] <D [3] [6]) & (ABS (D [3] [2] -D [3] [4])> ABS (D [3] [4] -D [3] [1 ])) & (ABS (D [3] [6] -D [3] [4])> ABS (D [3] [4] -D [3] [7])) and condition 2 [400 dpi The condition for determining the dark part of the system line pattern B (black section in FIG. 8) is (D [3] [1]> D [3] [2]) & (D [3] [7] > D [3] [6]) & (ABS (D [3] [2] -D [3] [4])> ABS (D [3] [4] -D [3] [1])) & (ABS (D [3] [6] -D [3] [4])> ABS (D [3] [4] -D [3] [7])). Note that D [i] [j] means a value represented by image data of a pixel at a position of x = i, y = j on a pixel matrix of x, y distribution, for example, D [3] [1 ] Is a value represented by image data of a pixel to which the coefficient a3 of the coefficient matrix shown in the block of the filter unit 40 in FIG. 4 is addressed. “&” Means “logical product: AND”, and “ABS” means an absolute value operator. The target pixel is D [4] [3].
条件1又は2が成立すると、その時の注目画素が、図8に示す600dpi読み取り時の400dpiの万線パターンBの領域のものであると見なして、係数グループBを用いて文字エッジ強調のフィルタ処理を行う。条件1及び2のいずれも成立しないと、図8に示す600dpi読み取り時の600dpiの万線パターンAが強調されるのを避ける係数グループAを用いて文字エッジ強調のフィルタ処理を行う。即ち、画像周期(ピッチ)を検出して、特定周期の画像パターンを強調しないようにしている。これにより、万線パターンを強調せずに、文字のエッジを強調することが可能となる。なお、図4には、エッジ処理にG画像データを参照する態様を示すが、G画像データに限らず、輝度データであってもよい。濃度を表現する信号なら適応可能である。 When the condition 1 or 2 is satisfied, the pixel of interest at that time is assumed to be in the 400 dpi line pattern B region at the time of 600 dpi reading shown in FIG. I do. If neither of the conditions 1 and 2 is satisfied, the character edge emphasis filter process is performed using the coefficient group A that avoids emphasizing the 600 dpi line pattern A at the time of 600 dpi reading shown in FIG. That is, the image period (pitch) is detected so that the image pattern of a specific period is not emphasized. Thereby, it is possible to emphasize the edge of the character without enhancing the line pattern. FIG. 4 shows an aspect in which G image data is referred to for edge processing, but it is not limited to G image data, and may be luminance data. Any signal expressing density can be applied.
エッジ抽出部43は、文字エッジを検出する手段であり、3値化部431、黒画素連続検出部432、白画素連続検出部433、近傍画素検出部434及び孤立点除去部435で構成される。文字エッジ部は、高レベル濃度の画素と低レベル濃度の画素(以下、それぞれ「黒画素」、「白画素」という。)が多く、かつ、これらの黒画素及び白画素が連続している。エッジ抽出部43は、このような黒画素及び白画素それぞれの連続性に基づいて文字エッジを検出する。 The edge extraction unit 43 is means for detecting a character edge, and includes a ternarization unit 431, a black pixel continuous detection unit 432, a white pixel continuous detection unit 433, a neighboring pixel detection unit 434, and an isolated point removal unit 435. . In the character edge portion, there are many high-level density pixels and low-level density pixels (hereinafter referred to as “black pixels” and “white pixels”, respectively), and these black pixels and white pixels are continuous. The edge extraction unit 43 detects a character edge based on the continuity of each of such black pixels and white pixels.
3値化部431は、2種の閾値TH1及びTH2を用いて、フィルタ部40が文字エッジ強調のフィルタ処理をしたG画像データ(エッジ抽出部43の入力データ)を3値化する。閾値TH1及びTH2は、例えば、画像データが0から255までの256階調(0=白)を表す場合、例えばTH1=20、TH2=80に設定する。3値化部431は、入力データ<TH1の場合、白画素を表す3値化データに入力データを変換し、TH1≦入力データ<TH2の場合、中間調画素を表す3値化データに入力データを変換し、TH2≦入力データの場合、黒画素を表す3値化データに入力データを変換する。 The ternarization unit 431 ternarizes the G image data (input data of the edge extraction unit 43) that has been subjected to the filter processing for character edge enhancement by the filter unit 40 using the two types of threshold values TH1 and TH2. For example, when the image data represents 256 gradations (0 = white) from 0 to 255, the thresholds TH1 and TH2 are set to TH1 = 20 and TH2 = 80, for example. The ternary unit 431 converts the input data into ternary data representing white pixels when input data <TH1, and the input data into ternary data representing halftone pixels when TH1 ≦ input data <TH2. When TH2 ≦ input data, the input data is converted into ternary data representing black pixels.
黒画素連続検出部432及び白画素連続検出部433は、3値化データに基づいて黒画素が連続する箇所及び白画素が連続する箇所を、それぞれパターンマッチングにより検出する。このパターンマッチングには、本実施例では、図9に示す3×3画素マトリクスのパターンBPa乃至BPd及びWPa乃至WPdを用いる。なお、これらパターンは、画像形成装置100のHDD5や図示しないRAM(Random Access Memory)、NVRAM(Non−Volatile RAM)、ROM(Read Only Memory)等の記憶装置に記憶されている。後述の他のパターンについても同様である。図9に示すパターンにおいて、黒丸は前述の黒画素であることを示し、白丸は前述の白画素であることを示し、いずれの丸印もない空白画素は、黒画素、中間調画素、白画素のいずれであるか問わないものであることを示す。3×3画素マトリクスの中心の画素が注目画素である。 The black pixel continuation detection unit 432 and the white pixel continuation detection unit 433 detect a portion where the black pixels are continuous and a portion where the white pixels are continuous based on the ternary data by pattern matching. In this embodiment, the pattern matching uses the patterns BPa to BPd and WPa to WPd of the 3 × 3 pixel matrix shown in FIG. These patterns are stored in a storage device such as the HDD 5 of the image forming apparatus 100, a RAM (Random Access Memory) (not shown), an NVRAM (Non-Volatile RAM), a ROM (Read Only Memory), or the like. The same applies to other patterns described later. In the pattern shown in FIG. 9, black circles indicate the above-described black pixels, white circles indicate the above-described white pixels, and blank pixels without any of the circles are black pixels, halftone pixels, white pixels It shows that it is what does not ask. The pixel at the center of the 3 × 3 pixel matrix is the target pixel.
黒画素連続検出部432は、3値化データの内容の分布が、図9に示す黒画素分布パターンBPa乃至BPdのいずれかにマッチングすると、その時の注目画素を「黒連続画素」としてそれを表すデータを該注目画素に与える。同様に、白画素連続検出部433は、図9に示す白画素分布パターンWPa乃至WPdのいずれかにマッチングすると、その時の注目画素を「白連続画素」としてそれをあらわすデータを該注目画素に与える。 When the distribution of the content of the ternary data matches any of the black pixel distribution patterns BPa to BPd shown in FIG. 9, the black pixel continuous detection unit 432 represents the target pixel at that time as “black continuous pixels”. Data is given to the pixel of interest. Similarly, when the white pixel continuous detection unit 433 matches any of the white pixel distribution patterns WPa to WPd shown in FIG. 9, the target pixel at that time is regarded as a “white continuous pixel”, and data representing it is given to the target pixel. .
近傍画素検出部434は、黒画素連続検出部432及び白画素連続検出部433の検出結果について、この近傍画素検出部434における注目画素の近傍に黒連続画素又は白連続画素があるか否かを調べることにより、該注目画素が、エッジ領域と非エッジ領域のいずれにあるかを判定する。より具体的には、本実施例にあっては、5×5画素マトリクスのブロックで、その内部に黒連続画素と白連続画素がそれぞれ1つ以上存在するときに、そのブロックをエッジ領域と判定し、そうでないときに、そのブロックを非エッジ領域と判定する。 For the detection results of the black pixel continuous detection unit 432 and the white pixel continuous detection unit 433, the neighboring pixel detection unit 434 determines whether there are black continuous pixels or white continuous pixels in the vicinity of the target pixel in the neighboring pixel detection unit 434. By examining, it is determined whether the target pixel is in the edge region or the non-edge region. More specifically, in this embodiment, when a block of a 5 × 5 pixel matrix includes at least one continuous black pixel and one continuous white pixel, the block is determined to be an edge region. If not, the block is determined as a non-edge region.
孤立点除去部435は、孤立しているエッジを非エッジ領域に補正する。文字エッジは連続して存在するからである。そして、孤立点除去部435は、エッジ領域と判定した画素に対して“1”(エッジ領域)なるedge信号を出力し、非エッジ領域と判定した画素に対して“0”(非エッジ領域)なるedge信号を出力する。 The isolated point removing unit 435 corrects the isolated edge into a non-edge region. This is because character edges exist continuously. Then, the isolated point removal unit 435 outputs an edge signal “1” (edge region) to the pixel determined as the edge region, and “0” (non-edge region) to the pixel determined as the non-edge region. The edge signal is output.
白領域抽出部42は、図21に示すように2値化部4201、RGB白抽出部4202、白判定部4203、白パターンマッチング部4204、白パターン補正部4205、白膨張部4206、白収縮部4207、白補正部4208、グレーパターンマッチング部4209、グレー膨張部4210及び判定部4211から構成される。なお、図4における白領域抽出部42は図21における白領域抽出部42に対応する。 As shown in FIG. 21, the white area extraction unit 42 includes a binarization unit 4201, an RGB white extraction unit 4202, a white determination unit 4203, a white pattern matching unit 4204, a white pattern correction unit 4205, a white expansion unit 4206, and a white contraction unit. 4207, a white correction unit 4208, a gray pattern matching unit 4209, a gray expansion unit 4210, and a determination unit 4211. 4 corresponds to the white area extraction unit 42 in FIG.
2値化部4201は、フィルタ部40の画像濃度データ(G画像データ)のエッジ強調出力を、閾値thwsbで2値化する。なお、エッジ強調出力は、この実施例では0から255の256階調であり、0が濃度の無い白であり、閾値thwsbの一例は50であって、エッジ強調出力の値がthwsb=50より小さければ、2値化部4201が「2値化白」と判定し、2値化白判定信号「1」を生成する。エッジ強調出力の値がthwsb=50以上のときは2値化白判定信号「0」を生成する。 The binarization unit 4201 binarizes the edge enhancement output of the image density data (G image data) of the filter unit 40 with a threshold value thwsb. The edge emphasis output is 256 gradations from 0 to 255 in this embodiment, 0 is white without density, an example of the threshold value thwsb is 50, and the value of the edge emphasis output is thwsb = 50. If it is smaller, the binarization unit 4201 determines “binarized white” and generates a binarized white determination signal “1”. When the value of the edge emphasis output is thwsb = 50 or more, a binarized white determination signal “0” is generated.
RGB白抽出部4202は、グレー画素検出部4212、色地検出部4213及びRGB白地検出部4214から構成される。RGB白抽出部4202は、画像データが白領域かグレー領域(中濃度領域)かを判定する。 The RGB white extraction unit 4202 includes a gray pixel detection unit 4212, a color background detection unit 4213, and an RGB white background detection unit 4214. The RGB white extraction unit 4202 determines whether the image data is a white area or a gray area (medium density area).
RGB白地検出部4213は、R、G、B画像データで白地領域を検出することにより、白背景分離の動作をアクティブにする。即ち白背景分離の処理を起動する。具体的には、図10のパターンWBPに示すように、3×3画素マトリックスのR、G、B画像データのすべてが閾値thwssより小さければ、注目画素(3×3画素マトリックスの中心画素)を白領域と判定して白地判定信号をアクティブ「1」にする。これは、ある程度の広がりの白画素領域があるか否かを検出するものである。なお、R、G、B画像データのそれぞれも、この実施例では0から255の256階調であり、0が濃度の無い基底レベルであり、閾値thwss<thwsbであって、thwssは例えば40であり、R、G、B画像データのすべてがthwss=40より小さいと、「白地」と判定し白地判定信号「1」を生成する。R、G、B画像データのいずれかがthwss=40以上のときは白地判定信号「0」を生成する。 The RGB white background detection unit 4213 activates the white background separation operation by detecting a white background region from the R, G, and B image data. That is, the white background separation process is started. Specifically, as shown in the pattern WBP of FIG. 10, if all of the R, G, B image data of the 3 × 3 pixel matrix is smaller than the threshold thwss, the target pixel (the central pixel of the 3 × 3 pixel matrix) is determined. The white area is determined and the white background determination signal is set to active “1”. This is to detect whether or not there is a white pixel area having a certain extent. Each of the R, G, and B image data has 256 gradations from 0 to 255 in this embodiment, 0 is a base level without density, threshold thwss <thwsb, and thwss is 40, for example. Yes, if all of the R, G, B image data is smaller than thwss = 40, it is determined as “white background” and a white background determination signal “1” is generated. When any of the R, G, and B image data is thwss = 40 or more, a white background determination signal “0” is generated.
色地検出部4213は、薄い色を白背景と判定しないようにするために、以下のパターンマッチングA乃至Dにより色地を検出する。 The color background detection unit 4213 detects the color background by the following pattern matching A to D in order not to determine a light color as a white background.
A.最初に、注目画素を中心とする5×5画素マトリックスの各画素の符号を、図11のパターンMPpに示すものとすると、注目画素となる中心画素c3(MCa乃至MCdの×印画素)のRGB差(1画素宛てのR、G、B画像データの最大値と最小値との差)が閾値thcより大きいときに色画素判定信号aを「1」(色画素)とし、閾値thc以下のときに「0」(白黒画素)とする。 A. First, if the sign of each pixel of the 5 × 5 pixel matrix centered on the target pixel is shown in the pattern MPp in FIG. 11, the RGB of the center pixel c3 (the X mark pixels of MCa to MCd) serving as the target pixel When the difference (difference between the maximum value and the minimum value of R, G, B image data addressed to one pixel) is larger than the threshold value thc, the color pixel determination signal a is set to “1” (color pixel), and when the difference is less than the threshold value thc “0” (monochrome pixel).
B.注目画素の片側の周辺画素群△(図11のMCa乃至MCdの中)のいずれかの画素のR、G、B画像データがすべて閾値thwc以下であるときに、一方側白判定信号bを「1」(白画素)とし、閾値thwcを超えるときに「0」(非白画素)とする。閾値thwcは例えば20である。 B. When the R, G, and B image data of any pixel in the peripheral pixel group Δ (in MCa to MCd in FIG. 11) on one side of the target pixel are all equal to or less than the threshold thwc, the one-side white determination signal b is set to “ 1 ”(white pixel), and“ 0 ”(non-white pixel) when the threshold value thwc is exceeded. The threshold thwc is 20, for example.
C.注目画素の他方側の周辺画素群□(図11のMCa乃至MCdの中)のいずれかの画素のR、G、B画像データがすべて閾値thwc以下であるときに、他方側白判定信号cを「1」(白画素)とし、閾値thwcを超えるときに「0」(非白画素)とする。 C. When the R, G, B image data of any pixel in the peripheral pixel group □ (in MCa to MCd in FIG. 11) on the other side of the target pixel are all equal to or less than the threshold thwc, the other side white determination signal c is “1” (white pixel), and “0” (non-white pixel) when the threshold value thwc is exceeded.
D.図11のパターンMCa乃至MCdのいずれかにおいて、aAND(bXNORc)=「1」が成立すると、即ち、aが「1」(注目画素が色画素)で、かつ、bとcとが一致(注目画素の両側ともに白画素、又は、両側ともに非白画素)するとき、注目画素宛ての色地判定信号dを「1」(色地)とする。 D. In any of the patterns MCa to MCd in FIG. 11, when aAND (bXNORc) = “1” is satisfied, that is, a is “1” (the target pixel is a color pixel), and b and c match (attention) When both pixels are white pixels or both sides are non-white pixels), the color gamut determination signal d addressed to the pixel of interest is set to “1” (color gamut).
前述のパターンマッチングA乃至Dを行うのは、黒文字のまわりがRGB読取り位置ずれでわずかながらに色付きになるときであっても、そこを色であると認識しないようにするためである。黒文字のまわりの色付きの位置では、bXNORc(bとcとの排他的否定論理和)が「0」(注目画素の両側の一方が白画素、他方が非白画素)となり、この場合は、色地判定信号dが「0」(非色地)となる。加えて、注目画素が、周辺を白地で囲まれた色画素のときには、色地判定信号dが「1」(色地)となり、線が込み入ったところでも、薄い色画素を色地として検出することができる。即ち、線が込み入ったところでは、本来白いところであっても完全に白であると読み取られることはないが、前述の処理A.でRGB差が小さい場合には色画素であると判定されないので、濃度を見るべき白地よりも厳しく閾値thwcを設定(たとえばthwss=40、thwsb=50に対し、thwc=20)することにより、B乃至Dの処理で白背景か否を厳密にチェックし、薄い色画素を色地として正確に検出することができるようにする。 The above-described pattern matching A to D is performed in order to prevent a black character from being recognized as a color even when it is slightly colored due to the RGB reading position shift. At a colored position around the black character, bXNORc (exclusive OR of b and c) is “0” (one pixel on both sides of the target pixel is a white pixel and the other is a non-white pixel). The ground determination signal d is “0” (non-colored ground). In addition, when the pixel of interest is a color pixel whose periphery is surrounded by a white background, the color background determination signal d is “1” (color background), and even when the line is intricate, a light color pixel is detected as the color background. be able to. That is, when the line is intricate, even if it is originally white, it is not read as completely white. When the RGB difference is small, it is not determined that the pixel is a color pixel. Therefore, the threshold thwc is set more strictly than the white background for which the density is to be viewed (for example, thwsc = 20 for thwss = 40 and thwsb = 50). Through the processing of D to D, it is strictly checked whether or not the background is a white background so that a light color pixel can be accurately detected as a color background.
なお、色地検出に際し、谷白画素検出を行う場合もある。谷白画素検出は、RGB白地検出部4214で検出できない小さな白領域の谷白画素を図10に示すG画像データの5×5画素マトリクス分布RDPa及びRDPbに基づいて検出する。具体的には、5×5画素マトリクス分布RDPaに基づいて、miny=min(G[1][2]、G[1][3]、G[1][4]、G[5][2]、G[5][3]、G[5][4])を算出する。即ち、図10に示す5×5画素マトリクス分布RDPaの、黒丸を付した画素群の中の最低濃度minyを導出する。また、maxy=max(G[3][2]、G[3][3]、G[3][4])により、図10に示す5×5画素マトリクス分布RDPaの、白丸を付した画素群の中の最高濃度maxyを導出する。次に、mint=min(G[2][1]、G[3][1]、G[4][1]、G[2][5]、G[3][5]、G[4][5])により、図10に示すもう1つの5×5画素マトリクス分布RDPbの、黒丸を付した画素群の中の最低濃度mintを導出する。そして、maxt=max(G[2][3]、G[3][3]、G[4][3])により、図10に示す5×5画素マトリクス分布RDPbの、白丸を付した画素群の中の最高濃度maxtを導出する。ここで、min()は最小値を検出する関数であり、max()は、最大値を検出する関数である。次に、OUT=((miny−maxy)>0)#((mint−maxt)>0)により、(miny−maxy)と(mint−maxt)とのうち、正値であって大きいほうの値を谷検出値OUTとして導出し、このOUTの値がある閾値以上であるときに、注目画素(RDPa又はRDPbの中心画素)を谷白画素として検出する。このように画像の谷状態を検出して、RGB白地検出部4214では、検出しにくいところを補う。なお、#は論理和(オア:又は)を意味する。 It should be noted that valley white pixel detection may be performed when detecting the color background. The valley white pixel detection detects valley white pixels in a small white area that cannot be detected by the RGB white background detection unit 4214 based on the 5 × 5 pixel matrix distributions RDPa and RDPb of the G image data shown in FIG. Specifically, based on the 5 × 5 pixel matrix distribution RDPa, miny = min (G [1] [2], G [1] [3], G [1] [4], G [5] [2 ], G [5] [3], G [5] [4]). That is, the minimum density miny in the pixel group with black circles in the 5 × 5 pixel matrix distribution RDPa shown in FIG. 10 is derived. Also, pixels with white circles in the 5 × 5 pixel matrix distribution RDPa shown in FIG. 10 according to maxy = max (G [3] [2], G [3] [3], G [3] [4]). The highest density maxy in the group is derived. Next, mint = min (G [2] [1], G [3] [1], G [4] [1], G [2] [5], G [3] [5], G [4 ] [5]), the lowest density mint in the pixel group with the black circles in the other 5 × 5 pixel matrix distribution RDPb shown in FIG. 10 is derived. Then, pixels with white circles in the 5 × 5 pixel matrix distribution RDPb shown in FIG. 10 according to maxt = max (G [2] [3], G [3] [3], G [4] [3]). The highest density maxt in the group is derived. Here, min () is a function for detecting the minimum value, and max () is a function for detecting the maximum value. Next, according to OUT = ((miny-maxy)> 0) # ((mint-maxt)> 0), the larger value of (miny-maxy) and (mint-maxt) is a positive value. Is detected as a valley detection value OUT, and when the value of OUT is equal to or greater than a certain threshold, the pixel of interest (the center pixel of RDPa or RDPb) is detected as a valley white pixel. In this way, the valley state of the image is detected, and the RGB white background detection unit 4214 compensates for the difficulty of detection. In addition, # means a logical sum (OR: or).
白判定部4203は、白判定に用いる状態変数MS、SS[I]の更新を行う。その内容を図5のフローチャートに示す。ここで、状態変数MSは処理対象ライン(注目ライン)の画素宛てのもの、状態変数SS[I]は処理対象ラインの1ライン前(処理済ライン)の画素宛てのものであり、いずれも白地の白の程度を表す4ビットの白地情報であり、図5のフローチャートに示す処理によって生成されるものである。状態変数MS及びSS[I]が表す値の最高値は15に定めており、これが最も白い程度を意味し、最低値は0である。即ち状態変数MS及びSS[I]は、白の程度を示すデータであり、それを表す値が大きいほど、強い白を意味する。複写動作開始時に、状態変数MS及びSS[I]は共に0に初期化される。 The white determination unit 4203 updates the state variables MS and SS [I] used for white determination. The contents are shown in the flowchart of FIG. Here, the state variable MS is addressed to the pixel of the processing target line (target line), and the state variable SS [I] is addressed to the pixel one line before the processing target line (processed line). This is 4-bit white background information representing the degree of white, and is generated by the processing shown in the flowchart of FIG. The maximum value represented by the state variables MS and SS [I] is set to 15, which means the whitest degree, and the minimum value is 0. That is, the state variables MS and SS [I] are data indicating the degree of white, and the larger the value representing it, the stronger the white. At the start of the copying operation, the state variables MS and SS [I] are both initialized to 0.
図5の処理においてはまず、処理対象である注目画素の1ライン前の状態変数即ち白地情報SS[I]と注目画素の同一ライン上の1画素前の画素(先行画素:処理済画素)の状態変数即ち白地情報MSとを比較して(ステップS1)、1ライン前の白地情報SS[I]の方が大きければ、それを注目画素の仮の白地情報MSとする(ステップS2)。そうでない場合には、先行画素の状態変数MSを注目画素の仮の白地情報MSとする。これは、周辺画素の白地情報のうち、より白に近い情報を選択することを意味する。 In the processing of FIG. 5, first, the state variable of the target pixel that is the processing target one line before, that is, the white background information SS [I] and the pixel one pixel before the target pixel on the same line (previous pixel: processed pixel). The state variable, that is, the white background information MS is compared (step S1). If the white background information SS [I] one line before is larger, it is set as the temporary white background information MS of the target pixel (step S2). Otherwise, the state variable MS of the preceding pixel is set as the temporary white background information MS of the target pixel. This means that information closer to white is selected from the white background information of the peripheral pixels.
複写動作を開始してから、RGB白地検出部4214で白領域即ち白地を検出すると〔RGB白地検出部4214の出力である白地判定信号=「1」〕、注目画素の1ライン前の画素の白地情報SS[I]を15に更新し(ステップS3、4)、注目画素の白地情報MSの値も15とする(ステップS5)。そして、注目画素の白地情報MSは、図12に示すラインメモリLMPの現ライン(注目ライン)用のラインメモリの注目画素の主走査位置(F)に書き込まれ、1ライン前の画素宛ての白地情報SS[I]は、図12に示すラインメモリLMPの前1ライン用のラインメモリの注目画素の主走査位置(F)に書き込まれる(ステップS3、4、5)。次に、1ライン前の画素宛ての白地情報SS[I]を、1ライン前の画素に、次のように伝搬させる(ステップS14乃至17)。なお、[I]は注目画素の主走査位置を意味し、[I−1]は主走査方向xでそれより1画素前の画素(注目画素の直前の画素)の位置を意味する。 When a white area, that is, a white background is detected by the RGB white background detection unit 4214 after the copying operation is started (white background determination signal = “1” output from the RGB white background detection unit 4214), the white background of the pixel one line before the target pixel The information SS [I] is updated to 15 (steps S3 and S4), and the value of the white background information MS of the target pixel is also set to 15 (step S5). The white background information MS of the target pixel is written in the main scanning position (F) of the target pixel in the line memory for the current line (target line) of the line memory LMP shown in FIG. Information SS [I] is written into the main scanning position (F) of the target pixel in the line memory for the previous one line of the line memory LMP shown in FIG. 12 (steps S3, 4, 5). Next, the white background information SS [I] addressed to the previous pixel is propagated to the previous pixel as follows (steps S14 to S17). [I] means the main scanning position of the target pixel, and [I-1] means the position of the pixel one pixel before (in the main scanning direction x) (the pixel immediately before the target pixel).
SS[I−1]<SS[I]−1の場合、SS[I−1]=SS[I]−1をラインメモリにセットする(ステップS14、15)。即ち、注目画素より1ライン前のラインにおいて、主走査方向で注目画素の位置(F)より1画素前(E)の白地情報SS[I−1]よりも、注目画素の位置(F)の白地情報SS[I]から1を減算した値「SS[I]−1」のほうが大きい(白程度が強い)とき、1ライン前のライン上の注目画素の位置(F)より1画素前の画素(E)宛ての白地情報SS[I−1]を、注目画素の位置(F)の白地情報SS[I]より1だけ白強度を下げた値に更新する。 If SS [I-1] <SS [I] -1, SS [I-1] = SS [I] -1 is set in the line memory (steps S14 and S15). That is, in the line one line before the target pixel, in the main scanning direction, the position (F) of the target pixel is higher than the white background information SS [I-1] one pixel before (E) from the target pixel position (F). When the value “SS [I] −1” obtained by subtracting 1 from the white background information SS [I] is larger (the white degree is stronger), the pixel one pixel before the position (F) of the target pixel on the line one line before The white background information SS [I-1] addressed to the pixel (E) is updated to a value obtained by lowering the white intensity by 1 from the white background information SS [I] at the position (F) of the target pixel.
次に、SS[I−2]<SS[I]−2の場合、SS[I−2]=SS[I]−2をラインメモリにセットする(ステップS16、17−14、15)。次に、SS[I−3]<SS[I]−3のとき、SS[I−3]=SS[I]−3をラインメモリにセットする(ステップS16、17−14、15)。 Next, when SS [I-2] <SS [I] -2, SS [I-2] = SS [I] -2 is set in the line memory (steps S16, 17-14, 15). Next, when SS [I-3] <SS [I] -3, SS [I-3] = SS [I] -3 is set in the line memory (steps S16, 17-14, 15).
以下同様にして、最後に、SS[I−15]<SS[I]−15の場合、SS[I−15]=SS[I]−15をラインメモリにセットする(ステップS16、17−14、15)。これらの白地情報SS[I]の値の下限値MINは0であり、0未満になるときには、0とする。これは後述のステップS13においても同様である。 In the same manner, finally, if SS [I-15] <SS [I] -15, SS [I-15] = SS [I] -15 is set in the line memory (steps S16, 17-14). 15). The lower limit value MIN of the value of the white background information SS [I] is 0, and is 0 when it is less than 0. The same applies to step S13 described later.
これらのステップ14乃至17の処理により、1ライン前であり、かつ、注目画素の主走査位置より前の白地情報SSが、注目画素の白地情報MSを、それから主走査方向xの1画素の位置ずれにつき1の低減率で下げた値に更新され、注目画素の白地情報が1ライン前の主走査方向xで主走査の後方に、前記低減率で伝搬する(白伝搬処理)。但しこれは、1ライン前の白地情報のほうが小さい値である場合である。例えば、1ライン前の画素が、RGB白地検出部4214で白地(白領域)であると検出されたときにはその白地情報は15であって最高値であるので書換えは行われない。 By the processing of these steps 14 to 17, the white background information SS one line before and before the main scanning position of the target pixel is changed to the white background information MS of the target pixel, and then the position of one pixel in the main scanning direction x. The white background information of the target pixel is propagated to the rear of the main scanning in the main scanning direction x one line before by the reduction rate (white propagation processing). However, this is a case where the white background information one line before is a smaller value. For example, when the pixel of the previous line is detected by the RGB white background detection unit 4214 to be a white background (white area), the white background information is 15 and is the highest value, so rewriting is not performed.
注目画素を更新してそれが白地でないものになると〔RGB白地検出部4214の出力である白地判定信号=「0」〕、ステップS3からステップS6以下に進み、注目画素が、色地〔色地検出部4213の出力である色地判定信号d=「1」〕でなく(非色地であり)、2値化白〔2値化部4201の出力である2値化白判定信号=「1」〕であり、しかも、ステップ1、2で仮に定めた注目画素の状態変数即ち白地情報MSが閾値thw1(例えば13)以上である場合には、注目画素宛ての白地情報MSに1を加える(ステップS6乃至10)。即ち、1だけ白程度が強い値に更新する。白地情報MSの最高値は15に定めており、15を超えるときには15とする(ステップS9、10)。この経路を進んできたときにも、前述のステップS5及びS14乃至S17を実行する。即ち、白伝搬処理を行う。 When the pixel of interest is updated and becomes a non-white background (white background determination signal = “0” output from the RGB white background detection unit 4214), the process proceeds from step S3 to step S6 and subsequent steps, and the pixel of interest changes to the color background [color background]. Instead of the color gamut determination signal d = “1” output from the detection unit 4213 (non-color gamut), binarized white [binary white determination signal output from the binarization unit 4201 = “1” In addition, when the state variable of the pixel of interest temporarily determined in Steps 1 and 2, that is, the white background information MS is equal to or greater than a threshold thw1 (for example, 13), 1 is added to the white background information MS addressed to the pixel of interest ( Steps S6 to 10). That is, the white level is updated by 1 to a strong value. The maximum value of the white background information MS is set to 15, and when it exceeds 15, it is set to 15 (steps S9 and S10). Even when the route has been advanced, the above-described steps S5 and S14 to S17 are executed. That is, white propagation processing is performed.
注目画素が非色地かつ2値化白ではあるが、白地情報MSがthw1(例えば7)未満、thw2(例えば1)以上であり、かつ、谷白画素である場合には、状態変数MSをそのままの値に保持する(ステップS8、11、12)。この経路を進んできたときにも、前述のステップS5及びS14乃至S17を実行する。即ち、白伝搬処理を行う。 When the pixel of interest is a non-color background and binarized white, but the white background information MS is less than thw1 (for example, 7), thw2 (for example, 1) or more, and is a valley white pixel, the state variable MS is set to The value is held as it is (steps S8, 11, 12). Even when the route has been advanced, the above-described steps S5 and S14 to S17 are executed. That is, white propagation processing is performed.
上記条件のいずれにも一致しない場合、即ち注目画素が色地又は非2値化白の場合には、注目画素の白地情報MSから1を差し引く(ステップS13)。即ち、白程度が1だけ弱い白地情報に更新する。白地情報MSの最低値は0であり、0未満になるときには0とする。この経路を進んできたときにも、前述のステップS5及びS14乃至S17を実行する。即ち、白伝搬処理を行う。 If none of the above conditions is met, that is, if the target pixel is a color background or non-binary white, 1 is subtracted from the white background information MS of the target pixel (step S13). That is, it is updated to white background information whose white level is weak by one. The minimum value of the white background information MS is 0, and is 0 when it is less than 0. Even when the route has been advanced, the above-described steps S5 and S14 to S17 are executed. That is, white propagation processing is performed.
以上、白地情報MSの生成により、ラインメモリLMP上において、状態変数(白地情報)MSを介して周辺画素に白情報を伝搬させることができる。この白地情報MSの生成は前述のように、色データ(R、G、B画像データのすべて)が閾値thwss=40より小さいとき白地と表すRGB白地判定信号に基づいた図5のステップS3−S4−S5−S14乃至S17の系統の色対応の白地情報MSの生成を含み、しかも、濃度データ(G画像データ)のエッジ強調出力(フィルタ部321の出力)が、閾値thwsb=50より小さいとき、白地判定及び2値化白判定信号に基づいた図5のステップS7乃至S13−S5−S14乃至S17の系統の濃度対応の白地情報MSの生成を含む。 As described above, by generating the white background information MS, it is possible to propagate the white information to the peripheral pixels via the state variable (white background information) MS on the line memory LMP. As described above, the white background information MS is generated in steps S3 to S4 in FIG. 5 based on the RGB white background determination signal representing a white background when the color data (all of the R, G, and B image data) is smaller than the threshold thwss = 40. -Including generation of white background information MS corresponding to the colors of S5-S14 to S17, and when the edge enhancement output (output of the filter unit 321) of density data (G image data) is smaller than the threshold thwsb = 50, This includes the generation of white background information MS corresponding to the density of the system in steps S7 to S13-S5-S14 to S17 in FIG. 5 based on the white background determination and the binarized white determination signal.
この白判定部4203は、まずRGB白抽出部4202のRGB白地検出部4214が白領域を検出するまで、即ちRGB白地検出部4214が白地判定信号「1」を生成し、これに対応して色対応の白地情報MSの生成(ステップS3−S4−S5−S14乃至S17)を開始するまでは動作(ステップS4の実行)を行わない。これは、白領域であるとの判定が得られない領域を、後述の白パターンマッチング部4204において白画素(白ブロック)であると誤判定することを防ぐためである。 The white determination unit 4203 first generates a white background determination signal “1” until the RGB white background detection unit 4214 of the RGB white extraction unit 4202 detects a white region, that is, a color corresponding to this is generated. The operation (execution of step S4) is not performed until the generation of the corresponding white background information MS (steps S3-S4-S5-S14 to S17) is started. This is to prevent an area that cannot be determined to be a white area from being erroneously determined to be a white pixel (white block) in the white pattern matching unit 4204 described later.
薄い色地上の文字にエッジ強調フィルタを適用すると、文字周辺のデータが本来の画像データ(色地)よりレベルの低い値(白)となる。従って、フィルタ部40のエッジ強調処理後のデータで白パターンマッチングをすると、即ち、濃度対応の白地情報MSの生成(ステップS7乃至S13−S5−S14乃至S17)のみに基づいて白領域判定をすると、色地上の文字周辺を白地であると誤判定しやすい。そこで、前述の色対応の白地情報MSの生成(ステップS3−S4−S5−S14乃至S17)によって白領域であるとの判定が得られる領域に後述する白画素(白ブロック)を判定するための白パターンマッチングを適用するように白地情報MSを最高値とし、ステップS3で白地でないときには、更にステップS6以下で詳細に白地条件をチェックして白パターンマッチングを適用するか否を決定するための1つのパラメータである白地情報MSを調整することにより、フィルタ部40のエッジ強調処理後G画像データを後述する白パターンマッチング部4204において白画素(白ブロック)であると誤判定することを防いでいる。 When an edge emphasis filter is applied to a light color character, the data around the character becomes a lower value (white) than the original image data (color background). Therefore, when white pattern matching is performed on the data after the edge enhancement processing of the filter unit 40, that is, when white region determination is performed based only on generation of density-corresponding white background information MS (steps S7 to S13-S5-S14 to S17). It is easy to erroneously determine that the character ground around the color is white. Therefore, a white pixel (white block), which will be described later, is determined in an area that can be determined to be a white area by generating the white background information MS corresponding to the color (steps S3-S4-S5-S14 to S17). If the white background information MS is set to the highest value so that the white pattern matching is applied and the white background is not white in step S3, the white background condition is checked in detail in step S6 and subsequent steps to determine whether to apply the white pattern matching. By adjusting the white background information MS that is one parameter, it is possible to prevent the G image data after the edge enhancement processing of the filter unit 40 from being erroneously determined as a white pixel (white block) in the white pattern matching unit 4204 described later. .
例えば、色画素の可能性が高いときには、白地情報MSを下げ(ステップS13)、色画素の疑いもあり得るときには白地情報MSをホールド(変更無し)にして(ステップS11乃至S13)、後述する白パターンマッチングによって白画素(白ブロック)であると誤判定することを防ぎ、文字周辺のデータが本来の画像データ(色地)よりレベルの低い値(白)になるのを防止している。 For example, when the possibility of a color pixel is high, the white background information MS is lowered (step S13), and when there is a suspicion of a color pixel, the white background information MS is held (no change) (steps S11 to S13). Pattern matching prevents erroneous determination that the pixel is a white pixel (white block), and prevents data around the character from having a lower level (white) than the original image data (color background).
文字が密なところは前述の処理(ステップS3乃至S5、S6乃至S10及びS14乃至S17)によって白地情報MSを更新し伝搬させるので、密な文字領域が絵柄と誤判定される可能性が低減する。また、込み入った文字(例えば、「書」)などの文字の中は、RGB白地検出部4214で白検出ができない場合があるが、そのときには、谷白画素検出によって白であると検出し、白地情報MSをステップS12のYES出力がステップS5に直進する経路でホールドして白地傾向にとどめるので、込み入った文字の中が絵柄と誤判定される可能性が低くなる。 When the character is dense, the white background information MS is updated and propagated by the above-described processing (steps S3 to S5, S6 to S10, and S14 to S17), so that the possibility that the dense character region is erroneously determined as a pattern is reduced. . In addition, white characters may not be detected by the RGB white background detection unit 4214 in characters such as complicated characters (for example, “call”). In this case, white is detected by valley white pixel detection. Since the information MS is held by the route in which the YES output of step S12 goes straight to step S5 and remains in a white background tendency, the possibility that a complicated character is erroneously determined as a design is reduced.
また、先に触れたように、注目画素が周辺を白地で囲まれた色画素のときには、色地検出部4213の出力である色地判定信号dが「1」(色地)となり、線が込み入ったところでも、薄い色画素を色地として検出することができ、注目画素周辺が白か否かを判断する閾値thwcを低く設定して(thwc=20)、薄い色画素(注目画素)の周辺が白背景か否かを厳密にチェックして薄い色画素を色地として検出することができるので、込み入った文字の中が絵柄と誤判定される可能性を更に低くすることができる。 Further, as described above, when the target pixel is a color pixel surrounded by a white background, the color background determination signal d that is the output of the color background detection unit 4213 is “1” (color background), and the line is Even in a complicated area, a thin color pixel can be detected as a color background, and a threshold value thwc for determining whether or not the periphery of the target pixel is white is set low (thwc = 20). Since it is possible to detect light color pixels as a color background by strictly checking whether or not the surrounding is a white background, it is possible to further reduce the possibility that a complicated character is erroneously determined as a picture.
前述のように、薄い色画素を色地であるとして、より厳密に検出できることにより、色地と検出したときには図5のステップS6からステップS13に進んで、状態変数MSを下げて色地を白と判定する可能性を低くできるのに加えて、ステップS3で参照する白地判定信号を生成するときの閾値thwss(例えば40)に対して、ステップS7で参照する2値化白判定信号を生成するときの閾値thwsb(例えば50)を大きい値として、色地と判定しなかった場合(ステップS6:NO)には、2値化部4201で白と見なす確率を高くして、図5のステップS7からステップS10に進んで状態変数MSを上げて白領域と判定する可能性を高くしている。 As described above, since a light color pixel can be detected more precisely as a color background, when the color background is detected, the process proceeds from step S6 to step S13 in FIG. In addition to the threshold thwss (eg, 40) used when generating the white background determination signal referred to in step S3, the binarized white determination signal referred to in step S7 is generated. If the threshold value thwsb (for example, 50) is set to a large value and the color background is not determined (step S6: NO), the binarization unit 4201 increases the probability of considering it as white, and step S7 in FIG. From step S10, the state variable MS is increased to increase the possibility of determining a white area.
即ち、RGB白地検出部4214において閾値thwss=40で白と判定する確率が低い厳しい白判定を行って、そこで白地と判定すると、図5のステップS3からS4以下の処理により、状態変数MSを上げて文字背景を白と判定する可能性を高くしている。上述の厳しい白判定で白地との判定が出なかったときには、逆に色地であるかもしれない薄い色画素も色地として検出する信頼性が高い厳しい色地判定を行い、即ち、色地検出部4213の結果を参照し、それが色地との判定にならないときには、もう一度、今度は白と判定する確率が高い閾値thwsb=50の甘い白判定を行い、即ち、2値化部4201を参照して、それが白の判定である場合には、状態変数MSを上げて文字背景を白と判定する可能性を高くしている(ステップS7乃至S10)。この処理(ステップS6乃至S10)があるので、色地と検出される薄い色画素よりも更に薄い背景濃度ムラ、例えば裏映りのように原稿の地にムラがある場合に、原稿の細かい地ムラに連動して状態変数MSが2値的に大きく変化するのが抑制され、次の白パターンマッチング部4204での白画素か否かの判定が走査方向に細かく変動するのが抑制される。その結果、背景が薄い色地のときに、裏映りのような原稿の細かい地ムラに連動して細かい色抜け(白背景)が現われることがなくなる。 That is, the RGB white background detection unit 4214 performs a strict white determination with a low probability of determining white with the threshold thwss = 40, and when the white background is determined there, the state variable MS is increased by the processing from step S3 to S4 in FIG. This increases the possibility of judging the character background as white. If the above-mentioned strict white determination does not determine a white background, conversely, a strict color determination with high reliability is performed to detect a light color pixel that may be a color background as a color background. If the result of the unit 4213 is referred to and it is not determined to be a color background, a sweet white determination with a threshold thwsb = 50 having a high probability of determining white is performed again, that is, refer to the binarization unit 4201 If the determination is white, the state variable MS is increased to increase the possibility that the character background is determined to be white (steps S7 to S10). Since there is this processing (steps S6 to S10), when the background density unevenness is lighter than the color background and the detected light color pixel, for example, when there is unevenness in the background of the document such as show-through, the fine background unevenness of the document As a result, it is possible to prevent the state variable MS from significantly changing in binary, and to prevent the next white pattern matching unit 4204 from determining whether or not the pixel is a white pixel in the scanning direction. As a result, when the background is a light color background, fine color loss (white background) does not appear in conjunction with the fine background unevenness of the document such as show-through.
白パターンマッチング部4204は、注目画素を中心とする5×5画素単位のブロックで連続した白画素が存在するか否かにより、背景が白か否かを判断する。そのために、注目画素に関して、次式が満たされる場合に、注目画素を白画素と仮に定めて、白パターンマッチングを行う。その条件式は、(非色画素&(白地情報MS≧thw1(13))&2値化白)#(非色画素&(白地情報MS≧thw2(1))&谷白画素&2値化白)である。ここで、この条件式を満たすかのチェックを行う注目画素は、図5のステップS5及びS14乃至S17の白伝搬処理の対象となってその処理過程を経たものであり、当該条件式の中の「白地情報MS」が、白伝搬処理後の前述のチェックを行う注目画素の白地情報MS[I]である。但し、このMS[I]は白伝搬処理を終えた白地情報であって、そのIは、前述のチェックを行う注目画素の主走査方向xの位置であり、前述の白判定部4203で状態変数MSを算出する注目画素の主走査方向xの位置とは別物である。 The white pattern matching unit 4204 determines whether or not the background is white based on whether or not there is a continuous white pixel in a 5 × 5 pixel unit block centered on the target pixel. Therefore, regarding the target pixel, when the following expression is satisfied, the target pixel is temporarily determined as a white pixel and white pattern matching is performed. The conditional expression is (non-color pixel & (white background information MS ≧ thw1 (13)) & binarized white) # (non-color pixel & (white background information MS ≧ thw2 (1)) & valley white pixel & binarized white) It is. Here, the target pixel for checking whether or not this conditional expression is satisfied has been subjected to the white propagation processing in steps S5 and S14 to S17 in FIG. “White background information MS” is the white background information MS [I] of the pixel of interest for which the above-described check after the white propagation processing is performed. However, MS [I] is the white background information after the white propagation processing, and I is the position in the main scanning direction x of the target pixel to be checked, and the white determination unit 4203 described above has the state variable. This is different from the position in the main scanning direction x of the target pixel for calculating MS.
当該条件式の中の、「非色画素」は色地検出部4213の出力である色地判定信号dが「0」であること、「2値化白」は2値化部4201の2値化白判定信号が「1」(2値化白)であること、及び、「谷白画素」は、谷白画素検出の検出結果が谷白画素であること、をそれぞれ意味し、#は論理和(オア:又は)を意味する。白パターンマッチングは、前記条件式で判定した出力(白画素か否か)に対し、図12の縦横斜めの連続性パターンPMPa乃至PMPdのいずれかに該当するか否かをチェックするものである。パターンPMPa乃至PMPdに付した白丸は、白画素であることを意味する。他の空白画素は、白画素であるか否かを問わない。 In the conditional expression, “non-color pixel” indicates that the color background determination signal d output from the color background detection unit 4213 is “0”, and “binary white” indicates the binary value of the binarization unit 4201. The whitening determination signal is “1” (binarized white), and “valley white pixel” means that the detection result of valley white pixel detection is a valley white pixel, and # is logic. It means sum (or: or). The white pattern matching is to check whether the output (whether or not it is a white pixel) determined by the conditional expression corresponds to one of the vertical and horizontal diagonal continuity patterns PMPa to PMPd in FIG. White circles attached to the patterns PMPa to PMPd mean white pixels. It does not matter whether the other blank pixels are white pixels.
注目画素を中心とする5×5画素マトリクスの白画素分布が図12のパターンPMPa、PMPb、PMPc又はPMPdに該当すると、注目画素が白パターン画素であると判定する。 If the white pixel distribution of the 5 × 5 pixel matrix centered on the target pixel corresponds to the pattern PMPa, PMPb, PMPc, or PMPd in FIG. 12, it is determined that the target pixel is a white pattern pixel.
グレー画素検出部4212は、R、G、B、Y、M、C、Bkの色相分割を行い、色相毎に濃度の低い画素を検出する。色相分割は、後述する色判定と同様である。ここで、フィルタ後のGデータをthgrと比較して、Gデータより大きいか、RGB白抽出の色画素検出で色画素であるかのどちらかを満たしていれば、下記(1)乃至(6)の演算を行い、下記(7)乃至(13)の何れかの条件を満たしていれば、グレー画素とする。ここで、色毎に閾値を変えているのは各インクの最大濃度が異なるためである。 The gray pixel detection unit 4212 performs hue division of R, G, B, Y, M, C, and Bk, and detects a pixel having a low density for each hue. Hue division is the same as color determination described later. Here, if the filtered G data is compared with thgr and satisfies either the larger than the G data or the color pixel in the RGB white extraction color pixel detection, the following (1) to (6) are satisfied. ) And if any of the following conditions (7) to (13) is satisfied, the pixel is determined as a gray pixel. Here, the threshold is changed for each color because the maximum density of each ink is different.
条件は、(1)R−Y色相領域境界(ry):R−2*G+B>0、
(2)Y−G色相領域境界(yg):11*R−8*G−3*B>0、
(3)GーC色相領域境界(gc):1*R−5*G+4*B<0、
(4)CーB色相領域境界(cb):8*R−14*G+6*B<0、
(5)BーM色相領域境界(bm):9*R−2*G−7*B<0、
(6)MーR色相領域境界(mr):R+5*G−6*B<0、
(7)Y画素判定(gry):(色画素である)&(ry==1)&(yg==0)&(RGBの最大値<thmaxy)、
(8)G画素判定(grg):(色画素である)&(yg==1)&(gc==0)&(RGBの最大値<thmaxg)、
(9)C画素判定(grc):(色画素である)&(gc==1)&(cb==0)&(RGBの最大値<thmaxc)、
(10)B画素判定(grb):(色画素である)&(cb==1)&(bm==0)&(RGBの最大値<thmaxb)、
(11)M画素判定(grm):(色画素である)&(bm==1)&(mr==0)&RGBの最大値<thmaxm)、
(12)R画素判定(grr):(色画素である)&(mr==1)&(ry==0)&(RGBの最大値 <thmaxr)、及び、
(13)色画素でないときの判定(grbk):(RGBの最大値<thmaxbk)である。なお、「==」はC言語で「等しい」を表す表記である。
The conditions are (1) RY hue region boundary (ry): R-2 * G + B> 0,
(2) Y-G hue region boundary (yg): 11 * R-8 * G-3 * B> 0,
(3) GC hue region boundary (gc): 1 * R-5 * G + 4 * B <0,
(4) CB hue region boundary (cb): 8 * R-14 * G + 6 * B <0,
(5) BM hue region boundary (bm): 9 * R-2 * G-7 * B <0,
(6) MR hue region boundary (mr): R + 5 * G-6 * B <0,
(7) Y pixel determination (gry): (color pixel) & (ry == 1) & (yg == 0) & (maximum RGB value <thmaxy),
(8) G pixel determination (grg): (color pixel) & (yg == 1) & (gc == 0) & (maximum RGB value <thmaxg),
(9) C pixel determination (grc): (color pixel) & (gc == 1) & (cb == 0) & (maximum RGB value <thmaxc),
(10) B pixel determination (grb): (color pixel) & (cb == 1) & (bm == 0) & (maximum RGB value <thmaxb),
(11) M pixel determination (grm): (color pixel) & (bm == 1) & (mr == 0) & RGB maximum value <thmaxm),
(12) R pixel determination (grr): (color pixel) & (mr == 1) & (ry == 0) & (maximum RGB value <thmaxr), and
(13) Determination when not a color pixel (grbk): (RGB maximum value <thmaxbk). Note that “==” is a notation representing “equal” in the C language.
この処理は図21のグレー画素検出部4212で行われる。前述のようにRGB白抽出部4202は、グレー画素検出部4212、色画素検出部4213、RGB白地検出部4214で構成され、これら各部にR、G、Bの各画像データが入力される。グレー画素検出部4212の出力は、グレーパターンマッチング部4209に入力され、グレーパターンマッチング部4209のパターンマッチング結果は、グレー膨張部4210に入力され、膨張処理が行われた後、その出力が判定部4211に入力される。また、白判定部4203には、色画素検出部4213、RGB白地検出部4214及び2値化部4201の出力が入力され、白判定部4203の判定結果は、白パターンマッチング部4204に入力され、そのパターンマッチングの結果は、白パターン補正部4205及び白補正部4208に入力される。白パターン補正部4205の補正結果はさらに白膨張部4206、白収縮部4207で処理された後、判定部4211に入力され、また、白補正部4208の処理結果はそのまま判定部4211に入力される。なお、グレー膨張部4210で膨張処理する前に、収縮処理を施しておけば、孤立点の除去が可能となる。また、白パターンマッチング部4204、白パターン補正部4205、白膨張部4206、白収縮部4207及び白補正部4208は、白と白でない境界領域とを検出するための構成で、白補正部4208の出力は線幅を示し、白収縮部4207の出力は白領域を示し、前記グレー膨張部4210の出力は中濃度であることを示す。そこで、判定部4211では、これら3つの出力に対して優先順位を付けて判定し、判定結果を後段に出力する。この場合、優先順位1は白補正部4208からの線幅情報であり、優先順位2はグレー膨張部4210からの中濃度情報であり、優先順位3は、白収縮部4207からの白領域情報である。 This processing is performed by the gray pixel detection unit 4212 in FIG. As described above, the RGB white extraction unit 4202 includes the gray pixel detection unit 4212, the color pixel detection unit 4213, and the RGB white background detection unit 4214, and R, G, and B image data are input to these units. The output of the gray pixel detection unit 4212 is input to the gray pattern matching unit 4209, and the pattern matching result of the gray pattern matching unit 4209 is input to the gray expansion unit 4210. After the expansion processing is performed, the output is determined by the determination unit. 4211 is input. The white determination unit 4203 receives the outputs of the color pixel detection unit 4213, the RGB white background detection unit 4214, and the binarization unit 4201, and the determination result of the white determination unit 4203 is input to the white pattern matching unit 4204. The pattern matching result is input to the white pattern correction unit 4205 and the white correction unit 4208. The correction result of the white pattern correction unit 4205 is further processed by the white expansion unit 4206 and the white contraction unit 4207, and then input to the determination unit 4211. The processing result of the white correction unit 4208 is input to the determination unit 4211 as it is. . It should be noted that the isolated points can be removed by performing the shrinking process before the gray expansion part 4210 performs the expansion process. The white pattern matching unit 4204, the white pattern correction unit 4205, the white expansion unit 4206, the white contraction unit 4207, and the white correction unit 4208 are configured to detect white and a non-white boundary region. The output indicates the line width, the output of the white contraction part 4207 indicates a white area, and the output of the gray expansion part 4210 indicates medium density. Therefore, the determination unit 4211 makes a determination by assigning priorities to these three outputs, and outputs the determination result to the subsequent stage. In this case, priority 1 is line width information from the white correction unit 4208, priority 2 is medium density information from the gray expansion unit 4210, and priority 3 is white area information from the white contraction unit 4207. is there.
グレーパターンマッチング部4209は、図22に示すパターンとのパターンマッチングを行う。ここで、黒丸をグレー画素、白丸をグレー画素より濃いところとする。複写原稿は、薄い200線の万線パターン、300線の万線パターンであるので、複写原稿もグレー検出するようにこのようなパターンを採用している。 The gray pattern matching unit 4209 performs pattern matching with the pattern shown in FIG. Here, it is assumed that the black circle is a gray pixel and the white circle is darker than the gray pixel. Since the copy document has a thin line pattern of 200 lines and a line pattern of 300 lines, such a pattern is adopted so that the copy document is also detected in gray.
図22のパターンに一致したものは、グレー画素となる。なお、図22(a)は200線用のパターンであり、図22(b)は300線用のパターンである。 Those that match the pattern of FIG. 22 are gray pixels. 22A shows a pattern for 200 lines, and FIG. 22B shows a pattern for 300 lines.
白パターン補正部4205は、白画素パターンマッチングで孤立(1×1、1×2、2×1、2×2、1×3、3×1の白画素)しているアクティブ画素を非アクティブにする。このことにより、孤立している画素を除去する。 The white pattern correction unit 4205 deactivates active pixels that are isolated (white pixels of 1 × 1, 1 × 2, 2 × 1, 2 × 2, 1 × 3, and 3 × 1) by white pixel pattern matching. To do. This removes isolated pixels.
白膨張部4206は、 白画素パターンマッチングの補正の結果に対し7×41のORを行う。 The white expansion unit 4206 performs 7 × 41 OR on the white pixel pattern matching correction result.
白収縮部4207は、白膨張部4206における白膨張の結果に対し1×33のANDを行う。白膨張と白収縮を行うことにより、白パターンマッチング部4204での補正結果に対して小面積で存在する非アクティブ画素を除去する。この判定結果は、白地と境界部分とに対して、非白地側の境界領域を含む結果となる。言いかえれば、白地よりも大きな領域となる。 The white contraction unit 4207 performs 1 × 33 AND on the white expansion result in the white expansion unit 4206. By performing white expansion and white contraction, inactive pixels existing in a small area with respect to the correction result in the white pattern matching unit 4204 are removed. The determination result includes a non-white background side boundary region with respect to the white background and the boundary portion. In other words, the area is larger than the white background.
白補正部4208は、図12のブロックパターンBCPの×を付した注目画素を中心とした15×11画素において、四隅の各6×4画素領域のそれぞれに1つ以上の白候補ブロックが存在するときに、注目ブロックに白ブロック補正データを与える。このことにより、白地に囲まれた領域を白領域とする。 The white correction unit 4208 has at least one white candidate block in each of the 6 × 4 pixel regions at the four corners in the 15 × 11 pixel centered on the target pixel marked with “X” in the block pattern BCP of FIG. Sometimes white block correction data is given to the target block. As a result, a region surrounded by a white background is set as a white region.
グレー膨張部4210は、グレーパターンマッチングの結果に対して、11×11のOR処理をする。このことにより、グレー領域に対してやや大きな領域となる。 The gray expansion unit 4210 performs 11 × 11 OR processing on the result of gray pattern matching. This makes the area slightly larger than the gray area.
判定部4211は、白補正部4208の結果がアクティブであり、又は、白収縮部4207の結果がアクティブでかつグレー膨張部4210の結果が非アクティブの場合に白背景とする。式で表現すると、(白補正の結果)#((白収縮の結果)&!(グレー膨張の結果))のようになる。ここで、(白補正の結果)は、白地に囲まれた領域を確実に白領域と判定し、((白収縮の結果)&!(グレー膨張の結果))の結果は、濃い黒文字周辺を白領域と判定して、濃度の薄いところを非白領域としている。なお、「!」は否定を表す。 The determination unit 4211 sets a white background when the result of the white correction unit 4208 is active, or when the result of the white contraction unit 4207 is active and the result of the gray expansion unit 4210 is inactive. Expressed as an expression, (white correction result) # ((white shrinkage result) &! (Gray expansion result)). Here, the (white correction result) reliably determines that the area surrounded by the white background is a white area, and the result of ((white shrinkage result) &! (Gray dilation result)) A white area is determined and a non-white area is defined as a low density area. “!” Represents negative.
図13において、丸Bp1〜Bp4で囲んだ黒の突出部は、前述の注目ブロックを中心とした15×11画素において四隅の各6×4画素領域それぞれに1つ以上の白候補ブロックが存在するとき、注目ブロックに白ブロック補正データを与える白ブロック補正によって白ブロックに置きかえられる。丸Bp1〜Bp4で囲んだ黒の突出部のように白地で囲まれた黒領域を、白領域とすることは、そこを絵柄部と判定する可能性を低くする。後述する総合判定部45では、非白領域は絵柄と判定するが、丸Bp1〜Bp4で囲んだ黒の突出部のように白地で囲まれた黒領域を絵柄と誤判定する可能性を低くする。さらに、白収縮の結果、グレー膨張の結果によって黒地と白地境界を白領域(文字領域)と判定するので、濃い文字エッジは、文字の太さにかかわらず白地判定するので、文字エッジを正しく文字エッジと判定することが可能となる。濃度の薄い部分は文字エッジ判定しなくなる。 In FIG. 13, in the black protrusions surrounded by the circles Bp1 to Bp4, one or more white candidate blocks exist in each of the 6 × 4 pixel regions at the four corners in 15 × 11 pixels centering on the above-described target block. At this time, the white block is replaced by white block correction which gives white block correction data to the target block. Making a black region surrounded by a white background like the black protrusions surrounded by the circles Bp1 to Bp4 as a white region lowers the possibility of determining it as a picture portion. In the overall determination unit 45 described later, the non-white area is determined to be a pattern, but the possibility of erroneously determining a black area surrounded by a white background, such as a black protrusion surrounded by circles Bp1 to Bp4, is reduced. . Furthermore, as a result of white shrinkage, the boundary between black and white is determined as a white area (character area) based on the result of gray expansion, so a dark character edge is determined as a white background regardless of the thickness of the character. It can be determined as an edge. A character edge is not determined in a portion having a low density.
前述のように白領域抽出部42では、白判定部4203でRGB白抽出部4202の白地判定信号、色地判定信号dおよび谷白画素判定信号、ならびに、2値化部4201の2値化白判定信号に対応する白の程度をあらわす状態変数である白地情報MSを生成する。そして白パターンマッチング部4204で、色地判定信号d、白地情報MS、2値化白判定信号および谷白画素判定信号に基づいて注目画素が白画素か否を仮に定めて、注目画素を含む画素マトリスクに対する白画素分布パターンマッチングによって白画素か否を確定する。この結果と、黒判定部(図示せず。)および黒パターンマッチング部(図示せず。)の結果を用いて、白補正部4208は、注目画素が黒地と白地境界との境界(白領域:文字領域)であるかどうかを判定する。なお、白領域抽出部42は、グレー画素の判定の場合、図21の回路構成であるが、白黒判定については、図4の回路構成で処理される。 As described above, in the white area extraction unit 42, the white determination unit 4203 performs the white background determination signal of the RGB white extraction unit 4202, the color background determination signal d and the valley white pixel determination signal, and the binarized white of the binarization unit 4201. White background information MS, which is a state variable representing the degree of white corresponding to the determination signal, is generated. A white pattern matching unit 4204 temporarily determines whether the pixel of interest is a white pixel based on the color background determination signal d, the white background information MS, the binarized white determination signal, and the valley white pixel determination signal, and includes the pixel including the pixel of interest. Whether or not the pixel is a white pixel is determined by white pixel distribution pattern matching for the mat risk. Using this result and the results of the black determination unit (not shown) and the black pattern matching unit (not shown), the white correction unit 4208 determines that the target pixel is the boundary between the black background and the white background (white region: Character area). The white region extraction unit 42 has the circuit configuration of FIG. 21 in the case of gray pixel determination, but the black and white determination is processed in the circuit configuration of FIG.
RGB白抽出部4202の白地判定信号は、注目画素のR、G、B画像データのすべてが閾値thwss=40より小さいと「1」(白地)である。この閾値thwssを大きくすると、大きい値の白地情報MSを定める確率が高くなり、「白領域」(黒地と白地境界との境界:文字領域)を摘出する確率が高くなる(即ち絵柄領域を摘出する確率が低下する)。閾値thwssを小さくするとこの逆となる。 The white background determination signal of the RGB white extraction unit 4202 is “1” (white background) when all of the R, G, and B image data of the target pixel are smaller than the threshold thwss = 40. Increasing this threshold thwss increases the probability of determining a large value of white background information MS, and increases the probability of extracting a “white area” (boundary between black background and white background: character area) (ie, extracting a picture area). Probability decreases). The reverse occurs when the threshold value thwss is decreased.
2値化部4201の2値化白判定信号は、フィルタ部321のG画像データのエッジ強調出力が閾値thwsb=50より小さければ、「1」(2値化白)である。この閾値thwsbを大きくすると、大きい値の白地情報MSを定める確率が高くなり、「白領域」を摘出する確率が高くなる(即ち絵柄領域を摘出する確率が低下する)。閾値thwsbを小さくするとこの逆となる。 The binarized white determination signal of the binarization unit 4201 is “1” (binarized white) if the edge enhancement output of the G image data of the filter unit 321 is smaller than the threshold value thwsb = 50. When this threshold value thwsb is increased, the probability of determining a large value of the white background information MS increases, and the probability of extracting the “white region” increases (that is, the probability of extracting the pattern region decreases). If the threshold value thwsb is reduced, the opposite is true.
「白領域」の画像データには後工程で、文字画像を鮮明に表すための画像処理が施されるので、閾値thwssおよびthwsbを大きくすると、文字に優先度が高い画像処理が施される。非白領域即ち絵柄(写真)領域の画像データには後工程で、写真や絵柄を忠実に表すための画像処理が施されるので、閾値thwssおよびthwsbを小さくすると、絵柄(写真)に優先度が高い画像処理が施される。 Since the image data for “white area” is subjected to image processing for clearly expressing the character image in a later step, when the threshold values thwss and thwsb are increased, image processing with high priority is performed on the characters. The image data in the non-white area, that is, the picture (picture) area is subjected to image processing for faithfully representing the picture or picture in a later step. Therefore, if the threshold values thwss and thwsb are reduced, the priority is given to the picture (picture). High image processing is performed.
ところで、RGB白抽出部4202の色地判定信号dが「1」(色地)であると白地情報MSを低くし、「白領域」を摘出する確率が低くなる(即ち絵柄領域を摘出する確率が高くなる)。色地検出で色地判定信号dを生成するパターンマッチングB.及びC.で用いる閾値thwc(例えば20)を小さくすると、周辺画素(図11の△と□)を同時に色画素と検出する確率(bとcとの排他的否定論理和が「1」となる確率)が高くなって色地判定信号d=「1」(色地)を得る確率が高くなり、前記「白領域」を摘出する確率が低くなる(即ち絵柄領域を摘出する確率が高くなる)。 By the way, when the color background determination signal d of the RGB white extraction unit 4202 is “1” (color background), the white background information MS is lowered, and the probability of extracting the “white area” becomes low (that is, the probability of extracting the pattern area). Becomes higher). B. Pattern matching for generating a color gamut determination signal d by color gamut detection And C.I. When the threshold thwc (for example, 20) used in the above is reduced, the probability of detecting neighboring pixels (Δ and □ in FIG. 11) as color pixels at the same time (probability that the exclusive OR of b and c is “1”) is increased. The probability of obtaining the color background determination signal d = “1” (color background) increases and the probability of extracting the “white region” decreases (that is, the probability of extracting the pattern region increases).
そこで、本実施例では、キー入力による入力モードのメニュー表示ならびに液晶ディスプレイに表示されたメニュー画面上のキー画像(パラメータ指定キーおよびアップ、ダウンキー)の操作によって調整するパラメータ調整の中の「文字/写真レベル」の調整によって、閾値thwss、thwsbおよびthwcを次のように調整するようにしている。 Therefore, in the present embodiment, “character” in the parameter adjustment to be adjusted by operating the key image (parameter designation key and up / down key) on the menu screen displayed on the liquid crystal display and the input mode menu display by key input. The thresholds thwss, thwsb, and thwc are adjusted as follows by adjusting “/ photo level”.
閾値を標準値thwss=40、thwsb=50、thwc=20に設定しているときに、操作ボードを使ってオペレータが「文字/写真レベル」の値をi(例えば1)だけ大きく「Up」すると、閾値thwss、thwsbおよびthwcが2×i(2)分、文字優先方向に変更した値に定められる。逆に、オペレータが「文字/写真レベル」の値をi(例えば1)だけ小さく「Down」すると、閾値thwss、thwsbおよびthwcが2×i(2)分、写真優先方向に変更した値に定められる。 When the threshold value is set to the standard value thwss = 40, thwsb = 50, thwsc = 20, the operator increases the value of “character / photo level” by “i” (for example, 1) to “Up” using the operation board. , Thresholds thwss, thwsb, and thwc are set to values that are changed in the character priority direction by 2 × i (2). On the contrary, when the value of “character / photo level” is decreased by “i” (for example, 1) and “down”, the threshold values thwss, thwsb, and thwc are set to values that are changed to the photo priority direction by 2 × i (2). It is done.
網点抽出部44は、図23に示すように第1網点ピーク検出部4401、第2網点ピーク検出部4402、第3網点ピーク検出部4403、第1網点領域検出部4404、第3網点領域検出部4405及び一時記憶手段(一時メモリ)4406から構成される。第1網点ピーク検出部4401及び第3網点ピーク検出部4403には、G画像データが入力され、第2網点ピーク検出部4402にはB画像データが入力される。第1網点領域検出部4404には、第1網点ピーク検出部4401及び第2網点ピーク検出部4402の検出結果が入力され、第2網点領域検出部4405には、第3網点ピーク検出部4403の検出結果が入力される。また、一時メモリ4406は、第1及び第2網点領域検出部4404、4405の検出結果を一時保存する。なお、図4における網点抽出部44は図23における網点抽出部44に対応する。 As shown in FIG. 23, the halftone dot extraction unit 44 includes a first halftone peak detection unit 4401, a second halftone peak detection unit 4402, a third halftone peak detection unit 4403, a first halftone dot region detection unit 4404, 3 halftone dot area detector 4405 and temporary storage means (temporary memory) 4406. G image data is input to the first halftone peak detector 4401 and the third halftone peak detector 4403, and B image data is input to the second halftone peak detector 4402. The first halftone dot region detector 4404 receives the detection results of the first halftone dot peak detector 4401 and the second halftone dot peak detector 4402, and the second halftone dot region detector 4405 receives the third halftone dot region detector 4405. The detection result of the peak detection unit 4403 is input. The temporary memory 4406 temporarily stores the detection results of the first and second halftone dot area detection units 4404 and 4405. Note that the halftone dot extraction unit 44 in FIG. 4 corresponds to the halftone dot extraction unit 44 in FIG.
第1網点ピーク検出部4401は、G画像データを用いて所定の大きさの二次元局所領域内の画素濃度情報から、網点ドットの一部を形成する画素(以下、「網点ピーク画素」という。)を検出する回路である。局所領域に関して次の二つの条件が同時に成立するときに、領域の中心画素を網点ピーク画素として検出する。 The first halftone dot detection unit 4401 uses G image data to generate pixels that form part of halftone dots (hereinafter, “halftone peak pixels” from pixel density information in a two-dimensional local region having a predetermined size. "). When the following two conditions are simultaneously satisfied for the local region, the central pixel of the region is detected as a halftone dot pixel.
条件1は、中心画素の濃度レベルが局所領域内で最大(山ピーク)又は最小(谷ピーク)である。条件2は、中心画素に対し点対称関係にある全ての画素のペアについて、画素ペアの濃度レベルの平均と中心画素の濃度レベルとの差の絶対値が、閾値Th以上である。 Condition 1 is that the density level of the central pixel is maximum (peak peak) or minimum (valley peak) in the local region. Condition 2 is that the absolute value of the difference between the average density level of the pixel pair and the density level of the central pixel is equal to or greater than the threshold value Th for all pixel pairs that are in point symmetry with respect to the central pixel.
図14を参照して、第1網点ピーク検出部4401の検出処理を具体的に説明する。局所領域として5×5画素マトリクス(一般化して示すとM×M画素マトリクス)のマスクを採用した例である。5×5画素マトリクスの各画素の符号を、図11のパターンMPpに示すものとすると、注目画素となる中心画素c3の濃度Lcが、その周囲画素の濃度L1乃至L8と比較して最大又は最小であるとともに、abs(2Lc−L1−L8)≧Lth、かつ、abs(2Lc−L2−L7)≧Lth、かつ、abs(2Lc−L3−L6)≧Lth、かつ、abs(2Lc−L4−L5)≧Lthのときに、マスクの中心画素(Lc)を網点ピーク画素として検出する。abs関数は絶対値をとることを意味する。Lthは閾値(固定値)である。 With reference to FIG. 14, the detection process of the 1st halftone peak detection part 4401 is demonstrated concretely. In this example, a 5 × 5 pixel matrix (M × M pixel matrix when generalized) mask is used as the local region. If the sign of each pixel of the 5 × 5 pixel matrix is as shown in the pattern MPp of FIG. 11, the density Lc of the central pixel c3 that is the target pixel is the maximum or minimum compared to the densities L1 to L8 of the surrounding pixels. Abs (2Lc-L1-L8) ≧ Lth and abs (2Lc-L2-L7) ≧ Lth and abs (2Lc-L3-L6) ≧ Lth and abs (2Lc-L4-L5) ) ≧ Lth, the center pixel (Lc) of the mask is detected as a halftone dot pixel. The abs function means taking an absolute value. Lth is a threshold value (fixed value).
具体的には、周囲画素は、図14に示す周囲画素分布パターンMPa又はMPbの4角形を付記した画素とする。周囲画素分布パターンMPaとMPbに基づいた前述の網点ピーク画素検出のどちらかが、網点ピーク画素と検出したときに、そのときの注目画素(中心画素c3)に網点ピーク画素を表す検出信号を与える。2つのパターンを用いるのは、網点の線数に幅広く対応するためである。 Specifically, the surrounding pixels are pixels to which the surrounding pixel distribution pattern MPa or MPb quadrangle shown in FIG. 14 is added. When either halftone dot pixel detection described above based on the surrounding pixel distribution patterns MPa and MPb detects a halftone peak pixel, detection that represents a halftone dot pixel at the current pixel of interest (center pixel c3) Give a signal. The reason for using the two patterns is to deal with a wide range of halftone dot lines.
パターンMPaは、L1=b2、L2=b3、L3=b4、L4=c2、L5=c4、L6=d2、L7=d3、L8=d4、と定めたものである。ここで、L1=b2とは、画素b2の濃度を、前述の網点ピーク画素検出演算のL1の値とすることを意味する。パターンMPbは、L1=b2、L2=a3、L3=b4、L4=c1、L5=c5、L6=d2、L7=e3、L8=d4、と定めたものである。 The pattern MPa is defined as L1 = b2, L2 = b3, L3 = b4, L4 = c2, L5 = c4, L6 = d2, L7 = d3, and L8 = d4. Here, L1 = b2 means that the density of the pixel b2 is set to the value of L1 in the above-described halftone peak pixel detection calculation. The pattern MPb is defined as L1 = b2, L2 = a3, L3 = b4, L4 = c1, L5 = c5, L6 = d2, L7 = e3, and L8 = d4.
また、複写の場合、副走査方向yの拡大、縮小はスキャナ1の原稿走査速度の高、低で行うので、スキャナ1からは、副走査方向yの拡大、縮小があった画像データが与えられる。そこで、縮小のときには、前述のパターンMPa、MPbに代えて、図14上に示すパタ―ンMPc、MPdを用いる。拡大のときには、図14上に示すパタ―ンMPe、MPfを用いる。なお、パタ―ンMPe、MPfにおいて、三角印を与えた画素も、前述の「周囲画素」に加えても良い。 In the case of copying, since enlargement / reduction in the sub-scanning direction y is performed at high and low document scanning speeds of the scanner 1, the scanner 1 gives image data that has been enlarged / reduced in the sub-scanning direction y. . Therefore, at the time of reduction, the patterns MPc and MPd shown in FIG. 14 are used instead of the aforementioned patterns MPa and MPb. When enlarging, the patterns MPe and MPf shown in FIG. 14 are used. In addition, in the patterns MPe and MPf, a pixel given a triangle mark may be added to the above-mentioned “surrounding pixels”.
第2網点ピーク検出部4402は、Bデータを用いて網点ピークを検出するものであって、機能は、第1網点ピーク検出部4401と同じである。第1網点ピーク検出部4401は、G画像データを用いるのでほとんどの色に対して反応するが、Yに対しては反応しないので、第2網点ピーク検出部4402は、B画像データを使用してYの網点ピークを検出することを目的とする。 The second halftone peak detector 4402 detects a halftone peak using the B data, and has the same function as the first halftone peak detector 4401. Since the first halftone dot peak detection unit 4401 uses G image data, it reacts to most colors, but does not react to Y, so the second halftone peak detection unit 4402 uses B image data. Thus, the object is to detect a Y dot peak.
第3網点領域検出部4403は、第1網点ピーク画素検出部4401、第2網点ピーク画素検出部4402のどちらかにより検出された山と谷の網点ピーク画素を所定の大きさの二次元の小領域毎に計数し、山と谷との網点ピーク画素の合計を小領域の計数値Pとする。この計数値Pが閾値Pthより大きいときに、小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。判定の結果は一時メモリ4406に記憶される。 The third halftone dot region detection unit 4403 has a predetermined size of peak and valley halftone dot pixels detected by either the first halftone dot peak pixel detection unit 4401 or the second halftone peak pixel detection unit 4402. Counting is performed for each two-dimensional small area, and the sum of halftone dot peak pixels of peaks and valleys is taken as a small area count value P. When the count value P is larger than the threshold value Pth, all the pixels in the small area (or in the case of pixel unit processing, only the central pixel of the small area) are determined as halftone dot areas. The determination result is stored in the temporary memory 4406.
図24を参照して、第3網点ピーク検出部4403の検出処理を具体的に説明する。この第3網点ピーク検出部4403の検出処理は、100線以下、65線(新聞の網点)以上の検出を目的とし、本実施例は、局所領域として7×7画素マトリクス(一般化して示すとM×M画素マトリクス)のマスクを採用した例である。注目画素となる中心画素群の濃度Lcが、その周囲画素の濃度群L1乃至L8と比較して最大又は最小であるとともに、abs(2Lc−L1−L8)≧Lth、かつ、abs(2Lc−L2−L7)≧Lth、かつ、abs(2Lc−L3−L6)≧Lth、かつ、abs(2Lc−L4−L5)≧Lthのときに、マスクの中心画素(Lc)を網点ピーク画素(極点画素)として検出する。abs関数は前述のように絶対値をとることを意味する。Lthは閾値(固定値)である。 With reference to FIG. 24, the detection process of the 3rd halftone peak detection part 4403 is demonstrated concretely. The detection processing of the third halftone dot peak detection unit 4403 is intended to detect 100 lines or less and 65 lines (newspaper dot) or more. In this embodiment, a 7 × 7 pixel matrix (generalized as a local region) is used. In this example, an M × M pixel matrix mask is employed. The density Lc of the central pixel group serving as the target pixel is the maximum or the minimum compared to the density groups L1 to L8 of the surrounding pixels, and abs (2Lc−L1−L8) ≧ Lth and abs (2Lc−L2 −L7) ≧ Lth, and when abs (2Lc−L3−L6) ≧ Lth and abs (2Lc−L4−L5) ≧ Lth, the center pixel (Lc) of the mask is the halftone peak pixel (the extreme pixel) ) To detect. The abs function means taking an absolute value as described above. Lth is a threshold value (fixed value).
具体的には、周囲画素は、図24(a)に示す周囲画素分布パターンであるとする。図24(c)は、図24(a)に対応する7×7画素マトリクスの座標を表す図である。周囲画素分布パターンに基づいた前述の第1及び第2網点ピーク検出部4401、4402のどちらかが網点ピーク画素を検出した場合に、そのときの注目画素(中心画素d4)に網点ピーク画素を表す検出信号を与える。2つのパターンを用いるのは、網点の網点面積率に幅広く対応するためである。 Specifically, the surrounding pixels are assumed to be the surrounding pixel distribution pattern shown in FIG. FIG. 24C is a diagram illustrating coordinates of a 7 × 7 pixel matrix corresponding to FIG. When one of the first and second halftone peak detection units 4401 and 4402 based on the surrounding pixel distribution pattern detects a halftone peak pixel, the halftone dot peak is applied to the target pixel (center pixel d4) at that time. A detection signal representing a pixel is provided. The reason why the two patterns are used is to deal with a wide range of halftone dot area ratios.
中心画素Lcの濃度は周辺画素を参照してLc=Min(d4、d3、d5、c4、e4)のように定める。このLcが周辺画素に対して最大値のとき、パターンは、L1=Max(a1、a2、b1)、L2=Max(a3、a4、a5)、L3=Max(a6、a7、c7)、L4=Max(c1、d1、e1)、L5=Max(c7、d7、e7)、L6=Max(f1、g1、g2)、L7=Max(g3、g4、g5)、L8=Max(g6、g7、f7)と定めたものである。ここで、L1=Max(a1、a2、b1)は、画素a1、a2、b1の濃度の最大値を、前述の網点ピーク画素検出演算のL1の値とすることを意味する。Lc=Min(d4、d3、d5、c4、e4)は、Lcがd4、d3、d5、c4、e4の中の最小のものであることを意味する。 The density of the central pixel Lc is determined as Lc = Min (d4, d3, d5, c4, e4) with reference to the peripheral pixels. When Lc is the maximum value with respect to the surrounding pixels, the patterns are L1 = Max (a1, a2, b1), L2 = Max (a3, a4, a5), L3 = Max (a6, a7, c7), L4 = Max (c1, d1, e1), L5 = Max (c7, d7, e7), L6 = Max (f1, g1, g2), L7 = Max (g3, g4, g5), L8 = Max (g6, g7 F7). Here, L1 = Max (a1, a2, b1) means that the maximum density value of the pixels a1, a2, and b1 is set as the value of L1 in the above-described halftone peak pixel detection calculation. Lc = Min (d4, d3, d5, c4, e4) means that Lc is the smallest of d4, d3, d5, c4, e4.
また、中心画素Lcの濃度をLc=Max(d4、d3、d5、c4、e4)とし、このLcが周辺画素に対して最小値のとき、パターンは、L1=Min(a1、a2、b1)、L2=Min(a3、a4、a5)、L3=Max(a6、a7、c7)、L4=Max(c1、d1、e1)、L5=Max(c7、d7、e7)、L6=Max(f1、g1、g2)、L7=Max(g3、g4、g5)、L8=Max(g6、g7、f7)と定めたものである。Lc=Max(d4、d3、d5、c4、e4)は、Lcがd4、d3、d5、c4、e4の中の最大のものであることを意味する。 When the density of the central pixel Lc is Lc = Max (d4, d3, d5, c4, e4), and this Lc is the minimum value with respect to the surrounding pixels, the pattern is L1 = Min (a1, a2, b1) , L2 = Min (a3, a4, a5), L3 = Max (a6, a7, c7), L4 = Max (c1, d1, e1), L5 = Max (c7, d7, e7), L6 = Max (f1 , G1, g2), L7 = Max (g3, g4, g5), and L8 = Max (g6, g7, f7). Lc = Max (d4, d3, d5, c4, e4) means that Lc is the largest of d4, d3, d5, c4, e4.
また、複写の場合、副走査方向yの拡大、縮小はスキャナ1の原稿走査速度の高、低で行うので、スキャナ1からは、副走査方向yの拡大、縮小があった画像データが与えられる。そこで、縮小のときには、図24(b)に示すパタ―ンを用いる。拡大のときには、図24(a)に示すパタ―ンを用いる。 In the case of copying, since enlargement / reduction in the sub-scanning direction y is performed at high and low document scanning speeds of the scanner 1, the scanner 1 gives image data that has been enlarged / reduced in the sub-scanning direction y. . Therefore, at the time of reduction, the pattern shown in FIG. When enlarging, the pattern shown in FIG.
第3網点ピーク検出部4403の演算式は、1画素のデータで演算するのではなく、複数の画素(min、maxの演算)で、対象となる画素を参照する。これは、低線数の網点は濃淡の周期が大きくなる(面積が大きくなる)ので、1画素で決定するのではなく周辺画素を参照することにより、ノイズ(ごみ)の影響を少なくし、かつ、算術演算量を減らし、他のブロックで共通に演算式を使えるようにするためである。これにより、ハードウェア化が容易になる。 The calculation formula of the third halftone dot peak detection unit 4403 does not calculate with the data of one pixel, but refers to the target pixel with a plurality of pixels (calculation of min and max). This is because a halftone dot with a low line number has a large shade period (the area becomes large), so it is not determined by one pixel, but by referring to surrounding pixels, the influence of noise (dust) is reduced. In addition, the arithmetic operation amount is reduced so that the arithmetic expression can be used in common in other blocks. This facilitates hardware implementation.
第1網点領域検出部4404は、第1網点ピーク検出部4401によって検出された山と谷との網点ピーク画素を、所定の大きさの二次元の小領域毎に計数し、山と谷との網点ピーク画素の合計を小領域の計数値Pとする。この計数値Pが閾値Pthより大きいときに、小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。判定の結果は一時メモリ4406に記憶される。 The first halftone dot region detection unit 4404 counts the halftone dot peak pixels of the peaks and valleys detected by the first halftone dot peak detection unit 4401 for each two-dimensional small region of a predetermined size. The sum of halftone dot peak pixels with the valley is taken as a count value P for a small area. When the count value P is larger than the threshold value Pth, all the pixels in the small area (or in the case of pixel unit processing, only the central pixel of the small area) are determined as halftone dot areas. The determination result is stored in the temporary memory 4406.
第1網点領域検出部4404又は第2網点領域検出部4405のどちらかが網点領域を検出したならば、注目している小領域の近傍の処理済み領域の網点/非網点判定結果(周辺の特徴情報)に応じ適応的に閾値Pthを変化させる。本実施例においては、閾値Pthとして、2つの値TH1、TH2(但しTH1>TH2)が用意され、一時メモリ4406に記憶されている注目小領域近傍の処理済み領域の判定結果によって、その一方の値を選択する。即ち、近傍の領域が非網点領域と判定されていた場合には、線画領域である可能性が高いので、誤検出を減らすために条件が厳しくなるTH1のほうを閾値Pthとして選択する。これに対し、近傍領域が網点領域であると判定されていた場合には、網点領域である可能性が高いので、条件が緩くなるTH2のほうを閾値Pthとして用いる。なお、閾値Pthの初期値としてはTH1を選択する。 If either the first halftone dot area detection unit 4404 or the second halftone dot area detection unit 4405 detects a halftone dot area, the halftone dot / non-halftone dot determination of the processed area near the small area of interest is performed. The threshold value Pth is adaptively changed according to the result (peripheral feature information). In the present embodiment, two values TH1 and TH2 (where TH1> TH2) are prepared as the threshold value Pth, and one of the values is determined based on the determination result of the processed region near the target small region stored in the temporary memory 4406. Select a value. In other words, if the neighboring area is determined to be a non-halftone dot area, there is a high possibility that the area is a line drawing area, and therefore TH1 whose conditions are stricter is selected as the threshold value Pth in order to reduce false detection. On the other hand, if it is determined that the neighboring region is a halftone dot region, since there is a high possibility that it is a halftone dot region, TH2 where the condition is relaxed is used as the threshold value Pth. Note that TH1 is selected as the initial value of the threshold value Pth.
図14上のAMPに、前述の小領域の分布を示す。小領域分布パターンAMPのS1乃至S4のそれぞれは、例えば4×4画素の大きさの小領域(ブロック)であり、S4が注目している小領域、S1、S2及びS3は処理済みの小領域であるとする。S1、S2及びS3のすべてが網点領域であると判定されているときには、Th2がS4の判定のための閾値Pthとして用いられる。S1、S2及びS3の1つでも非網点領域と判定されているときは、閾値PthとしてTH1が選択される。網点領域と判定したときに“1”、非網点と判定したときに“0”の網点領域検出信号htが網点抽出部44から出力される。但し、これは一例であって、S1、S2及びS3のいずれか1つの小領域でも網点領域と判定されたときにTH2を選択し、すべてが非網点領域と判定されたときにのみTH1を選択するようにしてもよい。さらに、参照する近傍領域をS1のみ、あるいはS2のみとすることもできる。 The AMP on FIG. 14 shows the distribution of the small regions described above. Each of S1 to S4 of the small area distribution pattern AMP is a small area (block) having a size of, for example, 4 × 4 pixels. Suppose that When it is determined that all of S1, S2 and S3 are halftone areas, Th2 is used as the threshold value Pth for the determination of S4. If any one of S1, S2 and S3 is determined to be a non-halftone area, TH1 is selected as the threshold value Pth. A halftone dot region detection signal ht of “1” is output from the halftone dot extraction unit 44 when it is determined as a halftone dot region, and “0” when it is determined as a non-halftone dot region. However, this is an example, and TH2 is selected when any one of S1, S2, and S3 is determined to be a halftone dot region, and only when all are determined to be non-halftone regions, TH1 is selected. May be selected. Furthermore, the neighborhood area to be referred to may be only S1 or only S2.
原稿中の色(有彩)画素や黒(無彩)画素を検出する際には、R、G、Bの相対的な読み取りずれが、各色画像データのサンプリングや機械的精度のために存在する。図15を用いて説明する。図15の(a)は画像濃度信号であり、黒濃度信号は理想的には、R、B、G濃度信号の3つの信号レベルの高低が一致したときに理想の黒となる。ところが、実際の画像データは、レンズによりCCD上に画像を結像し、CCDの画像信号をデジタル化したもので、図15の(b)が理想の高低波形となる。しかし、一般的なスキャナでは、3ラインCCDセンサを用いているため、画像データのR、G、Bの各画像を時間的に同時に読み取ることはできない。R、G、Bの各ラインセンサは等間隔で配置され、時間的に同時に読むことができないので、どうしても読み取り位置ずれが生じてしまう。例えば、図15の(b)に示すレベル変化の黒を表すR、G、B各色濃度信号は、図15の(c)に示すように相対的にずれる。このずれが大きいと、黒領域の周縁に色ずれが現われる。 When detecting color (chromatic) pixels and black (achromatic) pixels in a document, relative reading shifts of R, G, and B exist due to sampling of each color image data and mechanical accuracy. . This will be described with reference to FIG. FIG. 15A shows an image density signal. The black density signal ideally becomes ideal black when the three signal levels of the R, B, and G density signals coincide. However, the actual image data is obtained by forming an image on the CCD with a lens and digitizing the image signal of the CCD. FIG. 15B shows an ideal high and low waveform. However, since a general scanner uses a three-line CCD sensor, the R, G, and B images of image data cannot be read simultaneously in time. Since the R, G, and B line sensors are arranged at equal intervals and cannot be read simultaneously in time, the reading position is inevitably displaced. For example, the R, G, B color density signals representing the level change black shown in FIG. 15B are relatively shifted as shown in FIG. If this shift is large, a color shift appears at the periphery of the black area.
色相分割部411は、画素分類手段の例であり、有彩色領域を見つけるためのデバイスである。入力データR、G、Bは、色相分割部411にて、c、m、y及び色判定用w(白)の信号に変換される。色相分割の例としては、それぞれの色の境界を求め、1画素内のR、G、Bそれぞれの画像データの最大値と最小値の差をRGB差と定義して、以下のようにした。ここでは、R、G、B画像データは、数字が大きくなると黒くなる(濃くなる)。
(1)R−Y色相領域境界(ry):R−2*G+B>0、
(2)Y−G色相領域境界(yg):11*R−8*G−3*B>0、
(3)G−C色相領域境界(gc):1*R−5*G+4*B<0、
(4)C−B色相領域境界(cb):8*R−14*G+6*B<0、
(5)B−M色相領域境界(bm):9*R−2*G−7*B<0、
(6)M−R色相領域境界(mr):R+5*G−6*B<0、とし、
(7)色判定用w(白)画素判定:(R<thwa)&(G<thwa)&(B<thwa)ならば、y=m=c=0とする。また、
(8)Y画素判定:(ry==1)&(yg==0)&(RGB差>thy)ならば、y=1、m=c=0とする。また、
(9)G画素判定:(yg==1)&(gc==0)&(RGB差>thg)ならば、c=y=1、m=0とする。また、
(10)C画素判定:(gc==1)&(cb==0)&(RGB差>thc)ならば、c=1、m=y=0とする。また、
(11)B画素判定:(cb==1)&(bm==0)&(RGB差>thb)ならば、m=c=1、y=0とする。また、
(12)M画素判定:(bm==1)&(mr==0)&(RGB差>thm)ならば、m=1、y=c=0とする。また、
(13)R画素判定:(mr==1)&(ry==0)&(RGB差>thr)ならば、y=m=1、c=0とする。また、
(14)BK画素判定:(7)乃至(13)に該当しないとき、y=m=c=1とする。
The hue division unit 411 is an example of a pixel classification unit, and is a device for finding a chromatic color region. The input data R, G, and B are converted into signals of c, m, and y and color determination w (white) by the hue dividing unit 411. As an example of hue division, the boundary of each color is obtained, and the difference between the maximum value and the minimum value of R, G, and B image data in one pixel is defined as an RGB difference and is as follows. Here, the R, G, and B image data become black (darker) as the number increases.
(1) RY hue region boundary (ry): R-2 * G + B> 0,
(2) Y-G hue region boundary (yg): 11 * R-8 * G-3 * B> 0,
(3) GC hue region boundary (gc): 1 * R-5 * G + 4 * B <0,
(4) CB hue region boundary (cb): 8 * R-14 * G + 6 * B <0,
(5) BM hue region boundary (bm): 9 * R-2 * G-7 * B <0,
(6) MR hue region boundary (mr): R + 5 * G-6 * B <0,
(7) Color determination w (white) pixel determination: If (R <thwa) & (G <thwa) & (B <thwa), y = m = c = 0. Also,
(8) Y pixel determination: If (ry == 1) & (yg == 0) & (RGB difference> thy), then y = 1 and m = c = 0. Also,
(9) G pixel determination: If (yg == 1) & (gc == 0) & (RGB difference> thg), c = y = 1 and m = 0. Also,
(10) C pixel determination: If (gc == 1) & (cb == 0) & (RGB difference> thc), c = 1 and m = y = 0. Also,
(11) B pixel determination: If (cb == 1) & (bm == 0) & (RGB difference> thb), m = c = 1 and y = 0. Also,
(12) M pixel determination: If (bm == 1) & (mr == 0) & (RGB difference> thm), m = 1 and y = c = 0. Also,
(13) R pixel determination: If (mr == 1) & (ry == 0) & (RGB difference> thr), y = m = 1 and c = 0. Also,
(14) BK pixel determination: When not corresponding to (7) to (13), y = m = c = 1.
さらに、色相分割部411は、色判定用w画素の判定を行う。(R<thw)&(G<thw)&(B<thw)ならば、色画素用w画素とし、wとして出力する。ここで、(7)乃至(14)の優先順位は、数の小さい方を優先する。前述の閾値thwa、thy、thm、thc、thr、thg、thbは、複写(処理)前に決まる閾値である。thwとthwaの関係は、thw>thaとなっている。ここで色相毎に閾値を変えているのは、色相領域毎に有彩範囲が異なるからである。この色相分割は、一例であって、如何なる式を使用してもよい。色相分割部411は、c、m、yに各1ビットの3ビットデータと、色判定用色画素検出のwの1ビットデータとを出力する。ビットプレーン形成手段は、色相分割部411の出力信号であるc、m、yの3ビットデータから3ビットプレーンを形成する。 Further, the hue division unit 411 determines the w pixel for color determination. If (R <thw) & (G <thw) & (B <thw), it is set as a w pixel for the color pixel and is output as w. Here, as for the priorities of (7) to (14), the smaller one is prioritized. The above-described threshold values thwa, thy, thm, thc, thr, thg, thb are threshold values determined before copying (processing). The relationship between thw and thwa is thw> tha. The reason why the threshold value is changed for each hue is that the chromatic range is different for each hue region. This hue division is an example, and any formula may be used. The hue division unit 411 outputs 1-bit 3-bit data for c, m, and y and 1-bit data for w for color pixel detection for color determination. The bit plane forming unit forms a 3-bit plane from 3-bit data of c, m, and y that are output signals of the hue division unit 411.
メモリ412乃至415のそれぞれは、領域抽出手段に相当し、色相分割部411の出力c、m、y、wのそれぞれに基づいて5×5のマトリクスを蓄積し、色画素判定部416の入力とする。 Each of the memories 412 to 415 corresponds to a region extraction unit, accumulates a 5 × 5 matrix based on each of the outputs c, m, y, and w of the hue division unit 411 and inputs the color pixel determination unit 416. To do.
図6に、色画素判定部416の内容を示す。5×5のマトリクス分のc、m、y、wそれぞれのデータは、カウント部501乃至504と、パターンマッチング部505乃至508と、に入力される。ここでまず、B/C信号を求める流れについて説明する。 FIG. 6 shows the contents of the color pixel determination unit 416. Data of c, m, y, and w for the 5 × 5 matrix are input to the counting units 501 to 504 and the pattern matching units 505 to 508, respectively. First, the flow for obtaining the B / C signal will be described.
第1カウント部501は、第2計数手段の例であり、注目画素を中心とする5×5画素マトリクス内に、色判定用w画素が存在するときは、その画素の色相分割部411で判定したc、m、yデータをc=m=y=0に補正する。この補正により、該画素マトリクスの白レベルが大きくなる。そして、該画素マトリクス内の各画素のc、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yそれぞれについてのカウント値の最大値と最小値との差が、thcnt以上でかつ最小値がthmin未満ならば、色画素候補1とする。thcnt、thminは、複写(処理)前に設定する閾値である。c、m、yにプレーン展開して、N×Nのマトリクスにおけるそれぞれのプレーン毎に数を数えて、最小値をブラックと仮定している。このことにより、黒画素の読み取り漏れが生じても補正が可能となる。そして最大値と最小値との差で有彩画素か否かを判定する。このことにより、黒画素の読み取り漏れが生じた画素を補正して、有彩画素を抽出する。注目画素を中心とする5×5画素マトリクス内に一定画素数の有彩画素があると注目画素を有彩画素とする。 The first counting unit 501 is an example of a second counting unit. When a w determination pixel for color determination is present in a 5 × 5 pixel matrix centered on the target pixel, the first pixel dividing unit 411 performs determination by the hue dividing unit 411 of the pixel. The corrected c, m, and y data are corrected to c = m = y = 0. This correction increases the white level of the pixel matrix. Then, the number of 1 of c, m, and y (c = 1, m = 1, y = 1) of each pixel in the pixel matrix is counted. If the difference between the maximum value and the minimum value of the count values for c, m, and y is greater than or equal to thcnt and the minimum value is less than thmin, color pixel candidate 1 is determined. thcnt and thmin are threshold values set before copying (processing). The plane is expanded to c, m, and y, the number is counted for each plane in the N × N matrix, and the minimum value is assumed to be black. As a result, correction is possible even if black pixel reading omission occurs. Whether or not the pixel is a chromatic pixel is determined based on the difference between the maximum value and the minimum value. This corrects the pixel in which the black pixel is not read and extracts a chromatic pixel. If there is a certain number of chromatic pixels in the 5 × 5 pixel matrix centered on the pixel of interest, the pixel of interest is determined as a chromatic pixel.
第2パターンマッチング部506は、色画素用w画素が存在するとき、その画素をc=m=y=0に補正する。この補正により、注目画素を中心とする5×5画素マトリクスの白レベルが大きくなる。次に、第2パターンマッチング部506は、色相分割部411で判定した注目画素のc、m、yの全てが1(c=m=y=1)又は全てが0(c=m=y=0)である画素以外の画素(色画素)であるか否かを、該5×5画素マトリクスが次のパターンにマッチングするか否かをチェックすることにより判定する。 When the color pixel w pixel exists, the second pattern matching unit 506 corrects the pixel to c = m = y = 0. This correction increases the white level of the 5 × 5 pixel matrix centered on the pixel of interest. Next, the second pattern matching unit 506 determines that all of c, m, and y of the target pixel determined by the hue dividing unit 411 are 1 (c = m = y = 1) or all 0 (c = m = y = It is determined by checking whether the 5 × 5 pixel matrix matches the next pattern whether it is a pixel (color pixel) other than the pixel 0).
色画素パターン群は、図16に示すように、パターン1−1(pm1):D23&D33&D431、パターン1−2(pm2):D32&D33&D34、パターン1−3(pm3):D22&D33&D44、パターン1−4(pm4):D24&D33&D42である。中心画素(注目画素)はD33である。これらのパターン上の白丸は、色画素であることを示す。パターンマッチングを採用するのは、孤立点などを拾わないようにするためである。逆に、網点などの小面積の色を検出する際には、中心画素が1(c=m=y=1)又は0(c=m=y=0)以外の画素(色画素)であるか否かで判定すればよい。 As shown in FIG. 16, the color pixel pattern group includes pattern 1-1 (pm1): D23 & D33 & D431, pattern 1-2 (pm2): D32 & D33 & D34, pattern 1-3 (pm3): D22 & D33 & D44, pattern 1-4 (pm4). : D24 & D33 & D42. The central pixel (target pixel) is D33. White circles on these patterns indicate color pixels. Pattern matching is used to prevent picking up isolated points. Conversely, when detecting a small area color such as a halftone dot, the central pixel is a pixel (color pixel) other than 1 (c = m = y = 1) or 0 (c = m = y = 0). What is necessary is just to judge by whether there exists.
次に、第2パターンマッチング部506は、白に囲まれた色線を検出する。これに用いるパターンを図17に示す。図17において、白丸を付した画素は、c、m、yが全て0の画素である。注目画素(中心画素)を中心とする5×5画素マトリクスのデータ(c、m、y)の分布が、図17のパターンpw11a乃至pw14dのいずれかにマッチングする場合、そのときの注目画素(中心画素)を色線画素と見なす。 Next, the second pattern matching unit 506 detects a color line surrounded by white. The pattern used for this is shown in FIG. In FIG. 17, pixels with white circles are pixels in which c, m, and y are all 0. When the distribution of the data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches any of the patterns pw11a to pw14d in FIG. 17, the target pixel (center) at that time Pixel) is regarded as a color line pixel.
色細線用パターン群は、パターン2―1(pw11a乃至pw11d):((D12&D13&D14)&(D42&D43&D44))#((D12&D13&D14)&(D52&D53&D54))#((D22&D23&D42)&(D42&D43&D44))#((D22&D23&D42)&(D52&D53&D54))、パターン2―2(pw12a乃至pw12d):((D21&D31&D41)&(D24&D34&D44))#((D21&D31&D41)&(D25&D35&D45))#((D22&D23&D24)&(D24&D34&D44))#((D22&D23&D24)&(D25&D35&D45))、パターン2―3(pw13a乃至pw13d):((D11&D21&D12)&(D35&D44&D53))#((D11&D21&D12)&(D45&D44&D55))#((D13&D22&D31)&(D35&D44&D53))#((D13&D22&D31)&(D45&D44&D55))、パターン2―4(pw14a乃至pw14d):((D13&D24&D35)&(D41&D51&D52))#((D14&D15&D25)&(D41&D51&D52))#((D13&D24&D35)&(D31&D42&D53))#((D14&D15&D25)&(D31&D42&D53))である。 The pattern group for fine color lines is pattern 2-1 (pw11a to pw11d): ((D12 & D13 & D14) & (D42 & D43 & D44)) # ((D12 & D13 & D14) & (D52 & D53 & D54)) # ((D22 & D23 & D42) & (D42 & D43 & D44) # (& D42 & D44) # (& ) & (D52 & D53 & D54)), pattern 2-2 (pw12a to pw12d): ((D21 & D31 & D41) & (D24 & D34 & D44)) # ((D21 & D31 & D41) & (D25 & D35 & D45)) # ((D22 & D23 & D24) & (D24 & D24 & D24 & D24 & D24 & D24 & D24 & D24 & D24 & D24 & D24 & D24 & D ) & (D25 & D35 & D45)), pattern 2-3 (pw13a to pw13d): ((D11 & D21 & D12) & ( 35 & D44 & D53)) # ((D11 & D21 & D12) & (D45 & D44 & D55)) # ((D13 & D22 & D31) & (D35 & D44 & D53)) # ((D13 & D22 & D31) & (D45 & D44 & D55)), pattern 2-4 (pw14a (pw14: D & D35 & p35D)) D41 & D51 & D52)) # ((D14 & D15 & D25) & (D41 & D51 & D52)) # ((D13 & D24 & D35) & (D31 & D42 & D53)) # ((D14 & D15 & D25) & (D31 & D42 & D53)).
次に、第2パターンマッチング部506は、c、m、yが全て0のところのパターンマッチングを行う。これに用いるパターンを図18に示す。図18において、白丸を付した画素は、c、m、yが全て0の画素である。注目画素(中心画素)を中心とする5×5画素マトリクスのデータ(c、m、y)の分布が、図18のパターンpw21a乃至pw24dのいずれかにマッチングすると、そのときの注目画素(中心画素)を白領域画素と見なす。 Next, the second pattern matching unit 506 performs pattern matching where c, m, and y are all zero. The pattern used for this is shown in FIG. In FIG. 18, pixels with white circles are pixels in which c, m, and y are all 0. When the distribution of the data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches one of the patterns pw21a to pw24d in FIG. 18, the target pixel (center pixel) at that time ) Is regarded as a white area pixel.
白領域パターン群は、パターン3―1(pw21a乃至pw21d):(D21&D31&D41)#(D22&D32&D42)#(D24&D34&D44)#(D25&D35&D45)、パターン3―2(pw22a乃至pw22d):(D12&D13&D14)#(D22&D23&D24)#(D42&D43&D44)#(D52&D53&D54)、パターン3―3(pw23a乃至pw23d):(D52&D51&D41)#(D53&D42&D31)#(D35&D24&D13)#(D25&D15&D14)、パターン3―4(pw24a乃至pw24d):(D54&D55&D45)#(D53&D44&D35)#(D31&D22&D13)#(D21&D11&D12)である。 The white area pattern group includes pattern 3-1 (pw21a to pw21d): (D21 & D31 & D41) # (D22 & D32 & D42) # (D24 & D34 & D44) # (D25 & D35 & D45), pattern 3-2 (pw22a to pw22d): (D12 & D13 & D14) # (D24 & D24) (D42 & D43 & D44) # (D52 & D53 & D54), pattern 3-3 (pw23a to pw23d): (D52 & D51 & D41) # (D53 & D42 & D31) # (D35 & D24 & D13) # (D25 & D15 & D14), pattern 3-4 (pw24a to pwD & DD ) # (D31 & D22 & D13) # (D21 & D11 & D12).
第2パターンマッチング部506は、抽出したパターンマッチング結果が以下の条件を満たす場合、注目画素を色判定用色画素候補2とする。条件は、((pm1==1)&((pw11==1)#(pw21!=1)))#((pm2==1)&((pw12==1)#(pw22!=1)))#((pm3==1)&((pw13==1)#(pw23!=1)))#((pm4==1)&((pw14==1)#(pw24!=1)))で示され、ここで、(pm1==1)は、注目画素を中心とするデータ分布が、パターンpm1にマッチングすることを意味し、(pw11==1)はパターンpw11a乃至pw11dのいずれかにマッチングすることを意味し、(pw21!=1)はパターンpw21a乃至pw21dのいずれにもマッチングしないことを意味する。&は論理積を、#は論理和を意味する。このパターンマッチングにより、白領域に囲まれた色画素を色画素候補として、それ以外で白領域が存在するときは、色画素としない。白領域がない色画素パターンマッチングで一致したものは、色画素候補となる。 When the extracted pattern matching result satisfies the following conditions, the second pattern matching unit 506 sets the target pixel as the color determination candidate color pixel 2. The condition is ((pm1 == 1) & ((pw11 == 1) # (pw21! = 1))) # ((pm2 == 1) & ((pw12 == 1) # (pw22! = 1) )) # ((Pm3 == 1) & ((pw13 == 1) # (pw23! = 1))) # ((pm4 == 1) & ((pw14 == 1) # (pw24! = 1) )), Where (pm1 == 1) means that the data distribution centered on the pixel of interest matches the pattern pm1, and (pw11 == 1) is any of the patterns pw11a to pw11d (Pw21! = 1) means that it does not match any of the patterns pw21a to pw21d. & Means logical product, and # means logical sum. By this pattern matching, a color pixel surrounded by a white area is set as a color pixel candidate, and when there is a white area other than that, it is not set as a color pixel. Those matched by color pixel pattern matching without a white area are color pixel candidates.
第4パターンマッチング部508は、パターン照合手段の例であり、1ライン色細線パターンマッチングを実行する。パターンマッチング部508は、色相分割部411で各画素に割り当てられた3ビットプレーンのc、m、yの全てが1である画素を黒画素、c、m、y全てが0である画素を白画素、その他を色画素とし、5×5画素マトリックスの画像領域を参照して、図26に示すパターンに合致するか否かを判定し、合致する場合に注目画素を色画素候補0とする。図26では、白丸は色画素を表し、×は白画素を表す。空欄は、黒画素、白画素、色画素のいずれであってもよい。図26のパターンは、一定方向に続く色画素のラインを挟んで、両脇に白画素を有する。ショックジター等による黒文字部の色ずれの場合には、一定方向に色画素のラインが続くが、色画素のラインのどちらか一方の脇には白画素が存在しない。従って、このパターンを用いることにより、ショックジターによる黒文字部の色ずれを適切に検出することが可能となる。 The fourth pattern matching unit 508 is an example of a pattern matching unit, and executes one-line color fine line pattern matching. The pattern matching unit 508 is a black pixel in which all of c, m, and y of the 3-bit plane assigned to each pixel in the hue dividing unit 411 are black, and a pixel in which all of c, m, and y are 0 in white. Pixels and others are color pixels, and an image region of a 5 × 5 pixel matrix is referred to determine whether or not the pattern shown in FIG. 26 is matched. If they match, the pixel of interest is set as a color pixel candidate 0. In FIG. 26, white circles represent color pixels and x represents white pixels. The blank may be any of black pixels, white pixels, and color pixels. The pattern of FIG. 26 has white pixels on both sides with a line of color pixels continuing in a certain direction. In the case of a color shift of a black character part due to shock jitter or the like, a line of color pixels continues in a certain direction, but no white pixel exists on either side of the line of color pixels. Therefore, by using this pattern, it is possible to appropriately detect the color shift of the black character portion due to the shock jitter.
ここで、第4パターンマッチング部508の効果を5×5のマトリクスを用いて説明する。スキャナ1で白地上の1ライン色細線を読み取った場合、図27の白丸部のみが色画素となる。ここで注目画素を有彩判定するためには、c、m、yの3ビットプレーンの第1カウント部501による計数結果における最大値と最小値との差の閾値として、5以下を設定せざるを得ない。1ライン色細線は、最大値と最小値との差が5であり、第1カウント部501は、c、m、yそれぞれについてのカウント値の最大値と最小値との差が、所定の閾値以上の場合を1条件として、注目画素を色画素候補とするからである。一般的には、m×mのマトリクス(mは整数である。)の場合、最大値と最小値との差の閾値として、m以上を設定しなければ黒文字部の色ずれ等を誤って有彩判定する確率が高くなり適切な判定を行うことができない。仮に、第4パターンマッチング部が存在せず、第1カウント部のみで有彩判定を行う場合には、1ライン色細線を有彩であると判定するために、閾値を5未満とせざるを得ず、閾値を5未満とすれば黒文字部の色ずれ等を誤って有彩判定する確率が高くなる。 Here, the effect of the fourth pattern matching unit 508 will be described using a 5 × 5 matrix. When the scanner 1 reads one line color fine line on the white ground, only the white circles in FIG. 27 are color pixels. Here, in order to determine the target pixel as chromatic, it is necessary to set 5 or less as the threshold value of the difference between the maximum value and the minimum value in the count result by the first count unit 501 of the 3-bit plane of c, m, and y. I do not get. The 1-line color thin line has a difference between the maximum value and the minimum value of 5, and the first count unit 501 determines that the difference between the maximum value and the minimum value of each of c, m, and y is a predetermined threshold value. This is because the pixel of interest is a color pixel candidate on the above condition as one condition. In general, in the case of an m × m matrix (m is an integer), if m or more is not set as the threshold value of the difference between the maximum value and the minimum value, the color misregistration or the like of the black character part may be erroneously detected. Probability of color determination is increased and appropriate determination cannot be performed. If the fourth pattern matching unit does not exist and chromatic determination is performed only by the first count unit, the threshold value must be set to less than 5 in order to determine that one line color thin line is chromatic. If the threshold value is less than 5, the probability of erroneously determining chromaticity such as a color shift of the black character portion increases.
このように、第4パターンマッチング部508によりパターンマッチングを実行し、1ライン色細線を高精度に検出することができるので、第1カウント部501における閾値を大きく設定して黒文字部の色ずれを有彩判定するのを回避しながら、第4パターンマッチング部508により1ライン色細線を有彩判定できるようになる。 In this way, pattern matching is executed by the fourth pattern matching unit 508, and one line color fine line can be detected with high accuracy. Therefore, the threshold value in the first count unit 501 is set large so that the color deviation of the black character portion is reduced. While avoiding the chromatic determination, the fourth pattern matching unit 508 can determine the chromatic color of one line color thin line.
第1色画素判定部509は、有彩画素判定手段の例であり、第1カウント部501、第2パターンマッチング部506及び第4パターンマッチング部508の出力に基づいて、注目画素が色画素か否かを判定する。色画素候補1でかつ色画素候補2であれば、色画素1であると判定する。また、色画素候補0であれば、色画素候補1及び色画素候補2であるか否かに関わらず、色画素1であると判定する。即ち、第4パターンマッチング部508が1ライン色細線を検出した場合には、画像処理装置は、その検出結果を第1カウント部501及び第2パターンマッチング部506の検出結果に優先して注目画素を色画素と判定するので、第1カウント部501で1ライン色細線を有彩判定する必要がなく、第1カウント部501がより厳格に黒文字部の検出を行えるようになり、結果として、画像処理装置は、黒文字部と1ライン色細線とを適切に判定できるようになる。 The first color pixel determination unit 509 is an example of a chromatic pixel determination unit. Based on the outputs of the first count unit 501, the second pattern matching unit 506, and the fourth pattern matching unit 508, whether the target pixel is a color pixel. Determine whether or not. If it is color pixel candidate 1 and color pixel candidate 2, it is determined that it is color pixel 1. If the color pixel candidate is 0, it is determined that it is the color pixel 1 regardless of whether it is the color pixel candidate 1 and the color pixel candidate 2. That is, when the fourth pattern matching unit 508 detects one line color thin line, the image processing apparatus prioritizes the detection result of the first count unit 501 and the second pattern matching unit 506, and Therefore, the first count unit 501 does not need to determine the chromaticity of one line color thin line, and the first count unit 501 can detect the black character part more strictly. As a result, the image The processing apparatus can appropriately determine the black character portion and the one-line color thin line.
第1ブロック化部513は、第1色画素判定部509の出力をブロック化する。ブロック化とは、4×4画素のマトリックスにおいて、1画素以上の色画素1があれば、該4×4画素マトリックス全体を色画素1ブロックとして出力するものである。第1ブロック化部513以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。 The first blocking unit 513 blocks the output of the first color pixel determination unit 509. Blocking means that if there is one or more color pixels 1 in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as one color pixel block. In the processing after the first block forming unit 513, 4 × 4 pixels are regarded as one block and output in block units.
孤立点除去部517は、注目ブロックの隣り合うブロックに色画素1ブロックがなければブロック化されたデータを孤立点として除去する。 The isolated point removing unit 517 removes the blocked data as isolated points if there is no color pixel block in the adjacent block of the target block.
膨張部521は、色画素1ブロックが存在する場合は、孤立点除去部517の出力を5×5ブロックに膨張させる。膨張は、色画素の周辺を黒文字処理しないようにするためである。ここで、出力するB/C信号は、色画素1ブロックのときにL(有彩)を出力し、それ以外のときは、H(無彩)を出力する。 When there is one color pixel block, the expansion unit 521 expands the output of the isolated point removal unit 517 to 5 × 5 blocks. The expansion is to prevent black character processing around the color pixel. Here, the B / C signal to be output is L (chromatic) when the color pixel is one block, and H (achromatic) is output otherwise.
第2カウント部502は、注目画素を中心とする5×5画素マトリクス内に色判定用w画素が存在するときは、その画素の色相分割部411で判定したc、m、yデータをc=m=y=0に補正する。この補正により、該画素マトリクスの白レベルが大きくなる。そして、該画素マトリクス内の各画素の、c、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yそれぞれについてのカウント値の最大値と最小値との差が、thacnt以上でかつ最小値がthamin未満ならば、注目画素を色画素候補1とする。thacnt、thaminは、複写(処理)前に設定する閾値である。 When there is a color determination w pixel in the 5 × 5 pixel matrix centered on the target pixel, the second count unit 502 converts the c, m, and y data determined by the hue division unit 411 of the pixel to c = Correct to m = y = 0. This correction increases the white level of the pixel matrix. Then, the number of 1 of c, m, and y (c = 1, m = 1, y = 1) of each pixel in the pixel matrix is counted. If the difference between the maximum value and the minimum value of the count values for c, m, and y is greater than or equal to thacnt and the minimum value is less than thatmin, the target pixel is set as a color pixel candidate 1. “thacnt” and “thamin” are threshold values set before copying (processing).
第2色画素判定部510は、第2カウント部510、第2パターンマッチング部506及び第4パターンマッチング部508の出力に基づいて色画素か否かを判定する。色画素候補1でかつ色画素候補2であれば、色画素2であると判定する。また、色画素候補0であれば、色画素候補1及び色画素候補2であるか否かに関わらず、色画素2であると判定する。 The second color pixel determination unit 510 determines whether or not the pixel is a color pixel based on the outputs of the second count unit 510, the second pattern matching unit 506, and the fourth pattern matching unit 508. If it is color pixel candidate 1 and color pixel candidate 2, it is determined that it is color pixel 2. If the color pixel candidate is 0, the color pixel candidate is determined to be the color pixel 2 regardless of whether the color pixel candidate is the color pixel candidate 1 or the color pixel candidate 2.
これにより、画像処理装置は、黒文字部の色ずれに対する誤判定を増加させることなく1ライン色細線を有彩判定できる。その結果、無彩原稿を有彩と誤判定してしまう確率を低減しながら、1ライン色細線のある原稿を有彩原稿であると判定できるようになる。 As a result, the image processing apparatus can make a chromatic determination of a one-line color thin line without increasing the erroneous determination of color misregistration in the black character portion. As a result, it is possible to determine that a document with one line color fine line is a chromatic document while reducing the probability of erroneously determining an achromatic document as chromatic.
第2ブロック化部514は、第2色画素判定部510の出力をブロック化する。即ち、4×4画素のマトリックスにおいて、1画素以上の色画素2があれば、該4×4画素マトリックの全体を色画素2ブロックとして出力する。第2ブロック化部514以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。 The second blocking unit 514 blocks the output of the second color pixel determination unit 510. That is, if there is one or more color pixels 2 in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a color pixel 2 block. In the processing after the second blocking unit 514, 4 × 4 pixels are output as a block in a block.
第1密度部518は、孤立ブロックの除去のために、3×3ブロックの中のアクティブ条件(色画素2ブロック)が3個以上あり、注目ブロックがアクティブ(色画素)ならば、注目ブロックをアクティブブロック(色画素2ブロック)とする。 The first density unit 518 removes the isolated block, if there are three or more active conditions (color pixel 2 blocks) in the 3 × 3 block and the target block is active (color pixel), Let it be an active block (color pixel 2 block).
第3カウント部503は、注目画素を中心とする5×5画素マトリクス内の各画素のc、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yそれぞれについてのカウント値の最大値と最小値との差が、tha1cnt以上で、かつカウントしたc、m、yの最小値が、tha1min未満ならば、色画素候補3とする。tha1cnt、tha1minは、複写(処理)前に設定する閾値である。 The third counting unit 503 counts the number of 1 of c, m, and y (c = 1, m = 1, y = 1) of each pixel in the 5 × 5 pixel matrix centered on the target pixel. If the difference between the maximum value and the minimum value of the count values for c, m, and y is equal to or greater than tha1cnt and the counted minimum value of c, m, and y is less than tha1min, the color pixel candidate 3 is determined. tha1cnt and tha1min are threshold values set before copying (processing).
第1パターンマッチング部505は、色相分割部411で判定した画素(c、m、y)が色画素であるか否かを5×5画素マトリクスを用いるパターンマッチングで判定する。パターンは第2パターンマッチング部506のものと同じである。パターンマッチングで一致した画素は、色画素候補4とする。 The first pattern matching unit 505 determines whether or not the pixel (c, m, y) determined by the hue dividing unit 411 is a color pixel by pattern matching using a 5 × 5 pixel matrix. The pattern is the same as that of the second pattern matching unit 506. The pixel matched by pattern matching is set as a color pixel candidate 4.
第3色画素判定部511は、色画素候補3でかつ色画素候補4であれば、色画素3とする。 The third color pixel determination unit 511 determines the color pixel 3 if it is the color pixel candidate 3 and the color pixel candidate 4.
第3ブロック化部515は、第3色画素判定部511の出力をブロック化する。即ち、4×4画素のマトリックスにおいて、1画素以上の色画素3があれば、該4×4画素マトリックスの全体を色画素3ブロックとして出力する。第3ブロック化部515以降の処理は、4×4を1ブロックとしてブロック単位出力する。 The third blocking unit 515 blocks the output of the third color pixel determination unit 511. That is, if there is one or more color pixels 3 in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a color pixel 3 block. The processing after the third blocking unit 515 outputs 4 × 4 as one block.
第2密度部519は、孤立ブロックの除去のために、3×3ブロックの中のアクティブ条件(色画素3ブロック)が3個以上あり、注目ブロックがアクティブ(色画素3)ならば、注目ブロックをアクティブブロック(色画素3ブロック)とする。 The second density unit 519 has three or more active conditions (color pixel 3 blocks) in the 3 × 3 block for removing the isolated block, and if the target block is active (color pixel 3), the target block Is an active block (3 blocks of color pixels).
第4カウント部504は、注目画素を中心とする5×5画素マトリクス内の各画素の、色相分割部411で判定したc、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yの各カウント値の最小値が、thabk以上ならば、注目画素を黒画素候補1とする。thabkは、複写(処理)前に設定する閾値である。 The fourth count unit 504 has 1 of c, m, and y determined by the hue division unit 411 (c = 1, m = 1, y = 1) of each pixel in the 5 × 5 pixel matrix centered on the target pixel. ) Count. If the minimum value of the count values of c, m, and y is greater than or equal to thabk, the pixel of interest is set as a black pixel candidate 1. thabk is a threshold value set before copying (processing).
第3パターンマッチング部507は、注目画素を中心とする5×5画素マトリクスにおいて、c=m=y=1の画素のパターンマッチングを行う。 The third pattern matching unit 507 performs pattern matching of pixels with c = m = y = 1 in a 5 × 5 pixel matrix centered on the target pixel.
使用されるパターンは、パターン1―1(pm1):D23&D33&D43、パターン1―2(pm2):D32&D33&d34、パターン1―3(pm3):D22&D33&D44、パターン1―4(pm4):D42&D33& D24である。これらのパターンは図16に示すものであり、図中に丸印を付した画素が、c=m=y=1の画素である。これらのパターンの何れかに一致した場合に、注目画素を黒画素候補2とする。 Patterns used are pattern 1-1 (pm1): D23 & D33 & D43, pattern 1-2 (pm2): D32 & D33 & d34, pattern 1-3 (pm3): D22 & D33 & D44, pattern 1-4 (pm4): D42 & D33 & D24. These patterns are shown in FIG. 16, and the pixels with circles in the figure are pixels with c = m = y = 1. If it matches any of these patterns, the pixel of interest is designated as a black pixel candidate 2.
無彩判定部512は、注目画素が、黒画素候補1でかつ黒画素候補2であれば、黒画素とする。 If the target pixel is the black pixel candidate 1 and the black pixel candidate 2, the achromatic determination unit 512 determines the black pixel.
第4ブロック化部516は、無彩判定部512の出力をブロック化する。ここでのブロック化とは、4×4画素のマトリックスにおいて、1画素以上の黒画素があれば、該4×4画素マトリックスの全体を黒画素ブロックとして出力する。第4ブロック化部516以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。 The fourth blocking unit 516 blocks the output of the achromatic determination unit 512. In this block formation, if there is one or more black pixels in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a black pixel block. In the processing after the fourth block forming unit 516, 4 × 4 pixels are regarded as one block and output in block units.
第2膨張部520は、3×3ブロックのマトリックス内において、注目ブロックがアクティブ(黒画素ブロック)で、その周辺画素がノンアクティブ(非黒画素)ならば、注目ブロックをノンアクティブ(非黒画素ブロック)にする。 The second expansion unit 520 makes the target block non-active (non-black pixel) if the target block is active (black pixel block) and its peripheral pixels are non-active (non-black pixel) in a 3 × 3 block matrix. Block).
総合色画素判定部522は、注目ブロックが、第2色画素判定部510でアクティブ(色画素2)と判定され、かつ、無彩判定部512でアクティブ(黒画素)と判定されていなければ、注目ブロックは色(色ブロック)であると判定する。また、第3色画素判定部511がアクティブ(色画素)のときも色ブロックであると判定する。 The overall color pixel determination unit 522 determines that the target block is determined to be active (color pixel 2) by the second color pixel determination unit 510 and is not determined to be active (black pixel) by the achromatic determination unit 512. It is determined that the target block is a color (color block). Also, when the third color pixel determination unit 511 is active (color pixel), it is determined that the block is a color block.
第3膨張部523は、総合色画素判定部522で、色と判定されたブロックに対して小さな文字を連続と見なすために、注目ブロックを中心とする9×9ブロックのマトリックス内に1ブロックでもアクティブブロックがあれば、注目ブロックをアクティブブロックとする。ここで、大きく膨張させるのは、文字同士のすき間を埋めるためである。 The third expansion unit 523 is configured so that even a single block is included in a 9 × 9 block matrix centered on the target block in order that the total color pixel determination unit 522 considers small characters continuous with respect to the block determined to be a color. If there is an active block, the target block is set as the active block. Here, the reason for the large expansion is to fill the gap between the characters.
連続カウント部524は、有彩画像判定手段の例であり、色画素ブロックの連続性を見て、カラー原稿か白黒原稿かを判定する。また、第3膨張部523の出力データ(色画素ブロック)の中の色画素の連続数をカウントすることにより、カラー原稿か否かを判定する。 The continuous count unit 524 is an example of a chromatic image determination unit, and determines whether a color document or a monochrome document by looking at the continuity of color pixel blocks. Further, by counting the number of consecutive color pixels in the output data (color pixel block) of the third expansion unit 523, it is determined whether or not the document is a color document.
図7に、この判定処理の内容を示す。注目画素が色画素ブロックにある場合に注目画素の左上、上、右上及び左の画素の色画素連続数を参照して、注目画素の色画素連続数を算出する(ステップS21乃至26)。ここで、注目画素を、例えば図11の5×5画素分布パターンMPpのc3画素とすると、左上、上、右上及び左の画素はそれぞれ、b2、b3、b4及びc2の画素である。注目画素が色画素ブロックにない場合には、色画素連続数を0とする(ステップS21乃至27)。 FIG. 7 shows the contents of this determination process. When the target pixel is in the color pixel block, the color pixel continuous number of the target pixel is calculated with reference to the color pixel continuous number of the upper left, upper, upper right and left pixels of the target pixel (steps S21 to S26). Here, if the target pixel is, for example, the c3 pixel of the 5 × 5 pixel distribution pattern MPp in FIG. 11, the upper left, upper, upper right, and left pixels are the pixels b2, b3, b4, and c2, respectively. If the target pixel is not in the color pixel block, the number of continuous color pixels is set to 0 (steps S21 to S27).
注目画素が色画素ブロックにある場合は、先ず注目画素(c3)の上画素(b3)の色画素連続数をチェックして(ステップS22)、それが0であると、参照値Aに右上画素(b4)の色画素連続数に1を加えた値を与え(ステップS24)、上画素(b3)の色画素連続数が0であると参照値Aに右上画素(b4)の色画素連続数を与える(ステップS23)。次に、参照値Bに左上画素(b2)の色画素連続数に1を加えた値を与え、参照値Cには上画素(b3)の色画素連続数に1を加えた値を与え、また参照値Dには左画素(c2)の色画素連続数に1を加えた値を与える(ステップS25)。そして、参照値A、B、C及びDのうちの最高値を注目画素(c3)の色画素連続数とする(ステップS26)。 When the target pixel is in the color pixel block, first, the number of continuous color pixels of the upper pixel (b3) of the target pixel (c3) is checked (step S22). A value obtained by adding 1 to the number of continuous color pixels of (b4) is given (step S24), and the number of continuous color pixels of the upper right pixel (b4) is added to the reference value A when the number of continuous color pixels of the upper pixel (b3) is 0. (Step S23). Next, a value obtained by adding 1 to the number of continuous color pixels of the upper left pixel (b2) is given to the reference value B, and a value obtained by adding 1 to the number of continuous color pixels of the upper pixel (b3) is given to the reference value B. Further, a value obtained by adding 1 to the number of continuous color pixels of the left pixel (c2) is given to the reference value D (step S25). Then, the highest value among the reference values A, B, C, and D is set as the number of continuous color pixels of the target pixel (c3) (step S26).
注目画素(c3)に色画素連続数を前述のように与えると、この色画素連続数が設定値THACS以上であるかをチェックして(ステップS28)、THACS以上であると、カラー原稿であると決定して(ステップS29)、そこで連続カウント部524の処理を終える。色画素連続数が設定値THACS未満であると、注目画素を走査方向x、yの次の画素に更新して、前述の処理を繰返す。原稿全面について前述の処理をした結果、最後まで色画素連続数が設定値THACS未満であったときには(ステップS30乃至34)、原稿は白黒画像であると決定する。 When the number of continuous color pixels is given to the target pixel (c3) as described above, it is checked whether the number of continuous color pixels is equal to or greater than the set value THACS (step S28). (Step S29), and the processing of the continuous counting unit 524 is finished there. If the number of continuous color pixels is less than the set value THACS, the target pixel is updated to the next pixel in the scanning directions x and y, and the above-described processing is repeated. As a result of performing the above-described processing on the entire surface of the document, if the number of continuous color pixels is less than the set value THACS until the end (steps S30 to S34), it is determined that the document is a monochrome image.
前述の色画素連続数は、ほぼ縦の色付き線分と横の色付き線分の和となる。右上の色画素連続数が、他と異なるのは二重カウントを防ぐためである。色画素連続数の具体的なデータを図19に示す。図19に示す数字を入れた小四角が色画素であり、数字が該画素に与えた色画素連続数である。数字を入れた小四角が連なったブロックが色画素群であり、同一原稿上の何れかの色画素群のなかの色画素連続数が1つでも設定値THACS以上になるとそこで、カラー原稿であると確定する(ステップS28、29)。 The number of continuous color pixels is substantially the sum of vertical colored line segments and horizontal colored line segments. The number of consecutive color pixels in the upper right is different from others because it prevents double counting. Specific data on the number of continuous color pixels is shown in FIG. A small square including a number shown in FIG. 19 is a color pixel, and the number is a continuous number of color pixels given to the pixel. A block consisting of a series of small squares with numbers is a color pixel group, and even if one continuous color pixel in any color pixel group on the same document exceeds the set value THACS, it is a color document. (Steps S28 and 29).
第1乃至第3色画素判定部と分けたのは、カラー原稿か白黒原稿かの判定精度を高くするためである。黒文字処理のための色画素判定は、誤判定をしても局所的にはさほど目立たない。しかし、カラー原稿か白黒原稿かの判定は、誤判定をすると原稿全体に影響する。そこで、第1乃至第4カウント部を独立とした。本来ならば、色相分割部411から独立にした方がよいが色相分割部411を独立にすると、第1乃至第4パターンマッチング部のメモリが増えるので好ましくない。第1乃至第4カウント部のパラメータ(色画素候補1、3、黒画素候補1)で、色画素のパラメータ(色画素1乃至3)を変更している事により、メモリ量の増加を少なくしている。第2及び第3色画素判定部を設けているのは蛍光ペンの黄色のような濃度の低い色を検出するためで、さらに、無彩判定(黒画素判定)部512を備えたのは濃度を低くすると誤検出した際に補正するためである。蛍光ペンなど濃度の薄い色は、ある程度の幅において黒データで補正しても問題はない。複数の色画素を抽出する際に、w(白)のレベルを変えているだけなので、色画素検出のために2つ分のメモリを持つ必要がなく、1つ分+1ラインの容量で可能である。 The reason why it is separated from the first to third color pixel determination units is to increase the accuracy of determining whether a color document or a monochrome document. The color pixel determination for black character processing is not so conspicuous locally even if an erroneous determination is made. However, the determination of whether the original is a color original or a monochrome original affects the entire original if an erroneous determination is made. Therefore, the first to fourth counting units are independent. Originally, it is better to make the hue dividing unit 411 independent. However, making the hue dividing unit 411 independent is not preferable because the memory of the first to fourth pattern matching units increases. By changing the parameters of the color pixels (color pixels 1 to 3) with the parameters of the first to fourth counting units (color pixel candidates 1 and 3 and black pixel candidate 1), the increase in the amount of memory is reduced. ing. The reason why the second and third color pixel determination units are provided is to detect a low density color such as yellow of a fluorescent pen, and further, the achromatic determination (black pixel determination) unit 512 is provided with a density. This is because correction is made when a false detection is made. For a light color such as a highlighter, there is no problem even if it is corrected with black data within a certain range. When extracting multiple color pixels, the level of w (white) is only changed, so there is no need to have two memories for color pixel detection, and a capacity of one + 1 line is possible. is there.
連続カウント部524で、1ライン前のカウントデータと現在のラインのカウントデータを参照してカウント値を数えているので、確実に周辺画素の連続を正確に数えることができ、これにより色画素の連続を数えることが可能となる。本実施例では、R、G、B画像データに対して色相判定を行ったが、R、G、B画像データに限定するものではなく、輝度色差(例えばLab)などに対して、色相判定することは、容易である。 Since the count value is counted by the continuous count unit 524 by referring to the count data of the previous line and the count data of the current line, it is possible to accurately count the continuity of the peripheral pixels. It is possible to count continuations. In this embodiment, the hue determination is performed on the R, G, and B image data. However, the hue determination is not limited to the R, G, and B image data, and the hue determination is performed on the luminance color difference (for example, Lab). It is easy.
総合判定部45は、図4に示すように文字判定部451、膨張処理部452、文字なか判定部453およびデコード部454から構成される。 As shown in FIG. 4, the overall determination unit 45 includes a character determination unit 451, an expansion processing unit 452, a character determination unit 453, and a decoding unit 454.
文字判定部451は、エッジ抽出部43の結果がエッジありで、網点抽出部44の結果が網点なしで白領域抽出部42の結果が白領域ありのときは、文字エッジと判定する。そうでないときには非文字エッジ(絵柄または文字なか)と判定し、その結果を図25に示すように膨張処理部452に出力する。 When the result of the edge extraction unit 43 is an edge, the result of the halftone extraction unit 44 is no halftone, and the result of the white region extraction unit 42 is a white region, the character determination unit 451 determines that the character edge. Otherwise, it is determined as a non-character edge (whether a pattern or a character), and the result is output to the expansion processing unit 452 as shown in FIG.
膨張処理部452は、文字判定部451の結果を8×8ブロックのOR処理をして、その後に3×3ブロックのAND処理をして4ブロックの膨張処理を行う。即ち、注目ブロックを中心とする8×8ブロックの何れかのブロックが文字エッジである場合に、注目ブロックも文字エッジブロックであると仮定し、該注目ブロックを中心とする3×3ブロックのすべてが文字エッジである場合に、注目ブロックを文字エッジと確定し、注目ブロックとそれに隣接する3ブロックとの計4ブロックを文字エッジと見なす。OR処理してからAND処理するのは、特に黒文字の場合、黒文字の領域の周辺に小領域の非黒文字領域が存在すると、処理の差によっては違和感が生じることがあり、例えば黒が薄く見えるからである。これを防ぐために、OR処理で非黒文字領域を大きくしている。AND処理は、望むべき膨張量にするために行っている。 The expansion processing unit 452 performs OR processing of 8 × 8 blocks on the result of the character determination unit 451, and then performs AND processing of 3 × 3 blocks to perform 4-block expansion processing. That is, if any block of the 8 × 8 block centered on the target block is a character edge, it is assumed that the target block is also a character edge block, and all 3 × 3 blocks centered on the target block Is a character edge, the block of interest is determined to be a character edge, and a total of four blocks including the block of interest and three adjacent blocks are regarded as a character edge. The reason for performing the AND process after the OR process is that, especially in the case of a black character, if there is a small non-black character area around the black character area, a sense of incongruity may occur depending on the difference in processing, for example, black appears to be light. It is. In order to prevent this, the non-black character area is enlarged by OR processing. The AND process is performed to obtain a desired expansion amount.
ところでカラー複写機は、1枚の複写をするのに、4回スキャンをするので、スキャン毎に、微妙に文字判定結果が異なる。特に、ブラック作像のときに非黒文字判定をし、ブラック作像以外のときに黒文字判定をすると、この黒文字領域は薄くなってしまうので、Bkのときには8×8ブロックのOR処理をして、その後に3×3ブロックのAND処理をし、Bk以外の作像のときには、5×5ブロックのOR処理をして、その後は1×1ブロックのAND処理をする。なお、1×1のAND処理とは、その結果が処理前と同一になるので、何の処理もしないことと同義である。膨張処理の結果は、文字エッジ信号としてデコード部454に出力する。 By the way, since a color copying machine scans four times to make one copy, the character determination result slightly differs for each scan. In particular, if non-black character determination is performed at the time of black image formation and black character determination is performed at a time other than black image formation, this black character area becomes thin. Thereafter, AND processing of 3 × 3 blocks is performed, and when image formation other than Bk is performed, OR processing of 5 × 5 blocks is performed, and thereafter, AND processing of 1 × 1 block is performed. Note that 1 × 1 AND processing is synonymous with no processing since the result is the same as before processing. The result of the expansion process is output to the decoding unit 454 as a character edge signal.
このように膨張処理をすることにより、分離結果が異なって文字の領域が薄くなることがなくなる。この膨張処理によって、文字の中部分が濃くなることがあるが、文字のエッジに対して文字のなかが薄いと濃度は飽和しているので、違和感はない。 By performing the expansion process in this way, the separation result is different and the character area is not thinned. This expansion process may darken the middle part of the character, but if the character is light relative to the edge of the character, the density is saturated, so there is no sense of incongruity.
図20に、カラー複写によるカラー色剤の重なりを模式的に拡大して示す。図20の(d)が、4色とも黒文字処理した理想の場合を示す。図20の(e)が、4色とも黒文字処理して、Bkのみ補正がかからず、Bk以外で補正がかかって薄くなった場合を示す。図20の(f)が、本実施例によってBkのみ黒文字処理した、好適な場合を示し、図20の(g)が、本実施例によってBkのみ黒文字処理して、Bkのみ補正がかからず、Bk以外で補正がかかった好適な場合を示す。 FIG. 20 schematically shows an enlargement of the overlapping of color colorants by color copying. FIG. 20D shows an ideal case where black characters are processed for all four colors. (E) of FIG. 20 shows a case where black characters are processed for all four colors, and only Bk is not corrected, and correction is applied to other than Bk and lightens. FIG. 20 (f) shows a preferable case in which only Bk is processed with black characters according to this embodiment, and FIG. 20 (g) shows that only Bk is processed with black characters according to this embodiment, and only Bk is not corrected. , Bk shows a suitable case where correction is applied.
図20の(a)が、膨張量は同一で黒文字処理した理想の場合を示す。図20の(b)は、膨張量は同一で黒文字処理して印字位置がずれた場合(白く抜ける)を示す。図20の(c)が、Bkの膨張量が大きい場合で、本実施例によって黒文字処理して印字位置がずれた場合を示す。 FIG. 20A shows an ideal case where the expansion amount is the same and black characters are processed. FIG. 20B shows the case where the expansion amount is the same and the print position is shifted after black character processing (out of white). (C) of FIG. 20 shows a case where the printing position is shifted by black character processing according to the present embodiment when the expansion amount of Bk is large.
デコード部454は、C/P信号を出力する。C/P信号は、下記のようになる。 The decoding unit 454 outputs a C / P signal. The C / P signal is as follows.
実施例2で使用する色判定部を図28に示す。図4における実施例1の色判定部41がc、m、y、wに対応する4つのメモリ(5×5)を有するのに対し、実施例2の色判定部41がBk、Col、Whに対応する3つのメモリ(5×5)601乃至603を有する点で相違する。実施例1の色相分割部411へRGB信号が入力され、CMYWの4つの信号が出力されているのに対し、実施例2の色相分割部411からはBk、Col、Whの3つの信号が出力されるからである。ここで、Bkは黒画素、Whは白画素を示し、また、Colは、実施例1の色相分割部411において白画素でも黒画素でもないもの(R、G、B、C、M、Y画素)とされた画素を示す。これにより、R、G、B、C、M、Y画素をColとして1ビットにまとめることが可能となる。 FIG. 28 shows a color determination unit used in the second embodiment. 4 has four memories (5 × 5) corresponding to c, m, y, and w, whereas the color determination unit 41 of Example 2 has Bk, Col, and Wh. It is different in that it has three memories (5 × 5) 601 to 603 corresponding to. While the RGB signal is input to the hue division unit 411 of the first embodiment and four signals of CMYW are output, the hue division unit 411 of the second embodiment outputs three signals of Bk, Col, and Wh. Because it is done. Here, Bk represents a black pixel, Wh represents a white pixel, and Col represents a pixel that is neither a white pixel nor a black pixel (R, G, B, C, M, Y pixel) in the hue dividing unit 411 of the first embodiment. ). As a result, R, G, B, C, M, and Y pixels can be combined into 1 bit as Col.
図29は、実施例2で使用する色画素判定部416の構成例を示す図である。実施例1における入力c、m、y、wが、Bk、Col、Whになっていることを除き、図6に示す図と同じである。 FIG. 29 is a diagram illustrating a configuration example of the color pixel determination unit 416 used in the second embodiment. Except that the inputs c, m, y, and w in the first embodiment are Bk, Col, and Wh, they are the same as those shown in FIG.
実施例2において、第1計数手段の例である第1乃至第4カウント部は、5×5の画素マトリクス内の各画素のBk、Colの「1」の数をカウントする。そして、各カウント部は、Bkについてのカウント数がthbk以上で、かつ、Colについてのカウント数がthcol以下の場合に、無彩画素領域であると判定する。thbk、thcolは、複写(処理)前に設定する閾値である。 In the second embodiment, the first to fourth counting units, which are examples of the first counting unit, count the number of “1” of Bk and Col of each pixel in the 5 × 5 pixel matrix. Each count unit determines that the pixel region is an achromatic pixel region when the count number for Bk is equal to or greater than thbk and the count number for Col is equal to or less than thcol. thbk and thcol are threshold values set before copying (processing).
これにより、実施例2では、実施例1のように3ビットプレーンにc、m、yを割り当てないので、メモリを節約することが可能となる。また、読み取り位置ずれを原因とする黒文字部周辺の色ずれがある程度多い場合であっても、黒文字部が色画素であると判定されることを防止する効果は実施例1と同様である。さらに、原稿11の有彩判定において、黒文字部周辺の色ずれによる誤判定(有彩であるとの判定)の確率を増加させることなく、パターンマッチングにより1ライン色細線を有彩判定することが可能である点も実施例1と同様である。即ち、実施例1と比較して使用するメモリを節約しながらも、無彩原稿を有彩であると誤判定する確率を増加させることなく、1ライン色細線のある原稿を有彩原稿であると判定することができる。従って、本実施例は、1ライン色細線を有彩判定し、かつ、黒文字部を精度よく無彩判定することができる。これにより、1ライン色細線をK版単色で転写紙に出力することなく、かつ、高品位な黒文字を出力するフルカラーデジタル複写機を提供することが可能となる。 Thereby, in the second embodiment, since c, m, and y are not assigned to the 3-bit plane as in the first embodiment, it is possible to save the memory. The effect of preventing the black character portion from being determined as a color pixel is the same as that of the first embodiment even when there is a certain amount of color misalignment around the black character portion due to a reading position shift. Further, in the chromatic determination of the document 11, it is possible to determine the chromaticity of one line color thin line by pattern matching without increasing the probability of erroneous determination (determination that it is chromatic) due to color misalignment around the black character portion. This is possible as in the first embodiment. That is, while saving the memory used in comparison with the first embodiment, an original with one line color thin line is a chromatic original without increasing the probability of erroneously determining an achromatic original as chromatic. Can be determined. Therefore, in this embodiment, it is possible to determine the chromaticity of one line color thin line and to accurately determine the black character portion as achromatic. As a result, it is possible to provide a full-color digital copying machine that outputs high-quality black characters without outputting one-line fine line to the transfer paper in the K plate single color.
以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。 The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.
例えば、前述した実施例に係る画像処理装置の機能は、コンピュータにプログラムを実行させることで実現されてもよい。また、当該プログラムはコンピュータ読取可能な記憶媒体に記憶されていてもよい。当該機能を実行しようとする画像処理装置等のコンピュータは、当該プログラムを記憶媒体から読み出して画像形成装置等が有する記憶媒体に当該プログラムを格納し、格納されたプログラムを読み出して当該機能を実行する。また、当該コンピュータが、読み出したプログラムを実行することにより前述した実施例の機能を実現するだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼動しているオペレーティングシステム等が当該機能を実現する処理の全部又は一部を実行してもよい。さらに、記憶媒体から読み出されたプログラムが、コンピュータに実装される機能拡張カードや機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPU等が、当該機能を実現する処理の全部又は一部を実行してもよい。 For example, the functions of the image processing apparatus according to the above-described embodiments may be realized by causing a computer to execute a program. The program may be stored in a computer-readable storage medium. A computer such as an image processing apparatus that intends to execute the function reads the program from a storage medium, stores the program in a storage medium included in the image forming apparatus or the like, reads the stored program, and executes the function . The computer not only realizes the functions of the above-described embodiments by executing the read program, but an operating system or the like running on the computer realizes the functions based on instructions of the program. You may perform all or one part of a process. Further, after the program read from the storage medium is written to the memory provided in the function expansion card or function expansion unit mounted on the computer, the program is read into the function expansion card or function expansion unit based on the instruction of the program code. The provided CPU or the like may execute all or part of the processing for realizing the function.
1 スキャナ部
2 スキャナ補正部
3 圧縮処理部
4 コントローラ
5 HDD
6 NIC
7 伸張処理部
8 プリンタ補正部
9 プロッタ
10 汎用バス
11 原稿
12 外部PC端末
13 コピー画像
20 スキャナγ補正部
21 像域分離部
22 フィルタ処理部
23 色補正部
24 変倍処理部
30 プリンタγ補正部
31 階調処理部
40 フィルタ部
41 色判定部
42 白領域抽出部
43 エッジ抽出部
44 網点分離部
45 総合判定部
411 色相分離部
412、413、414、415 メモリ
416 色画素判定部
431 3値化部
432 黒画素連続検出部
433 白画素連続検出部
434 近傍画素検出部
435 孤立点除去部
451 文字判定部
452 膨張処理部
453 文字なか判定部
454 デコード部
501、502、503、504 カウント部
505、506、507、508 パターンマッチング部
509、510、511 色画素判定部
512 無彩判定部
513、514、515、516 ブロック化部
517 孤立点除去部
518、519 密度部
520、521、523 膨張部
522 総合色画素判定部
524 連続カウント部
601、602、603 メモリ
4201 2値化部
4202 RGB白抽出部
4203 白判定部
4204 白パターンマッチング部
4205 白パターン補正部
4206 白膨張部
4207 白収縮部
4208 白補正部
4209 グレーパターンマッチング部
4210 グレー膨張部
4211 判定部
4212 グレー画素検出部
4213 色画素検出部
4214 RGB白検出部
4401、4402、4403 網点ピーク検出部
4404、4405 網点領域検出部
4406 一時記憶手段
DESCRIPTION OF SYMBOLS 1 Scanner part 2 Scanner correction | amendment part 3 Compression processing part 4 Controller 5 HDD
6 NIC
7 Decompression processing unit 8 Printer correction unit 9 Plotter 10 General-purpose bus 11 Document 12 External PC terminal 13 Copy image 20 Scanner γ correction unit 21 Image area separation unit 22 Filter processing unit 23 Color correction unit 24 Scaling processing unit 30 Printer γ correction unit 31 gradation processing unit 40 filter unit 41 color determination unit 42 white area extraction unit 43 edge extraction unit 44 halftone dot separation unit 45 total determination unit 411 hue separation unit 412 413 414 415 memory 416 color pixel determination unit 431 three values Conversion unit 432 Black pixel continuous detection unit 433 White pixel continuous detection unit 434 Neighboring pixel detection unit 435 Isolated point removal unit 451 Character determination unit 452 Expansion processing unit 453 Character middle determination unit 454 Decoding unit 501, 502, 503, 504 Count unit 505 , 506, 507, 508 Pattern matching unit 509, 51 511 Color pixel determination unit 512 Achromatic determination unit 513, 514, 515, 516 Blocking unit 517 Isolated point removal unit 518, 519 Density unit 520, 521, 523 Expansion unit 522 Total color pixel determination unit 524 Continuous count unit 601, 602, 603 Memory 4201 Binary unit 4202 RGB white extraction unit 4203 White determination unit 4204 White pattern matching unit 4205 White pattern correction unit 4206 White expansion unit 4207 White contraction unit 4208 White correction unit 4209 Gray pattern matching unit 4210 Gray expansion unit 4211 Determination unit 4212 Gray pixel detection unit 4213 Color pixel detection unit 4214 RGB white detection unit 4401, 4402, 4403 Halftone peak detection unit 4404, 4405 Halftone region detection unit 4406 Temporary storage means
Claims (8)
縦横の画素数が所定数である複数の識別パターン群であり、縦、横、又は斜めに該所定数にわたって連続する一画素幅の非白黒画素群と該非白黒画素群の両脇に配置される白画素群とを含む、白地上の1ライン色細線を検出するための複数の識別パターン群と、
前記読取画像における注目画素を含み縦横の画素数が前記所定数以上である局所領域を前記読取画像から抽出する領域抽出手段と、
前記識別パターン群の1つと、前記領域抽出手段が抽出した前記局所領域における前記白画素及び前記非白黒画素の配置とが一致するか否かを照合するパターン照合手段と、
前記パターン照合手段の照合結果に基づいて前記注目画素が有彩画素であるか否かを判定する有彩画素判定手段と、
を有することを特徴とする画像処理装置。 Pixel classification means for classifying pixels of a read image read from a document into white pixels, black pixels, and non-monochrome pixels;
Number of vertical and horizontal pixels are a plurality of identification pattern group is a predetermined number, vertical, horizontal, or are arranged on both sides of the non-white pixel group and the non-white pixel group of one pixel width continuously over the predetermined number of diagonally A plurality of identification pattern groups for detecting one line color fine line on the white ground, including a white pixel group ;
A region extracting means for extracting a local region including the target pixel in the read image and having a number of vertical and horizontal pixels equal to or larger than the predetermined number from the read image;
Pattern matching means for checking whether one of the identification pattern groups matches the arrangement of the white pixels and the non-monochrome pixels in the local area extracted by the area extraction means;
Chromatic pixel determining means for determining whether or not the target pixel is a chromatic pixel based on a matching result of the pattern matching means;
An image processing apparatus comprising:
前記有彩画素判定手段は、前記第1計数手段の計数結果と、前記パターン照合手段の照合結果とに基づいて前記注目画素が有彩画素であるか否かを判定する、
ことを特徴とする請求項1に記載の画像処理装置。 First counting means for counting the number of the black pixels and the non-monochrome pixels in the local area,
The chromatic pixel determining means determines whether or not the pixel of interest is a chromatic pixel based on a counting result of the first counting means and a matching result of the pattern matching means;
The image processing apparatus according to claim 1.
前記局所領域の各画素に対応する、それぞれ「0」又は「1」の値を有する、前記3つのビットプレーンから、「1」の値を有するビットプレーンの数を、前記局所領域全体に亘って、ビットプレーン毎に計数する第2計数手段と、を有し、
前記有彩画素判定手段は、前記第2計数手段の計数結果と、前記パターン照合手段の照合結果とに基づいて前記注目画素が有彩画素であるか否かを判定する、
ことを特徴とする請求項1に記載の画像処理装置。 A 3-bit signal representing C (cyan), M (magenta), Y (yellow), R (red), G (green), Bk (black), and W (white) is output from each pixel of the read image read from the document. Bit plane forming means for generating and further forming three bit planes from these three bit signals;
From the three bit planes having a value of “0” or “1” corresponding to each pixel of the local area , the number of bit planes having a value of “1” is distributed over the entire local area. Second counting means for counting for each bit plane ,
The chromatic pixel determining means determines whether or not the pixel of interest is a chromatic pixel based on a counting result of the second counting means and a matching result of the pattern matching means.
The image processing apparatus according to claim 1.
原稿を読み取る原稿読取ステップと、
前記原稿読取ステップにおいて取得した読取画像の画素を白画素、黒画素及び非白黒画素に分類する画素分類ステップと、
前記読取画像における注目画素を含み縦横の画素数が前記所定数以上である局所領域を前記読取画像から抽出する領域抽出ステップと、
前記識別パターン群の1つと、前記領域抽出手段が抽出した前記局所領域における前記白画素及び前記非白黒画素の配置とが一致するか否かを照合するパターン照合ステップと、
前記パターン照合ステップにおける照合結果に基づいて前記注目画素が有彩画素であるか否かを判定する有彩画素判定ステップと、
を有することを特徴とする画像処理方法。 Number of vertical and horizontal pixels are a plurality of identification pattern group is a predetermined number, vertical, horizontal, or are arranged on both sides of the non-white pixel group and the non-white pixel group of one pixel width continuously over the predetermined number of diagonally An image processing method having a plurality of identification pattern groups for detecting one line color fine line on the white ground including a white pixel group ,
An original reading step for reading an original;
A pixel classification step of classifying pixels of the read image acquired in the document reading step into white pixels, black pixels, and non-monochrome pixels;
A region extracting step of extracting a local region including the target pixel in the read image and having a number of vertical and horizontal pixels equal to or larger than the predetermined number from the read image;
A pattern matching step for collating whether one of the identification pattern groups matches the arrangement of the white pixels and the non-monochrome pixels in the local region extracted by the region extraction unit;
A chromatic pixel determination step for determining whether or not the target pixel is a chromatic pixel based on a matching result in the pattern matching step;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005271110A JP4695472B2 (en) | 2005-09-16 | 2005-09-16 | Image processing apparatus, image forming apparatus, image processing method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005271110A JP4695472B2 (en) | 2005-09-16 | 2005-09-16 | Image processing apparatus, image forming apparatus, image processing method, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007082164A JP2007082164A (en) | 2007-03-29 |
JP4695472B2 true JP4695472B2 (en) | 2011-06-08 |
Family
ID=37941926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005271110A Expired - Fee Related JP4695472B2 (en) | 2005-09-16 | 2005-09-16 | Image processing apparatus, image forming apparatus, image processing method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4695472B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009111645A (en) * | 2007-10-29 | 2009-05-21 | Ricoh Co Ltd | Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program |
JP5666852B2 (en) * | 2009-09-02 | 2015-02-12 | Necプラットフォームズ株式会社 | Color determination apparatus, image processing apparatus, color determination method, and color determination program |
CN117935296B (en) * | 2024-02-06 | 2024-06-04 | 广东度才子集团有限公司 | Employment quality report generation system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000125139A (en) * | 1998-10-20 | 2000-04-28 | Ricoh Co Ltd | Image processor |
JP2002010075A (en) * | 2000-06-26 | 2002-01-11 | Ricoh Co Ltd | Image processor, image reader, imaging apparatus and color copy machine |
JP2002271646A (en) * | 2001-03-13 | 2002-09-20 | Ricoh Co Ltd | Thin-line pixel chromatic/achromatic decision method and recording medium |
JP2004153563A (en) * | 2002-10-30 | 2004-05-27 | Ricoh Co Ltd | Image processing device, image readout device, image forming device and color copying device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3224172B2 (en) * | 1993-12-24 | 2001-10-29 | 株式会社リコー | Color image processing equipment |
-
2005
- 2005-09-16 JP JP2005271110A patent/JP4695472B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000125139A (en) * | 1998-10-20 | 2000-04-28 | Ricoh Co Ltd | Image processor |
JP2002010075A (en) * | 2000-06-26 | 2002-01-11 | Ricoh Co Ltd | Image processor, image reader, imaging apparatus and color copy machine |
JP2002271646A (en) * | 2001-03-13 | 2002-09-20 | Ricoh Co Ltd | Thin-line pixel chromatic/achromatic decision method and recording medium |
JP2004153563A (en) * | 2002-10-30 | 2004-05-27 | Ricoh Co Ltd | Image processing device, image readout device, image forming device and color copying device |
Also Published As
Publication number | Publication date |
---|---|
JP2007082164A (en) | 2007-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3983101B2 (en) | Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus | |
JP4137890B2 (en) | Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium | |
JP2002354242A (en) | Image processor, image reader, image forming device, and color copying machine | |
US7880927B2 (en) | Image forming apparatus, image forming method, program, and recording medium | |
US7995243B2 (en) | Image processing apparatus and control method thereof | |
US20060164691A1 (en) | Image processing apparatus, image forming apparatus, image reading process apparatus, image processing method, image processing program, and computer-readable storage medium | |
JP4695472B2 (en) | Image processing apparatus, image forming apparatus, image processing method, program, and storage medium | |
JP4320309B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium recording the program | |
JP4260774B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium | |
JP4063480B2 (en) | Image processing device | |
JP4963559B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and program for causing computer to execute the method | |
JP2004153563A (en) | Image processing device, image readout device, image forming device and color copying device | |
JP2004104625A (en) | Image processing, reading and forming device and color copying machine | |
JP4833893B2 (en) | Image processing apparatus, image processing method, image reading apparatus, image forming apparatus, copying apparatus, program, and computer-readable recording medium | |
JP3989636B2 (en) | Image processing device | |
JP2005051353A (en) | Image processor, image reader, image forming apparatus, computer program, and recording medium | |
JP7413751B2 (en) | Image processing systems and programs | |
JP2007006526A (en) | Image processor, low-linear-density dot region detecting unit, image scanner, image forming apparatus and color copier | |
JP2006014094A (en) | Image processor, image reader, image forming device, color copier, image processing program, and recording medium | |
JP2003259115A (en) | Image processor, image reader, image forming device, and color copying machine | |
JP2006005680A (en) | Image processor, image scanner, image forming apparatus, and color copying machine | |
JP2006203939A (en) | Image processing apparatus | |
JP3999420B2 (en) | Image processing apparatus and image processing method | |
JP4059600B2 (en) | Image processing apparatus and image processing method | |
JP2009111645A (en) | Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080818 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100402 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100716 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110225 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140304 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4695472 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |